FR3131029A1 - Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé - Google Patents

Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé Download PDF

Info

Publication number
FR3131029A1
FR3131029A1 FR2113853A FR2113853A FR3131029A1 FR 3131029 A1 FR3131029 A1 FR 3131029A1 FR 2113853 A FR2113853 A FR 2113853A FR 2113853 A FR2113853 A FR 2113853A FR 3131029 A1 FR3131029 A1 FR 3131029A1
Authority
FR
France
Prior art keywords
pilot
interaction
head
display screen
interaction device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2113853A
Other languages
English (en)
Inventor
Florent Mennechet
Jean-Samuel DE VISME
Yannick Le Roux
Yvan DENAIS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR2113853A priority Critical patent/FR3131029A1/fr
Publication of FR3131029A1 publication Critical patent/FR3131029A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft

Abstract

Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef , programme d’ordinateur et système d’affichage associé Ce procédé de commande d’un ensemble d’affichage (18) dans un aéronef (14), comportant un écran d’affichage tête portée (30) partiellement transparent, équipant un casque (32) d’un pilote (16) et disposé partiellement dans son champ de vue (29), est mis en œuvre par un dispositif de commande (20) connecté à l’ensemble d’affichage (18) et à un dispositif d’interaction (22) manipulable par le pilote ; et comprend les étapes suivantes : - acquisition d’une manipulation du dispositif d’interaction (22) ; - détermination, en fonction de ladite manipulation, d’au moins une position d’interaction dans un premier référentiel (60) associé au dispositif d’interaction (22) ; - conversion de chaque position d’interaction en une position convertie dans un deuxième référentiel (70) associé à l’écran d’affichage tête portée (30) ; et - génération d’au moins un symbole (72) représentatif de ladite manipulation, chacun étant affiché en une position dépendant de la position convertie. Figure pour l'abrégé : Figure 1

Description

Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé
La présente invention concerne un procédé de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par au moins un pilote. L’ensemble d’affichage comprend un écran d’affichage, dit écran d’affichage tête portée, l’écran étant au moins partiellement transparent, destiné à équiper un casque pour la tête d’un pilote respectif et à être disposé au moins partiellement dans un champ de vue du pilote. Le procédé est mis en œuvre par un dispositif électronique de commande apte à être connecté à l’ensemble d’affichage et à un dispositif d’interaction, le dispositif d’interaction étant manipulable par le pilote.
L’invention concerne aussi un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé de commande.
L’invention concerne également un dispositif électronique de commande d’un tel ensemble d’affichage ; et un système électronique d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par au moins un pilote, le système d’affichage comprenant un tel ensemble d’affichage et un tel dispositif de commande.
L’invention concerne plus particulièrement un avion, tout en étant applicable à tout type d’aéronef, tel qu’un hélicoptère ou un drone.
L’invention concerne en particulier le domaine de l’affichage de symboles, tels que des indicateurs, des compteurs, des cibles, des alertes, etc. sur un ensemble d’affichage comprenant au moins un écran d’affichage tête portée qui permet ainsi de projeter les symboles devant le pilote de l’aéronef.
Il est connu d’afficher ces symboles dans un même plan de visualisation, projeté par exemple à l’infini. Les yeux du pilote accommodent alors afin de focaliser la vision du pilote à l’infini et voir ainsi les symboles de façon nette. L’affichage des symboles peut être en vue conforme et/ou non-conforme. On entend par vue conforme une vue, telle qu’une représentation cartographique ou a minima une ligne d’horizon, qui se superpose parfaitement au terrain effectivement vu par le pilote. Ce type de vue est particulièrement utilisé en aéronautique de façon à faciliter le pilotage par mauvaise visibilité ou de nuit.
On connait un système électronique d’affichage permettant d’afficher des informations à la fois sur un écran d’affichage disposé dans le poste de pilotage, également appelé écran d’affichage tête basse, et en réalité augmentée sur le viseur du casque du pilote, également appelé écran d’affichage tête portée.
Dans le poste de pilotage, différents dispositifs d’interaction, tels que manette, boule de commande (de l’anglaistrackball) sur un manche, permettent alors de déplacer un pointeur sur l’écran d’affichage tête basse et/ou d’interagir avec les symboles affichés ledit écran tête basse.
Toutefois, un tel système électronique d’affichage n’est pas optimal, et ne permet pas au pilote d’interagir au mieux avec les informations affichées sur les différents écrans.
Le but de l’invention est alors de proposer un procédé, et un dispositif électronique associé, de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef qui permettent au pilote de mieux interagir avec les informations affichées.
A cet effet, l’invention a pour objet un procédé de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par au moins un pilote, l’ensemble d’affichage comprenant un écran d’affichage au moins partiellement transparent, destiné à équiper un casque pour la tête du pilote et à être disposé au moins partiellement dans un champ de vue du pilote, dit écran d’affichage tête portée,
le procédé étant mis en œuvre par un dispositif électronique de commande apte à être connecté à l’ensemble d’affichage et à un dispositif d’interaction, le dispositif d’interaction étant manipulable par le pilote, le procédé comprenant les étapes suivantes :
- acquisition d’une manipulation du dispositif d’interaction par le pilote ;
- détermination, en fonction de ladite manipulation, d’au moins une position d’interaction dans un premier référentiel associé au dispositif d’interaction ;
- conversion de chaque position d’interaction en une position convertie dans un deuxième référentiel associé à l’écran d’affichage tête portée ; et
- génération d’au moins un symbole représentatif de ladite manipulation, chaque symbole étant destiné à être affiché sur l’ensemble d’affichage en une position dépendant de la position convertie.
Avec le procédé de commande selon l’invention, le pilote peut alors déplacer un pointeur sur l’écran d’affichage tête portée et/ou interagir avec un ou plusieurs symboles affichés ledit écran tête portée.
Le procédé de commande selon l’invention permet en outre une fusion de modalité avec un cumul d’un mouvement de la manipulation du dispositif d’interaction, tel qu’un mouvement d’un doigt du pilote contre un pavé tactile (de l’anglaistrackpad), et d’un mouvement de la tête du pilote. En effet, de par la conversion de chaque position d’interaction en une position convertie respective dans le deuxième référentiel associé à l’écran d’affichage tête portée, le symbole représentatif de la manipulation, tel qu’un pointeur, est lié à la position du champ de vue du pilote, également noté FOV (de l’anglaisField Of View) et donc de la tête du pilote.
Le pilote peut alors déplacer ce symbole en bougeant sa tête et alors le champ de vue, typiquement matérialisé par un cadre de référence ; en manipulant le dispositif d’interaction, par exemple en bougeant son doigt sur le pavé tactile ; ou encore en effectuant les deux opérations précitées en même temps pour plus d’efficacité.
Suivant d’autres aspects avantageux de l’invention, le procédé de commande comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le procédé comprend en outre, entre l’étape de conversion et l’étape de génération, une étape de calcul d’un vecteur entre un point de référence et un point de l’écran d’affichage tête portée correspondant à la position convertie, le point de référence étant associé au visage du pilote ;
le point de référence étant de préférence un point œil correspondant à la position d’un œil respectif du pilote ou un point médian entre les yeux du pilote ;
- si le vecteur est sécant avec un objet prédéfini du poste de pilotage, alors une représentation dudit objet est générée en outre lors de l’étape de génération, la représentation étant destinée à être affichée sur l’écran d’affichage tête portée, l’objet prédéfini et sa représentation étant contenus dans une base prédéfinie de données ;
la représentation étant de préférence sélectionnable par le pilote via le dispositif d’interaction ;
- l’ensemble d’affichage comprend en outre au moins un écran complémentaire d’affichage, chaque écran complémentaire étant distinct de l’écran d’affichage tête portée, et si le vecteur est sécant avec un écran complémentaire respectif, alors le symbole respectif représentatif de ladite manipulation est destiné à être affiché sur l’écran complémentaire d’affichage respectif en une position correspondant à l’intersection du vecteur avec ledit écran complémentaire ;
- les premier et deuxième référentiels sont des référentiels en deux dimensions, et lors de l’étape de conversion, une abscisse de la position convertie est obtenue via une multiplication d’une abscisse de la position d’interaction par un ratio horizontal, et une ordonnée de la position convertie est obtenue via une multiplication d’une ordonnée de la position d’interaction par un ratio vertical, le ratio horizontal étant égal à une dimension horizontale de l’écran d’affichage tête portée divisée par une dimension horizontale associée au dispositif d’interaction, et le ratio vertical étant égal à une dimension verticale de l’écran d’affichage tête portée divisée par une dimension verticale associée au dispositif d’interaction ;
- le dispositif d’interaction est choisi parmi le groupe consistant en : un pavé tactile, une boule de commande, une molette, une manette, et une souris ;
lorsque le dispositif d’interaction est un pavé tactile, la manipulation étant de préférence un toucher ou un glisser contre une surface tactile du pavé tactile, et l’au moins une position d’interaction étant de préférence encore une position du toucher ou des positions initiale et finale du glisser ; et
- le dispositif d’interaction est un pavé tactile comportant une surface tactile et un capteur disposé en périphérie de la surface tactile, le capteur étant configuré pour détecter un doigt du pilote avant qu’il soit au contact de la surface tactile ; et un signal indicatif de la présence du doigt est acquis de la part du capteur lors de l’étape d’acquisition ; une position de pré-détection est déterminée dans le premier référentiel et en fonction dudit signal lors de l’étape de détermination ; la position de pré-détection est convertie en une position convertie de pré-détection dans le deuxième référentiel lors de l’étape de conversion ; et un symbole représentatif de ladite pré-détection est généré lors de l’étape de génération, ledit symbole étant destiné à être affiché sur l’ensemble d’affichage en une position dépendant de la position convertie de pré-détection ;
le capteur comportant de préférence plusieurs couches de détection et étant configuré pour déterminer en outre une direction de déplacement du doigt du pilote, et la position de pré-détection étant alors déterminée en fonction en outre de ladite direction de déplacement.
L’invention a aussi pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé de commande, tel que défini ci-dessus.
L’invention a également pour objet un dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par un pilote, l’ensemble d’affichage comprenant un écran d’affichage au moins partiellement transparent, destiné à équiper un casque pour la tête du pilote et à être disposé au moins partiellement dans un champ de vue du pilote, dit écran d’affichage tête portée,
le dispositif électronique de commande étant apte à être connecté à l’ensemble d’affichage et à un dispositif d’interaction, le dispositif d’interaction étant manipulable par le pilote, le dispositif électronique de commande comprenant :
- un module d’acquisition configuré pour acquérir une manipulation du dispositif d’interaction par le pilote ;
- un module de détermination configuré pour déterminer, en fonction de ladite manipulation, au moins une position d’interaction dans un premier référentiel associé au dispositif d’interaction ;
- un module de conversion configuré pour convertir chaque position d’interaction en une position convertie dans un deuxième référentiel associé à l’écran d’affichage tête portée ; et
- un module de génération configuré pour générer au moins un symbole représentatif de ladite manipulation, chaque symbole étant destiné à être affiché sur l’ensemble d’affichage en une position dépendant de la position convertie.
L’invention a aussi pour objet un système électronique d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par un pilote, le système comprenant :
- un ensemble d’affichage comportant un écran d’affichage au moins partiellement transparent, destiné à équiper un casque pour la tête du pilote et à être disposé au moins partiellement dans un champ de vue du pilote, dit écran d’affichage tête portée ; et
- un dispositif électronique de commande de l’ensemble d’affichage, le dispositif de commande étant tel que défini ci-dessus.
Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
la est une représentation schématique d’un système électronique d’affichage selon l’invention, propre à être embarqué dans un poste de pilotage d’un aéronef pilotable par un pilote, le système comprenant un ensemble d’affichage, un dispositif électronique d’interaction manipulable par le pilote et un dispositif électronique de commande de l’ensemble d’affichage, le dispositif de commande étant connecté à l’ensemble d’affichage et au dispositif d’interaction, l’ensemble d’affichage comportant un écran d’affichage tête portée et un écran complémentaire d’affichage, distinct de l’écran d’affichage tête portée ;
la est une représentation schématique du poste de pilotage illustrant l’acquisition d’une manipulation du dispositif d’interaction, la détermination de deux positions d’interaction associées à cette manipulation dans un premier référentiel lié au dispositif d’interaction, la conversion de chaque position d’interaction en une position convertie dans un deuxième référentiel lié à l’écran d’affichage tête portée, et l’affichage de symboles représentatifs de cette manipulation sur l’écran d’affichage tête portée et en lesdites positions converties ;
la est une vue similaire à celle de la , avec en outre un mouvement de la tête du pilote lors de la manipulation du dispositif d’interaction, la conversion de chaque position d’interaction dépendant alors de ce mouvement de la tête, le deuxième référentiel étant lié à l’écran d’affichage tête portée, dont la position et l’orientation dépendent elles-mêmes de celles de la tête du pilote ;
la est une vue analogue à celles des figures 2 et 3, illustrant en outre le calcul d’un vecteur entre un point de référence et un point de l’écran d’affichage tête portée, puis l’affichage du symbole représentatif de la manipulation sur l’écran complémentaire d’affichage lorsque ledit vecteur intersecte l’écran complémentaire d’affichage ;
la est une vue schématique illustrant la détermination de positions d’interaction dans le premier référentiel lié au dispositif d’interaction, selon que ladite détermination est effectuée de manière relative, comme illustré sur la gauche de la figure, ou bien de manière absolue comme illustré sur la droite de la figure ;
la est une vue schématique illustrant une pré-détection d’une interaction entre un doigt du pilote et le dispositif d’interaction en forme d’un pavé tactile comportant une surface tactile, la pré-détection étant effectuée via une couche de détection disposée au-dessus de la surface tactile, comme illustré en partie supérieure de la figure ; ou bien via deux couches de détection disposées l’une au-dessus de l’autre, au-dessus de la surface tactile, comme illustré en partie inférieure de la figure ;
la est une vue illustrant la détermination de la position d’interaction, puis l’affichage de celle-ci sur l’écran correspondant, selon que la pré-détection de la est effectuée via une ou bien deux couches de détection ;
la est une vue illustrant, en partie gauche, la sélection d’un objet affiché sur l’écran d’affichage complémentaire, puis le déplacement de celui-ci au sein dudit écran d’affichage complémentaire via une manipulation correspondante du dispositif d’interaction par le pilote ; en partie droite, la sélection d’un objet affiché sur l’écran d’affichage complémentaire, puis le déplacement de celui-ci vers l’écran d’affichage tête portée via une autre manipulation du dispositif d’interaction par le pilote ;
la est une vue illustrant le dessin, par le pilote, d’une portion de trajectoire sur le dispositif d’interaction, puis l’affichage de ladite portion - après détermination des positions d’interaction et conversion de celles-ci - sur l’écran d’affichage tête portée, la portion de trajectoire affichée sur l’écran d’affichage tête portée se retrouvant alors projetée sur le terrain affiché en arrière-plan ;
la est un organigramme d’un procédé de commande de l’ensemble d’affichage, le procédé étant mis en œuvre par le dispositif de commande de la ; et
la est un diagramme de séquence du procédé de commande de la , illustrant les échanges successifs entre le dispositif d’interaction, le dispositif de commande et l’ensemble d’affichage, lors de la mise en œuvre dudit procédé.
Sur la , un système électronique d’affichage 10, propre à être embarqué dans un poste de pilotage 12 d’un aéronef 14 pilotable par au moins un pilote 16, comprend un ensemble d’affichage 18, un dispositif électronique 20 de commande de l’ensemble d’affichage 18 et un dispositif d’interaction 22 manipulable par le ou chaque pilote 16, le dispositif de commande 20 étant connecté à l’ensemble d’affichage 18 et au dispositif d’interaction 22.
Dans l’exemple de la , le poste de pilotage 12 est un cockpit de l’aéronef 14, et comporte un siège 24 pour le ou chaque pilote 16, ainsi qu’un pare-brise 26, visible sur la , au moins partiellement transparent et séparant l’intérieur du cockpit de l’environnement extérieur de l’aéronef 14.
En complément, le poste de pilotage 12 comporte un capteur d’orientation 28 propre à déterminer une direction d’orientation de la tête du pilote 16, et en particulier du regard du pilote 16. Comme visible sur la , la direction d’orientation associée à un angle solide prédéterminé définit un champ de vue 29, également noté FOV (de l’anglaisField Of View).
L’aéronef 14 est par exemple un avion, un hélicoptère, ou encore un drone. Autrement dit, l’aéronef 14 est un engin volant pilotable par le ou chaque pilote 16 via le poste de pilotage 12, le poste de pilotage 12 étant disposé à l’intérieur de l’aéronef 14 ou bien à distance de l’aéronef 14, notamment dans le cas d’un drone.
L’ensemble d’affichage 18 comprend un écran d’affichage 30 au moins partiellement transparent, dit écran d’affichage tête portée 30, destiné à équiper un casque 32 pour la tête d’un pilote 16 respectif et à être disposé au moins partiellement dans le champ de vue 29 dudit pilote 16, comme représenté sur la . Avantageusement, l’écran d’affichage tête portée 30 est une visière 34 intégrée dans le casque 32 propre à être porté par le pilote 16, comme visible sur la . En variante, l’écran d’affichage tête portée 30 est une surface transparente fixée dans le cockpit et placée devant le pilote 16. Avantageusement, l’écran d’affichage tête portée 30 comprend une pluralité de cases, non représentées, disposées sous forme matricielle. Chaque case est par exemple un pixel. L’écran d’affichage tête portée 30 comprend typiquement plusieurs millions de pixels.
En complément facultatif, l’ensemble d’affichage 18 comprend également au moins un écran complémentaire d’affichage 36, visible sur les figures 2 à 4, chaque écran complémentaire 36 étant distinct de l’écran d’affichage tête portée 30. L’écran complémentaire d’affichage 36 est, par exemple, un écran d’affichage tête basse. Chaque écran complémentaire 36 est une surface d’affichage configurée pour afficher au moins une image. Avantageusement, l’écran complémentaire 36 est configuré pour afficher des informations relatives à l’aéronef 14, telles que la vitesse, l’altitude, l’orientation de l’aéronef 14 et/ou des informations relatives à l’environnement extérieur de l’aéronef 14, telles que des informations de trafic aérien et des conditions météorologiques aux environs de l’aéronef 14.
Selon ce complément facultatif, et lorsque l’aéronef 14 est un drone, l’écran complémentaire 36 est par exemple un écran d’affichage d’environnement configuré pour afficher l’environnement extérieur de l’aéronef 14, filmé à partir d’au moins une caméra embarquée sur le drone.
Le dispositif électronique de commande 20 est configuré pour commander l’ensemble d’affichage 18, et comprend un module d’acquisition 40, un module de détermination 42, un module de conversion 44 et un module de génération 46.
En complément facultatif, le dispositif de commande 20 comprend en outre un module de calcul 48 et un module d’affichage 49.
Dans l’exemple de la , le dispositif électronique de commande 20 est embarqué à bord de l’aéronef 14. En complément, le dispositif électronique de commande 20 est intégré avec l’écran d’affichage tête portée 30, dans un appareil tête portée, non représenté, destiné à équiper le casque 32.
En variante non représentée, le dispositif électronique de commande 20 est externe à l’aéronef 14. Selon cette variante, le dispositif électronique de commande 20 est par exemple intégré dans une passerelle de communication (de l’anglaisgateway), disposée au sol, lorsque l’aéronef 14 est un drone.
Dans l’exemple de la , le dispositif électronique de commande 20 comprend une unité de traitement d’informations 50 formée par exemple d’une mémoire 52 et d’un processeur 54 associé à la mémoire 52.
Dans l’exemple de la , le module d’acquisition 40, le module de détermination 42, le module de conversion 44 et le module de génération 46, ainsi qu’en complément facultatif le module de calcul 48 et le module d’affichage 49, sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutable par le processeur 54. La mémoire 52 du dispositif électronique de commande 20 est alors apte à stocker un logiciel d’acquisition, un logiciel de détermination, un logiciel de conversion et un logiciel de génération. En complément facultatif, la mémoire 52 du dispositif électronique de commande 20 est apte à stocker un logiciel de calcul et un logiciel d’affichage. Le processeur 54 est alors apte à exécuter chacun des logiciels parmi le logiciel d’acquisition, le logiciel de détermination, le logiciel de conversion et le logiciel de génération, ainsi qu’en complément facultatif le logiciel de calcul et le logiciel d’affichage.
En variante non représentée, le module d’acquisition 40, le module de détermination 42, le module de conversion 44 et le module de génération 46, ainsi qu’en complément facultatif le module de calcul 48 et le module d’affichage 49, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglaisField Programmable Gate Array), ou encore sous forme d’un circuit intégré, tel qu’un ASIC (de l’anglaisApplication Specific Integrated Circuit).
Lorsque le dispositif électronique de commande 20 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, également appelé produit programme d’ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple un medium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non-volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.
Le dispositif d’interaction 22 est par exemple un pavé tactile 58 (de l’anglaistouchpadoutrackpad), visible dans les exemples des figures 1 à 9, une boule de commande (de l’anglaistrackball), une molette, une manette (de l’anglaisjoystick), ou une souris, non représentés.
Au dispositif d’interaction 22 est de préférence associée une fonction de transfert absolue pour la détermination, en fonction d’une interaction de la part du pilote 16 captée par le dispositif d’interaction 22, d’une position d’interaction dans un premier référentiel 60 lié au dispositif d’interaction 22. Par fonction de transfert absolue, également appelée fonction de transfert en absolu, on entend que la position de l’interaction est déterminée de manière absolue dans le premier référentiel 60, et qu’elle correspond alors également à une position absolue dans un référentiel d’affichage associé à l’écran d’affichage 30, 36.
La fonction de transfert en absolu est illustrée sur la droite de la correspondant au cas référencé ABS, pour lequel la position d’interaction I1 correspond à une première interaction du pilote 16, et la position d’interaction I2 correspond à une deuxième interaction du pilote 16 ou à la fin d’un glisser tactile. Dans ce cas ABS, les positions d’interaction I1 et I2 sont déterminées de manière absolue dans le premier référentiel 60 d’axes (Ox) et (Oy), et les positions d’interaction I1 et I2 correspondent à des positions transposées T1 et T2 dans le référentiel d’affichage d’axes (OX) et (OY), les positions transposées T1 et T2 étant également déterminées de manière absolue dans ce référentiel d’affichage. Les positions transposées T1 et T2 sont typiquement obtenues par transposition des positions d’interaction I1 et I2 depuis le premier référentiel 60 vers le référentiel d’affichage.
En variante, au dispositif d’interaction 22 est associée une fonction de transfert relative pour la détermination, en fonction de la manipulation de la part du pilote 16 captée par le dispositif d’interaction 22, de la position d’interaction dans le premier référentiel 60. Par fonction de transfert relative, également appelée fonction de transfert en relatif, on entend que la position de l’interaction est déterminée de manière relative par rapport à la dernière position captée par le dispositif d’interaction 22.
La fonction de transfert en relatif est illustrée sur la gauche de la correspondant au cas référencé REL, pour lequel la position d’interaction I1 correspond à une première interaction du pilote 16, et la position d’interaction I2 correspond à la fin d’un glisser tactile. Dans ce cas REL, la position d’interaction I2 est déterminée de manière relative par rapport la position d’interaction I1 dans le premier référentiel 60, et c’est autrement dit l’écart de position entre les positions d’interaction I1 et I2 qui est déterminé dans le premier référentiel 60, par exemple sous la forme de la somme d’un écart en abscisse Δx et d’un écart en ordonnée Δy. Dans ce cas REL, les positions d’interaction I1 et I2 correspondent aux positions transposées T1 et T2 dans le référentiel d’affichage, les positions transposées T1 et T2 étant alors déterminées de manière relative dans ce référentiel d’affichage. Plus précisément, la position transposée T1 est considérée égale à la dernière position d’un curseur dans le référentiel d’affichage, cette dernière position du curseur correspondant à celle résultant de la dernière interaction précédant l’interaction courante, et la position transposée T2 est alors déterminée dans le référentiel d’affichage en partant de la position transposée T1 et en fonction de l’écart de position entre les positions d’interaction I1 et I2 déterminé dans le premier référentiel 60, typiquement par transposition de la somme des écarts en abscisse Δx et en ordonnée Δy depuis le premier référentiel 60 vers le référentiel d’affichage.
Lorsque le dispositif d’interaction 22 est en forme de pavé tactile 58, la fonction de transfert associée est de préférence la fonction de transfert en absolu. L’homme du métier observera qu’en variante la fonction de transfert en relatif est également susceptible d’être associée au dispositif d’interaction 22 en forme de pavé tactile 58.
Lorsque le dispositif d’interaction 22 est en forme de molette ou de manette, la fonction de transfert associée est typiquement la fonction de transfert en relatif. L’homme du métier observera néanmoins qu’en variante la fonction de transfert en absolu est également susceptible d’être associée au dispositif d’interaction 22 en forme de molette ou de manette.
Lorsque le dispositif d’interaction 22 est en forme de boule de commande ou de souris, la fonction de transfert associée est la fonction de transfert en relatif.
Lorsque le dispositif d’interaction 22 est en forme de pavé tactile 58, le pavé tactile 58 comporte une surface tactile 62 apte à capter au moins une interaction tactile de la part du pilote 16. La manipulation du pilote 16 est alors typiquement un toucher ou un glisser contre la surface tactile 62, et l’au moins une position d’interaction est de préférence encore une position du toucher ou des positions initiale et finale du glisser.
En complément facultatif, lorsque le dispositif d’interaction 22 est en forme de pavé tactile 58, il comporte en outre un capteur, non représenté, disposé en périphérie de la surface tactile 62, le capteur étant configuré pour détecter un doigt du pilote 16 avant qu’il soit au contact de la surface tactile 62. Le capteur est de préférence un capteur infrarouge.
Selon ce complément facultatif, dans l’exemple de la , le capteur comporte, c’est-à-dire est apte à mettre en œuvre, une seule couche de détection 64 disposée au-dessus de la surface tactile 62, comme représenté en partie supérieure de cette figure ; ou encore deux couches distinctes de détection 64 disposées l’une au-dessus de l’autre, et au-dessus de la surface tactile 62, comme représenté en partie inférieure de cette figure. La ou chaque couche de détection 64 est de préférence une couche de détection infrarouge.
Selon ce complément facultatif, lorsque le capteur est apte à mettre en œuvre plusieurs couches de détection 64, il est configuré pour déterminer en outre une direction 66 de déplacement du doigt du pilote 16, comme représenté sur les figures 6 et 7.
Le capteur d’orientation 28, visible sur la , est par exemple un accéléromètre disposé dans le casque 32 du pilote 16 et propre à déterminer la posture de la tête du pilote 16 à partir des accélérations mesurées du casque 32. Le capteur d’orientation 28 est ainsi propre à déterminer la direction d’orientation à partir de la posture de la tête du pilote 16 et de l’orientation de l’aéronef 14 reçue par au moins capteur, non représenté, embarqué dans l’aéronef 14.
Le module d’acquisition 40 est configuré pour acquérir une manipulation du dispositif d’interaction 22 par le pilote 16. Le module d’acquisition 40 est typiquement configuré pour acquérir, de la part du dispositif d’interaction 22, une position de chaque toucher tactile contre ledit dispositif d’interaction 22, ou encore des positions initiale et finale du glisser tactile contre ledit dispositif d’interaction 22, et en particulier contre la surface tactile 62.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur disposé en périphérie de la surface tactile 62 et apte à mettre en œuvre au moins une couche de détection 64, le module d’acquisition 40 est configuré en outre pour acquérir un signal indicatif de la présence du doigt du pilote 16, de la part du capteur et en cas de franchissement d’une couche de détection 64 respective par ledit doigt.
Le module de détermination 42 est configuré pour déterminer, en fonction de la manipulation acquise par le module d’acquisition 40, au moins une position d’interaction I1, I2 dans le premier référentiel 60 associé au dispositif d’interaction 22.
Le module de détermination 42 est typiquement configuré pour déterminer chaque position d’interaction I1, I2 dans le premier référentiel 60, selon la fonction de transfert associée au dispositif d’interaction 22, et en particulier selon le type en absolu ou en relatif de ladite fonction de transfert.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur disposé en périphérie de la surface tactile 62 et apte à mettre en œuvre au moins une couche de détection 64, le module de détermination 42 est configuré en outre pour déterminer une position de pré-détection IPDdans le premier référentiel 60 et en fonction du signal indicatif de présence acquis par le module d’acquisition 40.
En complément facultatif encore, lorsque le capteur disposé en périphérie de la surface tactile 62 comporte deux couches distinctes de détection 64 et est configuré pour déterminer la direction de déplacement 66, le module de détermination 42 est alors configuré pour déterminer la position de pré-détection IPDen fonction du signal indicatif de présence et de ladite direction de déplacement 66.
Le module de conversion 44 est configuré pour convertir chaque position d’interaction I1, I2 en une position convertie C1, C2 dans un deuxième référentiel 70 associé à l’écran d’affichage tête portée 30.
Lorsque les premier 60 et deuxième 70 référentiels sont des référentiels en deux dimensions, le module de conversion 44 est configuré pour convertir une abscisse de la position d’interaction I1, I2 en une abscisse de la position convertie C1, C2 via une multiplication par un ratio horizontal, et respectivement pour convertir une ordonnée de la position d’interaction I1, I2 en une ordonnée de la position convertie C1, C2 via une multiplication par un ratio vertical. Autrement dit, le module de conversion 44 est configuré pour obtenir l’abscisse de la position convertie C1, C2 en multipliant l’abscisse de la position d’interaction I1, I2 par le ratio horizontal, et respectivement pour obtenir l’ordonnée de la position convertie C1, C2 en multipliant l’ordonnée de la position d’interaction I1, I2 par le ratio vertical.
Le ratio horizontal est égal à une dimension horizontale de l’écran d’affichage tête portée 30 divisée par une dimension horizontale associée au dispositif d’interaction 22, et le ratio vertical est égal à une dimension verticale de l’écran d’affichage tête portée 30 divisée par une dimension verticale associée au dispositif d’interaction 22. Lorsque le dispositif d’interaction 22 est en forme du pavé tactile 58, la dimension horizontale, respectivement verticale, associée au dispositif d’interaction 22 est typiquement la dimension horizontale, respectivement verticale, de la surface tactile 62.
En complément, le positionnement du deuxième référentiel 70 associé à l’écran d’affichage tête portée 30 est mobile suivant un mouvement de la tête du pilote 16, et le module de conversion 44 est alors configuré pour définir le positionnement du deuxième référentiel 70 en fonction de la direction d’orientation fournie par le capteur d’orientation 28.
Selon ce complément, pour chaque position convertie C1, C2, le module de conversion 44 est alors configuré pour définir le positionnement du deuxième référentiel 70 à l’instant temporel correspondant à l’acquisition de la position d’interaction I1, I2 à convertir ; puis pour convertir la position d’interaction I1, I2 en la position convertie C1, C2 dans le deuxième référentiel 70 selon le positionnement préalablement défini ; l’abscisse de la position convertie C1, C2 au sein du deuxième référentiel 70 ainsi positionné étant alors égale au produit de l’abscisse de la position d’interaction I1, I2 avec le ratio horizontal, et l’ordonnée de la position convertie C1, C2 au sein du deuxième référentiel 70 ainsi positionné étant alors égale au produit de l’ordonnée de la position d’interaction I1, I2 avec le ratio vertical.
Selon ce complément, dans l’exemple de la , une première position d’interaction I1 est acquise par le module d’acquisition 40 lorsque la tête du pilote 16 est orientée selon une première orientation A, puis une deuxième position d’interaction I2 est acquise par le module d’acquisition 40 après un mouvement de la tête du pilote 16, symbolisé par la flèche M1, et lorsque la tête du pilote 16 est orientée selon une deuxième orientation B. Dans cet exemple de la , le module de conversion 44 est alors configuré pour définir d’abord le positionnement du deuxième référentiel 70 correspondant à la première orientation A, le deuxième référentiel étant alors noté 70A, et pour convertir la première position d’interaction I1 en la première position convertie C1 dans le deuxième référentiel noté 70A. Le module de conversion 44 est ensuite configuré pour définir le positionnement du deuxième référentiel correspondant à la deuxième orientation B, le deuxième référentiel étant alors noté 70B, et pour convertir la deuxième position d’interaction I2 en la deuxième position convertie C2 dans le deuxième référentiel noté 70B.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur disposé en périphérie de la surface tactile 62 et apte à mettre en œuvre au moins une couche de détection 64, le module de conversion 44 est configuré en outre pour convertir la position de pré-détection IPDdéterminée dans le premier référentiel 60 par le module de détermination 42, en une position convertie de pré-détection CPDdans le deuxième référentiel 70, comme représenté sur la .
Le module de génération 46 est configuré pour générer au moins un symbole 72 représentatif de ladite manipulation, chaque symbole 72 étant destiné à être affiché sur l’ensemble d’affichage 18 en une position dépendant de la position convertie C1, C2.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur disposé en périphérie de la surface tactile 62 et apte à mettre en œuvre au moins une couche de détection 64, le module de génération 46 est configuré en outre pour générer un symbole représentatif de ladite pré-détection, ledit symbole étant destiné à être affiché sur l’ensemble d’affichage 18 en une position dépendant de la position convertie de pré-détection CPD, comme représenté sur la .
Dans l’exemple de la , la pré-détection à une seule couche de détection 64 est illustrée sur la gauche de la figure, et le symbole représentatif de la pré-détection est en forme d’un cercle 74 en trait pointillé, la position convertie de pré-détection CPDcorrespondant alors au centre du cercle 74. L’homme du métier observera alors que la position convertie de pré-détection CPDest légèrement décalée par rapport à la position convertie C1 obtenue après conversion de la position d’interaction I1, la position convertie C1 étant représentée par le symbole 72, en forme d’un cercle en trait continu et de plus petit diamètre que celui du cercle 74.
Dans l’exemple de la , la pré-détection à deux couches de détection 64 distinctes est illustrée sur la droite de la figure, et le symbole représentatif de la pré-détection est en forme d’un cône 76, la position convertie de pré-détection CPDcorrespondant à l’extrémité la plus étroite du cône 76. Dans ce cas à deux couches de détection 64 distinctes, la position de pré-détection IPDest déterminée en fonction du signal indicatif de présence et de ladite direction de déplacement 66, et le cône 76 est alors agencé de manière symétrique autour de ladite direction de déplacement 66. L’homme du métier observera alors que dans ce cas à deux couches de détection 64 distinctes, la position convertie de pré-détection CPDest bien plus proche de la position convertie C1 obtenue après conversion de la position d’interaction I1, la position convertie C1 étant représentée par le symbole 72.
En complément facultatif, le module de calcul 48 est configuré pour calculer un vecteur 80 entre un point de référence 82 et un point 84 de l’écran d’affichage tête portée 30 correspondant à la position convertie issue du module de conversion 44, le point de référence 82 étant associé au visage du pilote 16, comme représenté sur les figures 1, 4 et 9.
Le point de référence 82 est par exemple un point œil correspondant à la position d’un œil respectif du pilote 16, ou encore un point médian entre les yeux du pilote 16. Avantageusement, un point de référence 82 est prévu pour chaque afficheur de l’écran d’affichage tête portée 30. Autrement dit, lorsque l’écran d’affichage tête portée 30 est monoculaire et comporte un unique afficheur, un unique point de référence 82 est prévu. En variante, lorsque l’écran d’affichage tête portée 30 est binoculaire, et comporte un afficheur pour chaque œil du pilote 16, deux points de référence 82 sont alors prévus, chaque point de référence 82 étant alors un point œil correspondant à la position de l’œil respectif du pilote 16.
Selon ce complément facultatif, si le vecteur 80 calculé par le module de calcul 48 est sécant avec un objet prédéfini du poste de pilotage 12, alors le module de génération 46 est configuré en outre pour générer une représentation dudit objet prédéfini intersecté par le vecteur 80.
La représentation est par exemple destinée à être affichée sur l’écran d’affichage tête portée 30, l’objet prédéfini et sa représentation étant contenus dans une base prédéfinie de données, non représentée. En complément facultatif, la représentation ainsi générée par le module de génération 46 est sélectionnable par le pilote 16.
La sélection et le déplacement d’une telle représentation sont illustrés dans l’exemple de la , où la sélection de la représentation via un toucher tactile, suivi d’un glisser tactile représenté par la flèche M3, engendre le déplacement de l’affichage de ladite représentation, ce déplacement étant représenté par la flèche M4. En partie gauche de la , le déplacement de l’affichage de la représentation est un déplacement latéral, correspondant à un glisser tactile latéral, et l’affichage de la représentation est alors déplacé au sein de l’écran complémentaire 36. En partie droite de la , le déplacement de l’affichage de la représentation est un déplacement vertical, correspondant à un glisser tactile vertical, et l’affichage de la représentation est alors déplacé verticalement depuis l’écran complémentaire 36 formant un écran d’affichage tête basse, vers l’écran d’affichage tête portée 30.
En complément facultatif encore, lorsque l’ensemble d’affichage 18 comprend en outre au moins un écran complémentaire d’affichage 36, si le vecteur 80 est sécant avec un écran complémentaire 36 respectif, alors le symbole 72 respectif représentatif de ladite manipulation est destiné à être affiché sur l’écran complémentaire d’affichage 36 respectif en une position correspondant à l’intersection du vecteur 80 avec ledit écran complémentaire 36, comme représenté sur la .
Dans l’exemple de la , le vecteur 80 n’est initialement pas sécant de l’écran complémentaire 36, et le symbole représentatif 72 est alors destiné à être affiché sur l’écran d’affichage tête portée 30. Suite à un mouvement de la tête du pilote 16 vers le bas, symbolisé par la flèche M2, le vecteur 80 devient sécant de l’écran complémentaire 36, et le symbole représentatif 72 est dans ce cas destiné à être affiché sur l’écran complémentaire 36, comme représenté en partie inférieure de la .
Le module d’affichage 49 est configuré pour afficher, sur l’ensemble d’affichage 18 et en une position dépendant de la position convertie C1, C2 issue du module de conversion 44, chaque symbole représentatif 72 généré par le module de génération 46.
Le module d’affichage 49 est de préférence configuré pour afficher chaque symbole représentatif 72 sur l’écran d’affichage tête portée 30 tant que le vecteur 80 n’est pas sécant avec un écran complémentaire 36 respectif. De manière corollaire, si le vecteur 80 est sécant avec un écran complémentaire 36 respectif, le module d’affichage 49 est configuré pour afficher, sur ledit écran complémentaire 36, le symbole représentatif 72 correspondant, en la position de l’intersection du vecteur 80 avec l’écran complémentaire 36.
Le fonctionnement du dispositif électronique de commande 20 selon l’invention va être à présent décrit en regard de la représentant un organigramme du procédé, selon l’invention, de commande de l’ensemble d’affichage 18, ainsi qu’en regard de la représentant un diagramme de séquence dudit procédé de commande.
Lors d’une étape initiale 100, le dispositif de commande 20 acquiert, via son module d’acquisition 40 et de la part du dispositif d’interaction 22, chaque manipulation du pilote 16 captée par le dispositif d’interaction 22.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte en outre le capteur avec au moins une couche de détection 64, le module d’acquisition 40 acquiert en outre, de la part du capteur, le signal indicatif de la présence du doigt du pilote 16 en cas de franchissement d’une couche de détection 64 respective par ledit doigt.
À l’issue de l’étape d’acquisition 100, le dispositif de commande 20 passe à l’étape 110 lors de laquelle il détermine, via son module de détermination 42 et en fonction de la manipulation acquise lors de l’étape précédente 100, au moins une position d’interaction I1, I2 dans le premier référentiel 60 associé au dispositif d’interaction 22.
Le module de détermination 42 détermine notamment chaque position d’interaction I1, I2 en fonction du type en absolu ou en relatif de la fonction de transfert associée au dispositif d’interaction 22.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur avec au moins une couche de détection 64, le module de détermination 42 détermine en outre la position de pré-détection IPDen fonction du signal indicatif de présence acquis lors de l’étape d’acquisition 100.
Lors de l’étape 120 suivante, le dispositif de commande 20 convertit, via son module de conversion 44, chaque position d’interaction I1, I2 déterminée lors de l’étape de détermination 110 en une position convertie C1, C2 respective dans le deuxième référentiel 70 associé à l’écran d’affichage tête portée 30.
Lorsque les premier 60 et deuxième 70 référentiels sont des référentiels en deux dimensions, la conversion est typiquement effectuée en multipliant l’abscisse de la position d’interaction I1, I2 par le ratio horizontal, afin d’obtenir l’abscisse de la position convertie C1, C2 ; et respectivement en multipliant l’ordonnée de la position d’interaction I1, I2 par le ratio vertical, afin d’obtenir l’ordonnée de la position convertie C1, C2.
En complément, le positionnement du deuxième référentiel 70 est mobile suivant le mouvement de la tête du pilote 16, et le module de conversion 44 définit alors le positionnement du deuxième référentiel 70 à l’instant temporel correspondant à l’acquisition de la position d’interaction I1, I2 ; puis convertit la position d’interaction I1, I2 en la position convertie C1, C2 dans le deuxième référentiel 70 selon le positionnement préalablement défini ; l’abscisse de la position convertie C1, C2 au sein du deuxième référentiel 70 ainsi positionné étant alors égale au produit de l’abscisse de la position d’interaction I1, I2 avec le ratio horizontal, et l’ordonnée de la position convertie C1, C2 au sein du deuxième référentiel 70 ainsi positionné étant alors égale au produit de l’ordonnée de la position d’interaction I1, I2 avec le ratio vertical.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur avec au moins une couche de détection 64, le module de conversion 44 convertit en outre la position de pré-détection IPDen la position convertie de pré-détection CPD.
En complément facultatif, à la fin de l’étape de conversion 120, le dispositif de commande 20 calcule, lors d’une étape 130 et via son module de calcul 48, le vecteur 80 entre le point de référence 82 et le point 84 de l’écran d’affichage tête portée 30 correspondant à la position convertie C1, C2 obtenue lors de l’étape de conversion 120, le point de référence 82 étant associé au visage du pilote 16.
Lors de l’étape suivante 140, le dispositif de commande 20 génère, via son module de génération 46, au moins un symbole 72 représentatif de la manipulation acquise lors de l’étape d’acquisition 100 initiale.
Lorsqu’en complément facultatif le dispositif d’interaction 22 comporte le capteur avec au moins une couche de détection 64, le module de génération 46 génère en outre le symbole 74, 76 représentatif de la pré-détection.
À l’issue de l’étape de génération 140, le dispositif de commande 20 affiche, lors de l’étape suivante 150 et via son module d’affichage 49, chaque symbole 72, 74, 76 généré lors de l’étape de génération 140, et en une position dépendant de la position convertie C1, C2, CPDobtenue lors de l’étape de conversion 120.
Si le vecteur 80 n’est pas sécant avec un écran complémentaire 36 respectif, c’est-à-dire si le vecteur 80 est distinct de chaque écran complémentaire 36, alors chaque symbole 72, 74, 76 est affiché sur l’écran d’affichage tête portée 30 et en la position convertie C1, C2, CPDobtenue lors de l’étape de conversion 120.
Si le vecteur 80 est sécant avec un écran complémentaire 36 respectif, alors le symbole 72, 74, 76 respectif représentatif de ladite manipulation est affiché sur l’écran complémentaire d’affichage 36 respectif en la position correspondant à l’intersection du vecteur 80 avec ledit écran complémentaire 36.
En complément facultatif, si le vecteur 80 est sécant avec un objet prédéfini respectif du poste de pilotage 12, alors une représentation dudit objet respectif est générée en outre lors de l’étape de génération 140, puis affichée sur l’écran d’affichage tête portée 30 lors de l’étape d’affichage 150.
Un exemple de diagramme de séquence du procédé de commande selon l’invention va être à présent décrit en regard de la .
Le diagramme de séquence débute avec la captation par le dispositif d’interaction 22 d’une manipulation du pilote 16, tel qu’une manipulation tactile, et les informations relatives à cette manipulation captée sont alors transmises par le dispositif d’interaction 22 au dispositif de commande 20 qui les acquiert via son module d’acquisition 40 (flèche F1).
Le dispositif de commande 20 acquiert alors, c’est-à-dire simultanément ou quasi simultanément de l’acquisition de la manipulation, la direction d’orientation de la tête du pilote 16, fournie par le capteur d’orientation 28 (flèche F2). La direction d’orientation permet alors au dispositif de commande 20 de déterminer le positionnement du deuxième référentiel 70, c’est-à-dire de déterminer le champ de vue 29.
Le dispositif de commande 20 détermine alors la position d’interaction I1 correspondant à la manipulation acquise (flèche F1 précédente), puis convertit la position d’interaction I1 déterminée dans le premier référentiel 60, en la position convertie C1 dans le deuxième référentiel 70 lié à l’écran d’affichage tête portée 30, et calcule le vecteur 80 entre le point de référence 82 et le point 84 de l’écran d’affichage tête portée 30 correspondant à la position convertie C1 (flèche F3).
Le dispositif de commande 20 détermine ensuite le ou les objets qui se trouvent pointés par ce vecteur 80 (flèche F4).
Si l’objet pointé par ce vecteur 80 est un écran complémentaire 36 respectif, tel qu’un écran interactif, le dispositif de commande 20 transmet l’information à cet écran complémentaire 36 (flèche F5), et lui délègue la gestion de l’interactivité avec les fonctions qui y sont affichées (flèche F6). L’écran complémentaire 36 notifie en retour au dispositif de commande 20 le type d’interaction(s) qu’il a traitée(s) (flèche F7).
Si le doigt du pilote 16 est relâché du dispositif d’interaction 22, un toucher et relâché est réalisé sur un objet affiché par une application logicielle cible exécutée sur l’écran complémentaire 36.
Si le doigt du pilote 16 est déplacé au contact du dispositif d’interaction 22, un pointeur correspondant à l’extrémité du vecteur 80 opposée au point de référence 82 est déplacé, et un glisser est éventuellement réalisé sur ladite application cible, par exemple pour dessiner une trajectoire sur un fond de carte ou bien pour déplacer un objet sur l’écran complémentaire 36.
Si le doigt du pilote 16 est déplacé, et que l’écran d’affichage tête portée 30 (et le deuxième référentiel 70 associé) bouge, le dispositif de commande 20 considère la somme des mouvements de la manipulation du dispositif d’interaction 22 et de l’écran d’affichage tête portée 30. Si le doigt du pilote 16 est maintenu et que l’écran d’affichage tête portée 30 bouge, le dispositif de commande 20 considère le mouvement de l’écran d’affichage tête portée 30 entraînant alors également un mouvement du pointeur correspondant à l’extrémité du vecteur 80, même si le doigt du pilote 16 est à ce moment-là immobile au contact du dispositif d’interaction 22.
Si le mouvement du doigt du pilote 16 conduit à une sortie du pointeur en dehors de l’écran complémentaire 36, l’écran d’affichage tête portée 30 prend le relais de l’affichage du pointeur (flèche F8), et éventuellement de la représentation graphique de l’objet en mouvement (flèche F9).
Si l’objet pointé par ce vecteur 80 est un panneau de contrôle représentable sous forme d’un modèle numérique, connu grâce à une base de données du poste de pilotage 12, le dispositif de commande 20 détermine, en fonction du contexte général de la mission, le modèle numérique à donner à ce panneau de contrôle (ou à une sous-partie de ce panneau, tel un bouton ; ou une information affichée, telle qu’un paramètre d’un système de l’aéronef, un équipement aéronautique, un type particulier d’obstacle, ou de cible). Ce panneau de contrôle, ou la sous-partie de ce panneau, est également appelé jumeau numérique (flèche F10).
Ce jumeau numérique est alors affiché par l’écran d’affichage tête portée 30, et est en quelque sorte accroché au pointeur pour subir une interaction directe si le doigt du pilote 16 est relâché du dispositif d’interaction 22 (appui bouton virtuel), respectivement pour être transporté (déplacé, puis relâché) vers un écran complémentaire d’affichage 36, ou vers l’extérieur des écrans 30, 36 si le doigt du pilote 16 est déplacé contre le dispositif d’interaction 22.
Si l’objet pointé par ce vecteur 80 est à l’extérieur de l’aéronef 14, le dispositif de commande 20 détermine l’objet visé à l’extérieur, connaissant précisément la position de l’aéronef 14 dans l’espace, et grâce à une base de données terrain et des artefacts qui s’y trouvent, voire une localisation des autres aéronefs dans l’espace. Un jumeau numérique de cet objet visé à l’extérieur est éventuellement créé et représenté sur l’écran d’affichage tête portée 30.
Dans l’exemple de la , le tracé d’un morceau de trajectoire effectuée par le pilote 16 via un glisser le long du dispositif d’interaction 22 est ainsi affiché sur l’écran d’affichage tête portée 30, puis projeté sur une représentation du terrain obtenue via la base de données terrain.
L’homme du métier comprendra alors que le jumeau numérique est affiché soit par l’écran d’affichage tête portée 30, soit par un écran complémentaire 36 respectif. La création du jumeau numérique est provoquée par l’interaction du vecteur 30 avec un objet prédéfini respectif du poste de pilotage 12, c’est-à-dire lorsque le vecteur 80 est sécant avec ledit objet prédéfini ; et le jumeau numérique est positionné ensuite en une position correspondant au relâcher du doigt du pilote 16.
Une fois le jumeau numérique relâché, il prend en quelque sorte son autonomie, et devient un objet virtuel à part entière : selon la nature de l’objet, par exemple un paramètre d’un système de l’aéronef, un équipement aéronautique, un type d’obstacle, le fait de relâcher le jumeau numérique dans une zone rend cet objet abstrait, instancié et concrétisé en un objet à part entière défini par une localisation, une altitude, une cible…Il n’est alors plus le jumeau numérique d’un panneau de contrôle ou d’un bouton, mais une instance d’objet virtuel composant la mission, c’est-à-dire avec une durée de vie liée à la mission.
Ainsi, avec le procédé de commande selon l’invention, le pilote 16 peut déplacer le pointeur correspondant à l’extrémité du vecteur 80 sur l’écran d’affichage tête portée 30 et/ou interagir avec un ou plusieurs symboles affichés ledit écran tête portée 30.
Le procédé de commande selon l’invention permet en outre une fusion de modalité avec un cumul d’un mouvement de la manipulation du dispositif d’interaction 22, tel qu’un mouvement d’un doigt du pilote 16 contre le pavé tactile 58, et d’un mouvement de la tête du pilote 16 entraînant un mouvement du champ de vue 29 et de l’écran d’affichage tête portée 30. En effet, de par la conversion de chaque position d’interaction I1, I2 en une position convertie C1, C2 respective dans le deuxième référentiel 70 associé à l’écran d’affichage tête portée 30, le symbole 72 représentatif de la manipulation, tel qu’un pointeur, est lié à la position du champ de vue 29 du pilote 16 et donc de la tête du pilote 16.
Le pilote 16 peut alors déplacer ce symbole 72 en bougeant sa tête et alors le champ de vue 29, typiquement matérialisé par un cadre de référence, correspondant alors à la frontière de l’écran d’affichage tête portée 30 ; ou en manipulant le dispositif d’interaction 22, par exemple en bougeant son doigt sur le pavé tactile 58 ; ou encore en effectuant les deux opérations précitées en même temps pour plus d’efficacité, le dispositif de commande 20 prenant alors en compte la somme des deux mouvements, c’est-à-dire celui de la tête du pilote 16 entraînant un mouvement de l’écran d’affichage tête portée 30 et celui de la manipulation du pilote 16 captée par le dispositif d’interaction 22.
L’homme du métier comprendra donc que la fonction de déplacement du pointeur correspondant à une position convertie C1, C2 respective, correspondant également à l’extrémité du vecteur 30 lorsqu’il est calculé, est une fusion multimodale entre le mouvement de la tête du pilote 16 et le mouvement correspondant à la manipulation effectuée par le pilote 16 et captée par le dispositif d’interaction 22. Cette fusion multimodale est utilisable de façon cumulée ou indépendante, le pilote 16 pouvant par exemple effectuer aucune manipulation et bouger sa tête pour déplacer le pointeur ; ou inversement maintenir sa tête immobile et effectuer seulement une manipulation captée par le dispositif d’interaction 22 ; ou encore faire les deux à la fois, à savoir bouger sa tête et effectuer une manipulation.
L’homme du métier observera également que le champ de vue 29 est fixe par rapport à la tête du pilote 16, mais mobile par rapport à un référentiel lié au poste de pilotage 12. Le champ de vue 29 se superpose ainsi potentiellement, selon la position de la tête du pilote 16, au monde extérieur, aux écrans complémentaires 36 du poste de pilotage 12, ou encore à tout artefact du poste de pilotage 12.
On conçoit ainsi que le dispositif de commande 20 selon l’invention permet au pilote 16 de mieux interagir avec les informations affichées dans le poste de pilotage 12.

Claims (10)

  1. Procédé de commande d’un ensemble d’affichage (18) propre à être embarqué dans un poste de pilotage (12) d’un aéronef (14) pilotable par au moins un pilote (16), l’ensemble d’affichage (18) comprenant un écran d’affichage (30) au moins partiellement transparent, destiné à équiper un casque (32) pour la tête d’un pilote (16) respectif et à être disposé au moins partiellement dans un champ de vue (29) dudit pilote (16), dit écran d’affichage tête portée (30),
    le procédé étant mis en œuvre par un dispositif électronique de commande (20) apte à être connecté à l’ensemble d’affichage (18) et à un dispositif d’interaction (22), le dispositif d’interaction (22) étant manipulable par le pilote (16), le procédé comprenant les étapes suivantes :
    - acquisition (100) d’une manipulation du dispositif d’interaction (22) par le pilote (16) ;
    - détermination (110), en fonction de ladite manipulation, d’au moins une position d’interaction (C1, C2) dans un premier référentiel (60) associé au dispositif d’interaction (22) ;
    - conversion (120) de chaque position d’interaction (C1, C2) en une position convertie (C1, C2) dans un deuxième référentiel (70) associé à l’écran d’affichage tête portée (30) ; et
    - génération (130) d’au moins un symbole (72; 74, 76) représentatif de ladite manipulation, chaque symbole (72; 74, 76) étant destiné à être affiché sur l’ensemble d’affichage (18) en une position dépendant de la position convertie (C1, C2 ; CPD).
  2. Procédé selon la revendication 1, dans lequel le procédé comprend en outre, entre l’étape de conversion (120) et l’étape de génération (140), une étape (130) de calcul d’un vecteur (80) entre un point de référence (82) et un point (84) de l’écran d’affichage tête portée (30) correspondant à la position convertie (C1, C2), le point de référence (82) étant associé au visage du pilote (16) ;
    le point de référence (82) étant de préférence un point œil correspondant à la position d’un œil respectif du pilote (16) ou un point médian entre les yeux du pilote (16).
  3. Procédé selon la revendication 2, dans lequel si le vecteur (80) est sécant avec un objet prédéfini du poste de pilotage (12), alors une représentation dudit objet est générée en outre lors de l’étape de génération (140), la représentation étant destinée à être affichée sur l’écran d’affichage tête portée (30), l’objet prédéfini et sa représentation étant contenus dans une base prédéfinie de données ;
    la représentation étant de préférence sélectionnable par le pilote (16) via le dispositif d’interaction (22).
  4. Procédé selon la revendication 2 ou 3, dans lequel l’ensemble d’affichage (18) comprend en outre au moins un écran complémentaire d’affichage (36), chaque écran complémentaire (36) étant distinct de l’écran d’affichage tête portée (30), et si le vecteur (80) est sécant avec un écran complémentaire (36) respectif, alors le symbole (72; 74, 76) respectif représentatif de ladite manipulation est destiné à être affiché sur l’écran complémentaire d’affichage (36) respectif en une position correspondant à l’intersection du vecteur (80) avec ledit écran complémentaire (36).
  5. Procédé selon l’une quelconque des revendications précédentes, dans lequel les premier (60) et deuxième (70) référentiels sont des référentiels en deux dimensions, et lors de l’étape de conversion (120), une abscisse de la position convertie (C1, C2) est obtenue via une multiplication d’une abscisse de la position d’interaction (C1, C2) par un ratio horizontal, et une ordonnée de la position convertie (C1, C2) est obtenue via une multiplication d’une ordonnée de la position d’interaction (C1, C2) par un ratio vertical, le ratio horizontal étant égal à une dimension horizontale de l’écran d’affichage tête portée (30) divisée par une dimension horizontale associée au dispositif d’interaction (22), et le ratio vertical étant égal à une dimension verticale de l’écran d’affichage tête portée (30) divisée par une dimension verticale associée au dispositif d’interaction (22).
  6. Procédé selon l’une quelconque des revendications précédentes, dans lequel le dispositif d’interaction (22) est choisi parmi le groupe consistant en : un pavé tactile (58), une boule de commande (20), une molette, une manette, et une souris ;
    lorsque le dispositif d’interaction (22) est un pavé tactile (58), la manipulation étant de préférence un toucher ou un glisser contre une surface tactile du pavé tactile (58), et l’au moins une position d’interaction (C1, C2) étant de préférence encore une position du toucher ou des positions initiale et finale du glisser.
  7. Procédé selon l’une quelconque des revendications précédentes, dans lequel le dispositif d’interaction (22) est un pavé tactile (58) comportant une surface tactile (62) et un capteur disposé en périphérie de la surface tactile, le capteur étant configuré pour détecter un doigt du pilote (16) avant qu’il soit au contact de la surface tactile (62) ; et un signal indicatif de la présence du doigt est acquis de la part du capteur lors de l’étape d’acquisition (100) ; une position de pré-détection (IPD) est déterminée dans le premier référentiel (60) et en fonction dudit signal lors de l’étape de détermination (110) ; la position de pré-détection (IPD) est convertie en une position convertie de pré-détection (CPD) dans le deuxième référentiel (70) lors de l’étape de conversion (120) ; et un symbole (74, 76) représentatif de ladite pré-détection est généré lors de l’étape de génération (140), ledit symbole (74, 76) étant destiné à être affiché sur l’ensemble d’affichage (18) en une position dépendant de la position convertie de pré-détection (CPD) ;
    le capteur comportant de préférence plusieurs couches de détection (64) et étant configuré pour déterminer en outre une direction (66) de déplacement du doigt du pilote (16), et la position de pré-détection (IPD) étant alors déterminée en fonction en outre de ladite direction de déplacement (66).
  8. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé selon l’une quelconque des revendications précédentes.
  9. Dispositif électronique de commande (20) d’un ensemble d’affichage (18) propre à être embarqué dans un poste de pilotage (12) d’un aéronef (14) pilotable par au moins un pilote (16), l’ensemble d’affichage (18) comprenant un écran d’affichage au moins partiellement transparent, destiné à équiper un casque (32) pour la tête d’un pilote (16) respectif et à être disposé au moins partiellement dans un champ de vue (29) du pilote (16), dit écran d’affichage tête portée (30),
    le dispositif électronique de commande (20) étant apte à être connecté à l’ensemble d’affichage (18) et à un dispositif d’interaction (22), le dispositif d’interaction (22) étant manipulable par le pilote (16), le dispositif électronique de commande (20) comprenant :
    - un module d’acquisition (40) configuré pour acquérir une manipulation du dispositif d’interaction (22) par le pilote (16) ;
    - un module de détermination (42) configuré pour déterminer, en fonction de ladite manipulation, au moins une position d’interaction (C1, C2) dans un premier référentiel (60) associé au dispositif d’interaction (22) ;
    - un module de conversion (44) configuré pour convertir chaque position d’interaction (C1, C2) en une position convertie (C1, C2) dans un deuxième référentiel (70) associé à l’écran d’affichage tête portée (30) ; et
    - un module de génération (46) configuré pour générer au moins un symbole (72; 74, 76) représentatif de ladite manipulation, chaque symbole (72; 74, 76) étant destiné à être affiché sur l’ensemble d’affichage (18) en une position dépendant de la position convertie (C1, C2 ; CPD).
  10. Système électronique d’affichage (10) propre à être embarqué dans un poste de pilotage (12) d’un aéronef (14) pilotable par au moins un pilote (16), le système (10) comprenant :
    - un ensemble d’affichage (18) comportant un écran d’affichage (30) au moins partiellement transparent, destiné à équiper un casque (32) pour la tête d’un pilote (16) respectif et à être disposé au moins partiellement dans un champ de vue (29) du pilote (16), dit écran d’affichage tête portée (30) ; et
    - un dispositif électronique de commande (20) de l’ensemble d’affichage (18), le dispositif de commande (20) étant selon la revendication précédente.
FR2113853A 2021-12-17 2021-12-17 Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé Pending FR3131029A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2113853A FR3131029A1 (fr) 2021-12-17 2021-12-17 Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2113853 2021-12-17
FR2113853A FR3131029A1 (fr) 2021-12-17 2021-12-17 Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé

Publications (1)

Publication Number Publication Date
FR3131029A1 true FR3131029A1 (fr) 2023-06-23

Family

ID=81851304

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2113853A Pending FR3131029A1 (fr) 2021-12-17 2021-12-17 Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé

Country Status (1)

Country Link
FR (1) FR3131029A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7928927B1 (en) * 2008-03-17 2011-04-19 Rockwell Collins, Inc. Head worn head up display system
FR3057685A1 (fr) * 2016-10-13 2018-04-20 Thales Procede de designation et d'affichage d'informations dans un systeme de visualisation comportant une pluralite d'ecrans
EP3629314A1 (fr) * 2018-09-26 2020-04-01 Thales Procédé de planification du vol d'un aéronef, produit programme produit ordinateur et système de planification associés

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7928927B1 (en) * 2008-03-17 2011-04-19 Rockwell Collins, Inc. Head worn head up display system
FR3057685A1 (fr) * 2016-10-13 2018-04-20 Thales Procede de designation et d'affichage d'informations dans un systeme de visualisation comportant une pluralite d'ecrans
EP3629314A1 (fr) * 2018-09-26 2020-04-01 Thales Procédé de planification du vol d'un aéronef, produit programme produit ordinateur et système de planification associés

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LAUBER FELIX FELIX LAUBER@IFI LMU DE ET AL: "What you see is what you touch visualizing touch screen interaction in the head-up display", PROCEEDINGS OF THE 2014 ACM SIGCHI SYMPOSIUM ON ENGINEERING INTERACTIVE COMPUTING SYSTEMS, EICS '14, ACM PRESS, NEW YORK, NEW YORK, USA, 21 June 2014 (2014-06-21), pages 171 - 180, XP058502047, ISBN: 978-1-4503-2725-1, DOI: 10.1145/2598510.2598521 *

Similar Documents

Publication Publication Date Title
US8605011B2 (en) Virtual viewfinder on full windshield head-up display
CN105026203B (zh) 用于对机动车的显示装置进行同步的方法
FR3052889B1 (fr) Correction d'erreur induite par des vibrations pour affichage a ecran tactile dans un aeronef
FR2997046A1 (fr) Systeme d'assistance de conduite et son procede de gestion
EP3114423B1 (fr) Procédé de contrôle d'un système de détection et de suivi d'une cible
EP3583542A1 (fr) Dispositif et procede d'analyse du regard en temps-reel
CN111107310B (zh) 照相机参数估计装置、照相机参数估计方法
FR3089672A1 (fr) Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage
EP2706454A1 (fr) Système et procédé de commande de la position d'un objet déplaçable sur un dispositif de visualisation
EP3355277A1 (fr) Procédé d'affichage sur un écran d'au moins une représentation d'un objet, programme d'ordinateur, dispositif et appareil électroniques d'affichage associés
FR3030798A1 (fr) Procede de gestion d'un dispositif d'entree et ainsi que dispositif d'entree applique a un vehicule automobile pour la mise en oeuvre du procede
FR3131029A1 (fr) Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé
FR3065545A1 (fr) Procede de detection d'un signal d'un utilisateur pour generer au moins une instruction de commande d'un equipement avionique d'un aeronef, programme d'ordinateur et dispositif electronique associes
WO2013175603A1 (fr) Dispositif, procédé et programme d'entrée d'opération
EP2717230B1 (fr) Système de visualisation pour aéronef pour l'affichage de lignes de relief et procédé associé
FR3128916A1 (fr) Dispositif de commande d’affichage et procédé de commande d’affichage
EP2932464B1 (fr) Procédé d'affichage et système d'aide à la navigation
EP3629074A1 (fr) Système d'affichage tête haute, procédé d'affichage et produit programme d'ordinateur associés
EP3074842B1 (fr) Poste de contrôle de drones
FR3033903A1 (fr) Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera.
US11912429B2 (en) System and methodology to provide an augmented view of an environment below an obstructing structure of an aircraft
EP3114539B1 (fr) Procédé de contrôle d'une pluralité de mobiles autonomes sans pilote
EP4064009A1 (fr) Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef
EP4066079A1 (fr) Système de pilotage d'aéronef
FR3124872A1 (fr) Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230623

PLFP Fee payment

Year of fee payment: 3