FR3089672A1 - Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage - Google Patents

Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage Download PDF

Info

Publication number
FR3089672A1
FR3089672A1 FR1872329A FR1872329A FR3089672A1 FR 3089672 A1 FR3089672 A1 FR 3089672A1 FR 1872329 A FR1872329 A FR 1872329A FR 1872329 A FR1872329 A FR 1872329A FR 3089672 A1 FR3089672 A1 FR 3089672A1
Authority
FR
France
Prior art keywords
display
pilot
sight
machine interface
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1872329A
Other languages
English (en)
Other versions
FR3089672B1 (fr
Inventor
Stéphanie Lafon
Alexiane Bailly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1872329A priority Critical patent/FR3089672B1/fr
Priority to US16/700,804 priority patent/US11048079B2/en
Publication of FR3089672A1 publication Critical patent/FR3089672A1/fr
Application granted granted Critical
Publication of FR3089672B1 publication Critical patent/FR3089672B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0189Sight systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0165Head-up displays characterised by mechanical features associated with a head-down display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/12Avionics applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L’invention concerne un procédé et un système d’affichage et d’interaction avec un système de commande d’aéronef, destiné à un pilote d’aéronef, embarqué dans une cabine de pilotage de l’aéronef. Le procédé est mis en œuvre par un système d’affichage et d’interaction comportant une première interface homme-machine dite tête-basse et une deuxième interface homme-machine dite tête-haute. Le procédé comporte une détermination d’une ligne de visée du pilote, la réception (90) d’une commande de passage en mode d’affichage figé et le maintien (92) d’au moins une partie de l’affichage sur la deuxième interface homme-machine dans une position figée, indépendamment de la ligne de visée du pilote, puis un affichage (96) d’au moins un élément complémentaire d’interface homme-machine, en fonction de la ligne de visée du pilote, dans au moins une zone libre de la cabine de pilotage, et un affichage (100) d’un curseur représentatif de la ligne de visée du pilote.

Description

DESCRIPTION
TITRE : Procédé et système d’affichage et d’mteractîon embarqué dans une cabine de pilotage
La présente invention concerne un procédé et un système d’affichage et d interaction avec un système de commande d’aéronef, destiné à un pilote d’aéronef, embarqué dans une cabine de pilotage de l’aéronef.
L’invention se situe dans le domaine de l’interaction avec des systèmes de commande d'aéronefs.
De manière connue, un aéronef comporte une cabine de pilotage (ou cockpit) dans laquelle sont embarqués des systèmes d’affichage et d’interaction avec un système de commande de l’aéronef. On entend ici par système de commande d’aéronef à la fois la 15 commande des dispositifs de pilotage et la commande de tout dispositif embarqué (capteurs, écouteurs, caméras...).
De manière connue, dans la cabine de pilotage, le système d’affichage et d’interaction comporte un premier sous-système, dit tête-basse, et un deuxième soussystème dit tête-haute, classiquement destiné à la visualisation sans interaction. Par 20 exemple, le deuxième sous-système est mis en œuvre par un dispositif porté par le ou chaque pilote, de type casque à visière ou un dispositif de projection d’informations supplémentaires sur le pare-brise de l'aéronef ou sur une lame transparente dédiée à cet effet, par exemple un dispositif HUD (pour « head-up display »).
De manière classique, le premier sous-système comporte des dispositifs de 25 commande et/ou d’interaction physiques (boutons, rotacteurs, manche de pilotage, trackballs), manipulables par le ou les pilotes, et des dispositifs d’affichage comme par exemple des écrans, ou des dispositifs d’affichage et d’interaction comme des dalles tactiles.
Le pilotage est effectué par un ou plusieurs pilotes (par exemple deux pilotes), qui 30 ont accès aux dispositifs d’affichage et d'interaction de ces sous-systèmes.
Il est connu en outre d'ajouter un dispositif configuré pour déterminer une ligne de visée du pilote, par exemple en surveillant la position de la tête et en en déduisant une ligne de visée ou en surveillant la direction du regard du pilote, de manière à améliorer certains affichages en fonction de la ligne de visée, et par conséquent du champ de vision 35 du pilote.
Dans te cas d’un seul pilote actif, celui-ci est amené à alterner entre la position tête-haute, notamment dans des phases de pilotage, et la position tête-basse, en phase de gestions de mission et de programmation des dispositifs de pilotage et des dispositifs embarqués. En plus du changement de position, cela implique un changement d'interface d'affichage et d’interaction, et te pilote est obligé d'abandonner temporairement certaines commandes d’un des sous-systèmes pour accéder aux commandes de l'autre soussystème.
Ce fonctionnement, en particulier dans te cas d’un seul pilote actif, est fatiguant et peut être critique pour certaines opérations.
L’invention a pour objet de remédier à ces inconvénients, en proposant un système permettant de réaliser une continuité entre les deux sous-systèmes d’affichage et d’interaction.
A cet effet, l’invention propose, selon un aspect, un procédé d'affichage et d’interaction avec un système de commande d’aéronef destiné à un pilote d’aéronef, mis en œuvre par un système d’affichage et d’interaction embarqué dans une cabine de pilotage de l’aéronef et comportant une première interface homme-machine dite têtebasse et un premier contrôleur adapté à contrôler l'affichage sur ladite première interface homme-machine, et une deuxième interface homme-machine dite tête-haute, et un deuxième contrôleur adapté à contrôler l'affichage sur ladite deuxième interface hommemachine, le système d’affichage et d’interaction comportant en outre un dispositif configuré pour déterminer une ligne de visée du pilote en fonction d’une position de la tête et/ou des yeux du pilote, le deuxième contrôleur étant configuré pour, dans un mode d’affichage standard, adapter au moins un affichage sur te deuxième interface hommemachine en fonction de la ligne de visée du pilote. Le procédé comporte des étapes de :
- détermination d’une ligne de visée du pilote,
- réception d’une commande de passage en mode d’affichage figé et maintient d'au moins une partie de l’affichage sur la deuxième interface homme-machine dans une position figée, indépendamment de la ligne de visée du pilote,
- affichage d’au moins un élément complémentaire d’interface homme-machine, en fonction de la ligne de visée du pilote, dans au moins une zone libre de la cabine de pilotage, et affichage d’un curseur représentatif de la ligne de visée du pilote.
Avantageusement, le procédé d'affichage et d’interaction proposé permet d'obtenir une continuité d’affichage, et par conséquent d’obtenir un affichage unifié et ayant une ergonomie d’utilisation améliorée pour l’interaction.
Le procédé d’affichage et d’interaction selon l’invention peut présenter une ou plusieurs des caractéristiques ci-dessous, prises indépendamment ou en combinaison, selon toutes tes combinaisons techniquement acceptables.
Le procédé comporte, suite à ladite réception d’une commande de passage en mode d’affichage figé, une adaptation d’affichage sur la première interface hommemachine et sur la deuxième interface homme-machine.
Le procédé comporte en outre une étape de surveillance de changement de direction de la ligne de visée du pilote, et en cas de changement, une étape d’adaptation de l’affichage d’éléments complémentaires d’interface homme-machine en fonction du changement.
Lorsqu’au moins un élément complémentaire est un menu comportant des commandes sélectionnables, te procédé comportant en outre une étape de sélection d’une commande en fonction de la ligne de visée du pilote, et une confirmation de commande.
Le procédé comporte une détermination d’un champ de vision du pilote en fonction de la ligne de visée déterminée, et ledit au moins un élément complémentaire d’interface homme-machine est affiché dans une zone libre située dans le champ de vision du pilote.
La au moins une partie de l’affichage maintenue sur la deuxième interface hommemachine contient des informations non-géolocalisées.
La ou les zones libres sont déterminées en fonctions d'informations de configuration relatives à la cabine de pilotage mémorisées.
L’affichage d'au moins un élément complémentaire est effectué dans au moins une zone libre choisie en fonction des informations de configuration et de la ligne de visée du pilote à la réception de la commande de passage en mode figé.
Selon un autre aspect, l’invention concerne un système d’affichage et d’interaction avec un système de commande d'aéronef destiné à un pilote d'aéronef, embarqué dans une cabine de pilotage de l’aéronef, comportant une première interface homme-machine dite tête-basse et un premier contrôleur adapté à contrôler l’affichage sur ladite première interface homme-machine, et une deuxième interface homme-machine dite tête-haute, et un deuxième contrôleur adapté à contrôler l’affichage sur ladite deuxième interface homme-machine. Ce système comporte en outre un dispositif configuré pour déterminer une ligne de visée du pilote en fonction d’une position de la tête et/ou des yeux du pilote, le deuxième contrôleur étant configuré pour, dans un mode d’affichage standard, à adapter au moins un affichage sur la deuxième interface homme-machine en fonction de la ligne de visée du pilote. Ce système comporte en outre un organe de commande actionnable par le pilote pour passer dans un mode d’affichage figé, le deuxième contrôleur maintenant au moins une partie de l'affichage sur la deuxième interface homme-machine dans une position figée indépendamment de la ligne de visée du pilote, et un troisième contrôleur adapté à afficher au moins un élément complémentaire d’interface homme-machine, en fonction de la ligne de visée du pilote, dans au moins une zone libre de la cabine de pilotage, le système étant en outre configuré pour afficher un curseur représentatif de la ligne de visée du pilote.
Selon un autre aspect, l'invention concerne un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont mises en œuvre par un dispositif électronique de calcul, mettent en œuvre un procédé d’affichage et d’interaction tel que brièvement décrit ci-dessus.
Selon un autre aspect, l’invention concerne support d'informations, sur lequel sont enregistrées des instructions logicielles qui, lorsqu’elles sont mises en œuvre par un dispositif électronique de calcul, mettent en œuvre un procédé d’affichage et d’interaction tel que brièvement décrit ci-dessus.
D’autres caractéristiques et avantages de l’invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles :
~ [Fî9 Ή Î3 figure 1 est une illustration schématique d’un système d’affichage et d’interaction avec un système de commande d’aéronef embarqué dans une cabine de pilotage ;
- [Fig 2] la figure 2 est un synoptique des blocs fonctionnels d’un système d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation ;
Fis 3] Ιθ figure 3 est un diagramme d’états global de fonctionnement d’un système d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation ;
- Fig 4] la figure 4 est un synoptique des principales étapes d'un procédé d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation.
La figure 1 illustre schématiquement une portion de cabine de pilotage d’aéronef 1, comprenant un système 2 d’affichage et d’interaction avec un système de commande d’aéronef (non représenté) embarqué selon un mode de réalisation de l’invention.
Il s agit d une cabine de pilotage d’aéronef, par exemple d’avion ou d’hélicoptère.
Le système 2 lustré à la figure 1 est visible et accessible au pilote ou à chaque pilote de l'aéronef (non représenté dans la figure).
Dans la suite de la description on considère que l’aéronef est piloté par un seul pilote. Bien entendu, l'invention s'appliquera de manière analogue dans le cas d’un 5 pilotage à plusieurs pilotes, par exemple en présence d’un pilote et d’un co-pilote.
La partie de cabine de pilotage illustrée à la figure 1 comporte un pare-brise 4, classiquement fabriqué en matériau transparent et permettant de visualiser le paysage extérieur à l’aéronef.
La cabine de pilotage comporte une première partie 6 dans laquelle se situe la 10 première interface homme machine dite tête-basse et une deuxième partie 8 dite têtehaute, correspondant à la visualisation dite tête-haute. Le pare-brise 4 est situé dans la deuxième partie.
Pour visualiser les interfaces homme-machine des première et deuxième parties de la cabine de pilotage, le pilote doit orienter son regard et par conséquent déplacer son 15 champ de vision.
Le champ de vision est défini de manière connue comme étant un cône autour de la ligne de visée du pilote, défini dans un référentiel à trois dimensions. Dans un plan horizontal, le champ de vision défini par un secteur angulaire centré sur l’axe optique. Lorsque la tête est fixe et ia ligne de visée est orientée dans une direction donnée, le 20 champ de vision est défini par un premier angle compris entre 160° et 180° de part et d'autre de la ligne de visée dans un premier plan (déplacement du regard vers la gauche ou vers la droite), et dans un deuxième plan, un deuxième angle compris entre 45 à 50° vers le haut, un troisième angle compris entre 60° et 80° vers le bas.
Ainsi, le pilote peut bouger sa tête confortablement avec des angles de +/-45° 25 dans le premier plan et de +/-30° dans le deuxième plan, formant un champ de regard (ou FOR pour « Field of Regard »).
Dans la première partie 6 de la cabine sont situés plusieurs éléments d’interface homme-machine, faisant partie d’une première interface homme-machine (IHM) 10.
La première IHM comprend dans l'exemple illustré des interacteurs physiques 30 classiques ; un manche de pilotage 12, des boutons d’interaction 14, 16. Bien entendu la liste n’est pas exhaustive, d’autres interacteurs physiques non représentés pouvant être présents, par exemple des rotacteurs, des minimanches (ou « sidestick » en anglais), boules de commande (ou « trackball » en anglais), microphones...
La première IHM 10 comporte des dispositifs d’affichage et/ou d’interaction : des 35 écrans de visualisation 18, 32 des dalles tactiles 20 permettant la visualisation et l'interaction.
Par exempte, sur de telles dalles tactiles 20 sont affichés plusieurs éléments d’interaction 22, 24, sélectionnables par te pilote par une commande tactile (par exemple, toucher de l’élément d’interaction avec un doigt, ou appui puis glissement vers une autre position sur la dalle tactile). De tels éléments d’affichage et d’interaction sont connus.
Par exemple, les écrans 32 permettent d’afficher des informations utiles pour la navigation et le pilotage : position de l’aéronef, contraintes de vol, points de passage imposés de la route aérienne à suivre, cartographie du terrain survolé, informations en provenance des centres de contrôle distants.,..
Les commandes ainsi effectuées sont reçues et mises en oeuvre grâce à un premier contrôleur d’interface homme-machine, illustré à la figure 2.
Le système 2 comprend une deuxième IHM 30, dite également IHM tête-haute, comprenant des éléments d’affichage 36, 38 qui sont affichés par exemple en superposition de la scène visible à travers le pare-brise, directement sur le pare-brise ou sur une lame transparente ajoutée, ou encore sur une visière en matériau transparent positionnée devant les yeux du pilote. Les éléments d’affichage 36, 38 comprennent également des informations utiles pour la navigation et te pilotage. Parmi les informations affichées, il y a des informations dites conformes qui sont géolocalisées et des informations dites non-conformes qui sont non-géolocalisées. Ces informations sont par exempte des informations conformes générées par un système CVS (« Combined Vision System ») fusionnant des informations issues de bases de données et de capteurs (e.g. terrain, obstacles, piste d’atterrissage ...). Les informations non-conformes sont par exemple des données utiles au pilotage (vitesse, cap, altitude) et à la navigation (next waypoint, fréquence radio active ...).
Il est à noter qu’une partie au moins des informations conformes et non-conformes peuvent être affichées sur des écrans de visualisation de la première IHM 10.
Les éléments d’affichage 36, 38 sont visualisés par exempte par l’intermédiaire d’un dispositif d’affichage d’éléments de réalité augmentée, par exemple un écran de visualisation adapté à être placé devant les yeux du pilote (lunette ou casque avec visière, ou dispositif HUD ou un dispositif de projection sur le pare-brise
Avantageusement, grâce à l’invention, te système d’affichage et d’interaction 2 est en outre configuré pour afficher des éléments complémentaires d'interface hommemachine, et en particulier des éléments d’interaction, dans des zones libres de la cabine de pilotage 1, qui ne sont utilisées ni par la première IHM 10, ni par la deuxième IHM 30.
Ces zones libres sont des zones qui ne sont pas utilisées pour les affichages et qui ne contiennent pas d’interacteur physique ou tactile,
Par exempte, dans la figure 1 sont illustrés les éléments complémentaires d’IHM 42, 44 qui sont ajoutés dans une zone libre 46 de la première partie 6 de la cabine de pilotage, pour permettre d’améliorer la continuité lors d’un passage de la vision tête-haute vers la vision tête-basse. Par exemple, la zone libre 46 est matérialisée par une surface plane opaque sur laquelle il est possible d’effectuer une rétroprojection.
Un exemple d’élément complémentaire d’IHM 49, contenant des sous-éléments 49qa, 49b, 49c, 49d, qui sont par exempte des sous-menus d’interaction, a été illustré dans la deuxième partie de cabine 8.
Dans la deuxième partie 8 de la cabine de pilotage, des zones libres 48 sont des zones non-utilisées des supports physiques d’affichage tête-haute, par exemple du parebrise ou de la visière du casque.
En complément, des zones lisses opaques par exempte faisant partie des parois de la cabine de pilotage sont également utilisables en tant que zones libres.
De plus un curseur 40 indicatif de la ligne de visée du pilote à un instant donné est ajouté en superposition dans ΓΙΗΜ 30. Son utilisation dans le procédé d’affichage et d'interaction avec un système de commande d’aéronef selon l’invention sera décrite plus en détail ci-après. Le curseur 40 suit les changements de la ligne de visée du pilote.
Dans un mode de réalisation un système de suivi de la direction du regard (« eye tracking » en anglais) est mis en œuvre. Dans ce cas, la ligne de visée est confondue avec la direction du regard, qui est projetée sur IHM 30.
En variante, un système de suivi de la tête du pilote (« head-tracking » en anglais) est mis en œuvre. Dans ce cas, une ligne de visée est calculée à partir de la position de la tête, et affichée par exempte sur la visière du casque porté par te pilote.
Le terme « ligne de visée » est utilisé dans les deux modes de réalisation, à la fois pour désigner la direction du regard et la ligne de visée de la tête du pilote.
Du point de vue du pilote, le curseur 40 s’affiche devant lui de façon homogène sur toutes les interfaces homme-machine, afin de lui permettre d’interagir avec toutes les zones interactives qui se présenteront à lui comme expliqué plus en détail ci-après.
Les éléments complémentaires 42, 44 sont par exemptes des menus permettant au pilote d’effectuer des commandes interactives.
La figure 2 est un synoptique des principaux blocs fonctionnels d’un système 1 d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation.
Le système 2 comprend un premier contrôleur 50 d’interface homme-machine, configuré pour contrôler tes dispositifs d’affichage et d’interaction 52 faisant partie de la première IHM 10 tête-basse, en particulier tes écrans et dalles tactiles. Le premier contrôleur 50 est notamment configuré pour commander l’affichage sur tes écrans/dalles tactiles de la première IHM et pour récupérer des commandes des dispositifs d’interaction de la première IHM 10.
Le système 2 comprend également un deuxième contrôleur 54 d'interface hommemachine, configuré pour contrôler le dispositif 56 d’affichage d’éléments de réalité augmentée dans la deuxième IHM tête-haute. Par exempte, te dispositif 56 est un écran de visualisation adapté à être placé devant les yeux du pilote (lunette ou casque de réalité augmentée avec visière), par exempte un dispositif de type HMD pour « Head Mounted Display » ou un dispositif de projection sur le pare-brise.
Enfin le système 2 comporte un troisième contrôleur d’interface homme-machine 60, adapté à contrôler l'affichage dans les zones libres.
Le système comporte en outre un dispositif 58 configuré pour déterminer une ligne de visée du pilote en fonction d’une position de la tête et/ou des yeux du pilote, à une fréquence prédéterminée, par exemple supérieure ou égale à 50 Hz pour éviter des latences d’affichage dues aux mouvements de la tête.
Dans un mode de réalisation, le dispositif 58 fait partie d’un casque de réalité augmentée porté par le pilote. En variante, le dispositif 58 comporte des caméras et logiciels de traitement d’images configurés pour calculer, sensiblement en temps réel, la position et l’orientation de la tête et/ou la direction du regard du pilote.
Des informations caractérisant la ligne de visée sont transmises au premier contrôleur 50, au deuxième contrôleur 54 ou au troisième contrôleur 60.
Le système comporte un organe de commande 62, par exempte un bouton poussoir ou un bouton sélectionnable sur une dalle tactile permettant de sélectionner un mode d’affichage entre un premier mode « standard » et un deuxième mode « figé » (ou « frozen » en anglais).
Le mode d’affichage sélectionné par le pilote est transmis à tous les contrôleurs 50, 54, 60.
Dans le mode d’affichage standard, le deuxième contrôleur 54 est configuré pour afficher, dans la deuxième IHM, des informations de pilotage et de navigation en fonction de la ligne de visée du pilote et de l’attitude de l’aéronef porteur du système.
Dans le mode d’affichage figé, tes informations non géolocalisées sont affichées de manière figée, sans suivre la ligne de visée du pilote.
De plus, avantageusement, le troisième contrôleur 60 est configuré pour afficher, en fonction de la ligne de visée du pilote, des éléments complémentaires d’interface homme-machine dans les zones libres.
Le système 2 comporte en outre une interface de commande vocale 64, adaptée à recevoir et à interpréter des ordres de commande vocale transmis aux contrôleurs 50, 54, 60.
De plus, le système 2 comporte une mémoire 66 adaptée à mémoriser en particulier des informations 68 relatives à la configuration de la cabine de pilotage, par exemple par une représentation dans un référentiel 3D. Les informations 68 comportent notamment des informations de positionnement des IHM, des informations relatives aux zones comportant des surfaces lisses adaptées à servir de support de projection d'images dans la cabine de pilotage. Selon un mode de réalisation, les informations 68 10 comprennent des coordonnées dans le référentiel 3D des zones libres déterminées en fonction de la représentation 3D de l'intérieur de la cabine de pilotage.
Dans un mode de réalisation, le premier contrôleur 50, le deuxième contrôleur 54 et le troisième contrôleur 60 sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle exécutable par un processeur 70 d’un dispositif électronique de calcul 72, par 15 exemple un ordinateur de bord. Le processeur 70 et la mémoire 66 sont adaptés à communiquer via un bus de communication 74.
Ce logiciel est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple, un médium apte à mémoriser les instructions électroniques et à être couplé à un bus d’un système 20 informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire nonvolatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comportant des instructions logicielles.
En variante non représentée, le premier contrôleur 50, le deuxième contrôleur 54 et le troisième contrôleur 60 sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gate Array), un GPU (processeur graphique) ou un GPGPU (de l’anglais General-purpose processing on graphies processing), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Specific Integrated Circuit).
La figure 3 est un diagramme d’états global de fonctionnement d’un système d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation.
Suite à la mise sous tension électrique de l’ensemble des dispositifs de la cabine 35 de pilotage (phase 80), une première phase de calibration 82 est mise en œuvre.
La calibration comprend notamment la calibration du dispositif 58 de détermination de la ligne de visée en coopération avec le dispositif 56 d’affichage d’éléments de réalité augmentée, en fonction des informations 68 relatives à la configuration de la cabine de pilotage. La calibration dépend des caractéristiques physiques du pilote, de sa position sur le siège. Elle est effectuée par des méthodes connues de l’état de la technique, selon le type de dispositif 58 utilisé.
Suite à cette phase de calibration 82, il est possible d’obtenir, à tout instant, la ligne de visée du pilote et par conséquent de déterminer le champ de vision du pilote.
Le système 2 est configuré pour effectuer des affichages sur les interfaces homme-machine 52, 56 selon deux modes distincts appelés mode « standard » (phase 82) et mode « figé » (phase 84). Le passage de l’un à l’autre de ces modes, illustré par des flèches sur la figure 3, est effectué par commande du pilote utilisant l’organe de commande 62.
Le mode d’affichage « standard » comporte l’affichage classique des informations utiles pour la navigation, des éléments d’interaction tactile sur la première IHM 52 notamment, et des affichages d'informations de réalité augmentée sur la deuxième IHM tête-haute 56, en fonction de la ligne de visée du pilote déterminée par le dispositif 58.
Le mode d’affichage « figé » est modifié selon l’invention, comme expliqué plus en détail ci-après.
La figure 4 est un synoptique des principales étapes d’un procédé d’affichage et d’interaction avec un système de commande d’aéronef selon un mode de réalisation. Le procédé est mis en oeuvre par le premier contrôleur 50, le deuxième contrôleur 54 et le troisième contrôleur 60 comme expliqué ci-dessus.
Le procédé est mis en œuvre dans un système comportant un dispositif de détermination de la ligne de visée du pilote qui transmet à une fréquence donnée des informations relatives à la position de la tête et/ou du regard du pilote dans un référentiel associé à la cabine de pilotage prédéterminé. La ligne de visée est par exemple définie par les coordonnées d’un vecteur dans le référentiel prédéterminé.
Le procédé comporte une étape 90 de réception d’une commande de passage en mode d’affichage figé, la commande provenant du pilote. Il s'agit par exemple d’un appui sur un bouton 62. Cette commande reçue est transmise à chacun des contrôleurs.
Suite à cette commande, le deuxième contrôleur tête-haute fixe à l’étape 92, sur l’interface homme-machine tête-haute, les éléments affichant des informations nonconformes. Cet affichage ne suit plus le déplacement de ia tête et donc de la ligne de visée du pilote. En option, les affichages d'informations conformes sont supprimés pour alléger ΙΊΗΜ.
L’étape 92 est suivie d’une étape 94 d’adaptation des première et deuxième interfaces homme machine, effectuée à la fois par le premier contrôleur et par le deuxième contrôieur. L’adaptation comprend une modification d’affichage des éléments d’interaction, par exemple leur grossissement pour faciliter l'interaction.
Ensuite, une étape 96 de contrôle d’affichage d’éléments complémentaires d’interface homme machine dans des zones libres est mise en œuvre par le troisième contrôleur. Les éléments complémentaires d’IHM sont affichés dans des zones libres. Les zones libres sont déterminées à partir des informations relatives à la configuration de la cabine de pilotage préalablement mémorisées, et à partir de ligne de visée du pilote au moment de la réception de la commande (étape 90).
Par exemple, dans la deuxième IHM tête-haute, les informations non-conformes affichées sont figées (étape 92) selon la direction du regard /position de la tête du pilote au moment de la réception de la commande de passage en mode « figé », et les zones libres disponibles pour l’affichage complémentaires sont déterminées ensuite.
L’étape 96 permet de réaliser un affichage en réalité augmentée à la fois sur la première IHM, sur la deuxième IHM, ainsi que dans des zones libres adaptées pour l’affichage d’informations faisant partie de la cabine de pilotage mais situées en dehors des première et deuxième IHM, de manière à former une interface homme-machine étendue.
De préférence, l’affichage des éléments complémentaires d'interface dépend de la ligne de visée du pilote, notée DIR.
Les éléments complémentaires d’IHM sont par exemple des accès / interactions rapides à de l’information utile à la mission qui habituellement sont accessibles via la première IHM tête-basse uniquement (e .g. changement de fréquence radio, visualisation synthétique d’une portion de plan de vol, informations sur l’aéroport de destination, aide au déroutage ...).
Avantageusement, cela permet d’offrir au pilote une IHM étendue, efficace et ergonomique, lui permettant d’accéder à toute information et d’interagir rapidement avec le système de commande, sans enlever ses mains des interacteurs physiques de pilotage, et en faisant peu d’aller-retours entre les positions tête-haute et tête-basse. Le pilote peut se focaliser sur ce qu’il voit à l’extérieur.
De préférence, les éléments complémentaires sont affichés dans des zones libres choisies de manière à être dans le champ de vision du pilote, et de préférence dans le champ de regard (« Field Of Regard »).
De préférence, les éléments complémentaires sont des éléments permettant une interaction, par exemple des menus de commande 49, comportant des sous-menus 49a, 49b, 49c, 49d.
Ces éléments complémentaires sont par exemple affichés sur le pare-brise de 5 l’aéronef, un écran de casque porté par le pilote ou sur une zone plane de la partie têtebasse de la cabine de pilotage.
Un changement de direction (DIR) de la ligne de visée du pilote est capté à l’étape 98, et la nouvelle direction de la ligne de visée est transmise à chacun des contrôleurs.
L’étape 98 est suivie, dans un mode de réalisation, d’un affichage (étape 100) d’un curseur représentatif de la ligne de visée DIR du pilote. Par exemple, l’affichage du curseur est géré par le deuxième contrôleur. En variante, l’affichage du curseur est effectué par le premier contrôleur lorsque la direction DIR pointe dans la première partie de la cabine de pilotage, et par le deuxième contrôleur lorsque la direction DIR pointe dans la deuxième partie tête-haute de la cabine de pilotage.
Ί5 A l’étape 102, chaque contrôleur détermine en temps réel si la direction DIR désigne un élément affiché dans la zone d’affichage qu’il contrôle. En cas de détermination positive, l’affichage est adapté, par exemple une commande associée à l’élément désigné est affichée. Par exemple, une indication visuelle (par exemple surbrillance, affichage clignotant) sera affichée pour indiquer au pilote avec quel élément 20 complémentaire affiché il peut interagir. Le pilote pourra effectuer une commande, par exemple en énonçant une commande vocale.
Cela permet au pilote de désigner/sélectionner un élément affiché par le regard, et de confirmer la désignation par un autre moyen, par exemple une commande manuelle et/ou une commande vocale. Ainsi, avantageusement, l’ergonomie est améliorée.
Ensuite, en cas de réception d’une commande de passage au mode d’affichage standard (étape 104) et l'affichage est modifié (étape 106) pour passer en mode d’affichage standard.
A l’étape 108, les éléments complémentaires d’intertace homme-machine affichés sur les zones non-occupées, et le curseur représentatif de la ligne de visée du pilote sont 30 enlevés. Les informations conformes de la tête-haute réapparaissent, les informations non-conformes s’affichent de nouveau dans le champ de vision du pilote, de préférence l'affichage est effectué de manière à éviter l’effet de surprise. Les IHM qui s’étaient affichées de façon spécifique pour faciliter l’interaction repassent en affichage standard.

Claims (10)

1. Procédé d’affichage et d’interaction avec un système de commande d’aéronef destiné à un pilote d’aéronef, mis en œuvre par un système d’affichage et d’interaction embarqué dans une cabine de pilotage de l’aéronef et comportant une première interface homme-machine dite tête-basse et un premier contrôleur adapté à contrôler un affichage sur ladite première interface homme-machine, et une deuxième interface homme-machine dite tête-haute, et un deuxième contrôleur adapté à contrôler un affichage sur ladite deuxième interface homme-machine, le système d'affichage et d'interaction comportant en outre un dispositif configuré pour déterminer une ligne de visée du pilote en fonction d’une position de la tête et/ou des yeux du pilote, le deuxième contrôleur étant configuré pour, dans un mode d’affichage standard, adapter au moins un affichage sur la deuxième interface homme-machine en fonction de la ligne de visée du pilote, caractérisé en ce qu’il comporte des étapes de :
- détermination d’une ligne de visée du pilote,
- réception (90) d’une commande de passage en mode d'affichage figé et maintient (92) d’au moins une partie de l'affichage sur la deuxième interface hommemachine dans une position figée, indépendamment de la ligne de visée du pilote,
- affichage (96) d’au moins un élément complémentaire d’interface hommemachine, en fonction de la ligne de visée du pilote, dans au moins une zone libre de la cabine de pilotage, et affichage (100) d’un curseur (40) représentatif de la ligne de visée du pilote.
2. Procédé selon la revendication 1, comportant, suite à ladite réception (90) d’une commande de passage en mode d’affichage figé, une adaptation d’affichage (94) sur la première interface homme-machine et sur la deuxième interface homme-machine.
3. Procédé selon l’une des revendications 1 ou 2, comportant en outre une étape de surveillance de changement (96) de direction de la ligne de visée du pilote, et en cas de changement, une étape d’adaptation de l’affichage (100, 102) d’éléments complémentaires d’interface homme-machine en fonction du changement.
4. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel au moins un élément complémentaire est un menu comportant des commandes sélectionnâmes, le procédé comportant en outre une étape de sélection (102) d’une commande en fonction de la ligne de visée du pilote, et une confirmation de commande.
5. Procédé selon l’une quelconque des revendications 1 à 4, comportant une détermination d’un champ de vision du pilote en fonction de la ligne de visée déterminée, et dans lequel ledit au moins un élément complémentaire d'interface homme-machine est
5 affiché dans une zone libre située dans le champ de vision du pilote.
6. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel ladite au moins une partie de l’affichage maintenue sur la deuxième interface homme-machine contient des informations non-géolocalisées.
7. Procédé selon l’une quelconque des revendications 1 à 6, dans lequel la ou les zones libres sont déterminées en fonctions d’informations de configuration relatives à la cabine de pilotage mémorisées.
15
8. Procédé selon la revendication 7, dans lequel l’affichage d’au moins un élément complémentaire est effectué dans au moins une zone libre choisie en fonction des informations de configuration et de la ligne de visée du pilote à la réception de la commande de passage en mode figé.
20
9. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont mises en œuvre par un dispositif électronique de calcul, mettent en œuvre un procédé d’affichage et d’interaction conforme aux revendications 1 à 8.
10. Système d’affichage et d’interaction avec un système de commande d’aéronef 25 destiné à un pilote d’aéronef, embarqué dans une cabine de pilotage de l’aéronef, comportant une première interface homme-machine (10, 52) dite tête-basse et un premier contrôleur (50) adapté à contrôler un affichage sur ladite première interface homme-machine (10, 52), et une deuxième interface homme-machine (30, 56) dite tête-haute, et un 30 deuxième contrôleur (54) adapté à contrôler un ’affichage sur ladite deuxième interface homme-machine (30, 56), le système comportant en outre un dispositif (58) configuré pour déterminer une ligne de visée du pilote en fonction d’une position de la tête et/ou des yeux du pilote, le deuxième contrôleur (54) étant configuré pour, dans un mode d’affichage
35 standard, à adapter au moins un affichage sur la deuxième interface homme-machine en fonction de la ligne de visée du pilote, caractérisé en ce qu’il comporte un organe de commande (62) actionnable par le pilote pour passer dans un mode d’affichage figé, dans lequel le deuxième contrôleur (54) maintient au moins une partie de l’affichage sur la deuxième interface homme-machine (30, 56) dans une position figée indépendamment de la ligne de visée du pilote,
5 et un troisième contrôleur (60) adapté à afficher au moins un élément complémentaire (42, 44, 49) d’interface homme-machine, en fonction de la ligne de visée du pilote, dans au moins une zone libre (46, 48) de la cabine de pilotage, le système étant en outre configuré pour afficher un curseur (40) représentatif de la ligne de visée du pilote.
FR1872329A 2018-12-05 2018-12-05 Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage Active FR3089672B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1872329A FR3089672B1 (fr) 2018-12-05 2018-12-05 Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage
US16/700,804 US11048079B2 (en) 2018-12-05 2019-12-02 Method and system for display and interaction embedded in a cockpit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1872329A FR3089672B1 (fr) 2018-12-05 2018-12-05 Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage

Publications (2)

Publication Number Publication Date
FR3089672A1 true FR3089672A1 (fr) 2020-06-12
FR3089672B1 FR3089672B1 (fr) 2021-12-03

Family

ID=67383799

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1872329A Active FR3089672B1 (fr) 2018-12-05 2018-12-05 Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage

Country Status (2)

Country Link
US (1) US11048079B2 (fr)
FR (1) FR3089672B1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020129605A1 (de) 2020-11-10 2022-05-12 nxtbase technologies GmbH Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe
DE102020129601A1 (de) 2020-11-10 2022-05-12 nxtbase technologies GmbH Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe
FR3120959B1 (fr) * 2021-03-22 2023-10-06 Airbus Helicopters Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef
CN114084357B (zh) * 2021-12-10 2023-12-29 安胜(天津)飞行模拟系统有限公司 一种基于eVTOL飞机的驾驶舱显示系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3018119A1 (fr) * 2014-02-28 2015-09-04 Thales Sa Systeme de visualisation de casque comportant des moyens d'affichage et de gestion de documentation
US20160012612A1 (en) * 2014-07-10 2016-01-14 Fujitsu Limited Display control method and system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289083B1 (en) * 2000-11-30 2007-10-30 Palm, Inc. Multi-sided display for portable computer
US7952594B2 (en) * 2004-05-27 2011-05-31 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
EP1848966A1 (fr) * 2005-02-17 2007-10-31 Lumus Ltd Systeme de navigation personnel
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
IL243422B (en) * 2015-12-30 2018-04-30 Elbit Systems Ltd Information management is displayed according to the directions of the user's gaze
US10598932B1 (en) * 2016-01-06 2020-03-24 Rockwell Collins, Inc. Head up display for integrating views of conformally mapped symbols and a fixed image source
JP6731016B2 (ja) * 2018-06-12 2020-07-29 矢崎総業株式会社 車両用表示システム
US10761676B1 (en) * 2018-09-25 2020-09-01 The Boeing Company Flight deck display management system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3018119A1 (fr) * 2014-02-28 2015-09-04 Thales Sa Systeme de visualisation de casque comportant des moyens d'affichage et de gestion de documentation
US20160012612A1 (en) * 2014-07-10 2016-01-14 Fujitsu Limited Display control method and system

Also Published As

Publication number Publication date
US20200183154A1 (en) 2020-06-11
US11048079B2 (en) 2021-06-29
FR3089672B1 (fr) 2021-12-03

Similar Documents

Publication Publication Date Title
FR3089672A1 (fr) Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage
US10248192B2 (en) Gaze target application launcher
US10754496B2 (en) Virtual reality input
US9950807B2 (en) Adjustable synthetic vision
EP3172644B1 (fr) Projection de regard multiutilisateur à l'aide de dispositifs de visiocasque
EP1600733B1 (fr) Procédé et dispositif pour fournir une trajectoire de vol à un aéronef
US20180046352A1 (en) Virtual cursor movement
EP2668646A1 (fr) Système de commande de point de vue 3d pour l'avionique
EP2706454B1 (fr) Système et procédé de commande de la position d'un objet déplaçable sur un dispositif de visualisation
EP2793070A1 (fr) Systeme de visualisation hybride affichant des informations en superposition sur l'exterieur
FR3005173A1 (fr) Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement
WO2015132281A1 (fr) Procédé de contrôle d'un système de détection et de suivi d'une cible
EP3111271B1 (fr) Système comportant un casque equipé d'un dispositif de visualisation et de moyens d'affichage et de gestion de documentation
FR3054314A1 (fr) Systeme d'affichage de donnees avioniques sur au moins un espace d'affichage, cockpit d'aeronef comportant un tel systeme, procede d'affichage et produit programme d'ordinateur associes
FR3030033A1 (fr) Dispositif d'affichage et de mise a jour d'un motif de trajectoire aerienne en regard d'une zone au sol, notamment pour une mission de largage
EP3767240B1 (fr) Dispositif d'affichage électronique pour planche de bord tout écran d'un véhicule, véhicule et procédé d'affichage associés
FR3060116A1 (fr) Systeme et procede d'affichage d'un aeronef
WO2020081677A9 (fr) Systèmes et procédés de fourniture de plateforme informatique mobile en tant qu'outil d'interface physique d'un espace interactif
FR3131029A1 (fr) Procédé et dispositif électronique de commande d’un ensemble d’affichage propre à être embarqué dans un poste de pilotage d’un aéronef, programme d’ordinateur et système d’affichage associé
EP4064010B1 (fr) Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef
EP3467570B1 (fr) Gestion de la rivalite oculaire
WO2021105303A1 (fr) Système de pilotage d'aéronef
WO2024132690A1 (fr) Système de réalité immersive embarqué sur un véhicule
FR3054315B1 (fr) Systeme d'affichage de donnees avioniques sur une pluralite d'espaces d'affichage, cockpit d'aeronef comportant un tel systeme, procede d'affichage et programme d'ordinateur associes
FR3020688A1 (fr) Systeme de visualisation de tete comportant des moyens de selections de cap et procede de selection associe

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200612

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6