FR3098932A1 - Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran - Google Patents

Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran Download PDF

Info

Publication number
FR3098932A1
FR3098932A1 FR1907971A FR1907971A FR3098932A1 FR 3098932 A1 FR3098932 A1 FR 3098932A1 FR 1907971 A FR1907971 A FR 1907971A FR 1907971 A FR1907971 A FR 1907971A FR 3098932 A1 FR3098932 A1 FR 3098932A1
Authority
FR
France
Prior art keywords
screen
information
aircraft
pilot
piece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1907971A
Other languages
English (en)
Other versions
FR3098932B1 (fr
Inventor
Joël Astruc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Helicopters SAS
Original Assignee
Airbus Helicopters SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Helicopters SAS filed Critical Airbus Helicopters SAS
Priority to FR1907971A priority Critical patent/FR3098932B1/fr
Publication of FR3098932A1 publication Critical patent/FR3098932A1/fr
Application granted granted Critical
Publication of FR3098932B1 publication Critical patent/FR3098932B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

La présente invention concerne un procédé d’assistance au pilotage d’un aéronef (1) à l’aide d’un écran (5,5’) sur lequel un paysage extérieur est visible. Le procédé comporte des étapes de détection (110,120) d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) et d’une direction de son regard ainsi que des étapes de détermination (210,220,230) d’une position d’un point géographique (50) dudit paysage visible via ledit écran (5,5’) et des positions sur ledit écran (5,5’) en fonction de ladite position et de ladite orientation de ladite tête (20) d’une première information attachée audit point géographique (50) et d’au moins une deuxième information indépendante dudit point géographique (50). Le procédé comporte également une quatrième détermination (320) d’une zone visée (A2) centrée dans ladite direction dudit regard dudit pilote sur ledit écran (5,5’) et une première adaptation (410) d’une première caractéristique lumineuse d’une première et/ou deuxième information située dans ladite zone visée (A2) afin d’améliorer la visibilité de ladite première et/ou deuxième information pour ledit pilote. Figure abrégé : figure 1

Description

Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran
La présente invention est du domaine de l’assistance au pilotage d’un aéronef, et en particulier du domaine restreint de l’assistance au pilotage d’un aéronef par fourniture d’informations sur un écran équipant un cockpit d’aéronef.
La présente invention concerne un procédé et un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’au moins un écran de l’aéronef, un paysage extérieur à l’aéronef étant visible sur l’écran. Ce paysage extérieur peut être affiché sur l’écran ou bien être visible à travers l’écran qui est alors transparent ou bien semi-transparent.
Différents types de systèmes de visualisation peuvent être disponibles dans le cockpit d’un aéronef à l’attention du pilote et/ou du copilote de l’aéronef.
Dans un but de simplification, par la suite, le terme « pilote » désigne aussi bien le pilote que le copilote et peut être remplacé par le terme « copilote » à tout moment.
Un ou plusieurs écrans sont généralement agencés sur un tableau de bord, ces écrans permettant l’affichage d’informations de vol ainsi qu’éventuellement une image du paysage extérieur à l’aéronef.
Un système de visualisation peut aussi comprendre une surface vitrée du cockpit sur laquelle sont projetées les informations requises, le paysage extérieur à l’aéronef étant ainsi visible par le pilote à travers cette surface vitrée.
Par exemple, le document EP 2361832 décrit un poste de pilotage d'un aéronef comportant des extensions d’affichages transparents éventuellement formées par une partie du parebrise de l’aéronef. La transparence et l’opacité de ces extensions d’affichages peuvent être ajustées par zones, par exemple en fonction de la luminosité du paysage extérieur visible à travers les extensions d’affichages, afin d’améliorer dans ces zones la visibilité du paysage et/ou des informations affichées.
Un système de visualisation peut également être un écran transparent ou bien semi-transparent agencé dans le cockpit de l’aéronef. Un tel écran transparent ou bien semi-transparent affiche les informations requises et permet au pilote de voir le paysage extérieur à l’aéronef à travers cet écran transparent ou semi-transparent.
Par exemple, le document FR 3026196 décrit un système de visualisation comportant un écran semi-transparent, des dispositifs de génération d'images et une paire de lunettes pour gérer un problème d’erreur de parallaxe entre les images affichées et le paysage extérieur.
Un afficheur dit « tête haute » également désigné par l’acronymeHUDpour la désignation en langue anglaise « Head Up Display » peut aussi être disponible dans un cockpit de l’aéronef. Cet afficheur tête haute peut par exemple comporter un écran transparent ou bien une surface transparente sur laquelle des informations sont projetées.
On connaît notamment le document FR 3016448 qui décrit un système d'affichage pour aéronef, en particulier un afficheur tête haute, comportant une surface d’affichage au moins partiellement transparente et un module d'affichage d'informations sur la surface de visualisation. Les informations affichées permettent la vision du paysage extérieur à l’aéronef à travers la surface d’affichage. Le module d'affichage permet également l’affichage d’une fenêtre contextuelle contenant des informations et dont l’opacité peut être augmentée, notamment en fonction de la luminosité du paysage extérieur.
Selon un autre exemple, le document FR 3049072 décrit un système d'affichage tête haute comportant un écran transparent, un projecteur d’images et au moins un capteur détectant la direction du regard du pilote de l’aéronef. La direction du regard du pilote est déterminée par la technique de l’occulométrie. Le projecteur prend en compte cette direction du regard afin de décaler, notamment latéralement, les images affichées sur l’écran transparent, en particulier en présence d’un fort vent latéral.
Un système de visualisation peut aussi être intégré au casque du pilote. Un tel système de visualisation est souvent désigné par l’acronymeHMDpour la désignation en langue anglaise « Helmet Mounted Display » ouHMSDpour « Helmet Mounted Sight & Display ». Un tel système de visualisation peut par exemple comporter un écran transparent ou bien une surface transparente sur laquelle des informations sont projetées.
En outre, le document FR 3004817 décrit un système de visualisation hybride comportant un premier dispositif d’affichage, par exemple un écran, un second dispositif d’affichage porté par un casque du pilote de l’aéronef et un dispositif de détection de la position et de l’orientation du casque. Ce système de visualisation hybride permet de gérer la superposition dans le champ de vision du pilote des images affichées respectivement sur le premier dispositif d’affichage et sur le second dispositif d’affichage. Selon les circonstances, le système de visualisation hybride permet de décaler une seule image ou bien les deux images afin de permettre une vision simultanée de toutes les images. Le système de visualisation hybride peut également supprimer sur une image de la zone de superposition afin de privilégier la vision de l’autre image.
L’un des intérêts d’un affichage tête haute et/ou d’un système de visualisation intégré à un casque est notamment de mettre l’information la plus pertinente devant les yeux du pilote au bon moment, au bon endroit, quel que soit l’endroit où regarde le pilote et sans que cette information gêne le pilote.
De plus, l’art antérieur comporte également les documents suivants.
Le document FR 3013852 décrit une méthode et un dispositif d'affichage d'informations tête haute à lisibilité améliorée. Ce dispositif d’affichage comporte un écran transparent. La couleur des informations affichées sur l'écran est modifiée en fonction de la couleur de la scène extérieure visible à travers l’écran de sorte à améliorer la lisibilité de ces informations.
Le document EP 2482114 décrit un système d'affichage tête haute comportant un écran transparent qui peut être assombri afin de former un pare-soleil pour le pilote de l’aéronef.
La présente invention a alors pour objet de proposer un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’un écran de l’aéronef pour faciliter la visualisation par le pilote de l’aéronef d’informations nécessaires et pertinentes.
La présente invention vise un procédé d’assistance au pilotage d’un aéronef à l’aide d’au moins un écran de l’aéronef, un paysage extérieur à l’aéronef étant visible via cet au moins un écran.
Le paysage extérieur à l’aéronef est alors visible au travers de l’écran ou une image représentative de ce paysage est affichée sur ledit écran. Ce paysage extérieur à l’aéronef est de préférence situé à l’avant de l’aéronef.
Le procédé d’assistance au pilotage selon l’invention peut être appliqué à un seul écran ou bien simultanément à au moins deux écrans.
Le procédé d’assistance au pilotage d’un aéronef à l’aide d’au moins un écran selon l’invention est remarquable en ce qu’il comporte les étapes suivantes :
  • première détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef,
  • deuxième détection d’une direction du regard du pilote dans le repère local,
  • première détermination d’une position dans le repère local d’au moins un point géographique du paysage visible via ledit au moins un écran,
  • deuxième détermination de la position sur ledit au moins un écran d’au moins une première information attachée audit au moins un point géographique visible via ledit au moins un écran,
  • troisième détermination de la position sur ledit au moins un écran d’au moins une deuxième information indépendante d’un point géographique,
  • élaboration d’une image principale A1 comportant ladite au moins une première information et/ou ladite au moins une deuxième information,
  • quatrième détermination d’une zone visée A2 dudit au moins un écran, la zone visée A2 étant centrée dans la direction du regard du pilote,
  • premier affichage sur ledit au moins un écran de l’image principale A1,
  • première adaptation d’au moins une première caractéristique lumineuse d’au moins une première et/ou une deuxième information de l’image principale A1 située dans la zone visée A2 afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 pour le pilote.
De la sorte, au moins une première et/ou deuxième information située dans la zone visée A2 centrée sur le regard du pilote est mise en évidence par l’adaptation d’au moins une première caractéristique lumineuse de cette au moins une première et/ou deuxième information. En conséquence, la lisibilité de cette au moins une première et/ou deuxième information par le pilote est améliorée par rapport aux nombreuses informations affichées sur chaque écran. Le pilote peut ainsi prendre avantageusement rapidement et efficacement connaissance.
En effet, le champ de vision du pilote est rempli de nombreuses informations affichées. Le pilote peut alors avoir du mal à identifier la ou les informations pertinentes à prendre en compte à un moment donné. La présente invention permet avantageusement de pallier ce risque en identifiant pour le pilote les informations pertinentes et en les mettant en évidence dans la zone visée A2 centrée sur le regard du pilote.
Une première caractéristique lumineuse d’au moins une première et/ou une deuxième information peut être la luminance ou l’opacité.
Par exemple, lorsque la première caractéristique lumineuse est la luminance et/ou l’opacité, lors de la première adaptation, une première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est augmentée.
Lorsque la première caractéristique lumineuse est la luminance ladite au moins une première et/ou deuxième information située dans la zone visée A2 peut alors apparaître en surbrillance vis-à-vis des autres informations visibles sur l’image principale A1.
Selon un aspect, le procédé selon l’invention peut comporter une étape supplémentaire de deuxième adaptation d’une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2, afin d’augmenter notamment le contraste entre d’une part la zone visée A2 et d’autre part l’image principale A1 hors de la zone visée A2 et, par suite, d’améliorer la visibilité de la zone visée A2. De la sorte, la lisibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est avantageusement de nouveau améliorée.
Par exemple, lorsque la deuxième caractéristique lumineuse est la luminance, lors de la deuxième adaptation, une deuxième valeur de la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 est diminuée.
En outre, une information considérée comme importante pour le pilotage de l’aéronef peut également être située sur l’image principale A1, mais en dehors de la zone visée A2. Une information est par exemple considérée comme importante si cette information concerne une alarme. Il peut s’agir également d’une information attachée à un point géographique, dont la position de cette information sur l’image principale A1 n’est pas prévisible par le pilote et dont il convient d’améliorer la lisibilité pour aider à sa détection dans le champ de vision du pilote.
Afin d’améliorer la lisibilité d’une telle information considérée comme importante et en faciliter sa prise en compte par le pilote, le procédé selon l’invention peut aussi comporter une étape supplémentaire de troisième adaptation d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de la zone visée A2.
Par exemple, lorsque la troisième caractéristique lumineuse est la luminance, lors de cette troisième adaptation, une troisième valeur de cette troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée.
Selon un aspect, le procédé peut comporter une étape supplémentaire de mesure d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse du paysage visible à l’aide de chaque écran, par exemple en direction de la tête du pilote. La première adaptation peut alors adapter la première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 en prenant en compte cette quatrième valeur de la quatrième caractéristique lumineuse afin d’améliorer sa visibilité pour le pilote. De la sorte, ladite au moins une information est avantageusement plus facilement et rapidement discernable vis-à-vis de l’image du paysage par le pilote.
Par exemple, lorsque la première caractéristique lumineuse et la quatrième caractéristique lumineuse sont la luminance, lors de la première adaptation, une première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est supérieure à la quatrième valeur de la quatrième caractéristique lumineuse du paysage.
De plus, la troisième adaptation peut prendre en compte la quatrième caractéristique lumineuse. Par exemple, lorsque la première caractéristique lumineuse et la quatrième caractéristique lumineuse sont la luminance, lors de la troisième adaptation, une troisième luminance de ladite au moins une information considérée comme importante est supérieure à une quatrième luminance du paysage. Ainsi, la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est avantageusement adaptée de sorte à améliorer sa visibilité pour le pilote. La encore, ladite au moins une information considérée comme importante est ainsi avantageusement plus facilement et rapidement discernable du paysage par le pilote.
Par exemple, lorsque deux premières caractéristiques lumineuses sont la luminance et l’opacité et que deux quatrièmes caractéristiques lumineuses sont la luminance et l’opacité, lorsqu’une quatrième luminance du paysage est supérieure à une limite prédéterminée, lors de la première adaptation, une première opacité de la zone visée A2 est augmentée.
En outre, la deuxième détermination de la position sur un écran de ladite au moins une première information peut être effectuée en prenant en compte la position de la tête du pilote vis-à-vis de l’écran ainsi que la position dudit au moins un point géographique vis-à-vis de l’écran lorsque cet écran est au moins partiellement transparent. En effet, avec un écran au moins partiellement transparent chaque point géographique est visible par le pilote à travers cet écran et chaque première information relative à un point géographique visible du paysage extérieur est affichée sur l’écran de sorte à être alignée avec la tête du pilote et ce point géographique. De préférence, la position de la tête correspond au point de rotation de la tête.
En outre, l’orientation de la tête du pilote vis-à-vis de l’écran peut également être prise en compte pour effectuer la deuxième détermination de la position sur un écran de ladite au moins une première information, notamment lorsque la position de la tête ne coïncide pas au point de rotation de la tête.
De même, la troisième détermination de la position sur un écran d’au moins une deuxième information peut être effectuée en prenant en compte la position et l’orientation de la tête du pilote vis-à-vis de l’écran. Dans ce cas, ladite au moins une deuxième information est affichée dans le champ de vision primaire du pilote, quelle que soit l’orientation de la tête du pilote.
Le champ de vision primaire du pilote est par exemple défini par des angles de +/-15° de part et d’autre d’un plan horizontal et part des angles de +/-15° par et d’autre d’un plan vertical.
De la sorte, les première et deuxième informations sont correctement positionnées sur l’écran en fonction de la position et de l’orientation de la tête du pilote.
La position sur un écran d’au moins une deuxième information peut aussi être indépendante de la position et l’orientation de la tête du pilote vis-à-vis de l’écran. Dans ce cas, cette au moins une deuxième information est affichée à la même position sur l’écran, quelle que soit l’orientation de la tête du pilote.
Par ailleurs, la zone visée A2 a de préférence une première aire prédéterminée inférieure à une seconde aire de l’image principale A1. La zone visée A2 peut par exemple être formée par un carré correspondant à un angle solide de 20°x20° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe.
La zone visée A2 peut aussi correspondre à une première aire sensiblement équivalente à la zone fovéale de l’œil. La zone fovéale correspond à la zone du champ de vision où l'acuité et la précision sont maximales et, de fait, où la vision est la plus nette. La zone visée A2 a donc une faible aire correspondant à un petit angle solide. La zone visée A2 est par exemple formée par un carré correspondant à un angle solide de 5°x5° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut être appliquée uniquement à ladite au moins une première et/ou une deuxième information, en particulier lorsque la première caractéristique lumineuse est la luminance.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut aussi être appliquée sur la zone visée A2 dans sa totalité, en particulier lorsque la première caractéristique lumineuse est l’opacité.
En outre, la première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut être réalisée de façon sensiblement instantanément, à savoir sans attendre que la direction du regard du pilote soit fixe pendant une certaine durée, le pilote balayant par exemple son regard sur au moins une partie d’un écran.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut également être réalisée après une durée prédéterminée pendant laquelle la direction du regard du pilote est sensiblement fixe vis-à-vis de l’écran et est par exemple alignée avec une première et/ou une deuxième information. La durée prédéterminée est par exemple égale à une seconde.
Par ailleurs, l’aéronef comporte notamment :
  • au moins un écran,
  • un dispositif d’affichage d’informations sur ledit au moins un écran,
  • un calculateur, et
  • des capteurs.
Le calculateur de l’aéronef permet l’exécution des étapes de ce procédé d’assistance au pilotage. Le calculateur peut par exemple comporter au moins un processeur, au moins un circuit intégré, au moins un système programmable, au moins un circuit logique ou bien tout dispositif équivalent, ces exemples ne limitant pas la portée donnée à l’expression « calculateur ». Le calculateur peut aussi comporter une mémoire stockant notamment des instructions relatives aux étapes du procédé.
Un écran de l’aéronef peut être au moins partiellement transparent. Le paysage extérieur à l’aéronef est alors visible pour un pilote de l’aéronef à travers l’écran au moins partiellement transparent et peut alors être vue par le pilote de l’aéronef. L’écran est par exemple un écran transparent ou bien semi-transparent.
Un écran peut aussi être opaque par exemple agencé sur le tableau de bord de l’aéronef. Le procédé selon l’invention comporte alors une étape supplémentaire de deuxième affichage d’une image A0 du paysage extérieur à l’aéronef sur l’écran. De fait, le paysage extérieur à l’aéronef est également visible pour un pilote de l’aéronef via cet écran opaque.
L’aéronef comporte alors au moins une caméra permettant de capturer des images de ce paysage extérieur.
Le procédé peut alors comporter également une étape supplémentaire de quatrième adaptation d’au moins une quatrième caractéristique lumineuse de l’image A0 du paysage afin d’augmenter le contraste entre d’une part ladite au moins une première et/ou deuxième information située dans la zone visée A2 et le cas échéant ladite au moins une information considérée comme importante et d’autre part l’image A0 du paysage.
De plus, un écran peut avoir une forme courbée. Dans ce cas, la deuxième détermination est effectuée en prenant en compte la courbure de l’écran. De même, la troisième et la quatrième déterminations sont également faites en prenant en compte la courbure de l’écran.
En outre, le dispositif d’affichage d’informations peut projeter les informations sur un écran ou bien être intégré à l’écran pour permettre l’affichage de ces informations sur l’écran. Le dispositif d’affichage d’informations peut également permettre l’affichage de l’image A0 du paysage extérieur à l’aéronef sur l’écran lorsque l’écran est opaque.
Les capteurs comportent notamment un premier jeu de capteurs de détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef. Le repère local de l’aéronef est un repère attaché à l’aéronef, par exemple au nez de l’aéronef. Un repère local de l’aéronef peut être par exemple formé par les directions de roulis, de tangage et de lacet de l’aéronef.
Le premier jeu de capteurs est destiné à déterminer la position et l’orientation de la tête du pilote par rapport à un repère local de l’aéronef. Les capteurs de ce premier jeu de capteurs peuvent être magnétiques, optiques et/ou inertiels. Ce premier jeu de capteurs peut être connu en langue anglaise sous la désignation « Head Tracker ». Ce premier jeu de capteurs comporte par exemple un ou plusieurs capteurs positionnés sur le casque du pilote et un ou plusieurs capteurs fixes solidaires du cockpit de l’aéronef.
Les capteurs comportent également un deuxième jeu de capteurs de détection d’une direction du regard du pilote de l’aéronef dans le repère local de l’aéronef. Ce deuxième jeu de capteurs utilise par exemple la technique de l’occulométrie afin de déterminer la direction du regard du pilote. Ce deuxième jeu de capteurs comporte par exemple un ou plusieurs capteurs fixes positionnés dans le cockpit de l’aéronef et captant la direction du regard du pilote. Ce deuxième jeu de capteurs peut également être fixé sur un dispositif solidaire de la tête du pilote, typiquement le casque du pilote.
Les capteurs peuvent aussi comporter un dispositif de détection d’une position d’au moins un point géographique du paysage visible sur chaque écran. Ce dispositif de détection peut permettre de déterminer la position de cet au moins un point géographique directement dans le repère local de l’aéronef. Ce dispositif de détection comporte par exemple un radar.
Ce dispositif de détection peut aussi permettre de déterminer la position de cet au moins un point géographique dans le repère local de l’aéronef en utilisant ses coordonnées dans un repère terrestre. Un transfert du repère terrestre vers le repère local de l’aéronef doit alors être effectué. Dans ce but, la première détermination comporte les sous étapes suivantes :
  • une troisième détection d’une position dans un repère terrestre d’au moins un point géographique du paysage et,
  • un transfert de la position dudit au moins un point géographique du repère terrestre vers le repère local de l’aéronef.
La position de cet au moins un point géographique dans le repère terrestre peut par exemple être stockée dans une mémoire que comporte le calculateur de l’aéronef, typiquement dans une base de donnée. La position de cet au moins un point géographique dans un repère terrestre peut également être réceptionnée par l’aéronef par exemple par au moins une onde radio.
La présente invention vise également un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’au moins un écran de l’aéronef configuré pour mettre en œuvre le procédé précédemment décrit. Le système d’assistance comporte :
  • au moins un écran, un paysage étant visible sur chaque écran,
  • un dispositif d’affichage des informations sur chaque écran,
  • un calculateur,
  • un premier jeu de capteurs de détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef,
  • un deuxième jeu de capteurs de détection d’une direction du regard du pilote dans le repère local dudit aéronef, et
  • un dispositif de détection d’une position d’au moins un point géographique du paysage visible sur chaque écran.
L’invention et ses avantages apparaîtront avec plus de détails dans le cadre de la description qui suit avec des exemples donnés à titre illustratif en référence aux figures annexées qui représentent :
  • la figure 1, un aéronef comportant un système d’assistance au pilotage par affichage adaptatif à l’aide d’au moins un écran,
  • la figure 2, un écran et les informations affichées et
  • les figures 3 et 4, deux schémas synoptiques d’un procédé d’assistance au pilotage de l’aéronef par affichage adaptatif.
Les éléments présents dans plusieurs figures distinctes sont affectés d’une seule et même référence.
L’aéronef 1 représenté sur la figure 1 comporte un fuselage 4, un rotor principal 2, un rotor arrière 3, un tableau de bord 8 et un système d’assistance 10 au pilotage par affichage adaptatif à l’aide d’au moins un écran 5,5’. L’exemple illustré sur la figure 1 concerne donc un giravion, mais le système d’assistance 10 au pilotage peut être utilisé par tout type d’aéronef.
Le système d’assistance 10 au pilotage d’un aéronef 1 par affichage adaptatif à l’aide d’au moins un écran 5,5‘ comporte au moins un écrans 5,5’ selon la figure 1, un dispositif d’affichage 6 d’informations sur chaque écran 5,5’, un calculateur 7, un premier jeu de capteurs 12,13 de détection d’une position et d’une orientation de la tête 20 d’un pilote de l’aéronef 1 dans un repère local de l’aéronef 1, un deuxième jeu de capteurs 14,15 de détection d’une direction du regard du pilote de l’aéronef 1 dans le repère local de l’aéronef 1 et un dispositif de détection 16 d’une position d’au moins un point géographique 50 du paysage visible via un écran 5. L’aéronef 1 peu comporter également une caméra 18 permettant de capturer une image A0 du paysage extérieur à l’aéronef 1 et situé à l’avant de l’aéronef 1.
Selon l’exemple représenté sur la figure 1, un premier écran 5 est positionné au dessus du tableau de bord 8 et est au moins partiellement transparent, le paysage extérieur à l’aéronef 1 étant visible au travers de ce premier écran 5. Un second écran 5’ est intégré au tableau de bord 8 et est opaque. Une image A0 du paysage extérieur à l’aéronef 1 est affichée sur cet écran 5’, par exemple par l’intermédiaire du dispositif d’affichage 6 d’informations.
De la sorte, le pilote de l’aéronef 1 peut voir le paysage extérieur à l’aéronef à l’aide de chacun de ces deux écrans 5,5’.
Tout de fois, un système d’assistance 10 au pilotage d’un aéronef 1 selon l’invention peut comporter un seul écran 5,5’ opaque, semi-transparente ou bien transparent.
Le dispositif d’affichage 6 d’informations permet d’une part l’affichage de l’image A0 du paysage extérieur à l’aéronef 1 sur le second écran 5’ opaque et d’autre part l’affichage sur chacun des deux écrans 5,5’ d’informations, en particulier des informations nécessaires au vol de l’aéronef 1.
Différents types d’informations peuvent être affichés par un dispositif d’affichage 6 sur chaque écran 5,5’, comme représenté sur les figures 1 et 2.
Par exemple, une première information 21 est une information attachée à un point géographique 50 du paysage extérieur à l’aéronef 1 et affichée uniquement lorsque le paysage visible via l’écran 5,5’ contient ce point géographique. Une première information 21 indique par exemple une zone d’atterrissage pour l’aéronef 1 comme représenté sur la figure 2. Une première information peut également indiquer un point de passage de la trajectoire à suivre ou un point particulier de l’environnement…
Une deuxième information 22,23,24 peut être une information concernant par exemple les conditions de vol ou bien le pilotage de l’aéronef 1. Une deuxième information 22 indique typiquement l’altitude de l’aéronef 1, sa hauteur ou encore sa vitesse… Une deuxième information 23 peut aussi indiquer l’attitude de l’aéronef 1, par l’intermédiaire de son angle de roulis, son angle de tangage et une ligne d’horizon. Une deuxième information 24 peut encore indiquer une information de pilotage telle que le cap de l’aéronef 1, son vecteur vitesse… Une deuxième information peut également indiquer un état de fonctionnement d’un élément de l’aéronef 1.
Certaines de ces deuxièmes informations et en particulier les concernant les conditions de vol ou bien le pilotage de l’aéronef 1 peuvent être affichées de façon fixe au centre d’un écran 5,5’. Ces deuxièmes informations peuvent aussi être affichées sur un écran 5,5’ en fonction de la position et de l’orientation de la tête 20 du pilote de sorte à être affichées en permanence dans le champ de vision primaire du pilote, quelle que soit la direction dans laquelle le pilote regarde/est orientée sa tête.
Certaines de ces deuxièmes informations, par exemple celles indiquant un état de fonctionnement d’un élément de l’aéronef 1 peuvent être affichées sur un écran 5,5’ à des positions prédéterminées et indépendantes de la position et de l’orientation de la tête du pilote ainsi que de la direction de son regard. Par exemple, une information 25 sur l’état d’un train d’atterrissage de l’aéronef 1 est affichée en bas au centre d’un écran 5,5’. Une troisième information peut également concerner une information sur l’état d’un moteur droit de l’aéronef 1 affichée par exemple en haut à droite d’un écran 5,5’ ou encore une information sur l’état du rotor principal 2 affichée en haut au centre d’un écran 5,5’…
Une troisième information est une information considérée comme importante et concerne par exemple une alarme. Une troisième information alerte par exemple le pilote d’un incident sur un moteur de l’aéronef 1, d’un dépassement d’une limitation de vol telle que son altitude ou son attitude… Une information est également considérée comme importante si la position d’affichage de cette information sur un écran 5,5’ n’est pas prévisible par le pilote, à savoir que son affichage est conditionné à la survenue d’un évènement prédéterminé. Une information attachée à un point géographique 50 du paysage extérieur à l’aéronef 1 peut éventuellement également être considérée comme importante.
D’autres informations peuvent aussi être affichées dans le champ de vision primaire du pilote uniquement lorsque le pilote regarde dans un certain secteur. Il s’agit par exemple d’informations sur l’attitude de l’aéronef 1 affichées simplement lorsque le pilote regarde dans le secteur avant de l’aéronef 1 ou encore d’informations liées au vol stationnaire lorsque le pilote regarde au-dessus de la ligne d’horizon.
Le calculateur 7 comporte par exemple un processeur, un circuit intégré ou bien un système programmable permettant l’exécution des étapes du procédé d’assistance au pilotage de l’aéronef 1 par affichage adaptatif. Le calculateur 7 peut aussi comporter une mémoire 71 stockant notamment des instructions relatives aux étapes de ce procédé et éventuellement une base de données terrain comportant des informations sur l’environnement de vol de l’aéronef 1 et en particulier sur des points géographiques particuliers de cet environnement.
Le premier jeu de capteurs 12,13 permet de détecter une position et une orientation de la tête 20 d’un pilote de l’aéronef 1 dans un repère local de l’aéronef 1. Le repère local est attaché à l’aéronef 1 et comporte par exemple les axes X,Y,Z formés respectivement par les directions de roulis, de tangage et de lacet de l’aéronef 1. Le premier jeu de capteurs 12,13 comporte par exemple un premier capteur 12 positionné sur le casque du pilote et un second capteur 13 fixe et positionné dans le cockpit de l’aéronef 1.
Le premier jeu de capteurs 12,13 peut comporter au moins un capteur magnétique 12 et/ou au moins un capteur optique 13.
Dans le cas d’un capteur magnétique 12, un ensemble de bobines est agencé par exemple dans le cockpit de l’aéronef et produisent un champ magnétique. Le capteur magnétique 12 monté sur le casque d’un pilote détecte les modifications du champ magnétique capté lors des mouvements de la tête du pilote et permet ainsi de déterminer la position et l’orientation de la tête.
Dans le cas d’un capteur optique 13, un ou plusieurs émetteurs optiques sont par exemple fixés sur le casque du pilote. Un ou plusieurs senseurs positionnés dans le cockpit de l’aéronef captent chaque faisceau émis respectivement par un ou plusieurs émetteurs et permettent d’en déduire avec précision la position de la tête du pilote. De même, chaque émetteur optique peut être fixé dans le cockpit de l’aéronef, chaque senseur étant alors positionné sur le casque du pilote.
Le deuxième jeu de capteurs 14,15 permet de détecter une direction du regard du pilote de l’aéronef 1 dans le repère local de l’aéronef 1. Ce deuxième jeu de capteurs 14,15 comporte par exemple deux caméras fixes positionnées dans le cockpit de l’aéronef 1 et utilise la technique de l’occulométrie afin de déterminer cette direction du regard du pilote. Ce deuxième jeu de capteurs 14,15 peut également être fixé sur un dispositif solidaire de la tête 20 d’un pilote de l’aéronef 1, tel que son casque par exemple.
Toutefois, une seule caméra peut aussi être suffisante pour détecter la direction du regard du pilote.
Le dispositif de détection 16 permet de déterminer une position d’au moins un point géographique 50 du paysage visible via un écran 5,5’. Ce dispositif de détection 16 comporte par exemple un radar afin de déterminer la position de chaque point géographique 50 directement dans le repère local de l’aéronef 1.
Ce dispositif de détection 16 peut aussi comporter une mémoire ou bien utiliser la mémoire 71 du calculateur 7 stockant par exemple les coordonnées dans un repère terrestre de chaque point géographique 50 et des informations le concernant. Un transfert du repère terrestre vers le repère local de l’aéronef 1 doit alors être effectué, typiquement par l’intermédiaire du calculateur 7.
Un premier schéma synoptique d’un procédé d’assistance au pilotage d’un aéronef 1 par affichage adaptatif à l’aide des deux écrans 5,5’ est représenté sur la figure 2, un paysage extérieur à l’aéronef 1 étant visible sur chaque écran 5,5’. Le procédé comporte les étapes suivantes :
Une première détection 110 permet de déterminer une position et une orientation de la tête 20 d’un pilote de l’aéronef 1 dans le repère local de l’aéronef 1. Cette première détection 110 peut être réalisée par l’intermédiaire du premier jeu de capteurs 12,13 et du calculateur 7.
Une deuxième détection 120 permet de déterminer une direction du regard du pilote dans le repère local. Cette deuxième détection 120 peut être réalisée par l’intermédiaire du deuxième jeu de capteurs 14,15 et du calculateur 7.
Une première détermination 210 permet de déterminer ’une position dans le repère local d’au moins un point géographique 50 du paysage visible via un écran 5,5’. Cette première détermination 210 peut être réalisée par l’intermédiaire du dispositif de détection 16, et éventuellement du calculateur 7 et de sa mémoire 71.
Une deuxième détermination 220 permet de déterminer la position sur l’écran 5,5’ d’au moins une première information attachée à chaque point géographique 50 visible sur l’écran 5,5’. Cette deuxième détermination 220 peut être réalisée par l’intermédiaire du calculateur 7. Cette deuxième détermination 220 peut aussi être réalisée en fonction de la position de la tête 20 du pilote vis-à-vis du premier écran 5 et de la position du au moins un point géographique 50, ce premier écran 5 étant au moins partiellement transparent.
Une troisième détermination 230 permet de déterminer la position sur l’écran 5,5’ d’au moins une deuxième information indépendante d’un point géographique 50. Cette troisième détermination 230 peut être réalisée par l’intermédiaire du calculateur 7. Cette troisième détermination 230 peut aussi être réalisée en fonction de la position et de l’orientation de la tête 20 du pilote vis-à-vis d’un écran 5,5’
Une étape d’élaboration 310 permet d’élaborer une image principale A1 comportant cette au moins une première information et/ou cette au moins une deuxième information. Cette étape d’élaboration 310 peut être réalisée par l’intermédiaire du calculateur 7.
Une quatrième détermination 320 permet de déterminer une zone visée A2 d’un écran 5,5’, la zone visée A2 étant centrée dans la direction du regard du pilote. Cette quatrième détermination 320 peut être réalisée par l’intermédiaire du calculateur 7.
Un premier affichage 330 permet d’afficher sur chaque écran 5,5’ l’image principale A1. Ce premier affichage 330 peut être réalisé par l’intermédiaire du dispositif d’affichage 6.
Une première adaptation 410 permet d’adapter au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information de l’image principale A1 située dans la zone visée A2 afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 pour le pilote. Dans ce but, le calculateur 7 commande le dispositif d’affichage 6 afin d’adapter cette au moins une première caractéristique lumineuse.
La zone visée A2 a une première aire inférieure à une seconde aire de l’image principale A1. La zone visée A2 est par exemple formée par un carré correspondant à un angle solide de 20°x20° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe. La zone visée A2 peut aussi avoir une première aire plus faible et être formée par exemple par un carré correspondant à un angle solide de 5°x5° aligné sur la direction du regard du pilote et centré sur cette direction.
De la sorte, au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information située dans la zone visée A2 est adaptée afin que cette au moins une première et/ou deuxième information soit mise en évidence sur l’écran 5,5’ et soit de fait plus rapidement et efficacement prise en compte par le pilote. La première caractéristique lumineuse est par exemple la luminance et/ou l’opacité. Une première valeur de cette première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est alors augmentée lors de la première adaptation 410.
Typiquement, un écart entre la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 supérieur à 10% de cette première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est envisageable pour que ladite au moins une première et/ou deuxième information soit mise en évidence vis-à-vis du reste de l’image A1. Un écart compris entre 10% et 30% de cette première caractéristique lumineuse peut être suffisant pour que ladite au moins une première et/ou deuxième information située dans la zone visée A2 soit efficacement et rapidement perceptible par le pilote.
Un tel écart peut par exemple être obtenu soit par une augmentation de luminance de l’image centrale A2, soit par une augmentation de l’opacité de l’image principale A1 créant une opacité partielle diminuant ainsi la luminosité de cette l’image principale A1. Ces deux actions peuvent également être réalisées simultanément.
Toutefois, un écart supérieur à 30% de cette première caractéristique lumineuse peut aussi être utilisé pour augmenter le contraste entre ladite au moins une première et/ou deuxième information située dans la zone visée A2 et l’image principale A1 en dehors de la zone visée A2 et améliorer de la sorte la mise en évidence de ladite au moins une première et/ou deuxième information située dans la zone visée A2.
La couleur de ladite au moins une première et/ou deuxième information située dans la zone visée A2 peut aussi être adaptée afin de se différencier notamment de la couleur du paysage visible dans cette zone visée A2 et de mettre en évidence cette au moins une première et/ou deuxième information vis-à-vis du paysage.
En outre, le procédé d’assistance au pilotage de l’aéronef 1 selon l’invention peut comporter des étapes supplémentaires selon le second schéma synoptique représenté sur la figure 3.
Par exemple, le procédé peut comporter une étape supplémentaire de deuxième adaptation 420 d’une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 afin d’augmenter le contraste entre la zone visée A2 et l’image principale A1 hors de la zone visée A2. Par exemple, la luminance de l’image principale A1 constituant la deuxième caractéristique lumineuse est diminuée hors de la zone visée A2 lors de la deuxième adaptation 420.
Typiquement, la luminance de l’image principale A1 est diminuée afin qu’un écart entre la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 soit supérieur à 10% de cette première caractéristique lumineuse.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de troisième adaptation 430 d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de la zone visée A2 afin d’améliorer la visibilité de cette au moins une information considérée comme importante. Une information est considérée comme importante si l’information concerne une alarme ou bien si l’information est attachée à un point géographique 50 ou encore si une position de l’information sur l’image principale A1 n’est pas prévisible par le pilote.
Ainsi, lorsque la troisième caractéristique lumineuse est la luminance, lors de la troisième adaptation 430, une troisième valeur de la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée. Typiquement, la luminance d’une information considérée comme importante est augmentée de sorte qu’un écart entre la troisième caractéristique lumineuse de cette information considérée comme importante et la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 soit supérieur à 10% de cette troisième caractéristique lumineuse.
Cet écart peut dans ce cas être supérieur par exemple à 30% de cette troisième caractéristique lumineuse afin maximiser la mise en évidence de ladite une information considérée comme importante pour le pilote de l’aéronef 1.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de mesure 140 d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse du paysage visible à l’aide d’un écran 5,5’, la première adaptation 410 prenant en compte la quatrième valeur de la quatrième caractéristique lumineuse afin d’adapter la première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 de sorte à améliorer sa visibilité pour le pilote. Cette mesure peut par exemple être effectuée globalement suivant une direction longitudinale de l’aéronef 1 par un capteur de luminosité fixé sur la structure de l’aéronef 1. Cette mesure peut également être effectuée plus précisément par un capteur fixé sur le casque du pilote de l’aéronef 1.
Le procédé comportant également une troisième adaptation 430, la troisième adaptation 430 prend en compte la quatrième caractéristique lumineuse afin d’adapter la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante de sorte à améliorer sa visibilité pour le pilote.
Typiquement, la première caractéristique lumineuse et la quatrième caractéristique lumineuse étant la luminance, lors de la première adaptation 410, une première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est supérieure à la quatrième valeur de la quatrième caractéristique lumineuse du paysage et, le cas échéant, lors de la troisième adaptation 430, une troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est supérieure à une quatrième luminance du paysage.
De la sorte, un écart au moins supérieur à 10% entre d’une part la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et éventuellement la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante et d’autre part la quatrième caractéristique lumineuse du paysage visible à l’aide d’un écran 5,5’ peut être garanti permettant la mise en évidence de ladite au moins une première et/ou deuxième information et éventuellement de ladite au moins une information considérée comme importante vis-à-vis du paysage.
En outre, deux premières caractéristiques lumineuses et deux quatrièmes caractéristiques lumineuse étant la luminance et l’opacité, lorsqu’une quatrième luminance du paysage est supérieure à une limite prédéterminée, lors de la première adaptation 410, une première opacité de la zone visée A2 est augmentée. La limité prédéterminée est par exemple fonction de la performance lumineuse de l’écran 5,5’.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de deuxième affichage 340 d’une image A0 du paysage sur l’écran 5’ opaque.
Dans ce cas, le procédé peut aussi comporter une étape supplémentaire de quatrième adaptation 440 d’au moins une quatrième caractéristique lumineuse de l’image A0 du paysage afin d’augmenter le contraste entre d’une part ladite au moins une première et/ou deuxième information située dans la zone visée A2 et le cas échéant ladite au moins une information considérée comme importante et d’autre part l’image A0 du paysage.
En outre, la position d’au moins un point géographique 50 du paysage peut être connue dans un repère terrestre. La première détermination 210 peut alors comporter les sous étapes suivantes :
  • une troisième détection 212 d’une position dans un repère terrestre dudit au moins un point géographique 50 du paysage et,
  • un transfert 215 de la position du au moins un point géographique 50 du repère terrestre vers le repère local.
Naturellement, la présente invention est sujette à de nombreuses variations quant à sa mise en œuvre. Bien que plusieurs modes de réalisation aient été décrits, on comprend bien qu’il n’est pas concevable d’identifier de manière exhaustive tous les modes possibles. Il est bien sûr envisageable de remplacer un moyen décrit par un moyen équivalent sans sortir du cadre de la présente invention.

Claims (20)

  1. Procédé d’assistance au pilotage d’un aéronef (1) par affichage adaptatif à l’aide d’au moins un écran (5,5’) dudit aéronef (1), un paysage extérieur audit aéronef (1) étant visible via ledit au moins un écran (5,5’),
    caractérisé en ce que ledit procédé comporte les étapes suivantes :
    • première détection (110) d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) dans un repère local dudit aéronef (1),
    • deuxième détection (120) d’une direction du regard dudit pilote dans ledit repère local,
    • première détermination (210) d’une position dans ledit repère local d’au moins un point géographique (50) dudit paysage visible via ledit au moins un écran (5,5’),
    • deuxième détermination (220) de la position sur ledit au moins un écran (5,5’) d’au moins une première information attachée audit au moins un point géographique (50) visible via ledit au moins un écran (5,5’),
    • troisième détermination (230) de la position sur ledit au moins un écran (5,5’) d’au moins une deuxième information indépendante d’un point géographique (50),
    • élaboration (310) d’une image principale (A1) comportant ladite au moins une première information et/ou ladite au moins une deuxième information,
    • quatrième détermination (320) d’une zone visée (A2) dudit au moins un écran (5,5’), ladite zone visée (A2) étant centrée dans ladite direction dudit regard dudit pilote,
    • premier affichage (330) sur ledit au moins un écran (5,5’) de ladite image principale (A1),
    • première adaptation (410) d’au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information de ladite image principale (A1) située dans ladite zone visée (A2) afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) pour ledit pilote.
  2. Procédé selon la revendication 1,
    caractérisé en ce que ledit procédé comporte une étape supplémentaire de deuxième adaptation (420) d’une deuxième caractéristique lumineuse de ladite image principale (A1) en dehors de ladite zone visée (A2), afin d’augmenter le contraste entre ladite zone visée (A2) et ladite image principale (A1) hors de ladite zone visée (A2).
  3. Procédé selon l’une quelconque des revendications 1 à 2,
    caractérisé en ce que ledit procédé comporte une étape supplémentaire de troisième adaptation (430) d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de ladite zone visée (A2) afin d’améliorer la visibilité de ladite au moins une information considérée comme importante pour ledit pilote.
  4. Procédé selon la revendication 3,
    caractérisé en ce qu’une information est considérée comme importante si ladite information concerne une alarme ou bien si ladite information est attachée à un point géographique (50) ou encore si une position de ladite information sur ladite image principale (A1) n’est pas prévisible par ledit pilote.
  5. Procédé selon l’une quelconque des revendications 3 à 4,
    caractérisé en ce qu’une troisième caractéristique lumineuse étant la luminance, lors de ladite troisième adaptation (430), une troisième valeur d’une troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée.
  6. Procédé selon l’une quelconque des revendications 1 à 5,
    caractérisé en ce qu’une première caractéristique lumineuse étant la luminance et/ou l’opacité, lors de ladite première adaptation (410), une première valeur d’une première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) est augmentée.
  7. Procédé selon l’une quelconque des revendications 1 à 6,
    caractérisé en ce qu’une deuxième caractéristique lumineuse étant la luminance, lors de ladite deuxième adaptation (420), une deuxième valeur d’une deuxième caractéristique lumineuse de ladite image principale (A1) en dehors de ladite zone visée (A2) est diminuée.
  8. Procédé selon l’une quelconque des revendications 1 à 7,
    caractérisé en ce que ledit procédé comporte une étape supplémentaire de mesure (140) d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse dudit paysage visible via ledit au moins un écran (5,5’), ladite première adaptation (410) adaptant ladite première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) en prenant en compte ladite quatrième valeur de ladite quatrième caractéristique lumineuse afin d’améliorer sa visibilité pour ledit pilote.
  9. Procédé selon la revendication 8,
    caractérisé en ce que ledit procédé comportant une troisième adaptation (430), ladite troisième adaptation (430) prend en compte ladite quatrième caractéristique lumineuse afin d’adapter ladite troisième caractéristique lumineuse de ladite au moins une information considérée comme importante de sorte à améliorer sa visibilité pour ledit pilote.
  10. Procédé selon l’une quelconque des revendications 8 à 9,
    caractérisé en ce qu’une première caractéristique lumineuse et une quatrième caractéristique lumineuse étant la luminance, lors de ladite première adaptation (410), une première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) est supérieure à ladite quatrième valeur de ladite quatrième caractéristique lumineuse dudit paysage.
  11. Procédé selon l’une quelconque des revendications 8 à 9,
    caractérisé en ce que ledit procédé comportant une troisième adaptation (430), une troisième caractéristique lumineuse et une quatrième caractéristique lumineuse étant la luminance, lors de ladite troisième adaptation (430), une troisième valeur de ladite troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est supérieure à ladite quatrième valeur de ladite quatrième caractéristique lumineuse dudit paysage.
  12. Procédé selon l’une quelconque des revendications 9 à 11,
    caractérisé en ce que deux premières caractéristiques lumineuses étant la luminance et l’opacité et deux quatrièmes caractéristiques lumineuse étant la luminance et l’opacité, lorsqu’une quatrième luminance dudit paysage est supérieure à une limite prédéterminée, lors de ladite première adaptation (410), une première opacité de ladite zone visée (A2) est augmentée.
  13. Procédé selon l’une quelconque des revendications 1 à 12,
    caractérisé en ce que ladite zone visée (A2) est un carré correspondant à un angle solide de 5°x5° suivant un axe aligné sur ladite direction dudit regard dudit pilote et centré sur ledit axe.
  14. Procédé selon l’une quelconque des revendications 1 à 13,
    caractérisé en ce que, lors de ladite troisième détermination (230), ladite position sur ledit au moins un écran (5,5’) d’au moins une deuxième information est déterminée en fonction de ladite position et de ladite orientation de ladite tête (20) dudit pilote vis-à-vis dudit au moins un écran (5,5’).
  15. Procédé selon l’une quelconque des revendications 1 à 14,
    caractérisé en ce qu’au moins un écran (5,5’) est au moins partiellement transparent et ledit paysage est visible à travers ledit au moins un écran (5,5’).
  16. Procédé selon la revendication 15,
    caractérisé en ce que, lors de ladite deuxième détermination (220), ladite position sur ledit au moins un écran (5,5’) d’au moins une première information est déterminée en fonction de ladite position de ladite tête (20) dudit pilote et de ladite position dudit au moins un point géographique (50) vis-à-vis dudit au moins un écran (5,5’).
  17. Procédé selon l’une quelconque des revendications 1 à 14,
    caractérisé en ce que ledit procédé comporte une étape supplémentaire de deuxième affichage (340) d’une image (A0) dudit paysage sur ledit au moins un écran (5,5’).
  18. Procédé selon la revendication 17,
    caractérisé en ce que ledit procédé comporte une étape supplémentaire de quatrième adaptation (440) d’au moins une quatrième caractéristique lumineuse de ladite image (A0) dudit paysage.
  19. Procédé selon l’une quelconque des revendications 1 à 18,
    caractérisé en ce que ladite première détermination (210) comporte les sous étapes suivantes :
    • une troisième détection (212) d’une position dans un repère terrestre dudit au moins un point géographique (50) dudit paysage et,
    • un transfert (215) de ladite position dudit au moins un point géographique (50) dudit repère terrestre vers ledit repère local.
  20. Système d’assistance (10) au pilotage d’un aéronef (1) par affichage adaptatif à l’aide d’un au moins un écran (5,5’) dudit aéronef (1), ledit système d’assistance (10) comportant :
    • ledit au moins un écran (5,5’), un paysage étant visible via ledit au moins un écran (5,5’),
    • un dispositif d’affichage (6) desdites informations sur ledit au moins un écran (5,5’),
    • un calculateur (7),
    • un premier jeu de capteurs (12,13) de détection d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) dans un repère local dudit aéronef (1),
    • un deuxième jeu de capteurs (14,15) de détection d’une direction du regard dudit pilote dudit aéronef (1) dans ledit repère local dudit aéronef (1), et
    • un dispositif de détection (16) d’une position d’au moins un point géographique (50) dudit paysage visible via ledit au moins un écran (5,5’),
    caractérisé en ce que ledit système d’affichage (10) est configuré pour mettre en œuvre le procédé selon l’une quelconque des revendications 1 à 19.
FR1907971A 2019-07-15 2019-07-15 Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran Active FR3098932B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1907971A FR3098932B1 (fr) 2019-07-15 2019-07-15 Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1907971A FR3098932B1 (fr) 2019-07-15 2019-07-15 Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran
FR1907971 2019-07-15

Publications (2)

Publication Number Publication Date
FR3098932A1 true FR3098932A1 (fr) 2021-01-22
FR3098932B1 FR3098932B1 (fr) 2023-12-22

Family

ID=68987788

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1907971A Active FR3098932B1 (fr) 2019-07-15 2019-07-15 Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran

Country Status (1)

Country Link
FR (1) FR3098932B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119266A1 (fr) * 2021-12-20 2023-06-29 Israel Aerospace Industries Ltd. Affichage d'images de réalité augmentée à l'aide d'un système d'affichage optique virtuel
FR3143776A1 (fr) * 2022-12-20 2024-06-21 Thales Procédé de gestion d’un afficheur tête-haute, produit programme d’ordinateur associé et afficheur tête-haute associé

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US20090201177A1 (en) * 2006-07-11 2009-08-13 Thales Secure head-up display
EP2361832A1 (fr) 2010-02-18 2011-08-31 EUROCOPTER DEUTSCHLAND GmbH Post de pilotage d'un aéronef
EP2482114A1 (fr) 2010-12-03 2012-08-01 Honeywell International, Inc. Viseur d'affichage pour cockpit d'avion
FR3004817A1 (fr) 2013-04-19 2014-10-24 Thales Sa Systeme de visualisation hybride affichant des informations en superposition sur l exterieur
FR3013852A1 (fr) 2013-11-22 2015-05-29 Airbus Operations Sas Methode et dispositif d'affichage d'information a lisibilite amelioree
FR3016448A1 (fr) 2014-01-15 2015-07-17 Dassault Aviat Systeme d'affichage d'informations d'aeronef, et procede associe
US20150348299A1 (en) * 2014-05-28 2015-12-03 Airbus Helicopters Method contributing to making safe a synthetic graphics representation of the view outside an aircraft
FR3026196A1 (fr) 2014-09-22 2016-03-25 Thales Sa Systeme de visualisation semi-transparent monoculaire
US20170168560A1 (en) * 2015-12-09 2017-06-15 Thales Method of displaying an "attitude director indicator" in a head viewing system for aircraft
FR3049072A1 (fr) 2016-03-21 2017-09-22 Airbus Operations Sas Systeme d'affichage tete haute d'un aeronef
US20180261148A1 (en) * 2017-03-09 2018-09-13 Airbus Operations (S.A.S.) Display system and method for an aircraft
US20190004318A1 (en) * 2017-06-29 2019-01-03 Airbus Operations Sas Display system and method for an aircraft

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US20090201177A1 (en) * 2006-07-11 2009-08-13 Thales Secure head-up display
EP2361832A1 (fr) 2010-02-18 2011-08-31 EUROCOPTER DEUTSCHLAND GmbH Post de pilotage d'un aéronef
EP2482114A1 (fr) 2010-12-03 2012-08-01 Honeywell International, Inc. Viseur d'affichage pour cockpit d'avion
FR3004817A1 (fr) 2013-04-19 2014-10-24 Thales Sa Systeme de visualisation hybride affichant des informations en superposition sur l exterieur
FR3013852A1 (fr) 2013-11-22 2015-05-29 Airbus Operations Sas Methode et dispositif d'affichage d'information a lisibilite amelioree
FR3016448A1 (fr) 2014-01-15 2015-07-17 Dassault Aviat Systeme d'affichage d'informations d'aeronef, et procede associe
US20150348299A1 (en) * 2014-05-28 2015-12-03 Airbus Helicopters Method contributing to making safe a synthetic graphics representation of the view outside an aircraft
FR3026196A1 (fr) 2014-09-22 2016-03-25 Thales Sa Systeme de visualisation semi-transparent monoculaire
US20170168560A1 (en) * 2015-12-09 2017-06-15 Thales Method of displaying an "attitude director indicator" in a head viewing system for aircraft
FR3049072A1 (fr) 2016-03-21 2017-09-22 Airbus Operations Sas Systeme d'affichage tete haute d'un aeronef
US20180261148A1 (en) * 2017-03-09 2018-09-13 Airbus Operations (S.A.S.) Display system and method for an aircraft
US20190004318A1 (en) * 2017-06-29 2019-01-03 Airbus Operations Sas Display system and method for an aircraft

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THOMAS W. FREY ET AL: "Virtual HUD using an HMD", SPIE - INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING. PROCEEDINGS, vol. 4361, 22 August 2001 (2001-08-22), US, pages 251 - 262, XP055608895, ISSN: 0277-786X, ISBN: 978-1-5106-3377-3, DOI: 10.1117/12.438000 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119266A1 (fr) * 2021-12-20 2023-06-29 Israel Aerospace Industries Ltd. Affichage d'images de réalité augmentée à l'aide d'un système d'affichage optique virtuel
FR3143776A1 (fr) * 2022-12-20 2024-06-21 Thales Procédé de gestion d’un afficheur tête-haute, produit programme d’ordinateur associé et afficheur tête-haute associé
EP4390509A1 (fr) * 2022-12-20 2024-06-26 Thales Procede de gestion d'un afficheur tête-haute, produit programme d'ordinateur associe et afficheur tête-haute associe

Also Published As

Publication number Publication date
FR3098932B1 (fr) 2023-12-22

Similar Documents

Publication Publication Date Title
US7961117B1 (en) System, module, and method for creating a variable FOV image presented on a HUD combiner unit
US8416152B2 (en) Method and system for operating a near-to-eye display
FR2993509A1 (fr) Dispositif electronique de protection contre l'eblouissement d'un pilote ou d'un conducteur.
EP2950049B1 (fr) Procédé contributeur de la sécurisation d'une représentation graphique synthétique de la vue extérieure d'un aéronef
EP2533095B1 (fr) Système d'aide au pilotage et aéronef
FR2633476A1 (fr) Systemes de visualisation que l'on peut regarder sans devoir baisser la tete
US8358254B2 (en) Helmet comprising visor position detection and associated helmet position detection
FR3098932A1 (fr) Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran
CN107010237A (zh) 用于在hud上显示fov边界的系统和方法
FR3061598A1 (fr) Procede de calcul et d'affichage d'informations de pilotage comportant un " relief factor"
EP3502842A1 (fr) Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur
FR3066619A1 (fr) Systeme d'affichage d'un aeronef
FR3098900A1 (fr) Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran
EP3179291B1 (fr) Procede d'affichage d'un " indicateur de directeur d'attitude " dans un systeme de visualisation de tete pour aeronef
US11663739B2 (en) Fiducial marker based field calibration of a device
EP3029420B1 (fr) Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche
CA3047766C (fr) Systeme d'aide au pilotage d'un aeronef, aeronef associe et procede d'aide au pilotage de cet aeronef
EP4064010B1 (fr) Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef
US20120162248A1 (en) Method for Eliminating a Cockpit Mask and Associated Helmet-Mounted Display System
FR2996672A1 (fr) Systeme de visualisation pour aeronef avec des lignes de relief et procede associe
EP3816703A1 (fr) Procede d'aide au pilotage d'un aeronef
WO2020084232A1 (fr) Procédé de pilotage de l'affichage d'informations sur un bandeau d'écran équipant une passerelle de bateau
FR3033903A1 (fr) Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera.
FR3072479A1 (fr) Methode de visualisation synthetique d'une scene vue a partir d'un aeronef et systeme de vision synthetique pour mettre en œuvre une telle methode
FR3071624A1 (fr) Systeme d'affichage, procede d'affichage et programme d'ordinateur associes

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210122

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5