FR3098932A1 - Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran - Google Patents
Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran Download PDFInfo
- Publication number
- FR3098932A1 FR3098932A1 FR1907971A FR1907971A FR3098932A1 FR 3098932 A1 FR3098932 A1 FR 3098932A1 FR 1907971 A FR1907971 A FR 1907971A FR 1907971 A FR1907971 A FR 1907971A FR 3098932 A1 FR3098932 A1 FR 3098932A1
- Authority
- FR
- France
- Prior art keywords
- screen
- information
- aircraft
- pilot
- piece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000003044 adaptive effect Effects 0.000 title claims description 12
- 230000006978 adaptation Effects 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims description 19
- 239000007787 solid Substances 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 33
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 108010057516 2-hydroxymuconic semialdehyde dehydrogenase Proteins 0.000 description 1
- 102100033983 Serpin-like protein HMSD Human genes 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
La présente invention concerne un procédé d’assistance au pilotage d’un aéronef (1) à l’aide d’un écran (5,5’) sur lequel un paysage extérieur est visible. Le procédé comporte des étapes de détection (110,120) d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) et d’une direction de son regard ainsi que des étapes de détermination (210,220,230) d’une position d’un point géographique (50) dudit paysage visible via ledit écran (5,5’) et des positions sur ledit écran (5,5’) en fonction de ladite position et de ladite orientation de ladite tête (20) d’une première information attachée audit point géographique (50) et d’au moins une deuxième information indépendante dudit point géographique (50). Le procédé comporte également une quatrième détermination (320) d’une zone visée (A2) centrée dans ladite direction dudit regard dudit pilote sur ledit écran (5,5’) et une première adaptation (410) d’une première caractéristique lumineuse d’une première et/ou deuxième information située dans ladite zone visée (A2) afin d’améliorer la visibilité de ladite première et/ou deuxième information pour ledit pilote.
Figure abrégé : figure 1
Description
La présente invention est du domaine de l’assistance au pilotage d’un aéronef, et en particulier du domaine restreint de l’assistance au pilotage d’un aéronef par fourniture d’informations sur un écran équipant un cockpit d’aéronef.
La présente invention concerne un procédé et un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’au moins un écran de l’aéronef, un paysage extérieur à l’aéronef étant visible sur l’écran. Ce paysage extérieur peut être affiché sur l’écran ou bien être visible à travers l’écran qui est alors transparent ou bien semi-transparent.
Différents types de systèmes de visualisation peuvent être disponibles dans le cockpit d’un aéronef à l’attention du pilote et/ou du copilote de l’aéronef.
Dans un but de simplification, par la suite, le terme « pilote » désigne aussi bien le pilote que le copilote et peut être remplacé par le terme « copilote » à tout moment.
Un ou plusieurs écrans sont généralement agencés sur un tableau de bord, ces écrans permettant l’affichage d’informations de vol ainsi qu’éventuellement une image du paysage extérieur à l’aéronef.
Un système de visualisation peut aussi comprendre une surface vitrée du cockpit sur laquelle sont projetées les informations requises, le paysage extérieur à l’aéronef étant ainsi visible par le pilote à travers cette surface vitrée.
Par exemple, le document EP 2361832 décrit un poste de pilotage d'un aéronef comportant des extensions d’affichages transparents éventuellement formées par une partie du parebrise de l’aéronef. La transparence et l’opacité de ces extensions d’affichages peuvent être ajustées par zones, par exemple en fonction de la luminosité du paysage extérieur visible à travers les extensions d’affichages, afin d’améliorer dans ces zones la visibilité du paysage et/ou des informations affichées.
Un système de visualisation peut également être un écran transparent ou bien semi-transparent agencé dans le cockpit de l’aéronef. Un tel écran transparent ou bien semi-transparent affiche les informations requises et permet au pilote de voir le paysage extérieur à l’aéronef à travers cet écran transparent ou semi-transparent.
Par exemple, le document FR 3026196 décrit un système de visualisation comportant un écran semi-transparent, des dispositifs de génération d'images et une paire de lunettes pour gérer un problème d’erreur de parallaxe entre les images affichées et le paysage extérieur.
Un afficheur dit « tête haute » également désigné par l’acronymeHUDpour la désignation en langue anglaise « Head Up Display » peut aussi être disponible dans un cockpit de l’aéronef. Cet afficheur tête haute peut par exemple comporter un écran transparent ou bien une surface transparente sur laquelle des informations sont projetées.
On connaît notamment le document FR 3016448 qui décrit un système d'affichage pour aéronef, en particulier un afficheur tête haute, comportant une surface d’affichage au moins partiellement transparente et un module d'affichage d'informations sur la surface de visualisation. Les informations affichées permettent la vision du paysage extérieur à l’aéronef à travers la surface d’affichage. Le module d'affichage permet également l’affichage d’une fenêtre contextuelle contenant des informations et dont l’opacité peut être augmentée, notamment en fonction de la luminosité du paysage extérieur.
Selon un autre exemple, le document FR 3049072 décrit un système d'affichage tête haute comportant un écran transparent, un projecteur d’images et au moins un capteur détectant la direction du regard du pilote de l’aéronef. La direction du regard du pilote est déterminée par la technique de l’occulométrie. Le projecteur prend en compte cette direction du regard afin de décaler, notamment latéralement, les images affichées sur l’écran transparent, en particulier en présence d’un fort vent latéral.
Un système de visualisation peut aussi être intégré au casque du pilote. Un tel système de visualisation est souvent désigné par l’acronymeHMDpour la désignation en langue anglaise « Helmet Mounted Display » ouHMSDpour « Helmet Mounted Sight & Display ». Un tel système de visualisation peut par exemple comporter un écran transparent ou bien une surface transparente sur laquelle des informations sont projetées.
En outre, le document FR 3004817 décrit un système de visualisation hybride comportant un premier dispositif d’affichage, par exemple un écran, un second dispositif d’affichage porté par un casque du pilote de l’aéronef et un dispositif de détection de la position et de l’orientation du casque. Ce système de visualisation hybride permet de gérer la superposition dans le champ de vision du pilote des images affichées respectivement sur le premier dispositif d’affichage et sur le second dispositif d’affichage. Selon les circonstances, le système de visualisation hybride permet de décaler une seule image ou bien les deux images afin de permettre une vision simultanée de toutes les images. Le système de visualisation hybride peut également supprimer sur une image de la zone de superposition afin de privilégier la vision de l’autre image.
L’un des intérêts d’un affichage tête haute et/ou d’un système de visualisation intégré à un casque est notamment de mettre l’information la plus pertinente devant les yeux du pilote au bon moment, au bon endroit, quel que soit l’endroit où regarde le pilote et sans que cette information gêne le pilote.
De plus, l’art antérieur comporte également les documents suivants.
Le document FR 3013852 décrit une méthode et un dispositif d'affichage d'informations tête haute à lisibilité améliorée. Ce dispositif d’affichage comporte un écran transparent. La couleur des informations affichées sur l'écran est modifiée en fonction de la couleur de la scène extérieure visible à travers l’écran de sorte à améliorer la lisibilité de ces informations.
Le document EP 2482114 décrit un système d'affichage tête haute comportant un écran transparent qui peut être assombri afin de former un pare-soleil pour le pilote de l’aéronef.
La présente invention a alors pour objet de proposer un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’un écran de l’aéronef pour faciliter la visualisation par le pilote de l’aéronef d’informations nécessaires et pertinentes.
La présente invention vise un procédé d’assistance au pilotage d’un aéronef à l’aide d’au moins un écran de l’aéronef, un paysage extérieur à l’aéronef étant visible via cet au moins un écran.
Le paysage extérieur à l’aéronef est alors visible au travers de l’écran ou une image représentative de ce paysage est affichée sur ledit écran. Ce paysage extérieur à l’aéronef est de préférence situé à l’avant de l’aéronef.
Le procédé d’assistance au pilotage selon l’invention peut être appliqué à un seul écran ou bien simultanément à au moins deux écrans.
Le procédé d’assistance au pilotage d’un aéronef à l’aide d’au moins un écran selon l’invention est remarquable en ce qu’il comporte les étapes suivantes :
- première détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef,
- deuxième détection d’une direction du regard du pilote dans le repère local,
- première détermination d’une position dans le repère local d’au moins un point géographique du paysage visible via ledit au moins un écran,
- deuxième détermination de la position sur ledit au moins un écran d’au moins une première information attachée audit au moins un point géographique visible via ledit au moins un écran,
- troisième détermination de la position sur ledit au moins un écran d’au moins une deuxième information indépendante d’un point géographique,
- élaboration d’une image principale A1 comportant ladite au moins une première information et/ou ladite au moins une deuxième information,
- quatrième détermination d’une zone visée A2 dudit au moins un écran, la zone visée A2 étant centrée dans la direction du regard du pilote,
- premier affichage sur ledit au moins un écran de l’image principale A1,
- première adaptation d’au moins une première caractéristique lumineuse d’au moins une première et/ou une deuxième information de l’image principale A1 située dans la zone visée A2 afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 pour le pilote.
De la sorte, au moins une première et/ou deuxième information située dans la zone visée A2 centrée sur le regard du pilote est mise en évidence par l’adaptation d’au moins une première caractéristique lumineuse de cette au moins une première et/ou deuxième information. En conséquence, la lisibilité de cette au moins une première et/ou deuxième information par le pilote est améliorée par rapport aux nombreuses informations affichées sur chaque écran. Le pilote peut ainsi prendre avantageusement rapidement et efficacement connaissance.
En effet, le champ de vision du pilote est rempli de nombreuses informations affichées. Le pilote peut alors avoir du mal à identifier la ou les informations pertinentes à prendre en compte à un moment donné. La présente invention permet avantageusement de pallier ce risque en identifiant pour le pilote les informations pertinentes et en les mettant en évidence dans la zone visée A2 centrée sur le regard du pilote.
Une première caractéristique lumineuse d’au moins une première et/ou une deuxième information peut être la luminance ou l’opacité.
Par exemple, lorsque la première caractéristique lumineuse est la luminance et/ou l’opacité, lors de la première adaptation, une première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est augmentée.
Lorsque la première caractéristique lumineuse est la luminance ladite au moins une première et/ou deuxième information située dans la zone visée A2 peut alors apparaître en surbrillance vis-à-vis des autres informations visibles sur l’image principale A1.
Selon un aspect, le procédé selon l’invention peut comporter une étape supplémentaire de deuxième adaptation d’une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2, afin d’augmenter notamment le contraste entre d’une part la zone visée A2 et d’autre part l’image principale A1 hors de la zone visée A2 et, par suite, d’améliorer la visibilité de la zone visée A2. De la sorte, la lisibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est avantageusement de nouveau améliorée.
Par exemple, lorsque la deuxième caractéristique lumineuse est la luminance, lors de la deuxième adaptation, une deuxième valeur de la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 est diminuée.
En outre, une information considérée comme importante pour le pilotage de l’aéronef peut également être située sur l’image principale A1, mais en dehors de la zone visée A2. Une information est par exemple considérée comme importante si cette information concerne une alarme. Il peut s’agir également d’une information attachée à un point géographique, dont la position de cette information sur l’image principale A1 n’est pas prévisible par le pilote et dont il convient d’améliorer la lisibilité pour aider à sa détection dans le champ de vision du pilote.
Afin d’améliorer la lisibilité d’une telle information considérée comme importante et en faciliter sa prise en compte par le pilote, le procédé selon l’invention peut aussi comporter une étape supplémentaire de troisième adaptation d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de la zone visée A2.
Par exemple, lorsque la troisième caractéristique lumineuse est la luminance, lors de cette troisième adaptation, une troisième valeur de cette troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée.
Selon un aspect, le procédé peut comporter une étape supplémentaire de mesure d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse du paysage visible à l’aide de chaque écran, par exemple en direction de la tête du pilote. La première adaptation peut alors adapter la première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 en prenant en compte cette quatrième valeur de la quatrième caractéristique lumineuse afin d’améliorer sa visibilité pour le pilote. De la sorte, ladite au moins une information est avantageusement plus facilement et rapidement discernable vis-à-vis de l’image du paysage par le pilote.
Par exemple, lorsque la première caractéristique lumineuse et la quatrième caractéristique lumineuse sont la luminance, lors de la première adaptation, une première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est supérieure à la quatrième valeur de la quatrième caractéristique lumineuse du paysage.
De plus, la troisième adaptation peut prendre en compte la quatrième caractéristique lumineuse. Par exemple, lorsque la première caractéristique lumineuse et la quatrième caractéristique lumineuse sont la luminance, lors de la troisième adaptation, une troisième luminance de ladite au moins une information considérée comme importante est supérieure à une quatrième luminance du paysage. Ainsi, la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est avantageusement adaptée de sorte à améliorer sa visibilité pour le pilote. La encore, ladite au moins une information considérée comme importante est ainsi avantageusement plus facilement et rapidement discernable du paysage par le pilote.
Par exemple, lorsque deux premières caractéristiques lumineuses sont la luminance et l’opacité et que deux quatrièmes caractéristiques lumineuses sont la luminance et l’opacité, lorsqu’une quatrième luminance du paysage est supérieure à une limite prédéterminée, lors de la première adaptation, une première opacité de la zone visée A2 est augmentée.
En outre, la deuxième détermination de la position sur un écran de ladite au moins une première information peut être effectuée en prenant en compte la position de la tête du pilote vis-à-vis de l’écran ainsi que la position dudit au moins un point géographique vis-à-vis de l’écran lorsque cet écran est au moins partiellement transparent. En effet, avec un écran au moins partiellement transparent chaque point géographique est visible par le pilote à travers cet écran et chaque première information relative à un point géographique visible du paysage extérieur est affichée sur l’écran de sorte à être alignée avec la tête du pilote et ce point géographique. De préférence, la position de la tête correspond au point de rotation de la tête.
En outre, l’orientation de la tête du pilote vis-à-vis de l’écran peut également être prise en compte pour effectuer la deuxième détermination de la position sur un écran de ladite au moins une première information, notamment lorsque la position de la tête ne coïncide pas au point de rotation de la tête.
De même, la troisième détermination de la position sur un écran d’au moins une deuxième information peut être effectuée en prenant en compte la position et l’orientation de la tête du pilote vis-à-vis de l’écran. Dans ce cas, ladite au moins une deuxième information est affichée dans le champ de vision primaire du pilote, quelle que soit l’orientation de la tête du pilote.
Le champ de vision primaire du pilote est par exemple défini par des angles de +/-15° de part et d’autre d’un plan horizontal et part des angles de +/-15° par et d’autre d’un plan vertical.
De la sorte, les première et deuxième informations sont correctement positionnées sur l’écran en fonction de la position et de l’orientation de la tête du pilote.
La position sur un écran d’au moins une deuxième information peut aussi être indépendante de la position et l’orientation de la tête du pilote vis-à-vis de l’écran. Dans ce cas, cette au moins une deuxième information est affichée à la même position sur l’écran, quelle que soit l’orientation de la tête du pilote.
Par ailleurs, la zone visée A2 a de préférence une première aire prédéterminée inférieure à une seconde aire de l’image principale A1. La zone visée A2 peut par exemple être formée par un carré correspondant à un angle solide de 20°x20° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe.
La zone visée A2 peut aussi correspondre à une première aire sensiblement équivalente à la zone fovéale de l’œil. La zone fovéale correspond à la zone du champ de vision où l'acuité et la précision sont maximales et, de fait, où la vision est la plus nette. La zone visée A2 a donc une faible aire correspondant à un petit angle solide. La zone visée A2 est par exemple formée par un carré correspondant à un angle solide de 5°x5° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut être appliquée uniquement à ladite au moins une première et/ou une deuxième information, en particulier lorsque la première caractéristique lumineuse est la luminance.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut aussi être appliquée sur la zone visée A2 dans sa totalité, en particulier lorsque la première caractéristique lumineuse est l’opacité.
En outre, la première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut être réalisée de façon sensiblement instantanément, à savoir sans attendre que la direction du regard du pilote soit fixe pendant une certaine durée, le pilote balayant par exemple son regard sur au moins une partie d’un écran.
La première adaptation d’au moins une première caractéristique lumineuse de ladite au moins une première et/ou une deuxième information située dans la zone visée A2 peut également être réalisée après une durée prédéterminée pendant laquelle la direction du regard du pilote est sensiblement fixe vis-à-vis de l’écran et est par exemple alignée avec une première et/ou une deuxième information. La durée prédéterminée est par exemple égale à une seconde.
Par ailleurs, l’aéronef comporte notamment :
- au moins un écran,
- un dispositif d’affichage d’informations sur ledit au moins un écran,
- un calculateur, et
- des capteurs.
Le calculateur de l’aéronef permet l’exécution des étapes de ce procédé d’assistance au pilotage. Le calculateur peut par exemple comporter au moins un processeur, au moins un circuit intégré, au moins un système programmable, au moins un circuit logique ou bien tout dispositif équivalent, ces exemples ne limitant pas la portée donnée à l’expression « calculateur ». Le calculateur peut aussi comporter une mémoire stockant notamment des instructions relatives aux étapes du procédé.
Un écran de l’aéronef peut être au moins partiellement transparent. Le paysage extérieur à l’aéronef est alors visible pour un pilote de l’aéronef à travers l’écran au moins partiellement transparent et peut alors être vue par le pilote de l’aéronef. L’écran est par exemple un écran transparent ou bien semi-transparent.
Un écran peut aussi être opaque par exemple agencé sur le tableau de bord de l’aéronef. Le procédé selon l’invention comporte alors une étape supplémentaire de deuxième affichage d’une image A0 du paysage extérieur à l’aéronef sur l’écran. De fait, le paysage extérieur à l’aéronef est également visible pour un pilote de l’aéronef via cet écran opaque.
L’aéronef comporte alors au moins une caméra permettant de capturer des images de ce paysage extérieur.
Le procédé peut alors comporter également une étape supplémentaire de quatrième adaptation d’au moins une quatrième caractéristique lumineuse de l’image A0 du paysage afin d’augmenter le contraste entre d’une part ladite au moins une première et/ou deuxième information située dans la zone visée A2 et le cas échéant ladite au moins une information considérée comme importante et d’autre part l’image A0 du paysage.
De plus, un écran peut avoir une forme courbée. Dans ce cas, la deuxième détermination est effectuée en prenant en compte la courbure de l’écran. De même, la troisième et la quatrième déterminations sont également faites en prenant en compte la courbure de l’écran.
En outre, le dispositif d’affichage d’informations peut projeter les informations sur un écran ou bien être intégré à l’écran pour permettre l’affichage de ces informations sur l’écran. Le dispositif d’affichage d’informations peut également permettre l’affichage de l’image A0 du paysage extérieur à l’aéronef sur l’écran lorsque l’écran est opaque.
Les capteurs comportent notamment un premier jeu de capteurs de détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef. Le repère local de l’aéronef est un repère attaché à l’aéronef, par exemple au nez de l’aéronef. Un repère local de l’aéronef peut être par exemple formé par les directions de roulis, de tangage et de lacet de l’aéronef.
Le premier jeu de capteurs est destiné à déterminer la position et l’orientation de la tête du pilote par rapport à un repère local de l’aéronef. Les capteurs de ce premier jeu de capteurs peuvent être magnétiques, optiques et/ou inertiels. Ce premier jeu de capteurs peut être connu en langue anglaise sous la désignation « Head Tracker ». Ce premier jeu de capteurs comporte par exemple un ou plusieurs capteurs positionnés sur le casque du pilote et un ou plusieurs capteurs fixes solidaires du cockpit de l’aéronef.
Les capteurs comportent également un deuxième jeu de capteurs de détection d’une direction du regard du pilote de l’aéronef dans le repère local de l’aéronef. Ce deuxième jeu de capteurs utilise par exemple la technique de l’occulométrie afin de déterminer la direction du regard du pilote. Ce deuxième jeu de capteurs comporte par exemple un ou plusieurs capteurs fixes positionnés dans le cockpit de l’aéronef et captant la direction du regard du pilote. Ce deuxième jeu de capteurs peut également être fixé sur un dispositif solidaire de la tête du pilote, typiquement le casque du pilote.
Les capteurs peuvent aussi comporter un dispositif de détection d’une position d’au moins un point géographique du paysage visible sur chaque écran. Ce dispositif de détection peut permettre de déterminer la position de cet au moins un point géographique directement dans le repère local de l’aéronef. Ce dispositif de détection comporte par exemple un radar.
Ce dispositif de détection peut aussi permettre de déterminer la position de cet au moins un point géographique dans le repère local de l’aéronef en utilisant ses coordonnées dans un repère terrestre. Un transfert du repère terrestre vers le repère local de l’aéronef doit alors être effectué. Dans ce but, la première détermination comporte les sous étapes suivantes :
- une troisième détection d’une position dans un repère terrestre d’au moins un point géographique du paysage et,
- un transfert de la position dudit au moins un point géographique du repère terrestre vers le repère local de l’aéronef.
La position de cet au moins un point géographique dans le repère terrestre peut par exemple être stockée dans une mémoire que comporte le calculateur de l’aéronef, typiquement dans une base de donnée. La position de cet au moins un point géographique dans un repère terrestre peut également être réceptionnée par l’aéronef par exemple par au moins une onde radio.
La présente invention vise également un système d’assistance au pilotage d’un aéronef par affichage adaptatif à l’aide d’au moins un écran de l’aéronef configuré pour mettre en œuvre le procédé précédemment décrit. Le système d’assistance comporte :
- au moins un écran, un paysage étant visible sur chaque écran,
- un dispositif d’affichage des informations sur chaque écran,
- un calculateur,
- un premier jeu de capteurs de détection d’une position et d’une orientation de la tête d’un pilote de l’aéronef dans un repère local de l’aéronef,
- un deuxième jeu de capteurs de détection d’une direction du regard du pilote dans le repère local dudit aéronef, et
- un dispositif de détection d’une position d’au moins un point géographique du paysage visible sur chaque écran.
L’invention et ses avantages apparaîtront avec plus de détails dans le cadre de la description qui suit avec des exemples donnés à titre illustratif en référence aux figures annexées qui représentent :
- la figure 1, un aéronef comportant un système d’assistance au pilotage par affichage adaptatif à l’aide d’au moins un écran,
- la figure 2, un écran et les informations affichées et
- les figures 3 et 4, deux schémas synoptiques d’un procédé d’assistance au pilotage de l’aéronef par affichage adaptatif.
Les éléments présents dans plusieurs figures distinctes sont affectés d’une seule et même référence.
Le système d’assistance 10 au pilotage d’un aéronef 1 par affichage adaptatif à l’aide d’au moins un écran 5,5‘ comporte au moins un écrans 5,5’ selon la figure 1, un dispositif d’affichage 6 d’informations sur chaque écran 5,5’, un calculateur 7, un premier jeu de capteurs 12,13 de détection d’une position et d’une orientation de la tête 20 d’un pilote de l’aéronef 1 dans un repère local de l’aéronef 1, un deuxième jeu de capteurs 14,15 de détection d’une direction du regard du pilote de l’aéronef 1 dans le repère local de l’aéronef 1 et un dispositif de détection 16 d’une position d’au moins un point géographique 50 du paysage visible via un écran 5. L’aéronef 1 peu comporter également une caméra 18 permettant de capturer une image A0 du paysage extérieur à l’aéronef 1 et situé à l’avant de l’aéronef 1.
Selon l’exemple représenté sur la figure 1, un premier écran 5 est positionné au dessus du tableau de bord 8 et est au moins partiellement transparent, le paysage extérieur à l’aéronef 1 étant visible au travers de ce premier écran 5. Un second écran 5’ est intégré au tableau de bord 8 et est opaque. Une image A0 du paysage extérieur à l’aéronef 1 est affichée sur cet écran 5’, par exemple par l’intermédiaire du dispositif d’affichage 6 d’informations.
De la sorte, le pilote de l’aéronef 1 peut voir le paysage extérieur à l’aéronef à l’aide de chacun de ces deux écrans 5,5’.
Tout de fois, un système d’assistance 10 au pilotage d’un aéronef 1 selon l’invention peut comporter un seul écran 5,5’ opaque, semi-transparente ou bien transparent.
Le dispositif d’affichage 6 d’informations permet d’une part l’affichage de l’image A0 du paysage extérieur à l’aéronef 1 sur le second écran 5’ opaque et d’autre part l’affichage sur chacun des deux écrans 5,5’ d’informations, en particulier des informations nécessaires au vol de l’aéronef 1.
Par exemple, une première information 21 est une information attachée à un point géographique 50 du paysage extérieur à l’aéronef 1 et affichée uniquement lorsque le paysage visible via l’écran 5,5’ contient ce point géographique. Une première information 21 indique par exemple une zone d’atterrissage pour l’aéronef 1 comme représenté sur la figure 2. Une première information peut également indiquer un point de passage de la trajectoire à suivre ou un point particulier de l’environnement…
Une deuxième information 22,23,24 peut être une information concernant par exemple les conditions de vol ou bien le pilotage de l’aéronef 1. Une deuxième information 22 indique typiquement l’altitude de l’aéronef 1, sa hauteur ou encore sa vitesse… Une deuxième information 23 peut aussi indiquer l’attitude de l’aéronef 1, par l’intermédiaire de son angle de roulis, son angle de tangage et une ligne d’horizon. Une deuxième information 24 peut encore indiquer une information de pilotage telle que le cap de l’aéronef 1, son vecteur vitesse… Une deuxième information peut également indiquer un état de fonctionnement d’un élément de l’aéronef 1.
Certaines de ces deuxièmes informations et en particulier les concernant les conditions de vol ou bien le pilotage de l’aéronef 1 peuvent être affichées de façon fixe au centre d’un écran 5,5’. Ces deuxièmes informations peuvent aussi être affichées sur un écran 5,5’ en fonction de la position et de l’orientation de la tête 20 du pilote de sorte à être affichées en permanence dans le champ de vision primaire du pilote, quelle que soit la direction dans laquelle le pilote regarde/est orientée sa tête.
Certaines de ces deuxièmes informations, par exemple celles indiquant un état de fonctionnement d’un élément de l’aéronef 1 peuvent être affichées sur un écran 5,5’ à des positions prédéterminées et indépendantes de la position et de l’orientation de la tête du pilote ainsi que de la direction de son regard. Par exemple, une information 25 sur l’état d’un train d’atterrissage de l’aéronef 1 est affichée en bas au centre d’un écran 5,5’. Une troisième information peut également concerner une information sur l’état d’un moteur droit de l’aéronef 1 affichée par exemple en haut à droite d’un écran 5,5’ ou encore une information sur l’état du rotor principal 2 affichée en haut au centre d’un écran 5,5’…
Une troisième information est une information considérée comme importante et concerne par exemple une alarme. Une troisième information alerte par exemple le pilote d’un incident sur un moteur de l’aéronef 1, d’un dépassement d’une limitation de vol telle que son altitude ou son attitude… Une information est également considérée comme importante si la position d’affichage de cette information sur un écran 5,5’ n’est pas prévisible par le pilote, à savoir que son affichage est conditionné à la survenue d’un évènement prédéterminé. Une information attachée à un point géographique 50 du paysage extérieur à l’aéronef 1 peut éventuellement également être considérée comme importante.
D’autres informations peuvent aussi être affichées dans le champ de vision primaire du pilote uniquement lorsque le pilote regarde dans un certain secteur. Il s’agit par exemple d’informations sur l’attitude de l’aéronef 1 affichées simplement lorsque le pilote regarde dans le secteur avant de l’aéronef 1 ou encore d’informations liées au vol stationnaire lorsque le pilote regarde au-dessus de la ligne d’horizon.
Le calculateur 7 comporte par exemple un processeur, un circuit intégré ou bien un système programmable permettant l’exécution des étapes du procédé d’assistance au pilotage de l’aéronef 1 par affichage adaptatif. Le calculateur 7 peut aussi comporter une mémoire 71 stockant notamment des instructions relatives aux étapes de ce procédé et éventuellement une base de données terrain comportant des informations sur l’environnement de vol de l’aéronef 1 et en particulier sur des points géographiques particuliers de cet environnement.
Le premier jeu de capteurs 12,13 permet de détecter une position et une orientation de la tête 20 d’un pilote de l’aéronef 1 dans un repère local de l’aéronef 1. Le repère local est attaché à l’aéronef 1 et comporte par exemple les axes X,Y,Z formés respectivement par les directions de roulis, de tangage et de lacet de l’aéronef 1. Le premier jeu de capteurs 12,13 comporte par exemple un premier capteur 12 positionné sur le casque du pilote et un second capteur 13 fixe et positionné dans le cockpit de l’aéronef 1.
Le premier jeu de capteurs 12,13 peut comporter au moins un capteur magnétique 12 et/ou au moins un capteur optique 13.
Dans le cas d’un capteur magnétique 12, un ensemble de bobines est agencé par exemple dans le cockpit de l’aéronef et produisent un champ magnétique. Le capteur magnétique 12 monté sur le casque d’un pilote détecte les modifications du champ magnétique capté lors des mouvements de la tête du pilote et permet ainsi de déterminer la position et l’orientation de la tête.
Dans le cas d’un capteur optique 13, un ou plusieurs émetteurs optiques sont par exemple fixés sur le casque du pilote. Un ou plusieurs senseurs positionnés dans le cockpit de l’aéronef captent chaque faisceau émis respectivement par un ou plusieurs émetteurs et permettent d’en déduire avec précision la position de la tête du pilote. De même, chaque émetteur optique peut être fixé dans le cockpit de l’aéronef, chaque senseur étant alors positionné sur le casque du pilote.
Le deuxième jeu de capteurs 14,15 permet de détecter une direction du regard du pilote de l’aéronef 1 dans le repère local de l’aéronef 1. Ce deuxième jeu de capteurs 14,15 comporte par exemple deux caméras fixes positionnées dans le cockpit de l’aéronef 1 et utilise la technique de l’occulométrie afin de déterminer cette direction du regard du pilote. Ce deuxième jeu de capteurs 14,15 peut également être fixé sur un dispositif solidaire de la tête 20 d’un pilote de l’aéronef 1, tel que son casque par exemple.
Toutefois, une seule caméra peut aussi être suffisante pour détecter la direction du regard du pilote.
Le dispositif de détection 16 permet de déterminer une position d’au moins un point géographique 50 du paysage visible via un écran 5,5’. Ce dispositif de détection 16 comporte par exemple un radar afin de déterminer la position de chaque point géographique 50 directement dans le repère local de l’aéronef 1.
Ce dispositif de détection 16 peut aussi comporter une mémoire ou bien utiliser la mémoire 71 du calculateur 7 stockant par exemple les coordonnées dans un repère terrestre de chaque point géographique 50 et des informations le concernant. Un transfert du repère terrestre vers le repère local de l’aéronef 1 doit alors être effectué, typiquement par l’intermédiaire du calculateur 7.
Une première détection 110 permet de déterminer une position et une orientation de la tête 20 d’un pilote de l’aéronef 1 dans le repère local de l’aéronef 1. Cette première détection 110 peut être réalisée par l’intermédiaire du premier jeu de capteurs 12,13 et du calculateur 7.
Une deuxième détection 120 permet de déterminer une direction du regard du pilote dans le repère local. Cette deuxième détection 120 peut être réalisée par l’intermédiaire du deuxième jeu de capteurs 14,15 et du calculateur 7.
Une première détermination 210 permet de déterminer ’une position dans le repère local d’au moins un point géographique 50 du paysage visible via un écran 5,5’. Cette première détermination 210 peut être réalisée par l’intermédiaire du dispositif de détection 16, et éventuellement du calculateur 7 et de sa mémoire 71.
Une deuxième détermination 220 permet de déterminer la position sur l’écran 5,5’ d’au moins une première information attachée à chaque point géographique 50 visible sur l’écran 5,5’. Cette deuxième détermination 220 peut être réalisée par l’intermédiaire du calculateur 7. Cette deuxième détermination 220 peut aussi être réalisée en fonction de la position de la tête 20 du pilote vis-à-vis du premier écran 5 et de la position du au moins un point géographique 50, ce premier écran 5 étant au moins partiellement transparent.
Une troisième détermination 230 permet de déterminer la position sur l’écran 5,5’ d’au moins une deuxième information indépendante d’un point géographique 50. Cette troisième détermination 230 peut être réalisée par l’intermédiaire du calculateur 7. Cette troisième détermination 230 peut aussi être réalisée en fonction de la position et de l’orientation de la tête 20 du pilote vis-à-vis d’un écran 5,5’
Une étape d’élaboration 310 permet d’élaborer une image principale A1 comportant cette au moins une première information et/ou cette au moins une deuxième information. Cette étape d’élaboration 310 peut être réalisée par l’intermédiaire du calculateur 7.
Une quatrième détermination 320 permet de déterminer une zone visée A2 d’un écran 5,5’, la zone visée A2 étant centrée dans la direction du regard du pilote. Cette quatrième détermination 320 peut être réalisée par l’intermédiaire du calculateur 7.
Un premier affichage 330 permet d’afficher sur chaque écran 5,5’ l’image principale A1. Ce premier affichage 330 peut être réalisé par l’intermédiaire du dispositif d’affichage 6.
Une première adaptation 410 permet d’adapter au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information de l’image principale A1 située dans la zone visée A2 afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans la zone visée A2 pour le pilote. Dans ce but, le calculateur 7 commande le dispositif d’affichage 6 afin d’adapter cette au moins une première caractéristique lumineuse.
La zone visée A2 a une première aire inférieure à une seconde aire de l’image principale A1. La zone visée A2 est par exemple formée par un carré correspondant à un angle solide de 20°x20° suivant un axe aligné sur la direction du regard du pilote et centré sur cet axe. La zone visée A2 peut aussi avoir une première aire plus faible et être formée par exemple par un carré correspondant à un angle solide de 5°x5° aligné sur la direction du regard du pilote et centré sur cette direction.
De la sorte, au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information située dans la zone visée A2 est adaptée afin que cette au moins une première et/ou deuxième information soit mise en évidence sur l’écran 5,5’ et soit de fait plus rapidement et efficacement prise en compte par le pilote. La première caractéristique lumineuse est par exemple la luminance et/ou l’opacité. Une première valeur de cette première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est alors augmentée lors de la première adaptation 410.
Typiquement, un écart entre la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 supérieur à 10% de cette première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est envisageable pour que ladite au moins une première et/ou deuxième information soit mise en évidence vis-à-vis du reste de l’image A1. Un écart compris entre 10% et 30% de cette première caractéristique lumineuse peut être suffisant pour que ladite au moins une première et/ou deuxième information située dans la zone visée A2 soit efficacement et rapidement perceptible par le pilote.
Un tel écart peut par exemple être obtenu soit par une augmentation de luminance de l’image centrale A2, soit par une augmentation de l’opacité de l’image principale A1 créant une opacité partielle diminuant ainsi la luminosité de cette l’image principale A1. Ces deux actions peuvent également être réalisées simultanément.
Toutefois, un écart supérieur à 30% de cette première caractéristique lumineuse peut aussi être utilisé pour augmenter le contraste entre ladite au moins une première et/ou deuxième information située dans la zone visée A2 et l’image principale A1 en dehors de la zone visée A2 et améliorer de la sorte la mise en évidence de ladite au moins une première et/ou deuxième information située dans la zone visée A2.
La couleur de ladite au moins une première et/ou deuxième information située dans la zone visée A2 peut aussi être adaptée afin de se différencier notamment de la couleur du paysage visible dans cette zone visée A2 et de mettre en évidence cette au moins une première et/ou deuxième information vis-à-vis du paysage.
Par exemple, le procédé peut comporter une étape supplémentaire de deuxième adaptation 420 d’une deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 afin d’augmenter le contraste entre la zone visée A2 et l’image principale A1 hors de la zone visée A2. Par exemple, la luminance de l’image principale A1 constituant la deuxième caractéristique lumineuse est diminuée hors de la zone visée A2 lors de la deuxième adaptation 420.
Typiquement, la luminance de l’image principale A1 est diminuée afin qu’un écart entre la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 soit supérieur à 10% de cette première caractéristique lumineuse.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de troisième adaptation 430 d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de la zone visée A2 afin d’améliorer la visibilité de cette au moins une information considérée comme importante. Une information est considérée comme importante si l’information concerne une alarme ou bien si l’information est attachée à un point géographique 50 ou encore si une position de l’information sur l’image principale A1 n’est pas prévisible par le pilote.
Ainsi, lorsque la troisième caractéristique lumineuse est la luminance, lors de la troisième adaptation 430, une troisième valeur de la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée. Typiquement, la luminance d’une information considérée comme importante est augmentée de sorte qu’un écart entre la troisième caractéristique lumineuse de cette information considérée comme importante et la deuxième caractéristique lumineuse de l’image principale A1 en dehors de la zone visée A2 soit supérieur à 10% de cette troisième caractéristique lumineuse.
Cet écart peut dans ce cas être supérieur par exemple à 30% de cette troisième caractéristique lumineuse afin maximiser la mise en évidence de ladite une information considérée comme importante pour le pilote de l’aéronef 1.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de mesure 140 d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse du paysage visible à l’aide d’un écran 5,5’, la première adaptation 410 prenant en compte la quatrième valeur de la quatrième caractéristique lumineuse afin d’adapter la première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 de sorte à améliorer sa visibilité pour le pilote. Cette mesure peut par exemple être effectuée globalement suivant une direction longitudinale de l’aéronef 1 par un capteur de luminosité fixé sur la structure de l’aéronef 1. Cette mesure peut également être effectuée plus précisément par un capteur fixé sur le casque du pilote de l’aéronef 1.
Le procédé comportant également une troisième adaptation 430, la troisième adaptation 430 prend en compte la quatrième caractéristique lumineuse afin d’adapter la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante de sorte à améliorer sa visibilité pour le pilote.
Typiquement, la première caractéristique lumineuse et la quatrième caractéristique lumineuse étant la luminance, lors de la première adaptation 410, une première valeur de la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 est supérieure à la quatrième valeur de la quatrième caractéristique lumineuse du paysage et, le cas échéant, lors de la troisième adaptation 430, une troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est supérieure à une quatrième luminance du paysage.
De la sorte, un écart au moins supérieur à 10% entre d’une part la première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans la zone visée A2 et éventuellement la troisième caractéristique lumineuse de ladite au moins une information considérée comme importante et d’autre part la quatrième caractéristique lumineuse du paysage visible à l’aide d’un écran 5,5’ peut être garanti permettant la mise en évidence de ladite au moins une première et/ou deuxième information et éventuellement de ladite au moins une information considérée comme importante vis-à-vis du paysage.
En outre, deux premières caractéristiques lumineuses et deux quatrièmes caractéristiques lumineuse étant la luminance et l’opacité, lorsqu’une quatrième luminance du paysage est supérieure à une limite prédéterminée, lors de la première adaptation 410, une première opacité de la zone visée A2 est augmentée. La limité prédéterminée est par exemple fonction de la performance lumineuse de l’écran 5,5’.
Selon un autre exemple, le procédé peut comporter une étape supplémentaire de deuxième affichage 340 d’une image A0 du paysage sur l’écran 5’ opaque.
Dans ce cas, le procédé peut aussi comporter une étape supplémentaire de quatrième adaptation 440 d’au moins une quatrième caractéristique lumineuse de l’image A0 du paysage afin d’augmenter le contraste entre d’une part ladite au moins une première et/ou deuxième information située dans la zone visée A2 et le cas échéant ladite au moins une information considérée comme importante et d’autre part l’image A0 du paysage.
En outre, la position d’au moins un point géographique 50 du paysage peut être connue dans un repère terrestre. La première détermination 210 peut alors comporter les sous étapes suivantes :
- une troisième détection 212 d’une position dans un repère terrestre dudit au moins un point géographique 50 du paysage et,
- un transfert 215 de la position du au moins un point géographique 50 du repère terrestre vers le repère local.
Naturellement, la présente invention est sujette à de nombreuses variations quant à sa mise en œuvre. Bien que plusieurs modes de réalisation aient été décrits, on comprend bien qu’il n’est pas concevable d’identifier de manière exhaustive tous les modes possibles. Il est bien sûr envisageable de remplacer un moyen décrit par un moyen équivalent sans sortir du cadre de la présente invention.
Claims (20)
- Procédé d’assistance au pilotage d’un aéronef (1) par affichage adaptatif à l’aide d’au moins un écran (5,5’) dudit aéronef (1), un paysage extérieur audit aéronef (1) étant visible via ledit au moins un écran (5,5’),
caractérisé en ce que ledit procédé comporte les étapes suivantes :- première détection (110) d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) dans un repère local dudit aéronef (1),
- deuxième détection (120) d’une direction du regard dudit pilote dans ledit repère local,
- première détermination (210) d’une position dans ledit repère local d’au moins un point géographique (50) dudit paysage visible via ledit au moins un écran (5,5’),
- deuxième détermination (220) de la position sur ledit au moins un écran (5,5’) d’au moins une première information attachée audit au moins un point géographique (50) visible via ledit au moins un écran (5,5’),
- troisième détermination (230) de la position sur ledit au moins un écran (5,5’) d’au moins une deuxième information indépendante d’un point géographique (50),
- élaboration (310) d’une image principale (A1) comportant ladite au moins une première information et/ou ladite au moins une deuxième information,
- quatrième détermination (320) d’une zone visée (A2) dudit au moins un écran (5,5’), ladite zone visée (A2) étant centrée dans ladite direction dudit regard dudit pilote,
- premier affichage (330) sur ledit au moins un écran (5,5’) de ladite image principale (A1),
- première adaptation (410) d’au moins une première caractéristique lumineuse d’au moins une première et/ou deuxième information de ladite image principale (A1) située dans ladite zone visée (A2) afin d’améliorer la visibilité de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) pour ledit pilote.
- Procédé selon la revendication 1,
caractérisé en ce que ledit procédé comporte une étape supplémentaire de deuxième adaptation (420) d’une deuxième caractéristique lumineuse de ladite image principale (A1) en dehors de ladite zone visée (A2), afin d’augmenter le contraste entre ladite zone visée (A2) et ladite image principale (A1) hors de ladite zone visée (A2). - Procédé selon l’une quelconque des revendications 1 à 2,
caractérisé en ce que ledit procédé comporte une étape supplémentaire de troisième adaptation (430) d’une troisième caractéristique lumineuse d’au moins une information considérée comme importante indépendamment de sa position vis-à-vis de ladite zone visée (A2) afin d’améliorer la visibilité de ladite au moins une information considérée comme importante pour ledit pilote. - Procédé selon la revendication 3,
caractérisé en ce qu’une information est considérée comme importante si ladite information concerne une alarme ou bien si ladite information est attachée à un point géographique (50) ou encore si une position de ladite information sur ladite image principale (A1) n’est pas prévisible par ledit pilote. - Procédé selon l’une quelconque des revendications 3 à 4,
caractérisé en ce qu’une troisième caractéristique lumineuse étant la luminance, lors de ladite troisième adaptation (430), une troisième valeur d’une troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est augmentée. - Procédé selon l’une quelconque des revendications 1 à 5,
caractérisé en ce qu’une première caractéristique lumineuse étant la luminance et/ou l’opacité, lors de ladite première adaptation (410), une première valeur d’une première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) est augmentée. - Procédé selon l’une quelconque des revendications 1 à 6,
caractérisé en ce qu’une deuxième caractéristique lumineuse étant la luminance, lors de ladite deuxième adaptation (420), une deuxième valeur d’une deuxième caractéristique lumineuse de ladite image principale (A1) en dehors de ladite zone visée (A2) est diminuée. - Procédé selon l’une quelconque des revendications 1 à 7,
caractérisé en ce que ledit procédé comporte une étape supplémentaire de mesure (140) d’une quatrième valeur d’au moins une quatrième caractéristique lumineuse dudit paysage visible via ledit au moins un écran (5,5’), ladite première adaptation (410) adaptant ladite première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) en prenant en compte ladite quatrième valeur de ladite quatrième caractéristique lumineuse afin d’améliorer sa visibilité pour ledit pilote. - Procédé selon la revendication 8,
caractérisé en ce que ledit procédé comportant une troisième adaptation (430), ladite troisième adaptation (430) prend en compte ladite quatrième caractéristique lumineuse afin d’adapter ladite troisième caractéristique lumineuse de ladite au moins une information considérée comme importante de sorte à améliorer sa visibilité pour ledit pilote. - Procédé selon l’une quelconque des revendications 8 à 9,
caractérisé en ce qu’une première caractéristique lumineuse et une quatrième caractéristique lumineuse étant la luminance, lors de ladite première adaptation (410), une première valeur de ladite première caractéristique lumineuse de ladite au moins une première et/ou deuxième information située dans ladite zone visée (A2) est supérieure à ladite quatrième valeur de ladite quatrième caractéristique lumineuse dudit paysage. - Procédé selon l’une quelconque des revendications 8 à 9,
caractérisé en ce que ledit procédé comportant une troisième adaptation (430), une troisième caractéristique lumineuse et une quatrième caractéristique lumineuse étant la luminance, lors de ladite troisième adaptation (430), une troisième valeur de ladite troisième caractéristique lumineuse de ladite au moins une information considérée comme importante est supérieure à ladite quatrième valeur de ladite quatrième caractéristique lumineuse dudit paysage. - Procédé selon l’une quelconque des revendications 9 à 11,
caractérisé en ce que deux premières caractéristiques lumineuses étant la luminance et l’opacité et deux quatrièmes caractéristiques lumineuse étant la luminance et l’opacité, lorsqu’une quatrième luminance dudit paysage est supérieure à une limite prédéterminée, lors de ladite première adaptation (410), une première opacité de ladite zone visée (A2) est augmentée. - Procédé selon l’une quelconque des revendications 1 à 12,
caractérisé en ce que ladite zone visée (A2) est un carré correspondant à un angle solide de 5°x5° suivant un axe aligné sur ladite direction dudit regard dudit pilote et centré sur ledit axe. - Procédé selon l’une quelconque des revendications 1 à 13,
caractérisé en ce que, lors de ladite troisième détermination (230), ladite position sur ledit au moins un écran (5,5’) d’au moins une deuxième information est déterminée en fonction de ladite position et de ladite orientation de ladite tête (20) dudit pilote vis-à-vis dudit au moins un écran (5,5’). - Procédé selon l’une quelconque des revendications 1 à 14,
caractérisé en ce qu’au moins un écran (5,5’) est au moins partiellement transparent et ledit paysage est visible à travers ledit au moins un écran (5,5’). - Procédé selon la revendication 15,
caractérisé en ce que, lors de ladite deuxième détermination (220), ladite position sur ledit au moins un écran (5,5’) d’au moins une première information est déterminée en fonction de ladite position de ladite tête (20) dudit pilote et de ladite position dudit au moins un point géographique (50) vis-à-vis dudit au moins un écran (5,5’). - Procédé selon l’une quelconque des revendications 1 à 14,
caractérisé en ce que ledit procédé comporte une étape supplémentaire de deuxième affichage (340) d’une image (A0) dudit paysage sur ledit au moins un écran (5,5’). - Procédé selon la revendication 17,
caractérisé en ce que ledit procédé comporte une étape supplémentaire de quatrième adaptation (440) d’au moins une quatrième caractéristique lumineuse de ladite image (A0) dudit paysage. - Procédé selon l’une quelconque des revendications 1 à 18,
caractérisé en ce que ladite première détermination (210) comporte les sous étapes suivantes :- une troisième détection (212) d’une position dans un repère terrestre dudit au moins un point géographique (50) dudit paysage et,
- un transfert (215) de ladite position dudit au moins un point géographique (50) dudit repère terrestre vers ledit repère local.
- Système d’assistance (10) au pilotage d’un aéronef (1) par affichage adaptatif à l’aide d’un au moins un écran (5,5’) dudit aéronef (1), ledit système d’assistance (10) comportant :
- ledit au moins un écran (5,5’), un paysage étant visible via ledit au moins un écran (5,5’),
- un dispositif d’affichage (6) desdites informations sur ledit au moins un écran (5,5’),
- un calculateur (7),
- un premier jeu de capteurs (12,13) de détection d’une position et d’une orientation de la tête (20) d’un pilote dudit aéronef (1) dans un repère local dudit aéronef (1),
- un deuxième jeu de capteurs (14,15) de détection d’une direction du regard dudit pilote dudit aéronef (1) dans ledit repère local dudit aéronef (1), et
- un dispositif de détection (16) d’une position d’au moins un point géographique (50) dudit paysage visible via ledit au moins un écran (5,5’),
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1907971A FR3098932B1 (fr) | 2019-07-15 | 2019-07-15 | Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1907971A FR3098932B1 (fr) | 2019-07-15 | 2019-07-15 | Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran |
FR1907971 | 2019-07-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3098932A1 true FR3098932A1 (fr) | 2021-01-22 |
FR3098932B1 FR3098932B1 (fr) | 2023-12-22 |
Family
ID=68987788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1907971A Active FR3098932B1 (fr) | 2019-07-15 | 2019-07-15 | Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3098932B1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119266A1 (fr) * | 2021-12-20 | 2023-06-29 | Israel Aerospace Industries Ltd. | Affichage d'images de réalité augmentée à l'aide d'un système d'affichage optique virtuel |
FR3143776A1 (fr) * | 2022-12-20 | 2024-06-21 | Thales | Procédé de gestion d’un afficheur tête-haute, produit programme d’ordinateur associé et afficheur tête-haute associé |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US20090201177A1 (en) * | 2006-07-11 | 2009-08-13 | Thales | Secure head-up display |
EP2361832A1 (fr) | 2010-02-18 | 2011-08-31 | EUROCOPTER DEUTSCHLAND GmbH | Post de pilotage d'un aéronef |
EP2482114A1 (fr) | 2010-12-03 | 2012-08-01 | Honeywell International, Inc. | Viseur d'affichage pour cockpit d'avion |
FR3004817A1 (fr) | 2013-04-19 | 2014-10-24 | Thales Sa | Systeme de visualisation hybride affichant des informations en superposition sur l exterieur |
FR3013852A1 (fr) | 2013-11-22 | 2015-05-29 | Airbus Operations Sas | Methode et dispositif d'affichage d'information a lisibilite amelioree |
FR3016448A1 (fr) | 2014-01-15 | 2015-07-17 | Dassault Aviat | Systeme d'affichage d'informations d'aeronef, et procede associe |
US20150348299A1 (en) * | 2014-05-28 | 2015-12-03 | Airbus Helicopters | Method contributing to making safe a synthetic graphics representation of the view outside an aircraft |
FR3026196A1 (fr) | 2014-09-22 | 2016-03-25 | Thales Sa | Systeme de visualisation semi-transparent monoculaire |
US20170168560A1 (en) * | 2015-12-09 | 2017-06-15 | Thales | Method of displaying an "attitude director indicator" in a head viewing system for aircraft |
FR3049072A1 (fr) | 2016-03-21 | 2017-09-22 | Airbus Operations Sas | Systeme d'affichage tete haute d'un aeronef |
US20180261148A1 (en) * | 2017-03-09 | 2018-09-13 | Airbus Operations (S.A.S.) | Display system and method for an aircraft |
US20190004318A1 (en) * | 2017-06-29 | 2019-01-03 | Airbus Operations Sas | Display system and method for an aircraft |
-
2019
- 2019-07-15 FR FR1907971A patent/FR3098932B1/fr active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US20090201177A1 (en) * | 2006-07-11 | 2009-08-13 | Thales | Secure head-up display |
EP2361832A1 (fr) | 2010-02-18 | 2011-08-31 | EUROCOPTER DEUTSCHLAND GmbH | Post de pilotage d'un aéronef |
EP2482114A1 (fr) | 2010-12-03 | 2012-08-01 | Honeywell International, Inc. | Viseur d'affichage pour cockpit d'avion |
FR3004817A1 (fr) | 2013-04-19 | 2014-10-24 | Thales Sa | Systeme de visualisation hybride affichant des informations en superposition sur l exterieur |
FR3013852A1 (fr) | 2013-11-22 | 2015-05-29 | Airbus Operations Sas | Methode et dispositif d'affichage d'information a lisibilite amelioree |
FR3016448A1 (fr) | 2014-01-15 | 2015-07-17 | Dassault Aviat | Systeme d'affichage d'informations d'aeronef, et procede associe |
US20150348299A1 (en) * | 2014-05-28 | 2015-12-03 | Airbus Helicopters | Method contributing to making safe a synthetic graphics representation of the view outside an aircraft |
FR3026196A1 (fr) | 2014-09-22 | 2016-03-25 | Thales Sa | Systeme de visualisation semi-transparent monoculaire |
US20170168560A1 (en) * | 2015-12-09 | 2017-06-15 | Thales | Method of displaying an "attitude director indicator" in a head viewing system for aircraft |
FR3049072A1 (fr) | 2016-03-21 | 2017-09-22 | Airbus Operations Sas | Systeme d'affichage tete haute d'un aeronef |
US20180261148A1 (en) * | 2017-03-09 | 2018-09-13 | Airbus Operations (S.A.S.) | Display system and method for an aircraft |
US20190004318A1 (en) * | 2017-06-29 | 2019-01-03 | Airbus Operations Sas | Display system and method for an aircraft |
Non-Patent Citations (1)
Title |
---|
THOMAS W. FREY ET AL: "Virtual HUD using an HMD", SPIE - INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING. PROCEEDINGS, vol. 4361, 22 August 2001 (2001-08-22), US, pages 251 - 262, XP055608895, ISSN: 0277-786X, ISBN: 978-1-5106-3377-3, DOI: 10.1117/12.438000 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119266A1 (fr) * | 2021-12-20 | 2023-06-29 | Israel Aerospace Industries Ltd. | Affichage d'images de réalité augmentée à l'aide d'un système d'affichage optique virtuel |
FR3143776A1 (fr) * | 2022-12-20 | 2024-06-21 | Thales | Procédé de gestion d’un afficheur tête-haute, produit programme d’ordinateur associé et afficheur tête-haute associé |
EP4390509A1 (fr) * | 2022-12-20 | 2024-06-26 | Thales | Procede de gestion d'un afficheur tête-haute, produit programme d'ordinateur associe et afficheur tête-haute associe |
Also Published As
Publication number | Publication date |
---|---|
FR3098932B1 (fr) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7961117B1 (en) | System, module, and method for creating a variable FOV image presented on a HUD combiner unit | |
US8416152B2 (en) | Method and system for operating a near-to-eye display | |
FR2993509A1 (fr) | Dispositif electronique de protection contre l'eblouissement d'un pilote ou d'un conducteur. | |
EP2950049B1 (fr) | Procédé contributeur de la sécurisation d'une représentation graphique synthétique de la vue extérieure d'un aéronef | |
EP2533095B1 (fr) | Système d'aide au pilotage et aéronef | |
FR2633476A1 (fr) | Systemes de visualisation que l'on peut regarder sans devoir baisser la tete | |
US8358254B2 (en) | Helmet comprising visor position detection and associated helmet position detection | |
FR3098932A1 (fr) | Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran | |
CN107010237A (zh) | 用于在hud上显示fov边界的系统和方法 | |
FR3061598A1 (fr) | Procede de calcul et d'affichage d'informations de pilotage comportant un " relief factor" | |
EP3502842A1 (fr) | Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur | |
FR3066619A1 (fr) | Systeme d'affichage d'un aeronef | |
FR3098900A1 (fr) | Procédé et système d’assistance au pilotage d’un aéronef par affichage adaptatif sur un écran | |
EP3179291B1 (fr) | Procede d'affichage d'un " indicateur de directeur d'attitude " dans un systeme de visualisation de tete pour aeronef | |
US11663739B2 (en) | Fiducial marker based field calibration of a device | |
EP3029420B1 (fr) | Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche | |
CA3047766C (fr) | Systeme d'aide au pilotage d'un aeronef, aeronef associe et procede d'aide au pilotage de cet aeronef | |
EP4064010B1 (fr) | Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef | |
US20120162248A1 (en) | Method for Eliminating a Cockpit Mask and Associated Helmet-Mounted Display System | |
FR2996672A1 (fr) | Systeme de visualisation pour aeronef avec des lignes de relief et procede associe | |
EP3816703A1 (fr) | Procede d'aide au pilotage d'un aeronef | |
WO2020084232A1 (fr) | Procédé de pilotage de l'affichage d'informations sur un bandeau d'écran équipant une passerelle de bateau | |
FR3033903A1 (fr) | Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. | |
FR3072479A1 (fr) | Methode de visualisation synthetique d'une scene vue a partir d'un aeronef et systeme de vision synthetique pour mettre en œuvre une telle methode | |
FR3071624A1 (fr) | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20210122 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |