FR3033903A1 - Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. - Google Patents
Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. Download PDFInfo
- Publication number
- FR3033903A1 FR3033903A1 FR1552133A FR1552133A FR3033903A1 FR 3033903 A1 FR3033903 A1 FR 3033903A1 FR 1552133 A FR1552133 A FR 1552133A FR 1552133 A FR1552133 A FR 1552133A FR 3033903 A1 FR3033903 A1 FR 3033903A1
- Authority
- FR
- France
- Prior art keywords
- aircraft
- image
- synthetic image
- interest
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0021—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/02—Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
- G08G5/025—Navigation or guidance aids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
L'invention concerne un système (200) d'aide à la navigation d'un aéronef, comportant un afficheur tête haute (24) destiné à superposer à un paysage extérieur une image synthétique (211) de celui-ci. Le paysage extérieur comporte une zone d'intérêt (110) d'un aéroport, par exemple une piste d'atterrissage. L'image synthétique est déterminée en fonction de données relatives à ladite zone d'intérêt et de coordonnées de l'aéronef. Selon l'invention, le système comporte : - une caméra (25), montée solidaire de l'aéronef et agencée pour capturer une image réelle du paysage extérieur ; et - un processeur (26), agencé pour effectuer en temps réel une comparaison entre l'image réelle et l'image synthétique, et pour en déduire des données de guidage. Le système selon l'invention offre ainsi un guidage amélioré, puisque le guidage apporté par l'image synthétique est complété par la comparaison avec une image obtenue par un moyen alternatif, c'est-à-dire par une caméra plutôt que par des calculs.
Description
1 SYSTEME D'AIDE A LA NAVIGATION D'UN AERONEF AVEC ECRAN D'AFFICHAGE TÊTE HAUTE ET CAMERA. DESCRIPTION DOMAINE TECHNIQUE La présente invention concerne le domaine de l'aide à la navigation d'un aéronef, à l'aide d'un afficheur tête haute. ÉTAT DE LA TECHNIQUE ANTÉRIEURE Un aéronef peut être équipé d'un afficheur tête haute, également nommé collimateur tête haute (CTH) ou HUD pour l'anglais « head-up display ». L'afficheur tête haute comprend des moyens de projection d'une image synthétique dans le champ de vision du pilote, en vue de lui offrir une vision d'un paysage extérieur sur lequel l'image synthétique se superpose en transparence. On parle de réalité augmentée. On nomme paysage extérieur l'environnement situé à l'extérieur de l'aéronef et vu par le pilote depuis son poste de pilotage. Le paysage extérieur est par exemple une vue d'un aéroport. L'image synthétique est projetée sur un écran au moins partiellement transparent. L'écran est situé dans le champ de vision du pilote, lorsqu'il regarde le paysage situé à l'avant de l'aéronef. L'écran est par exemple disposé entre le pare-brise du cockpit de l'aéronef et un appui tête destiné à recevoir la tête du pilote. En variante, l'écran est monté solidaire de la tête du pilote, grâce à des lunettes ou un casque de vision en réalité augmentée.
L'image synthétique est une représentation schématique du paysage extérieur, considérée selon l'angle de vue théorique du pilote, lorsque l'aéronef est situé et orienté comme indiqué par des capteurs de position.
3033903 2 L'image synthétique est plus particulièrement une représentation schématique d'une piste d'atterrissage, calculée en temps réel, par simulation mathématique, en fonction de données relatives à la piste d'atterrissage et d'une position courante de l'aéronef.
5 Les données relatives à la piste d'atterrissage comprennent des informations relatives à sa forme et à sa localisation. Ces données sont stockées dans une base de données embarquée à bord de l'aéronef. La base de données stocke les données relatives à diverses pistes d'atterrissage, sous la forme par exemple de plans d'aéroports. Chaque piste y est identifiée par exemple par un 10 identifiant d'aéroport et un numéro de piste. A l'approche de l'aéroport d'arrivée, une sélection de la piste d'atterrissage sur laquelle l'aéronef doit atterrir est opérée. Cette sélection peut être opérée par le pilote, ou automatiquement. La position courante de l'aéronef est donnée par des capteurs de position de l'aéronef, comprenant par exemple un appareil GPS (pour l'anglais « Global 15 Positioning System ») fournissant la position de l'avion dans l'espace, et une centrale inertielle fournissant par exemple des angles de lacet, roulis et tangage (attitude). Un processeur reçoit les données relatives à la piste d'atterrissage et à la position courante de l'aéronef, et les combine pour calculer, à chaque instant, 20 l'image synthétique. Le processeur réalise par exemple une projection de l'aéronef sur un plan de la piste d'atterrissage. L'image synthétique permet de mettre en évidence la piste d'atterrissage sur le paysage extérieur. L'image synthétique comprend par exemple un symbole graphique, destiné à délimiter les bords de la piste d'atterrissage sur le paysage 25 extérieur vu par le pilote. En d'autres termes, le symbole graphique est destiné à dessiner les contours de la piste d'atterrissage telle qu'elle se présente sur le paysage extérieur. La position et la forme du symbole graphique dépendent donc de la position de l'aéronef relativement à la piste d'atterrissage.
3033903 3 Le pilote peut ainsi visualiser aisément la piste d'atterrissage, même en cas de conditions réduisant la visibilité de la piste sur le paysage extérieur (par exemple du brouillard ou de la pluie). On a illustré en figure 1A un exemple d'un tel système d'aide à la 5 navigation. Le processeur 13 reçoit des données provenant de la base de données 11 et des capteurs de position 12. Le processeur 13 calcule en temps réel l'image synthétique, et pilote l'affichage de l'image synthétique 111 sur l'écran de l'afficheur tête haute. L'image synthétique 111 comprend une représentation 10 schématique de la piste d'atterrissage 110, obtenue par simulation mathématique. La superposition parfaite entre la piste d'atterrissage représentée sur l'image synthétique et la piste d'atterrissage sur le paysage extérieur, suppose notamment que les informations fournies par les capteurs de position et par la 15 base de données soient parfaitement justes et précises. La piste d'atterrissage représentée sur l'image synthétique peut être définie par plusieurs coins, chaque coin étant associé à une position angulaire (angle de projection d'un faisceau lumineux émis par les moyens de projection de l'afficheur tête haute). A titre d'exemple, une imprécision d'un angle de 0,5° sur une telle position angulaire, 20 due à une imprécision du positionnement du GPS de l'aéronef, peut avoir pour conséquence un décalage latéral entre l'image synthétique et le paysage extérieur égal à une demi-largeur de la piste d'atterrissage sur le paysage extérieur. La figure 1B illustre de façon schématique la superposition, sur l'écran de l'afficheur tête haute, entre l'image synthétique et le paysage extérieur. La 25 piste d'atterrissage telle que symbolisée sur l'image synthétique (en trait pointillé) est décalée de la piste d'atterrissage visible sur le paysage extérieur (en trait plein). Un objectif de la présente invention est de remédier aux inconvénients précités.
3033903 4 En particulier, un objectif de la présente invention est de proposer un système d'aide à la navigation mettant en oeuvre un affichage tête haute, et offrant un guidage amélioré.
5 EXPOSÉ DE L'INVENTION Cet objectif est atteint avec un système d'aide à la navigation d'un aéronef, comportant un afficheur tête haute destiné à superposer à un paysage extérieur une image synthétique de celui-ci, le paysage extérieur comportant une zone d'intérêt d'un aéroport, et l'image synthétique étant déterminée en fonction de 10 données relatives à ladite zone d'intérêt et de coordonnées de l'aéronef. Selon l'invention, le système comporte : une caméra, montée solidaire de l'aéronef et agencée pour capturer une image réelle du paysage extérieur ; et un processeur, agencé pour effectuer en temps réel une comparaison 15 entre l'image réelle et l'image synthétique, et pour en déduire des données de guidage. L'image synthétique est déterminée en fonction de données annexes, en particulier en fonction de coordonnées de l'aéronef. Toute erreur de mesure de 20 ces coordonnées se retrouve dans l'image synthétique, éventuellement amplifiée. L'image réelle est acquise directement par un capteur d'image, ou caméra. L'image réelle n'est pas influencée par d'autres capteurs que la caméra. Ainsi, l'image réelle peut facilement présenter une grande précision. La comparaison entre l'image réelle et l'image synthétique permet donc de 25 compléter le guidage apporté par l'image synthétique, à l'aide de données pouvant être plus précises. Cette comparaison permet notamment de mettre en évidence une éventuelle imprécision de l'image synthétique, cette information étant utilisée 3033903 5 pour formuler des données de guidage complémentaires (par exemple un signal d'alerte, lorsque cette imprécision dépasse un seuil prédéterminé). En tout état de cause, la comparaison entre l'image réelle et l'image synthétique permet de compléter le guidage apporté par l'image synthétique, ces 5 deux images étant obtenues par des moyens alternatifs (caméra pour l'une, simulation par calculs pour l'autre). Le processeur peut comparer en particulier le positionnement de la zone d'intérêt sur l'image réelle et le positionnement de la zone d'intérêt sur l'image synthétique.
10 De préférence, l'image synthétique comprend un symbole graphique destiné à délimiter la zone d'intérêt sur le paysage extérieur. Le symbole graphique peut être défini par plusieurs positions angulaires correspondant chacune à un coin de la zone d'intérêt sur le paysage extérieur. Avantageusement, le symbole graphique est défini par quatre positions 15 angulaires correspondant à quatre coins de la zone d'intérêt sur le paysage extérieur. De préférence, la zone d'intérêt est une piste d'atterrissage et les coordonnées de l'aéronef comprennent une attitude et une position de l'aéronef dans l'espace.
20 En variante, la zone d'intérêt est une voie de circulation et les coordonnées de l'aéronef comprennent un angle de lacet et une position de l'aéronef dans l'aéroport. Avantageusement, lorsque l'image réelle diffère de l'image synthétique au-delà d'un premier seuil prédéterminé, les données de guidage comprennent un 25 premier signal d'alerte. Le processeur peut être agencé pour effectuer en outre une comparaison entre une altitude courante de l'aéronef et un seuil d'altitude prédéterminé, et les données de guidage peuvent comprendre un second signal d'alerte lorsque l'altitude courante de l'aéronef est inférieure au seuil d'altitude prédéterminé.
3033903 6 Avantageusement, le processeur est agencé pour fournir les données de guidage à l'afficheur tête haute. Les données de guidage peuvent comprendre une représentation schématique de la zone d'intérêt, déterminée en fonction du positionnement de 5 la zone d'intérêt sur l'image réelle. De préférence, lorsque l'image réelle diffère de l'image synthétique au-delà d'un premier seuil prédéterminé, les données de guidage comprennent un premier signal d'alerte, et le premier signal d'alerte comprend une commande d'arrêt d'affichage de l'image synthétique.
10 Le processeur est avantageusement agencé pour fournir les données de guidage à un système de pilote automatique. L'invention concerne également un procédé d'aide à la navigation d'un aéronef mis en oeuvre dans un système d'aide à la navigation comprenant un afficheur tête haute destiné à superposer à un paysage extérieur, une image 15 synthétique de celui-ci, le paysage extérieur comportant une zone d'intérêt d'un aéroport, et l'image synthétique étant déterminée en fonction de données relatives à ladite zone d'intérêt et de coordonnées de l'aéronef, le procédé comprenant : une acquisition d'une image réelle du paysage extérieur, par une 20 caméra montée solidaire de l'aéronef ; une comparaison en temps réel entre l'image réelle et l'image synthétique ; et une formulation de données de guidage, en fonction du résultat de la comparaison.
25 3033903 7 BRÈVE DESCRIPTION DES DESSINS La présente invention sera mieux comprise à la lecture de la description d'exemples de réalisation donnés à titre purement indicatif et nullement limitatif, en faisant référence aux dessins annexés sur lesquels : 5 les figures 1A et 1B illustrent de manière schématique un système d'aide à la navigation selon l'art antérieur, - la figure 2 illustre un premier mode de réalisation de système d'aide à la navigation selon l'invention ; - la figure 3 illustre un procédé mis en oeuvre dans le système selon la 10 figure 2 ; - les figures 4A à 4C illustrent des données de guidage selon l'invention ; et la figure 5 illustre un deuxième mode de réalisation de système d'aide à la navigation selon l'invention.
15 EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS La figure 2 illustre un premier mode de réalisation d'un système d'aide à la navigation 200 selon l'invention. Le système 200 est installé à bord d'un aéronef. La figure 2 ne sera décrite que pour ses différences relativement à la figure 20 1A. En particulier, les références numériques 21, 22, 24, 210, 211, 212 de la figure 2 correspondent respectivement aux références numériques 11, 12, 14, 110, 111, 112 de la figure 1A. Le paysage extérieur selon l'invention est notamment une vue d'une piste d'atterrissage 210 d'un aéroport. La piste d'atterrissage forme une zone d'intérêt 25 selon l'invention. L'image synthétique 211 est synthétisée en temps réel, comme décrit en introduction, à partir de données relatives à la piste et de coordonnées courantes de l'aéronef. Ces coordonnées consistent ici en une attitude (angles de roulis, de 3033903 8 tangage et de cap), et une position de l'aéronef dans l'espace. La position de l'aéronef consiste par exemple en trois coordonnées d'un point dans l'espace. L'image synthétique est une représentation schématique du paysage extérieur, calculée comme décrit en introduction. Elle consiste ici en un symbole 5 graphique destiné à dessiner les contours de la piste d'atterrissage sur le paysage extérieur. Le système 200 comprend une caméra 25, agencée pour acquérir en temps réel une image du paysage extérieur, de préférence selon un même angle de vue que l'angle de vue du pilote. Lorsque le pilote s'installe à son poste de pilotage, il 10 effectue, de façon connue en soi, différents réglages permettant que son angle de vue corresponde à un angle de vue souhaité. Cet angle de vue souhaité correspond alors également à l'angle de vue de la caméra. L'image acquise par la caméra 25 est dite image réelle. L'incertitude associée à l'image réelle est liée à l'incertitude sur le seul 15 positionnement de la caméra. L'incertitude associée à l'image synthétique est liée aux incertitudes sur plusieurs mesures, notamment des mesures de position et d'attitude. L'incertitude liée à l'image réelle est environ cinq fois plus faible que l'incertitude liée à l'image synthétique (angle d'environ 0,10 contre 0,50, ces images étant définies par des angles de projection de faisceaux lumineux sur un 20 écran). La caméra 25 peut être montée solidaire du support recevant l'écran de l'afficheur tête haute 24. Cet emplacement présente l'avantage de ne pas être encombré par d'autres systèmes. L'invention est particulièrement avantageuse lorsque la caméra 25 est une 25 caméra infrarouge, offrant alors une vision précise du paysage extérieur même à travers des obstacles tels qu'une couche de brouillard, des nuages ou de la pluie. L'image réelle contient alors bien plus d'informations que ne peut voir le pilote à l'ceil nu. En particulier, même lorsque la piste d'atterrissage n'est pas visible par le pilote, elle est présente sur l'image réelle.
3033903 9 Un processeur 26 reçoit l'image réelle, et la compare à l'image synthétique. Dans l'exemple représenté en figure 2, le processeur 26 est relié à la base de données 21 et au capteur de position 22 pour générer lui-même l'image synthétique. En variante, il reçoit cette image synthétique d'un processeur 5 annexe. Le processeur 26 compare en temps réel l'image réelle et l'image synthétique. En d'autres termes, le processeur compare un modèle à la réalité. En particulier, il peut comparer le positionnement de la piste d'atterrissage sur l'image réelle et sur l'image synthétique. Le positionnement désigne ici la forme 10 et la position, ou en d'autres termes l'emplacement. Ces comparaisons peuvent mettre en oeuvre des comparaisons d'angles de projection relatifs à l'image synthétique et à l'image réelle. En fonction du résultat de cette comparaison, le processeur 26 formule des données de guidage.
15 Ces données de guidage peuvent comprendre une information relative à un taux de ressemblance entre les deux images. Les données de guidage peuvent comprendre en outre une information sur le positionnement de la piste d'atterrissage sur l'image réelle, et/ou sur le décalage entre ce positionnement sur l'image réelle et sur l'image synthétique.
20 Dans l'exemple représenté en figure 2, les données de guidage sont fournies en temps réel à l'afficheur tête haute 24, en vue de superposer au paysage extérieur une image synthétique enrichie par ces données de guidage. Le système d'aide à la navigation comprend donc ladite caméra 25, le processeur 26 et l'afficheur tête haute 24. Le processeur 26 peut être un 25 processeur spécifique ajouté aux appareils préexistant dans l'aéronef. En variante, le processeur 26 correspond à un processeur préexistant dans l'aéronef et dans lequel un logiciel spécifique est installé.
3033903 10 Dans l'exemple représenté en figure 2, le système 200 forme en particulier un système d'aide à l'atterrissage, la zone d'intérêt considérée étant une piste d'atterrissage. En variante, le système 200 forme un système d'aide à la navigation 5 aéroportuaire (ou roulage), la zone d'intérêt considérée étant une voie de circulation dans un aéroport. Dans ce cas, les coordonnées de l'aéronef, utilisées pour générer l'image synthétique, comprennent l'angle de lacet et la position de l'aéronef dans l'aéroport (notamment position d'un point de l'aéronef dans un plan).
10 La figure 3 illustre de façon schématique un procédé mis en oeuvre dans un système tel que décrit en référence à la figure 2. Le procédé illustré en figure 3 comprend une détection de coordonnées de l'aéronef (étape 301), et une sélection d'une piste d'atterrissage (étape 302A) 15 suivie d'une extraction de données relatives à cette piste d'atterrissage dans une base de données (étape 302B). Les étapes 302A et 302B sont réalisées de façon connue en soi grâce au système de gestion de vol de l'aéronef qui comporte une base de données des aéroports et de leurs pistes d'atterrissage. Les coordonnées de l'aéronef et les données relatives à la piste 20 d'atterrissage sont utilisées pour générer l'image synthétique (étape 303). La piste d'atterrissage telle qu'elle se présente sur le paysage extérieur a par exemple une forme de quadrilatère. Elle est alors définie sur l'image synthétique quatre points, chaque point correspondant à une position angulaire. Chaque position angulaire correspond à un angle solide de projection d'un faisceau 25 lumineux sur l'écran de l'afficheur tête haute, et par les moyens de projection de celui-ci. Les quatre positions angulaires définissent ensemble un symbole graphique tel que défini ci-avant. En variante, la piste d'atterrissage présente la forme de tout polygone à au moins trois coins.
3033903 11 Les étapes 301, 302A, 302B et 303 sont connues en soi, et ne font pas nécessairement partie intégrante du procédé selon l'invention. Le procédé comprend également une capture de l'image réelle telle que définie en référence à la figure 2 (étape 304).
5 De préférence, l'image réelle est soumise à un traitement d'image, par exemple une reconnaissance de forme pour identifier la position et la forme d'au moins un élément pouvant correspondre à la piste d'atterrissage sur l'image réelle (étape 305). L'image synthétique et l'image réelle (éventuellement modifiée par un 10 traitement d'image) sont ensuite comparées (étape 306). On détermine par exemple un taux de ressemblance entre ces deux images. Ce taux de ressemblance peut correspondre à un taux de ressemblance entre la forme et la position de la piste d'atterrissage sur l'image synthétique, et sur l'image réelle. La comparaison peut consister, ou comprendre, un calcul de taux de recouvrement 15 entre la piste d'atterrissage sur l'image synthétique et sur l'image réelle. Le résultat de cette comparaison est comparé à des données de référence, par exemple un seuil de ressemblance prédéterminé (étape 307). On distingue alors deux cas : - un premier cas (308A), correspondant à un fort taux de ressemblance 20 entre ces deux images (par exemple un taux de recouvrement supérieur à 95%). un second cas (308B), correspondant à un faible taux de ressemblance entre ces deux images (par exemple un taux de recouvrement inférieur à 95%).
25 En fonction du résultat de la comparaison effectuée à l'étape 307, le processeur formule des données de guidage. Les données de guidage peuvent consister simplement en l'information relative à la ressemblance ou non entre l'image réelle et l'image synthétique.
3033903 12 Dans le premier cas 308A, les données de guidage comprennent par exemple une confirmation de la précision de l'image synthétique. Cette confirmation peut être complétée par une information relative à l'éventuel décalage entre l'image réelle et l'image synthétique et/ou une information 5 relative au positionnement de la piste d'atterrissage sur l'image réelle. L'information sur le positionnement de la piste d'atterrissage sur l'image réelle peut se présenter sous la forme d'une représentation schématique de la zone d'intérêt telle qu'elle se présente sur l'image réelle. Cette représentation schématique peut consister en un symbole graphique destiné à délimiter la piste 10 d'atterrissage sur l'image réelle. Dans le second cas, les données de guidage comprennent par exemple un premier signal d'alerte relatif à la précision moindre de l'image synthétique. Le cas échéant, les données de guidage comprennent également une information relative à un décalage entre l'image réelle et l'image synthétique et/ou une 15 information relative au positionnement de la piste d'atterrissage sur l'image réelle. Le seuil de ressemblance prédéterminé peut être choisi de sorte que : le cas 308A correspond au cas où la piste d'atterrissage est reconnue sur l'image réelle, les données de guidage comprenant alors une information 20 relative au positionnement de la piste d'atterrissage sur l'image réelle ; et - le cas 308B correspond au cas où la piste d'atterrissage n'est pas reconnue sur l'image réelle. Les données de guidage sont transmises en temps réel à l'afficheur tête 25 haute et pilotent une modification de son affichage. La modification de l'affichage consiste en l'affichage de données graphiques de guidage, correspondant auxdites données de guidage. En variante ou en complément, les données de guidage sont transmises en temps réel à un système de pilote automatique.
3033903 13 Les données de guidage peuvent comprendre en outre une alerte relative à la présence d'un intrus sur la piste d'atterrissage. L'intrus est par exemple un véhicule, ou tout autre obstacle. On a représenté en figure 3 un procédé particulièrement avantageux.
5 Lorsque la piste d'atterrissage n'est pas reconnue sur l'image réelle (cas 308B), le processeur vérifie que l'aéronef ne se trouve pas sous une altitude limite. Pour cela, le processeur compare (étape 309) l'altitude seuil d'altitude prédéterminé. Si l'altitude courante de l'aéronef est inférieure courante de l'aéronef et un à ce seuil, le processeur 10 formule un second signal d'alerte (étape 310) qui est transmis à l'afficheur tête haute et/ou à un système de pilote automatique. La mise en oeuvre en temps réel de la comparaison 306 peut être arrêtée. Si l'altitude courante de l'aéronef est supérieure à ce seuil, le processeur réitère l'étape 306 de comparaison, en prenant en compte les nouvelles images 15 réelle et synthétique courantes, et ce jusqu'à ce que la piste d'atterrissage soit reconnue sur l'image réelle (cas 308A). Une fois cette première reconnaissance obtenue, le processeur disposera d'une connaissance a priori du positionnement de la piste d'atterrissage sur l'image réelle, ce qui facilitera le repérage de la piste d'atterrissage aux instants suivants.
20 Cet exemple n'est pas limitatif, et la vérification de l'altitude de l'aéronef peut être mise en oeuvre dans n'importe quel cas où le taux de ressemblance entre l'image réelle et l'image synthétique est faible, même lorsque la piste d'atterrissage est reconnue sur l'image réelle. En variante, cette vérification est mise en oeuvre de façon systématique.
25 Les figures 4A à 4C illustrent l'affichage mis en oeuvre sur l'écran de l'afficheur tête haute en l'absence de mise en oeuvre du procédé selon l'invention (figures du haut) et avec mise en oeuvre du procédé conforme à l'invention (figures du bas).
3033903 14 Sur chacune des vues de l'écran, on a représenté l'image synthétique de la piste en traits pointillés et la piste sur le paysage extérieur en trait plein. Les décalages entre l'image synthétique et l'image réelle sont volontairement exagérés à des fins d'illustration de l'invention.
5 La figure 4A correspond typiquement au cas 308A. Les données de guidage comprennent des données relatives au positionnement de la piste d'atterrissage sur l'image réelle. Il s'agit de données d'affichage d'une représentation schématique de la piste telle qu'elle se présente sur l'image réelle. Dans l'exemple représenté en figure 4A, cette représentation schématique se 10 superpose à l'image synthétique, sur l'écran de l'afficheur tête haute. En variante, cette représentation schématique remplace l'image synthétique. L'affichage de la représentation schématique de la piste telle qu'elle se présente sur l'image réelle constitue en outre une confirmation de la ressemblance entre image réelle et image synthétique, et donc une confirmation de la haute précision de l'image 15 synthétique. Selon une variante non représentée, les données de guidage sont relatives au décalage entre l'image synthétique et l'image réelle. Elles peuvent permettre l'affichage de symboles graphiques tels que des flèches, sur l'écran de l'afficheur tête haute.
20 La figure 4B correspond typiquement au cas 308B. Le premier signal d'alerte comprend une commande d'arrêt de l'affichage de l'image synthétique. Ainsi, le pilote est invité à se fier plutôt à sa vision du paysage extérieur qu'a l'image synthétique. La figure 4C correspond au cas 308B et à une altitude courante de l'aéronef 25 inférieure au seuil d'altitude prédéterminé. Le premier signal d'alerte comprend une commande d'arrêt de l'affichage de l'image synthétique. Le second signal d'alerte se traduit par l'affichage en haut à droite d'un symbole d'alerte.
3033903 15 La figure 5 illustre de manière schématique un deuxième mode de réalisation de système 500 d'aide à la navigation selon l'invention. Les références numériques 500, 51, 52, 56, 510, 55, 511, 54 et 512 correspondent respectivement aux références numériques 200, 21, 22, 26, 210, 25, 211, 24 et 5 212 de la figure 2. Le mode de réalisation de la figure 5 ne sera décrit qu'en ce qu'il diffère de celui de la figure 2. La caméra 56 est située dans un radôme de l'aéronef, à l'avant de celui-ci. La caméra 56 se trouve alors dans le nez de l'avion, directement face au paysage 10 extérieur. Le processeur fournit des données de guidage à un système 57 de pilotage automatique de l'aéronef. Les données de guidage ne sont pas des consignes d'affichage, mais des consignes adaptées à un tel système 57. 15
Claims (12)
- REVENDICATIONS1. Système (200; 500) d'aide à la navigation d'un aéronef, comportant un afficheur tête haute (24; 54) destiné à superposer à un paysage extérieur une image synthétique (211; 511) de celui-ci, le paysage extérieur comportant une zone d'intérêt (110) d'un aéroport, et l'image synthétique étant déterminée en fonction de données relatives à ladite zone d'intérêt et de coordonnées de l'aéronef, caractérisé en ce qu'il comporte : une caméra (25; 55), montée solidaire de l'aéronef et agencée pour capturer une image réelle du paysage extérieur ; et un processeur (26; 56), agencé pour effectuer en temps réel une comparaison entre l'image réelle et l'image synthétique, et pour en déduire des données de guidage.
- 2. Système d'aide (200; 500) à la navigation selon la revendication 1, caractérisé en ce que l'image synthétique comprend un symbole graphique destiné à délimiter la zone d'intérêt sur le paysage extérieur.
- 3. Système (200; 500) d'aide à la navigation selon la revendication 2, caractérisé en ce que le symbole graphique est défini par quatre positions angulaires correspondant à quatre coins de la zone d'intérêt sur le paysage extérieur.
- 4. Système (200; 500) d'aide à la navigation selon l'une quelconque des revendications 1 à 3, caractérisé en ce que la zone d'intérêt (110) est une piste d'atterrissage et en ce que les coordonnées de l'aéronef comprennent une attitude et une position de l'aéronef dans l'espace. 3033903 17
- 5. Système d'aide à la navigation (200; 500) selon l'une quelconque des revendications 1 à 3, caractérisé en ce que la zone d'intérêt est une voie de circulation et en ce que les coordonnées de l'aéronef comprennent un angle de lacet et une position de l'aéronef dans l'aéroport. 5
- 6. Système d'aide à la navigation (200; 500) selon l'une quelconque des revendications 1 à 5, caractérisé en ce que, lorsque l'image réelle diffère de l'image synthétique au-delà d'un premier seuil prédéterminé, les données de guidage comprennent un premier signal d'alerte. 10
- 7. Système d'aide à la navigation (200; 500) selon la revendication 6, caractérisé en ce que le processeur est agencé pour effectuer en outre une comparaison entre une altitude courante de l'aéronef et un seuil d'altitude prédéterminé, et en ce que les données de guidage comprennent un second 15 signal d'alerte lorsque l'altitude courante de l'aéronef est inférieure au seuil d'altitude prédéterminé.
- 8. Système d'aide à la navigation (200; 500) selon l'une quelconque des revendications 1 à 7, caractérisé en ce que le processeur est agencé pour fournir 20 les données de guidage à l'afficheur tête haute (24; 54).
- 9. Système d'aide à la navigation (200; 500) selon la revendication 8, caractérisé en ce que les données de guidage comprennent une représentation schématique de la zone d'intérêt, déterminée en fonction du positionnement de 25 la zone d'intérêt sur l'image réelle.
- 10. Système d'aide à la navigation (200; 500) selon la revendication 8 ou 9, caractérisé en ce que, lorsque l'image réelle diffère de l'image synthétique au-delà d'un premier seuil prédéterminé, les données de guidage comprennent un 3033903 18 premier signal d'alerte, et en ce que le premier signal d'alerte comprend une commande d'arrêt d'affichage de l'image synthétique.
- 11. Système d'aide à la navigation (200; 500) selon l'une quelconque des 5 revendications 1 à 7, caractérisé en ce que le processeur est agencé pour fournir les données de guidage à un système de pilote automatique (57).
- 12. Procédé d'aide à la navigation d'un aéronef mis en oeuvre dans un système d'aide à la navigation (200; 500) comprenant un afficheur tête haute 10 (24; 54) destiné à superposer à un paysage extérieur, une image synthétique (211; 511) de celui-ci, le paysage extérieur comportant une zone d'intérêt d'un aéroport, et l'image synthétique étant déterminée en fonction de données relatives à ladite zone d'intérêt et de coordonnées de l'aéronef, caractérisé en ce qu'il comprend les étapes suivantes : 15 une acquisition d'une image réelle du paysage extérieur, par une caméra (25; 55) montée solidaire de l'aéronef ; une comparaison en temps réel entre l'image réelle et l'image synthétique ; et une formulation de données de guidage, en fonction du résultat de la 20 comparaison.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1552133A FR3033903A1 (fr) | 2015-03-16 | 2015-03-16 | Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1552133A FR3033903A1 (fr) | 2015-03-16 | 2015-03-16 | Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3033903A1 true FR3033903A1 (fr) | 2016-09-23 |
Family
ID=53008772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1552133A Pending FR3033903A1 (fr) | 2015-03-16 | 2015-03-16 | Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3033903A1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10232952B2 (en) * | 2015-12-29 | 2019-03-19 | Thales | Method for three-dimensional graphic representation of a landing runway on an aircraft display device |
EP3578926A1 (fr) * | 2018-06-06 | 2019-12-11 | Thales | Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2182326A1 (fr) * | 2008-10-31 | 2010-05-05 | Honeywell International Inc. | Procédés et systèmes pour afficher des images de capteur d'un environnement externe |
EP2458339A2 (fr) * | 2010-11-30 | 2012-05-30 | Honeywell International, Inc. | Systèmes, procédés et support lisible par ordinateur pour afficher des images multiples superposées pour le pilote d'un avion pendant le vol |
EP2167920B1 (fr) * | 2007-07-18 | 2013-09-18 | Elbit Systems Ltd. | Aide à l'atterrissage pour aéronef |
US8917191B1 (en) * | 2011-09-22 | 2014-12-23 | Rockwell Collins, Inc. | Dual threaded system for low visibility operations |
-
2015
- 2015-03-16 FR FR1552133A patent/FR3033903A1/fr active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2167920B1 (fr) * | 2007-07-18 | 2013-09-18 | Elbit Systems Ltd. | Aide à l'atterrissage pour aéronef |
EP2182326A1 (fr) * | 2008-10-31 | 2010-05-05 | Honeywell International Inc. | Procédés et systèmes pour afficher des images de capteur d'un environnement externe |
EP2458339A2 (fr) * | 2010-11-30 | 2012-05-30 | Honeywell International, Inc. | Systèmes, procédés et support lisible par ordinateur pour afficher des images multiples superposées pour le pilote d'un avion pendant le vol |
US8917191B1 (en) * | 2011-09-22 | 2014-12-23 | Rockwell Collins, Inc. | Dual threaded system for low visibility operations |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10232952B2 (en) * | 2015-12-29 | 2019-03-19 | Thales | Method for three-dimensional graphic representation of a landing runway on an aircraft display device |
EP3578926A1 (fr) * | 2018-06-06 | 2019-12-11 | Thales | Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés |
FR3082329A1 (fr) * | 2018-06-06 | 2019-12-13 | Thales | Procede de securisation du fonctionnement d'un systeme de vision synthetique d'un aeronef, produit programme d'ordinateur et systeme associes |
US11237573B2 (en) | 2018-06-06 | 2022-02-01 | Thales | Method for securing the operation of a synthetic viewing system of an aircraft, associated computer program product and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3009117A1 (fr) | Procede et systeme d'atterrissage automatique autonome | |
EP4104760B1 (fr) | Enregistrement amélioré pour une réalité augmentée pour véhicules faisant appel à une auto-harmonisation | |
US20180313940A1 (en) | Calibration of laser and vision sensors | |
EP3343172A1 (fr) | Création et utilisation de cartes améliorées | |
EP2296129B1 (fr) | Dispositif et procédé d'aide à l'atterrissage avec indications aidant à la visibilité du monde extérieur | |
FR3024127A1 (fr) | Procede et systeme d'atterrissage automatique autonome | |
EP2950049B1 (fr) | Procédé contributeur de la sécurisation d'une représentation graphique synthétique de la vue extérieure d'un aéronef | |
EP3226062B1 (fr) | Procede de representation synthetique d elements d'interet dans un systeme de visualisation pour aeronef | |
EP3764341B1 (fr) | Procédé et système électronique de gestion du vol d'un aéronef en phase d'approche visuelle vers une piste d'atterrissage, programme d'ordinateur associé | |
FR3077393A1 (fr) | Véhicules aériens à vision artificielle | |
WO2015165838A1 (fr) | Systeme avionique comportant des moyens de designation et de marquage du terrain | |
FR3038047B1 (fr) | Systeme d'affichage d'un aeronef, propre a afficher un marquage de localisation d'une zone de presence d'une rampe lumineuse d'approche et procede associe | |
CN114248778A (zh) | 移动设备的定位方法和定位装置 | |
FR3033903A1 (fr) | Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera. | |
FR3083779A1 (fr) | Aeronef et systeme de signalisation d'une aire d'atterrissage non preparee | |
EP3029420B1 (fr) | Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche | |
CA3047766C (fr) | Systeme d'aide au pilotage d'un aeronef, aeronef associe et procede d'aide au pilotage de cet aeronef | |
FR3071624B1 (fr) | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes | |
FR3061343A1 (fr) | Systeme d'aide a l'atterrissage d'un aeronef a voilure tournante sur une plateforme offshore | |
FR3036529A1 (fr) | Procede pour afficher une image d'une scene exterieure a un aeronef dans un contexte de realite augmentee | |
EP3018450B1 (fr) | Procede de representation d'une image cartographique dans un systeme de visualisation geolocalise prenant en compte la precision de geolocalisation | |
FR3020170A1 (fr) | Procede de guidage d'un aeronef | |
EP3578926B1 (fr) | Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés | |
FR3073655B1 (fr) | Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes | |
WO2014095480A1 (fr) | Procede d'affichage et systeme d'aide a la navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20160923 |
|
PLFP | Fee payment |
Year of fee payment: 3 |