EP4055343A1 - Method and device for assisting in landing an aircraft under poor visibility conditions - Google Patents

Method and device for assisting in landing an aircraft under poor visibility conditions

Info

Publication number
EP4055343A1
EP4055343A1 EP20797523.6A EP20797523A EP4055343A1 EP 4055343 A1 EP4055343 A1 EP 4055343A1 EP 20797523 A EP20797523 A EP 20797523A EP 4055343 A1 EP4055343 A1 EP 4055343A1
Authority
EP
European Patent Office
Prior art keywords
data
aircraft
landing
sensor
pilot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20797523.6A
Other languages
German (de)
French (fr)
Inventor
Thierry Ganille
Jean-Emmanuel HAUGEARD
Pierre-Yves Dumas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of EP4055343A1 publication Critical patent/EP4055343A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/933Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • G01S13/934Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft on airport surfaces, e.g. while taxiing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the invention relates to the field of landing assistance systems for aircraft based on on-board imaging cameras or sensors.
  • the invention more specifically addresses the problem of assisting the landing of aircraft in difficult weather conditions, in particular conditions of reduced or degraded visibility, in the event of fog for example.
  • a decision height (DH) is 60.96 meters (200 ft) and a decision altitude (DA) of the altitude of the runway is + 60.96 meters (+ 200 ft).
  • ILS Instrument Landing System
  • the ILS system is based on several radio frequency equipment installed on the ground, at the level of the landing strip, and a compatible instrument placed on board the aircraft.
  • the use of such a guidance system requires expensive equipment and specific pilot qualification.
  • it cannot be installed at all airports. This system is only present at the main airports because its cost makes it unacceptable to install it at the others.
  • new technologies based on satellite positioning systems will probably replace ILS systems in the future.
  • a so-called synthetic visualization solution SVS (Synthetic Vision System” in English) makes it possible to display a terrain and the landing runways from the position of the aircraft supplied by a GPS and from its attitude supplied by its inertial unit.
  • SVS synthetic Vision System
  • the uncertainty on the position of the aircraft as well as the precision of the positions of the runways which are stored in the databases prohibit the use of an SVS in critical phases where the aircraft is close to the ground such as the landing and take-off.
  • SVGS solutions Synthetic Vision with Guidance System” in English
  • adding certain controls to an SVS allow a limited reduction in landing minima (the DH decision height is reduced by 15.24 meters (50 ft) only on ILS SA CAT I approaches).
  • EVS augmented vision
  • EFVS Enhanced (Flight) Vision System
  • This solution uses electro-optical, infrared or radar sensors to film the airport environment during the landing of an aircraft.
  • the principle is to use sensors that are more efficient than the pilot's eye in degraded weather conditions, and to embed the information collected by the sensors in the pilot's field of vision, through a head-up display or on the visor of the pilot 'a helmet worn by the pilot.
  • This technique is essentially based on the use of sensors to detect the radiation from the lamps arranged along the runway and on the approach ramp.
  • Incandescent lamps produce visible light, but they also emit in the infrared range. Sensors in the infrared range make it possible to detect this radiation and the detection range is better than that of humans in the visible range, during degraded weather conditions. An improvement in visibility therefore makes it possible to a certain extent to improve the approach phases and limit abandoned approaches.
  • this technique is based on parasitic infrared radiation from the lamps present in the vicinity of the runway. For the sake of lamp durability, the current trend is to replace incandescent lamps with LED lamps. The latter have a less extensive spectrum in the infrared range. A side effect is therefore to cause technical obsolescence of EVS systems based on infrared sensors.
  • infrared sensors An alternative to infrared sensors is the obtaining of images by a radar sensor, in centimeter or millimeter band. Certain frequency bands chosen outside the peaks of water vapor absorption have very low sensitivity to severe weather conditions. Such sensors therefore make it possible to produce an image through fog, for example. However, even though these sensors have fine range resolution, they exhibit much coarser angular resolution than optical solutions. The resolution is directly related to the size of the antennas used, and it is often too coarse to obtain precise positioning of the airstrip at a sufficient distance to perform the realignment maneuvers.
  • Figure 1 illustrates a landing phase piloting symbology for a head-up display of an EVS system. The conformity of symbols depends primarily on the accuracy of the aircraft attitude data.
  • An object of the invention is to overcome the drawbacks of the known techniques by meeting the aforementioned needs by a solution for assisting the landing of aircraft, in particular an aid in visual identification for the pilot before reaching decision height. (DH) or decision altitude (DA).
  • DH decision height
  • DA decision altitude
  • a computer-implemented method for assisting aircraft landing in conditions of degraded visibility comprising at least the steps of:
  • the data reception step consists of receiving data from a sensor on board the aircraft and looking forward, said sensor being chosen from the group of FLIR piloting type sensors, multispectral camera ,
  • the step of determining data of interest consists in executing an artificial intelligence algorithm on the received sensor data, the algorithm implementing an artificial intelligence model trained for image processing, obtained during a learning phase through deep learning.
  • - deep learning is based on convolutional neural networks.
  • the step of calculating a target area consists in determining, from the characteristics of the sensor and the attitude of the aircraft corresponding to the sensor data, the heading and elevation coordinates of the target area.
  • the method comprises after the step of calculating a target area, a step of sending the coordinates of the target area to the head-up display device.
  • the coordinates of the target area correspond to two opposite corners of a rectangle surrounding the data of interest characteristic of said landing runway and / or said approach ramp, and in which the compliant symbol which is displayed is said surrounding rectangle.
  • the head-up display step consists in displaying the framing symbol on a fixed head-up screen in the cockpit and / or on a head-up screen worn by the pilot.
  • the invention also covers a computer program product comprising code instructions making it possible to perform the steps of the method for assisting in aircraft landing, in particular in conditions of degraded visibility, as claimed, when the program is run on a computer.
  • the invention further covers a device for assisting the landing of an aircraft, in particular in conditions of degraded visibility, the device comprising means for implementing the steps of the method for assisting in landing d aircraft in degraded visibility conditions according to any one of the claims.
  • the data allowing the calculation of the target area come from a first sensor, the device further comprising a second sensor capable of providing an image that can be displayed in the head-up device carried by the device. pilot, the compliant symbol calculated from the data of the first sensor being displayed on said image supplied by the second sensor.
  • Another object of the invention is a man-machine interface comprising means for displaying a compliant symbol obtained according to the claimed method.
  • Another object of the invention is a landing aid system, in particular of the SVS, SGVS, EVS, EFVS or CVS type carrying an aircraft landing aid device, in particular in conditions degraded visibility, as claimed.
  • the invention also addresses an aircraft comprising an aircraft landing aid device, in particular in conditions of degraded visibility, as claimed.
  • FIG.2 a method of assisting the landing of an aircraft making it possible to obtain a compliant symbol for a head-up display, according to one embodiment of the invention
  • FIG.3 a head-up display of an EVS system with the display of a compliant symbol obtained by the method of the invention
  • FIG.4 a display of a symbol according to the invention on an IR image
  • FIG.5 a general architecture of a display system for implementing the method of the invention.
  • FIG. 2 illustrates the steps of a method 200 for assisting the landing of an aircraft, making it possible to obtain a compliant symbol for a head-up display, according to one embodiment of the invention.
  • the method begins upon receipt 202 of sensor data, from a sensor on board an aircraft and looking forward.
  • the method of the invention applies to any type of sensor, whether it is a pilot FLIR providing an IR image, a multispectral camera, a LIDAR, or a millimeter radar.
  • the technical problem that the invention solves is that of aid in the detection of the landing strip of an aircraft by the pilot in a sensor image or in direct vision before descending below the decision height, especially in degraded visibility conditions.
  • the invention allows the display of a new compliant symbol generated from an automatic detection technique of the approach ramp or the landing runway in data from a sensor (sensor data).
  • the symbol displayed is perfectly consistent with the outside world and indicates to the pilot the zone where the runway and / or the approach ramp will appear before they are visible to the pilot with the naked eye in direct vision.
  • the method makes it possible to determine in the received sensor data, data of interest which are characteristic of the landing runway and / or of the ramp. 'approach.
  • the sensor can be an IR or multispectral sensor whose image is presented to the pilot or be a second sensor of the active type, in principle more efficient than an IR sensor, such as for example a millimeter radar, but whose data is not displayable to the pilot because they are difficult to interpret.
  • the determination of data of interest consists in implementing a conventional algorithm for detecting lines and patterns.
  • the Applicant's patent application FR3049744 describes an example of such a conventional detection algorithm.
  • the algorithm consists in calculating a bounding box of the elements of interest detected, in the form of a rectangle whose coordinates in pixels of two opposite corners correspond respectively to the smallest X coordinate and in Y is the smallest among the pixels belonging to the detected elements, and the largest X and Y coordinate among the pixels belonging to the detected elements.
  • the area of the rectangle can be increased by a few percent, for example 10%, while remaining centered on the initial rectangle.
  • the step of determining data of interest consists in executing an artificial intelligence algorithm on the received sensor data, the algorithm implementing an artificial intelligence model for processing 'images trained for landing runway and approach ramp detection.
  • the trained model is a model on board the aircraft for operational use, which was obtained during a learning phase, and in particular by deep learning by artificial neural network for runway and ramp detection.
  • the artificial neural network is a convolutional neural network (CNN for “Convolutional Neural Network”).
  • a classical model based on CNN can be set up for the detection and segmentation of track and ramp, for example by using a mask-RCNN (Regions with CNN features) - resNet 101 (101 layers) architecture ) [Mask R-CNN - Kaiming et al. 2017] From this model, a transfer learning (then finer learning) can be carried out to adapt to the track and ramp use case.
  • a mask-RCNN Regions with CNN features
  • resNet 101 101 layers
  • the goal of deep learning is to model with a high level of data abstraction.
  • the learning phase defines and generates a trained AI model that meets the operational need. This model is then used in the operational context during the inference phase.
  • the learning phase is therefore essential. Learning is considered efficient if it allows a predictive model to be defined that adapts well to learning data but is also able to predict well on data that was not seen during learning. If the model does not fit the training data, the model suffers from under-training. If the model adapts too well to the training data and is not able to generalize, the model suffers from overfitting.
  • the learning phase requires having collected a large database that is the most representative of the operational context and having labeled them with regard to ground truth (VT).
  • VT ground truth
  • ground truth in English, is a reference image which represents an expected result after a segmentation operation.
  • the ground truth of an image represents at least one track and an approach ramp as well as the visible ground.
  • the result of a segmentation of an image is compared with the reference image or ground truth in order to evaluate the performance of the classification algorithm.
  • the learning phase makes it possible to define the architecture of the neural network and the associated hyper-parameters (the number of layers, the types of layers, the learning step, etc. .), then to seek by successive iteration, the best parameters (the weightings of the layers and between the layers) which best model the different labels (track / ramp).
  • the neural network propagates (extract / abstract characteristics specific to the objects of interest) and estimates the presence and position of the objects. From this estimate and the ground truth, the learning algorithm calculates a prediction error and backpropagation in the network in order to update the model parameters.
  • a training database must contain a very large number of data representing a maximum of possible situations, including for the context of the invention, different approaches on different tracks with different light ramps of approaches for different weather conditions .
  • the database which is constituted contains a plurality of labeled or labeled datasets, where each set of labeled data corresponds to a pair (sensor data, ground truth VT).
  • a VT ground truth for the operational context of the present invention is a description of various elements of interest to be recognized in the sensor data, including at least one runway and one approach ramp.
  • the method makes it possible to calculate an area in which the approach light strip and / or the landing runway have been detected.
  • the target area is calculated as being a rectangle surrounding the identified elements of interest. From the characteristics of the sensor and the attitude of the aircraft corresponding to the sensor data, the method allows to calculate the coordinates in heading and in elevation of two opposite corners of a surrounding rectangle.
  • the coordinates are sent to a head-up display device (or head-down on a head-down EVS or CVS device), carried or not, and the area is displayed in a step following (208) as a symbol conforming to the outside world, in the form of a surrounding rectangle.
  • Figure 3 illustrates a head-up display of an EVS system with the display of a conforming symbol (302) obtained by the method of the invention.
  • the display of the symbol makes it possible to validate the trajectory towards the landing strip before the visual acquisition thereof by the pilot.
  • the display of the symbol thus helps the pilot in acquiring the mandatory visual references before the DH since he knows he must search inside the rectangle.
  • the head-up device can also display an SVS, an EVS or a CVS.
  • the sensor image displayed is the one that fed the search for I ⁇ A.
  • the method makes it possible to display a head-up IR image in which the pilot searches for his visual references aided by a framing symbol (402), for example a rectangle originating from the detection of the landing strip by the CNN model or by any other runway and ramp detection algorithm, on data from an active sensor, for example a millimeter radar.
  • a framing symbol for example a rectangle originating from the detection of the landing strip by the CNN model or by any other runway and ramp detection algorithm
  • an active sensor for example a millimeter radar.
  • the aircraft benefits from the lowering of the EFVS landing minima.
  • the onboard sensor is a simple visible camera and its image is not presented to the pilot. Only the compliant symbol resulting from the method of the invention is presented to the pilot then providing him with an aid in the visual detection of the runway, for example during visual flights (VFR for “View Flight Rules” in English) but with reduced visibility. .
  • VFR Visual Flight Rules
  • FIG. 5 illustrates a general architecture of a display system 500 making it possible to implement the method of the invention.
  • a validated AI model (architecture and the learned hyper-parameters) is integrated into a system on board an aircraft which comprises at least one sensor of the same type as that used for the learning.
  • the on-board system 500 also comprises a field database (BDT) 502, a database of elements of interest (BDEI) 504, a module for generating a synthetic view 506 in 3D towards the front of the aircraft (SVS) from the position and attitude of the aircraft received by sensors 508, and sensors 510, an analysis module 512 comprising at least one validated AI model, and a device for SVS display 514 for the aircraft crew.
  • the display device 514 may be a head-down display (HDD), a transparent head-up display (HUD), a transparent head-mounted display (HWD), the windshield of the 'aircraft.
  • HDD head-down display
  • HUD transparent head-up display
  • HWD transparent head-mounted display
  • the usual piloting symbology presenting the piloting parameters of the aircraft is superimposed on the synthetic 3D view.
  • the analysis module 512 can be configured to correct the airstrip position shown on the SVS 506.
  • the invention can be implemented from hardware and / or software elements.

Abstract

The invention relates to a method and a device for assisting in landing an aircraft under poor visibility conditions. The method makes it possible to receive sensor data during an approach phase toward a runway where the runway and/or an approach ramp are not visible to the pilot from the cockpit; then to determine, in the received sensor data, data of interest that are characteristic of the runway and/or of the approach ramp; then to calculate, on the basis of the data of interest, the coordinates of a target zone; and to display, on a head-up display screen, a conformal symbol representative of the target zone, the conformal symbol being displayed before the aircraft reaches the decision height in order to provide the pilot with a visual cue within which to search for the runway and/or the approach ramp.

Description

DESCRIPTION DESCRIPTION
Titre de l’invention :PROCEDE ET DISPOSITIF D’AIDE A L’ATTERRISSAGE D’AERONEF EN CONDITIONS DE VISIBILITE DEGRADEE Title of the invention: AIRCRAFT LANDING ASSISTANCE PROCESS AND DEVICE IN CONDITIONS OF DEGRADED VISIBILITY
[0001] L’invention concerne le domaine des systèmes d’aide à l’atterrissage pour aéronefs basés sur des caméras ou capteurs d’imagerie embarqués. [0001] The invention relates to the field of landing assistance systems for aircraft based on on-board imaging cameras or sensors.
[0002] L’invention adresse plus précisément le problème de l’aide à l’atterrissage d’aéronefs par conditions météorologiques difficiles, en particulier des conditions de visibilité réduite ou dégradée, en cas de brouillard par exemple. [0002] The invention more specifically addresses the problem of assisting the landing of aircraft in difficult weather conditions, in particular conditions of reduced or degraded visibility, in the event of fog for example.
[0003] Les normes aériennes imposent des règles d’obtention de visibilité pendant la phase d’atterrissage. Ces règles se traduisent par des seuils de décision qui se réfèrent à l’altitude de l’avion lors de sa phase de descente. Réglementairement, un pilote d’aéronef opérant en vol aux instruments (IFR) doit, lors de la phase d’atterrissage, faire l’acquisition visuelle de certaines références composées d’éléments de la rampe d’approche ou de la piste d’atterrissage, et ce avant une altitude ou une hauteur déterminée pour chaque approche. On parle alors d’altitude de décision (DA) ou de hauteur de décision (DH) qui varient en fonction du niveau d’équipement de la piste (niveau ILS CAT I ou CAT II ou CAT III), du type d’approche (de précision, de non précision, ILS, LPV, MLS, GLS, ...) et de l’environnement topographique autour de la piste (plaine, montagne, obstacles, ...). Typiquement, sur un aéroport équipé d’un ILS CAT I en plaine, le cas le plus courant aujourd’hui, une hauteur de décision (DH) est de 60,96 mètres (200 ft) et une altitude de décision (DA) de l’altitude de la piste est de + 60,96 mètres (+ 200 ft). [0003] Aviation standards impose rules for obtaining visibility during the landing phase. These rules result in decision thresholds which refer to the altitude of the aircraft during its descent phase. By law, an aircraft pilot operating in instrument flight (IFR) must, during the landing phase, visually acquire certain references made up of elements of the approach ramp or the airstrip. , and this before an altitude or a height determined for each approach. We then speak of decision altitude (DA) or decision height (DH) which vary according to the level of equipment of the runway (ILS level CAT I or CAT II or CAT III), the type of approach ( precision, non-precision, ILS, LPV, MLS, GLS, ...) and the topographical environment around the runway (plain, mountain, obstacles, ...). Typically, on an airport equipped with a CAT I ILS on the plain, the most common case today, a decision height (DH) is 60.96 meters (200 ft) and a decision altitude (DA) of the altitude of the runway is + 60.96 meters (+ 200 ft).
[0004] Lors d’atterrissages dans des conditions de visibilité dégradées, par exemple à cause du brouillard, de la neige, de la pluie, à chacun des seuils, l’acquisition des repères visuels est plus difficile. Si le pilote n’a pas fait l’acquisition visuelle des références réglementaires avant d’atteindre la DA ou la DH, il a l’obligation d’interrompre l’atterrissage en effectuant une remise de gaz pour reprendre de l’altitude et soit retenter la même approche, soit partir vers un aéroport de déroutement. Une remise de gaz est une opération coûteuse pour une compagnie aérienne, et les manoeuvres d’atterrissage abandonnées représentent un réel problème pour la gestion du trafic aérien et pour la planification des vols. Il faut estimer avant le décollage la capacité à pouvoir atterrir à destination sur la base de prévisions météorologiques, plus ou moins fiables, et le cas échéant prévoir des solutions de repli. [0004] During landings in degraded visibility conditions, for example due to fog, snow, rain, at each of the thresholds, the acquisition of visual cues is more difficult. If the pilot has not visually acquired the regulatory references before reaching the DA or DH, he has the obligation to interrupt the landing by performing a go-around to regain altitude and either retry the same approach, or leave for a diversion airport. A go-around is an expensive operation for an airline, and abandoned landing maneuvers represent a real problem for air traffic management and for flight planning. It is necessary estimate before take-off the ability to land at destination on the basis of weather forecasts, more or less reliable, and if necessary provide fallback solutions.
[0005] Aussi le problème de l’atterrissage des aéronefs par conditions de visibilité réduite a fait l’objet du développement de plusieurs techniques. [0005] Also the problem of landing aircraft in conditions of reduced visibility has been the subject of the development of several techniques.
[0006] L’une de ces techniques est le système d’atterrissage aux instruments ILS (« Instrument Landing System » en anglais). Le système ILS repose sur plusieurs équipements de radiofréquence installés au sol, au niveau de la piste d’atterrissage, et un instrument compatible placé à bord de l’aéronef. L’utilisation d’un tel système de guidage requiert des équipements onéreux et une qualification spécifique des pilotes. Il ne peut par ailleurs pas être installé sur tous les aéroports. Ce système est présent sur les aéroports principaux seulement car son coût rend rédhibitoire son installation sur les autres. En outre, de nouvelles technologies basées les systèmes de positionnement par satellite remplaceront probablement les systèmes ILS dans le futur. [0006] One of these techniques is the Instrument Landing System (ILS). The ILS system is based on several radio frequency equipment installed on the ground, at the level of the landing strip, and a compatible instrument placed on board the aircraft. The use of such a guidance system requires expensive equipment and specific pilot qualification. Moreover, it cannot be installed at all airports. This system is only present at the main airports because its cost makes it unacceptable to install it at the others. In addition, new technologies based on satellite positioning systems will probably replace ILS systems in the future.
[0007] Une solution de visualisation synthétique dite SVS (« Synthetic Vision System » en anglais) permet d’afficher un terrain et les pistes d’atterrissage à partir de la position de l’aéronef fournie par un GPS et de son attitude fournie par sa centrale inertielle. Cependant, l’incertitude sur la position de l’avion ainsi que la précision des positions des pistes qui sont stockées dans les bases de données interdisent l’utilisation d’un SVS dans des phases critiques où l’aéronef est proche du sol comme l’atterrissage et le décollage. Plus récemment, des solutions SVGS (« Synthetic Vision with Guidance System » en anglais), ajoutant certains contrôles à un SVS permettent une réduction limitée des minima d’atterrissage (la hauteur de décision DH est réduite de 15,24 mètres (50 ft) uniquement sur les approches ILS SA CAT I). A so-called synthetic visualization solution SVS ("Synthetic Vision System" in English) makes it possible to display a terrain and the landing runways from the position of the aircraft supplied by a GPS and from its attitude supplied by its inertial unit. However, the uncertainty on the position of the aircraft as well as the precision of the positions of the runways which are stored in the databases prohibit the use of an SVS in critical phases where the aircraft is close to the ground such as the landing and take-off. More recently, SVGS solutions ("Synthetic Vision with Guidance System" in English), adding certain controls to an SVS allow a limited reduction in landing minima (the DH decision height is reduced by 15.24 meters (50 ft) only on ILS SA CAT I approaches).
[0008] Une autre approche est la technique de vision augmentée dite EVS ou EFVS (« Enhanced (Flight) Vision System » en anglais) basée sur l’affichage sur un afficheur tête haute qui permet d’afficher sur l’écran primaire du pilote une image de l’environnement vers l’avant de l’aéronef qui est meilleure que la vision naturelle. Cette solution utilise des capteurs électro-optiques, infra-rouges ou radar pour filmer l’environnement aéroportuaire lors de l’atterrissage d’un aéronef. Le principe est d’utiliser des senseurs plus performants que l’œil du pilote par conditions météorologiques dégradées, et d’incruster les informations collectées par les senseurs dans le champ de vision du pilote, par le biais d’un affichage tête haute ou sur la visière d’un casque porté par le pilote. Cette technique repose essentiellement sur l’emploi de capteurs pour détecter le rayonnement des lampes disposées le long de la piste et sur la rampe d’approche. Les lampes à incandescence produisent de la lumière visible mais elles émettent aussi dans le domaine infrarouge. Des capteurs dans le domaine infrarouge permettent de détecter ces rayonnements et la portée de détection est meilleure que celle de l’être humain dans le domaine visible, lors de conditions météorologiques dégradées. Une amélioration de la visibilité permet donc dans une certaine mesure d’améliorer les phases d’approche et de limiter les approches abandonnées. Toutefois, cette technique repose sur le rayonnement infrarouge parasite des lampes présentes au voisinage de la piste. Pour des soucis de durabilité des lampes, la tendance actuelle est au remplacement des lampes à incandescence par les lampes à LED. Ces dernières ont un spectre moins étendu dans le domaine infrarouge. Un effet collatéral est donc de provoquer une obsolescence technique des systèmes EVS à base de capteurs infrarouge. Another approach is the augmented vision technique known as EVS or EFVS ("Enhanced (Flight) Vision System" in English) based on the display on a head-up display which makes it possible to display on the pilot's primary screen an image of the environment towards the front of the aircraft which is better than natural vision. This solution uses electro-optical, infrared or radar sensors to film the airport environment during the landing of an aircraft. The principle is to use sensors that are more efficient than the pilot's eye in degraded weather conditions, and to embed the information collected by the sensors in the pilot's field of vision, through a head-up display or on the visor of the pilot 'a helmet worn by the pilot. This technique is essentially based on the use of sensors to detect the radiation from the lamps arranged along the runway and on the approach ramp. Incandescent lamps produce visible light, but they also emit in the infrared range. Sensors in the infrared range make it possible to detect this radiation and the detection range is better than that of humans in the visible range, during degraded weather conditions. An improvement in visibility therefore makes it possible to a certain extent to improve the approach phases and limit abandoned approaches. However, this technique is based on parasitic infrared radiation from the lamps present in the vicinity of the runway. For the sake of lamp durability, the current trend is to replace incandescent lamps with LED lamps. The latter have a less extensive spectrum in the infrared range. A side effect is therefore to cause technical obsolescence of EVS systems based on infrared sensors.
[0009] Une alternative aux senseurs infrarouges est l’obtention d’images par un senseur radar, en bande centimétrique ou millimétrique. Certaines bandes de fréquence choisies en dehors des pics d’absorption de la vapeur d’eau présentent une sensibilité très faible aux conditions météorologiques difficiles. De tels senseurs permettent donc de produire une image au travers de brouillard par exemple. Cependant, même si ces capteurs ont une résolution en distance fine, ils présentent une résolution angulaire bien plus grossière que les solutions optiques. La résolution est directement liée à la taille des antennes utilisées, et elle est souvent trop grossière pour obtenir un positionnement précis de la piste d’atterrissage à une distance suffisante pour effectuer les manœuvres de recalage. [0009] An alternative to infrared sensors is the obtaining of images by a radar sensor, in centimeter or millimeter band. Certain frequency bands chosen outside the peaks of water vapor absorption have very low sensitivity to severe weather conditions. Such sensors therefore make it possible to produce an image through fog, for example. However, even though these sensors have fine range resolution, they exhibit much coarser angular resolution than optical solutions. The resolution is directly related to the size of the antennas used, and it is often too coarse to obtain precise positioning of the airstrip at a sufficient distance to perform the realignment maneuvers.
[0010] L’émergence de l’usage de capteurs actifs, comme par exemple les LIDAR (« Light Détection and Ranging » en anglais) ou les radars millimétriques, qui sont capables de détecter la piste d’atterrissage de plus loin et par quasiment n’importe quelles conditions de visibilité, amène de bien meilleurs résultats que les capteurs passifs comme les caméras IR. Cependant, les données issues de tels capteurs ne permettent pas de fournir au pilote une image nette et facilement interprétable comme l’est une image IR. The emergence of the use of active sensors, such as for example LIDAR ("Light Detection and Ranging" in English) or millimeter radars, which are capable of detecting the airstrip from further away and by almost any visibility conditions, brings much better results than passive sensors like IR cameras. However, data from such sensors does not not make it possible to provide the pilot with a clear and easily interpretable image like an IR image.
[0011] Des solutions utilisant des systèmes de visualisation CVS (« Combined Vision Systems » en anglais) sont basées sur l’affichage simultané de tout ou partie d’une image synthétique et d’une image capteur, par exemple par superposition des différentes images et éventuellement recalage de l’image synthétique sur un élément remarquable de l’image capteur, ou encore par incrustation de l’image capteur dans un médaillon de l’image synthétique ou encore par détourage d'éléments remarquables ou éléments d’intérêts de l’image capteur et incrustation de ces éléments sur l’image synthétique. Solutions using CVS ("Combined Vision Systems") visualization systems are based on the simultaneous display of all or part of a synthetic image and of a sensor image, for example by superimposing the various images. and possibly registration of the synthetic image on a remarkable element of the sensor image, or even by overlaying the sensor image in a medallion of the synthetic image or by trimming of remarkable elements or elements of interest of the sensor image and overlay of these elements on the synthetic image.
[0012] Avec un système EVS/EFVS actuel affiché en tête haute, le pilote avant d’acquérir la visibilité de la rampe ou de la piste s’attend à les voir apparaître autour du vecteur vitesse et de la piste synthétique. La figure 1 illustre une symbologie de pilotage en phase d’atterrissage pour un affichage tête haute d’un système EVS. La conformité des symboles dépend essentiellement de la précision des données de l’attitude de l’aéronef. Si le roulis et le tangage sont en général connus avec une bonne précision, ce n’est pas toujours le cas du cap, en particulier pour les aéronefs équipés d’une AHRS (« Attitude and Heading Reference System » en anglais qui est un ensemble de capteurs sur 3 axes permettant de définir la position d’un avion dans l’espace grâce aux accélérations et aux champs magnétiques qu’ils subissent) où l’erreur de cap peut atteindre 2 à 3 degrés et non d’une 1RS (« Inertial Reference System » en anglais) beaucoup plus précise mais également beaucoup plus onéreuse. Ceci peut provoquer un affichage décalé de la symbologie conforme d’autant de degrés. Or, le pilote qui doit être concentré sur la recherche des repères visuels autour du vecteur vitesse peut alors détecter plus tardivement la piste, notamment par conditions météorologiques amenant une visibilité dégradée. Dans de nombreuses situations, le seuil de la hauteur de décision peut être atteint avant la détection visuelle de la piste, et il peut être décidé une remise de gaz qui aurait pu être évitée. [0012] With a current EVS / EFVS system displayed head-up, the pilot before acquiring visibility of the ramp or track expects to see them appear around the speed vector and the synthetic track. Figure 1 illustrates a landing phase piloting symbology for a head-up display of an EVS system. The conformity of symbols depends primarily on the accuracy of the aircraft attitude data. If the roll and pitch are generally known with good precision, this is not always the case with heading, in particular for aircraft equipped with an AHRS (“Attitude and Heading Reference System” in English which is a set sensors on 3 axes making it possible to define the position of an airplane in space thanks to the accelerations and the magnetic fields which they undergo) where the heading error can reach 2 to 3 degrees and not of a 1RS (" Inertial Reference System ”in English) much more precise but also much more expensive. This can cause the compliant symbology to be displayed by as many degrees. Now, the pilot, who must be concentrated on finding visual cues around the speed vector, can then detect the runway later, in particular in meteorological conditions leading to degraded visibility. In many situations, the decision height threshold can be reached before visual detection of the runway, and a go-around can be decided which could have been avoided.
[0013] Aussi, il existe le besoin d’une aide à l’identification visuelle d’une piste d’atterrissage par le pilote. [0014] Un objet de l’invention est de pallier les inconvénients des techniques connues en répondant aux besoins précités par une solution d’aide à l’atterrissage des aéronefs, notamment une aide à l’identification visuelle pour le pilote avant d’atteindre la hauteur de décision. (DH) ou l’altitude de décision (DA). [0013] Also, there is a need for an aid for the visual identification of a landing strip by the pilot. An object of the invention is to overcome the drawbacks of the known techniques by meeting the aforementioned needs by a solution for assisting the landing of aircraft, in particular an aid in visual identification for the pilot before reaching decision height. (DH) or decision altitude (DA).
[0015] Pour obtenir les résultats recherchés, il est proposé un procédé mis en oeuvre par ordinateur d’aide à l’atterrissage d’aéronef en conditions de visibilité dégradée, le procédé comprenant au moins des étapes de : To obtain the desired results, a computer-implemented method for assisting aircraft landing in conditions of degraded visibility is proposed, the method comprising at least the steps of:
- recevoir au cours d’une phase d’approche vers une piste d’atterrissage des données issues d’un capteur, ladite piste d’atterrissage et/ou une rampe d’approche n’étant pas visible par le pilote depuis le cockpit ; - receive data from a sensor during an approach phase to a landing strip, said landing strip and / or an approach ramp not being visible to the pilot from the cockpit;
-déterminer dans les données capteurs reçues des données d’intérêt caractéristiques de ladite piste d’atterrissage et/ou de ladite rampe d’approche ; -determine in the sensor data received data of interest characteristic of said landing runway and / or said approach ramp;
-calculer à partir des données d’intérêt les coordonnées d’une zone cible; et -calculate from the data of interest the coordinates of a target area; and
- afficher sur un écran d’affichage en tête haute un symbole conforme représentatif de la zone cible, ledit symbole conforme étant affiché avant l’atteinte par l’aéronef de la hauteur de décision afin de fournir au pilote un repère visuel dans lequel chercher ladite piste d’atterrissage et/ou rampe d’approche. - display on a head-up display screen a compliant symbol representative of the target area, said compliant symbol being displayed before the aircraft reaches the decision height in order to provide the pilot with a visual cue in which to look for said landing strip and / or approach ramp.
[0016] Selon des modes de réalisation alternatifs ou combinés : According to alternative or combined embodiments:
- l’étape de réception de données consiste à recevoir des données d’un senseur embarqué à bord de l’aéronef et regardant vers l’avant, ledit senseur étant choisi dans le groupe des senseurs de type FLIR de pilotage, caméra multi-spectrale,the data reception step consists of receiving data from a sensor on board the aircraft and looking forward, said sensor being chosen from the group of FLIR piloting type sensors, multispectral camera ,
LIDAR ou radar millimétrique. LIDAR or millimeter radar.
- l’étape de détermination de données d’intérêt consiste à exécuter un algorithme d’intelligence artificielle sur les données capteurs reçues, l’algorithme mettant en oeuvre un modèle d’intelligence artificiel entraîné pour le traitement d’images, obtenu lors d’une phase d’apprentissage par un apprentissage profond. the step of determining data of interest consists in executing an artificial intelligence algorithm on the received sensor data, the algorithm implementing an artificial intelligence model trained for image processing, obtained during a learning phase through deep learning.
- l’apprentissage profond est basé sur des réseaux de neurones convolutifs. - deep learning is based on convolutional neural networks.
- l’étape de calculer une zone cible consiste à déterminer, à partir des caractéristiques du capteur et de l’attitude de l’aéronef correspondant aux données capteurs, des coordonnées en cap et en site de la zone cible. - the step of calculating a target area consists in determining, from the characteristics of the sensor and the attitude of the aircraft corresponding to the sensor data, the heading and elevation coordinates of the target area.
- le procédé comprend après l’étape de calculer une zone cible, une étape consistant à envoyer les coordonnées de la zone cible au dispositif d’affichage tête haute. - The method comprises after the step of calculating a target area, a step of sending the coordinates of the target area to the head-up display device.
- les coordonnées de la zone cible correspondent à deux coins opposés d’un rectangle encadrant les données d’intérêt caractéristiques ladite piste d’atterrissage et/ou ladite rampe d’approche, et dans lequel le symbole conforme qui est affiché est ledit rectangle encadrant. - the coordinates of the target area correspond to two opposite corners of a rectangle surrounding the data of interest characteristic of said landing runway and / or said approach ramp, and in which the compliant symbol which is displayed is said surrounding rectangle.
- l’étape d’affichage en tête haute consiste à afficher le symbole encadrant sur un écran en tête haute fixe du cockpit et/ou sur un écran en tête haute porté par le pilote. - the head-up display step consists in displaying the framing symbol on a fixed head-up screen in the cockpit and / or on a head-up screen worn by the pilot.
[0017] L’invention couvre aussi un produit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, tel que revendiqué, lorsque le programme est exécuté sur un ordinateur. [0017] The invention also covers a computer program product comprising code instructions making it possible to perform the steps of the method for assisting in aircraft landing, in particular in conditions of degraded visibility, as claimed, when the program is run on a computer.
[0018] L’invention couvre de plus un dispositif d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, le dispositif comprenant des moyens pour mettre en oeuvre les étapes du procédé d’aide à l’atterrissage d’aéronef en conditions de visibilité dégradée selon l’une quelconque des revendications. [0018] The invention further covers a device for assisting the landing of an aircraft, in particular in conditions of degraded visibility, the device comprising means for implementing the steps of the method for assisting in landing d aircraft in degraded visibility conditions according to any one of the claims.
[0019] Dans un mode de réalisation, les données permettant le calcul de la zone cible sont issues d’un premier capteur, le dispositif comprenant de plus un second capteur apte à fournir une image pouvant être affichée dans le dispositif tête haute porté par le pilote, le symbole conforme calculé à partir des données du premier capteur étant affiché sur ladite image fournie par le second capteur. In one embodiment, the data allowing the calculation of the target area come from a first sensor, the device further comprising a second sensor capable of providing an image that can be displayed in the head-up device carried by the device. pilot, the compliant symbol calculated from the data of the first sensor being displayed on said image supplied by the second sensor.
[0020] Un autre objet de l’invention est une interface homme-machine comprenant des moyens pour afficher un symbole conforme obtenu selon le procédé revendiqué. Another object of the invention is a man-machine interface comprising means for displaying a compliant symbol obtained according to the claimed method.
[0021] Un autre objet de l’invention est un système d’aide à l’atterrissage, notamment de type SVS, SGVS, EVS, EFVS ou CVS embarquant un dispositif d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, tel que revendiqué. Another object of the invention is a landing aid system, in particular of the SVS, SGVS, EVS, EFVS or CVS type carrying an aircraft landing aid device, in particular in conditions degraded visibility, as claimed.
[0022] L’invention adresse aussi un aéronef comprenant un dispositif d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, tel que revendiqué. [0022] The invention also addresses an aircraft comprising an aircraft landing aid device, in particular in conditions of degraded visibility, as claimed.
[0023] D’autres caractéristiques, détails et avantages de l’invention ressortiront à la lecture de la description faite en référence aux dessins annexés donnés à titre d’exemple et qui représentent, respectivement : [0024] [Fig.1 ] une symbologie d’atterrissage connue pour un affichage tête haute d’un système EVS ; Other characteristics, details and advantages of the invention will emerge on reading the description given with reference to the accompanying drawings given by way of example and which represent, respectively: [0024] [Fig.1] a known landing symbology for a head-up display of an EVS system;
[0025] [Fig.2] un procédé d’aide à l’atterrissage d’aéronef permettant l’obtention d’un symbole conforme pour un affichage tête haute, selon un mode de réalisation de l’invention ; [0025] [Fig.2] a method of assisting the landing of an aircraft making it possible to obtain a compliant symbol for a head-up display, according to one embodiment of the invention;
[0026] [Fig.3] un affichage tête haute d’un système EVS avec l’affichage d’un symbole conforme obtenu par le procédé de l’invention ; [0026] [Fig.3] a head-up display of an EVS system with the display of a compliant symbol obtained by the method of the invention;
[0027] [Fig.4] un affichage d’un symbole conforme selon l’invention sur une image IR ; et [0027] [Fig.4] a display of a symbol according to the invention on an IR image; and
[0028] [Fig.5] une architecture générale d’un système de visualisation permettant de mettre en oeuvre le procédé de l’invention. [0028] [Fig.5] a general architecture of a display system for implementing the method of the invention.
[0029] La figure 2 illustre les étapes d’un procédé 200 d’aide à l’atterrissage d’aéronef, permettant l’obtention d’un symbole conforme pour un affichage tête haute, selon un mode de réalisation de l’invention. [0029] FIG. 2 illustrates the steps of a method 200 for assisting the landing of an aircraft, making it possible to obtain a compliant symbol for a head-up display, according to one embodiment of the invention.
[0030] Le procédé débute à réception 202 de données capteur, issues d’un senseur embarqué à bord d’un aéronef et regardant vers l’avant. Le procédé de l’invention s’applique pour tout type de senseur, que ce soit un FLIR de pilotage fournissant une image IR, une caméra multi-spectrale, un LIDAR, ou un radar millimétrique. The method begins upon receipt 202 of sensor data, from a sensor on board an aircraft and looking forward. The method of the invention applies to any type of sensor, whether it is a pilot FLIR providing an IR image, a multispectral camera, a LIDAR, or a millimeter radar.
[0031] Le problème technique que l’invention résout est celui de l’aide à la détection de la piste d’atterrissage d’un aéronef par le pilote dans une image capteur ou en vision directe avant de descendre sous la hauteur de décision, notamment par conditions de visibilité dégradée. L’invention permet l’affichage d’un nouveau symbole conforme généré à partir d’une technique de détection automatique de la rampe d’approche ou de la piste d’atterrissage dans des données issues d’un capteur (données capteur). Avantageusement, le symbole affiché est parfaitement conforme au monde extérieur et vient indiquer au pilote la zone où la piste et/ou la rampe d’approche vont apparaître avant qu’elles ne soient visibles par le pilote à l’œil nu en vision directe. Ceci permet au pilote d’identifier l’endroit où chercher les références visuelles attendues, mais aussi lui indiquer quand les chercher, notamment si les conditions de visibilité sont réduites, puisque dès lors que le système commence à identifier la piste et/ou la rampe et afficher le symbole, le pilote s’attend à pouvoir l’identifier lui-même visuellement. [0032] Dans une étape suivante (204), après la réception des données capteur, le procédé permet de déterminer dans les données capteur reçues, des données d’intérêt qui sont caractéristiques de la piste d’atterrissage et/ou de la rampe d’approche. Le capteur peut être un capteur IR ou multispectral dont l’image est présentée au pilote ou être un second capteur de type actif, en principe plus efficace qu’un capteur IR, comme par exemple un radar millimétrique, mais dont les données ne sont pas affichables au pilote car elles sont difficilement interprétables. The technical problem that the invention solves is that of aid in the detection of the landing strip of an aircraft by the pilot in a sensor image or in direct vision before descending below the decision height, especially in degraded visibility conditions. The invention allows the display of a new compliant symbol generated from an automatic detection technique of the approach ramp or the landing runway in data from a sensor (sensor data). Advantageously, the symbol displayed is perfectly consistent with the outside world and indicates to the pilot the zone where the runway and / or the approach ramp will appear before they are visible to the pilot with the naked eye in direct vision. This allows the pilot to identify where to look for the expected visual references, but also to tell him when to look for them, especially if the visibility conditions are reduced, since as soon as the system begins to identify the runway and / or the ramp and display the symbol, the pilot expects to be able to identify it himself visually. In a next step (204), after receiving the sensor data, the method makes it possible to determine in the received sensor data, data of interest which are characteristic of the landing runway and / or of the ramp. 'approach. The sensor can be an IR or multispectral sensor whose image is presented to the pilot or be a second sensor of the active type, in principle more efficient than an IR sensor, such as for example a millimeter radar, but whose data is not displayable to the pilot because they are difficult to interpret.
[0033] Dans un mode de réalisation, la détermination de données d’intérêt consiste à mettre en oeuvre un algorithme conventionnel de détection de droites, de patterns.[0033] In one embodiment, the determination of data of interest consists in implementing a conventional algorithm for detecting lines and patterns.
La demande de brevet FR3049744 de la Demanderesse Décrit un exemple d’un tel algorithme conventionnel de détection. Dans un mode de réalisation, l‘algorithme consiste à calculer une boîte englobante des éléments d’intérêt détectés, sous la forme d’un rectangle dont les coordonnées en pixels de deux coins opposés correspondent respectivement à la coordonnée en X la plus petite et en Y la plus petite parmi les pixels appartenant aux éléments détectés, et à la coordonnée en X la plus grande et en Y la plus grande parmi les pixels appartenant aux éléments détectés. La surface du rectangle peut être augmentée de quelques pourcents, par exemple 10%, tout en restant centré sur le rectangle initial. The Applicant's patent application FR3049744 describes an example of such a conventional detection algorithm. In one embodiment, the algorithm consists in calculating a bounding box of the elements of interest detected, in the form of a rectangle whose coordinates in pixels of two opposite corners correspond respectively to the smallest X coordinate and in Y is the smallest among the pixels belonging to the detected elements, and the largest X and Y coordinate among the pixels belonging to the detected elements. The area of the rectangle can be increased by a few percent, for example 10%, while remaining centered on the initial rectangle.
[0034] Dans un mode de réalisation préférentielle, l’étape de détermination de données d’intérêt consiste à exécuter un algorithme d’intelligence artificielle sur les données capteurs reçues, l’algorithme mettant en oeuvre un modèle d’intelligence artificiel de traitement d’images entraîné pour la détection de piste d’atterrissage et de rampe d’approche. Le modèle entraîné est un modèle embarqué dans l’aéronef pour utilisation opérationnelle, qui a été obtenu lors d’une phase d’apprentissage, et en particulier par un apprentissage profond par réseau de neurones artificiels pour la détection de piste et de rampe. Dans un mode de réalisation avantageux, le réseau de neurones artificiels est un réseau de neurones convolutifs (CNN pour « Convolutional Neural Network » en anglais). In a preferred embodiment, the step of determining data of interest consists in executing an artificial intelligence algorithm on the received sensor data, the algorithm implementing an artificial intelligence model for processing 'images trained for landing runway and approach ramp detection. The trained model is a model on board the aircraft for operational use, which was obtained during a learning phase, and in particular by deep learning by artificial neural network for runway and ramp detection. In an advantageous embodiment, the artificial neural network is a convolutional neural network (CNN for “Convolutional Neural Network”).
[0035] Un modèle classique basé CNN (Convolutive Neural Network) peut être mis en place pour la détection et la segmentation de piste et rampe, par exemple en utilisant une architecture mask-RCNN (Régions with CNN features) - resNet 101 (101 couches) [Mask R-CNN - Kaiming et al. 2017] A partir de ce modèle, un apprentissage par transfert (puis apprentissage plus fin) peut être réalisé pour s’adapter au cas d’usage piste et rampe. A classical model based on CNN (Convolutive Neural Network) can be set up for the detection and segmentation of track and ramp, for example by using a mask-RCNN (Regions with CNN features) - resNet 101 (101 layers) architecture ) [Mask R-CNN - Kaiming et al. 2017] From this model, a transfer learning (then finer learning) can be carried out to adapt to the track and ramp use case.
[0036] Après une phase d’apprentissage de modèles de réseaux de neurones convolutifs, il est important de valider le modèle appris par une phase de tests sur des données. Ces données n’ont pas été utilisées pendant la phase d’apprentissage afin de tester la robustesse du modèle vis à vis des variabilités auxquelles il sera confronté en environnement opérationnel avec différentes météo, différentes pistes, différentes rampes lumineuses. Plusieurs itérations d’apprentissage puis de tests peuvent être nécessaires pour obtenir un modèle du CNN valide et générique répondant au besoin opérationnel. Le modèle validé (i.e. son architecture et les hyper paramètres appris) peut être intégré dans un système embarqué à bord d’un aéronef qui comprend au moins un capteur de même type que celui utilisé pour l’apprentissage. [0036] After a phase of learning convolutional neural network models, it is important to validate the model learned by a phase of testing on data. These data were not used during the learning phase to test the robustness of the model with respect to the variabilities it will face in an operational environment with different weather, different tracks, different light bars. Several iterations of learning and then testing may be necessary to obtain a valid and generic CNN model that meets the operational need. The validated model (i.e. its architecture and the learned hyper parameters) can be integrated into an onboard system on board an aircraft which includes at least one sensor of the same type as that used for training.
[0037] Dans le domaine de vision par ordinateur, l’objectif de l’apprentissage profond est de modéliser avec un haut niveau d’abstraction des données. De manière synthétique, il y a deux phases : une phase d’apprentissage et une phase d’inférence. La phase d’apprentissage permet de définir et générer un modèle d’IA entraîné qui répond au besoin opérationnel. Ce modèle est ensuite utilisé dans le contexte opérationnel lors de la phase d’inférence. La phase d’apprentissage est donc primordiale. Un apprentissage est considéré performant s’il permet de définir un modèle prédictif qui s’adapte bien aux données d’apprentissage mais qui est aussi capable de bien prédire sur des données qui n’ont pas été vues lors de l’apprentissage. Si le modèle ne s’adapte pas aux données d’apprentissage, le modèle souffre de sous-apprentissage. Si le modèle s’adapte trop bien aux données d’apprentissage et n’est pas capable de généraliser, le modèle souffre de sur apprentissage. [0037] In the field of computer vision, the goal of deep learning is to model with a high level of data abstraction. In short, there are two phases: a learning phase and an inference phase. The learning phase defines and generates a trained AI model that meets the operational need. This model is then used in the operational context during the inference phase. The learning phase is therefore essential. Learning is considered efficient if it allows a predictive model to be defined that adapts well to learning data but is also able to predict well on data that was not seen during learning. If the model does not fit the training data, the model suffers from under-training. If the model adapts too well to the training data and is not able to generalize, the model suffers from overfitting.
[0038] Afin d’obtenir le meilleur modèle, la phase d’apprentissage nécessite d’avoir collecté une large base de données la plus représentative du contexte opérationnel et de les avoir labélisées au regard d’une vérité-terrain (VT). [0038] In order to obtain the best model, the learning phase requires having collected a large database that is the most representative of the operational context and having labeled them with regard to ground truth (VT).
[0039] La vérité-terrain ou « ground truth » en anglais, est une image de référence qui représente un résultat attendu après une opération de segmentation. Dans le contexte de l’invention, la vérité terrain d'une image représente au moins une piste et une rampe d’approche ainsi que le sol visible. Le résultat d’une segmentation d’une image est comparé avec l’image de référence ou vérité-terrain afin d'évaluer la performance de l'algorithme de classification. The ground truth or "ground truth" in English, is a reference image which represents an expected result after a segmentation operation. In the context of the invention, the ground truth of an image represents at least one track and an approach ramp as well as the visible ground. The result of a segmentation of an image is compared with the reference image or ground truth in order to evaluate the performance of the classification algorithm.
[0040] Ainsi à partir de nombreuses images labélisées, la phase d’apprentissage permet de définir l’architecture du réseau de neurones et les hyper-paramètres associés (le nombre de couches, les types de couches, le pas d’apprentissage...), puis de chercher par itération successive, les meilleurs paramètres (les pondérations des couches et entre les couches) qui modélisent le mieux les différents labels (piste/rampe). A chaque itération de l’apprentissage, le réseau de neurones propage (extraire/abstraire des caractéristiques propres aux objets d’intérêts) et estime la présence et la position des objets. A partir de cette estimation et de la vérité terrain, l’algorithme d’apprentissage calcule une erreur de prédiction et la rétropropage dans le réseau afin de mettre à jour les paramètres du modèle. Thus from numerous labeled images, the learning phase makes it possible to define the architecture of the neural network and the associated hyper-parameters (the number of layers, the types of layers, the learning step, etc. .), then to seek by successive iteration, the best parameters (the weightings of the layers and between the layers) which best model the different labels (track / ramp). At each iteration of learning, the neural network propagates (extract / abstract characteristics specific to the objects of interest) and estimates the presence and position of the objects. From this estimate and the ground truth, the learning algorithm calculates a prediction error and backpropagation in the network in order to update the model parameters.
[0041] Une base de données d’apprentissage doit contenir un très grand nombre de données représentant un maximum de situations possibles, englobant pour le contexte de l’invention, différentes approches sur différentes pistes avec différentes rampes lumineuses d’approches pour différentes conditions météorologiques. Afin de mettre en oeuvre un procédé d’apprentissage par réseau profond et apprendre à reconnaître une piste d’atterrissage dans les données capteur reçues, la base de données qui est constituée, contient une pluralité de jeux de données labélisées ou étiquetées, où chaque jeu de données labélisées correspond à un couple (données capteur, vérité-terrain VT). Une vérité-terrain VT pour le contexte opérationnel de la présente invention est une description de différents éléments d’intérêt devant être reconnus dans les données capteurs, dont au moins une piste d’atterrissage et une rampe d’approche. A training database must contain a very large number of data representing a maximum of possible situations, including for the context of the invention, different approaches on different tracks with different light ramps of approaches for different weather conditions . In order to implement a deep network learning method and learn to recognize a landing strip in the received sensor data, the database which is constituted contains a plurality of labeled or labeled datasets, where each set of labeled data corresponds to a pair (sensor data, ground truth VT). A VT ground truth for the operational context of the present invention is a description of various elements of interest to be recognized in the sensor data, including at least one runway and one approach ramp.
[0042] Revenant à la figure 2, après l’étape de détermination de données d’intérêt dans les données capteur reçues, le procédé permet de calculer une zone dans laquelle la rampe lumineuse d’approche et/ou la piste d’atterrissage ont été détectées. Returning to FIG. 2, after the step of determining data of interest in the received sensor data, the method makes it possible to calculate an area in which the approach light strip and / or the landing runway have been detected.
[0043] Dans un mode de réalisation, la zone cible est calculée comme étant un rectangle encadrant les éléments d’intérêt identifiés. A partir des caractéristiques du capteur et de l’attitude de l’aéronef correspondant aux données capteurs, le procédé permet de calculer les coordonnées en cap et en site de deux coins opposés d’un rectangle encadrant. In one embodiment, the target area is calculated as being a rectangle surrounding the identified elements of interest. From the characteristics of the sensor and the attitude of the aircraft corresponding to the sensor data, the method allows to calculate the coordinates in heading and in elevation of two opposite corners of a surrounding rectangle.
[0044] Après le calcul de la zone cible, les coordonnées sont envoyées à un dispositif d’affichage en tête haute (ou tête basse sur un dispositif EVS ou CVS tête basse), porté ou non, et la zone est affichée dans une étape suivante (208) comme un symbole conforme au monde extérieur, sous la forme d’un rectangle encadrant. La figure 3 illustre un affichage tête haute d’un système EVS avec l’affichage d’un symbole conforme (302) obtenu par le procédé de l’invention. After calculating the target area, the coordinates are sent to a head-up display device (or head-down on a head-down EVS or CVS device), carried or not, and the area is displayed in a step following (208) as a symbol conforming to the outside world, in the form of a surrounding rectangle. Figure 3 illustrates a head-up display of an EVS system with the display of a conforming symbol (302) obtained by the method of the invention.
[0045] L’affichage du symbole permet de valider la trajectoire vers la piste d’atterrissage avant l’acquisition visuelle de celle-ci par le pilote. L’affichage du symbole permet ainsi d’aider le pilote dans l’acquisition des références visuelles obligatoires avant la DH puisqu’il sait qu’il doit chercher à l’intérieur du rectangle. [0045] The display of the symbol makes it possible to validate the trajectory towards the landing strip before the visual acquisition thereof by the pilot. The display of the symbol thus helps the pilot in acquiring the mandatory visual references before the DH since he knows he must search inside the rectangle.
[0046] Dans un mode de réalisation, le dispositif tête haute peut également afficher un SVS, un EVS ou un CVS. Dans ces deux derniers cas EVS ou CVS, l’image capteur affichée est celle ayant alimentée la recherche de IΊA. In one embodiment, the head-up device can also display an SVS, an EVS or a CVS. In these last two EVS or CVS cases, the sensor image displayed is the one that fed the search for IΊA.
[0047] Dans un autre mode de réalisation tel qu’illustré sur la figure 4, le procédé permet d’afficher une image IR en tête haute dans laquelle le pilote cherche ses références visuelles aidé par un symbole encadrant (402), par exemple un rectangle provenant de la détection de la piste d’atterrissage par le modèle CNN ou par tout autre algorithme de détection de piste et de rampe, sur des données d’un capteur actif, par exemple un radar millimétrique. Ce mode de réalisation est particulièrement intéressant car les capteurs actifs ont des capacités de détection accrues par rapport aux capteurs IR par conditions de visibilité dégradée mais les données fournis par ces capteurs sont difficilement interprétable par l’œil humain. Dans cette variante de réalisation, l’aéronef bénéficie de l’abaissement des minima d’atterrissage EFVS. In another embodiment as illustrated in FIG. 4, the method makes it possible to display a head-up IR image in which the pilot searches for his visual references aided by a framing symbol (402), for example a rectangle originating from the detection of the landing strip by the CNN model or by any other runway and ramp detection algorithm, on data from an active sensor, for example a millimeter radar. This embodiment is particularly interesting because the active sensors have increased detection capacities compared to IR sensors in degraded visibility conditions, but the data provided by these sensors are difficult to interpret by the human eye. In this variant embodiment, the aircraft benefits from the lowering of the EFVS landing minima.
[0048] Dans un autre mode de réalisation, le capteur embarqué est une simple caméra visible et son image n’est pas présentée au pilote. Seul le symbole conforme issu du procédé de l’invention est présenté au pilote lui fournissant alors une aide à la détection visuelle de la piste par exemple lors de vols à vue (VFR pour « View Flight Rules » en anglais) mais avec une visibilité réduite. Ce mode de réalisation ne bénéficie pas d’une réduction des minimas d’atterrissage. [0049] La figure 5 illustre une architecture générale d’un système 500 de visualisation permettant de mettre en œuvre le procédé de l’invention. In another embodiment, the onboard sensor is a simple visible camera and its image is not presented to the pilot. Only the compliant symbol resulting from the method of the invention is presented to the pilot then providing him with an aid in the visual detection of the runway, for example during visual flights (VFR for “View Flight Rules” in English) but with reduced visibility. . This embodiment does not benefit from a reduction in landing minima. FIG. 5 illustrates a general architecture of a display system 500 making it possible to implement the method of the invention.
[0050] Dans une implémentation préférentielle, un modèle d’IA validé (architecture et les hyper-paramètres appris) est intégré dans un système embarqué à bord d’un aéronef qui comprend au moins un capteur de même type que celui utilisé pour l’apprentissage. Le système embarqué 500 comprend aussi une base de données terrain (BDT) 502, une base de données d’éléments d’intérêts (BDEI) 504, un module de génération d’une vue synthétique 506 en 3D vers l’avant de l’aéronef (SVS) à partir de la position et de l’attitude de l’aéronef reçues par des senseurs 508, et des capteurs 510, un module d’analyse 512 comprenant au moins un modèle d’IA validé, et un dispositif d’affichage 514 du SVS pour l’équipage de l’aéronef. Le dispositif d’affichage 514 ou interface homme-machine, peut être un écran en tête basse (HDD), un écran transparent en tête haute (HUD), un écran transparent porté sur la tête (HWD), le pare-brise de l’aéronef. Avantageusement, la symbologie usuelle de pilotage présentant les paramètres de pilotage de l’aéronef (attitude, cap, vitesse, altitude, vitesse verticale, vecteur vitesse, ...) est superposée à la vue synthétique en 3D.Le module d’analyse 512 peut être configuré pour corriger la position de la piste d’atterrissage présentée sur le SVS 506. In a preferred implementation, a validated AI model (architecture and the learned hyper-parameters) is integrated into a system on board an aircraft which comprises at least one sensor of the same type as that used for the learning. The on-board system 500 also comprises a field database (BDT) 502, a database of elements of interest (BDEI) 504, a module for generating a synthetic view 506 in 3D towards the front of the aircraft (SVS) from the position and attitude of the aircraft received by sensors 508, and sensors 510, an analysis module 512 comprising at least one validated AI model, and a device for SVS display 514 for the aircraft crew. The display device 514, or human-machine interface, may be a head-down display (HDD), a transparent head-up display (HUD), a transparent head-mounted display (HWD), the windshield of the 'aircraft. Advantageously, the usual piloting symbology presenting the piloting parameters of the aircraft (attitude, heading, speed, altitude, vertical speed, speed vector, etc.) is superimposed on the synthetic 3D view. The analysis module 512 can be configured to correct the airstrip position shown on the SVS 506.
[0051] Ainsi, la présente description illustre une implémentation préférentielle de l’invention, mais qui n’est pas limitative. Des exemples sont choisis pour permettre une bonne compréhension des principes de l’invention et une application concrète, mais ne sont en rien exhaustifs et doivent permettre à l’homme du métier d’apporter des modifications et des variantes d’implémentation en conservant les mêmes principes. Thus, the present description illustrates a preferred implementation of the invention, but which is not limiting. Examples are chosen to allow a good understanding of the principles of the invention and a concrete application, but are in no way exhaustive and should allow those skilled in the art to make modifications and variants of implementation while keeping the same. principles.
[0052] L’invention peut s’implémenter à partir d’éléments matériels et/ou logiciels.The invention can be implemented from hardware and / or software elements.
Elle peut être disponible en tant que produit programme d’ordinateur sur un support lisible par ordinateur et comprend des instructions de code pour exécuter les étapes des procédés dans leurs différents modes de réalisation. It may be available as a computer program product on computer readable medium and includes code instructions for performing the steps of the methods in their various embodiments.

Claims

REVENDICATIONS
1. Procédé (200) d’aide à l’atterrissage d’aéronef en conditions de visibilité dégradée, le procédé comprenant au moins des étapes de : 1. A method (200) for assisting the landing of an aircraft in conditions of degraded visibility, the method comprising at least the steps of:
- recevoir (202) au cours d’une phase d’approche vers une piste d’atterrissage des données issues d’un capteur, ladite piste d’atterrissage et/ou une rampe d’approche n’étant pas visibles par le pilote depuis le cockpit ; - receive (202) during an approach phase to a landing runway data from a sensor, said landing runway and / or an approach ramp not being visible to the pilot from the cockpit;
- déterminer (204) dans les données capteurs reçues des données d’intérêt caractéristiques de ladite piste d’atterrissage et/ou de ladite rampe d’approche ;- determining (204) in the received sensor data data of interest characteristic of said landing runway and / or said approach ramp;
- calculer (206) à partir des données d’intérêt les coordonnées d’une zone cible; et- calculate (206) from the data of interest the coordinates of a target area; and
- afficher (208) sur un écran d’affichage en tête haute un symbole conforme représentatif de la zone cible, ledit symbole conforme étant affiché avant l’atteinte par l’aéronef de la hauteur de décision afin de fournir au pilote un repère visuel dans lequel chercher ladite piste d’atterrissage et/ou rampe d’approche. - display (208) on a head-up display screen a compliant symbol representative of the target zone, said compliant symbol being displayed before the aircraft reaches the decision height in order to provide the pilot with a visual cue in which to look for said landing strip and / or approach ramp.
2. Le procédé selon la revendication 1 dans lequel l’étape (202) de réception de données capteurs consiste à recevoir des données d’un senseur embarqué à bord de l’aéronef et regardant vers l’avant, ledit senseur étant choisi dans le groupe des senseurs de type FLIR de pilotage, caméra multi-spectrale, LIDAR ou radar millimétrique. 2. The method of claim 1 wherein the step (202) of receiving sensor data consists of receiving data from a sensor on board the aircraft and looking forward, said sensor being chosen in the field. group of FLIR pilot type sensors, multispectral camera, LIDAR or millimeter radar.
3. Le procédé selon la revendication 1 ou 2 dans lequel l’étape (204) de détermination de données d’intérêt consiste à exécuter un algorithme d’intelligence artificielle sur les données capteurs reçues, l’algorithme mettant en oeuvre un modèle d’intelligence artificiel entraîné pour le traitement d’images, obtenu lors d’une phase d’apprentissage par un apprentissage profond. 3. The method of claim 1 or 2 wherein the step (204) of determining data of interest consists of executing an artificial intelligence algorithm on the received sensor data, the algorithm implementing a model of. artificial intelligence trained for image processing, obtained during a learning phase through deep learning.
4. Le procédé selon la revendication 3 dans lequel l’apprentissage profond est basé sur des réseaux de neurones convolutifs. 4. The method of claim 3 wherein the deep learning is based on convolutional neural networks.
5. Le procédé selon l’une quelconque des revendications 1 à 4 dans lequel l’étape (206) de calculer une zone cible consiste à déterminer, à partir des caractéristiques du capteur et de l’attitude de l’aéronef correspondant aux données capteurs, des coordonnées en cap et en site de la zone cible. 5. The method according to any one of claims 1 to 4 wherein the step (206) of calculating a target area consists in determining, from the characteristics of the sensor and the attitude of the aircraft corresponding to the sensor data. , heading and elevation coordinates of the target area.
6. Le procédé selon l’une quelconque des revendications 1 à 5 comprenant de plus après l’étape (206) de calculer une zone cible, une étape consistant à envoyer les coordonnées de la zone cible au dispositif d’affichage tête haute. The method according to any one of claims 1 to 5 further comprising after the step (206) of calculating a target area, a step of sending the coordinates of the target area to the head-up display device.
7. Le procédé selon la revendication 5 ou 6 dans lequel les coordonnées de la zone cible correspondent à deux coins opposés d’un rectangle encadrant les données d’intérêt caractéristiques de ladite piste d’atterrissage et/ou ladite rampe d’approche, et dans lequel le symbole conforme qui est affiché est ledit rectangle encadrant. 7. The method of claim 5 or 6 wherein the coordinates of the target area correspond to two opposite corners of a rectangle surrounding the data of interest characteristic of said landing runway and / or said approach ramp, and wherein the conformal symbol which is displayed is said surrounding rectangle.
8. Le procédé selon l’une quelconque des revendications 1 à 7 dans lequel l’étape (208) d’affichage en tête haute consiste à afficher le symbole encadrant sur un écran en tête haute fixe du cockpit et/ou sur un écran en tête haute porté par le pilote. 8. The method according to any one of claims 1 to 7 wherein the head-up display step (208) consists in displaying the framing symbol on a fixed head-up screen of the cockpit and / or on a screen in head held high by the pilot.
9. Un dispositif d’aide à l’atterrissage d’aéronef (512), notamment en conditions de visibilité dégradée, comprenant des moyens pour mettre en oeuvre les étapes du procédé d’aide à l’atterrissage d’aéronef en conditions de visibilité dégradée, selon l’une quelconque des revendications 1 à 8. 9. An aircraft landing aid device (512), in particular in degraded visibility conditions, comprising means for implementing the steps of the aircraft landing aid method in visibility conditions. degraded, according to any one of claims 1 to 8.
10. Le dispositif selon la revendication 9 dans lequel les données permettant le calcul de la zone cible sont issues d’un premier capteur, le dispositif comprenant de plus un second capteur apte à fournir une image pouvant être affichée dans le dispositif tête haute porté par le pilote, le symbole conforme calculé à partir des données du premier capteur étant affiché sur ladite image fournie par le second capteur. 10. The device according to claim 9 wherein the data allowing the calculation of the target area come from a first sensor, the device further comprising a second sensor capable of providing an image that can be displayed in the head-up device carried by the device. the pilot, the compliant symbol calculated from the data of the first sensor being displayed on said image supplied by the second sensor.
11. Une interface homme-machine comprenant des moyens pour afficher un symbole conforme obtenu selon le procédé de l’une quelconque des revendications 1 à 8. 11. A man-machine interface comprising means for displaying a compliant symbol obtained by the method of any one of claims 1 to 8.
12. Un système d’aide à l’atterrissage (500), notamment de type SVS, SGVS, EVS, EFVS ou CVS comprenant un dispositif (512) d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, selon l’une des revendications 9 ou 10. 12. A landing aid system (500), in particular of the SVS, SGVS, EVS, EFVS or CVS type comprising an aircraft landing aid device (512), in particular in degraded visibility conditions. , according to one of claims 9 or 10.
13. Un aéronef comprenant un dispositif d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée selon l’une des revendications 9 ou 10. 13. An aircraft comprising an aircraft landing aid device, in particular in degraded visibility conditions according to one of claims 9 or 10.
14. Programme d'ordinateur comportant des instructions de code pour l’exécution des étapes du procédé d’aide à l’atterrissage d’aéronef, notamment en conditions de visibilité dégradée, selon l’une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté par un processeur. 14. A computer program comprising code instructions for executing the steps of the method for assisting aircraft landing, in particular in conditions of degraded visibility, according to any one of claims 1 to 8, when said program is executed by a processor.
EP20797523.6A 2019-11-07 2020-11-03 Method and device for assisting in landing an aircraft under poor visibility conditions Pending EP4055343A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1912486A FR3103050B1 (en) 2019-11-07 2019-11-07 AIRCRAFT LANDING ASSISTANCE PROCESS AND DEVICE IN CONDITIONS OF DEGRADED VISIBILITY
PCT/EP2020/080807 WO2021089539A1 (en) 2019-11-07 2020-11-03 Method and device for assisting in landing an aircraft under poor visibility conditions

Publications (1)

Publication Number Publication Date
EP4055343A1 true EP4055343A1 (en) 2022-09-14

Family

ID=70154467

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20797523.6A Pending EP4055343A1 (en) 2019-11-07 2020-11-03 Method and device for assisting in landing an aircraft under poor visibility conditions

Country Status (4)

Country Link
US (1) US20220373357A1 (en)
EP (1) EP4055343A1 (en)
FR (1) FR3103050B1 (en)
WO (1) WO2021089539A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866194B2 (en) * 2021-10-30 2024-01-09 Beta Air, Llc Systems and methods for a visual system for an electric aircraft
US20240101273A1 (en) * 2022-09-26 2024-03-28 Rockwell Collins, Inc. Pilot alerting of detected runway environment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264498B1 (en) * 2008-04-01 2012-09-11 Rockwell Collins, Inc. System, apparatus, and method for presenting a monochrome image of terrain on a head-up display unit
FR2947083B1 (en) * 2009-06-23 2011-11-11 Thales Sa DEVICE AND METHOD FOR LANDFILLING
US20130041529A1 (en) * 2011-08-11 2013-02-14 Honeywell International Inc. Aircraft vision system having redundancy for low altitude approaches
US9280904B2 (en) * 2013-03-15 2016-03-08 Airbus Operations (S.A.S.) Methods, systems and computer readable media for arming aircraft runway approach guidance modes
US10311302B2 (en) * 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
FR3049744B1 (en) 2016-04-01 2018-03-30 Thales METHOD FOR SYNTHETICALLY REPRESENTING ELEMENTS OF INTEREST IN A VISUALIZATION SYSTEM FOR AN AIRCRAFT
FR3058233B1 (en) * 2016-11-03 2018-11-16 Thales METHOD FOR OVERLAYING AN IMAGE FROM A SENSOR ON A SYNTHETIC IMAGE BY AUTOMATICALLY DETECTING THE VISIBILITY LIMIT AND VISUALISION SYSTEM THEREOF

Also Published As

Publication number Publication date
US20220373357A1 (en) 2022-11-24
WO2021089539A1 (en) 2021-05-14
FR3103050A1 (en) 2021-05-14
FR3103050B1 (en) 2021-11-26

Similar Documents

Publication Publication Date Title
EP0678841B1 (en) Landing aid device
US20210158157A1 (en) Artificial neural network learning method and device for aircraft landing assistance
US9086484B2 (en) Context-based target recognition
EP3657213B1 (en) Learning method of a neural network on-board an aircraft for landing assistance of said aircraft and server for implementing such a method
EP3226062B1 (en) Method for synthetic representation of elements of interest in a display system for an aircraft
CN105158762A (en) Identifying and tracking convective weather cells
EP1870789A1 (en) System for detecting obstacles in the proximity of a landing point
US20220128700A1 (en) Systems and methods for camera-lidar fused object detection with point pruning
FR2908218A1 (en) DEVICE FOR AIDING NAVIGATION OF AN AIRCRAFT IN AN AIRPORT AREA
FR3103048A1 (en) PROCESS AND DEVICE FOR GENERATING SYNTHETIC LEARNING DATA FOR ARTIFICIAL INTELLIGENCE MACHINE FOR AIRCRAFT LANDING AID
FR3003989A1 (en) METHOD FOR LOCATING AND GUIDING A VEHICLE OPTICALLY IN RELATION TO AN AIRPORT
FR2736149A1 (en) DEVICE FOR RECOGNIZING AND TRACKING OBJECTS
US20220128701A1 (en) Systems and methods for camera-lidar fused object detection with lidar-to-image detection matching
EP4055343A1 (en) Method and device for assisting in landing an aircraft under poor visibility conditions
US20220126873A1 (en) Systems and methods for camera-lidar fused object detection with segment merging
Nagarani et al. Unmanned Aerial vehicle’s runway landing system with efficient target detection by using morphological fusion for military surveillance system
FR3077393A1 (en) Aerial vehicles with artificial vision
EP3656681A1 (en) Device and method for assisting in the landing of an aircraft in conditions of reduced visibility
EP4055349A1 (en) Method and device for generating learning data for an artificial intelligence machine for aircraft landing assistance
WO2008145593A1 (en) Display device for an aircraft including means for displaying a navigation symbology dedicated to obstacle avoidance
FR2808588A1 (en) Method of determination of position of a vehicle relative to an ideal trajectory, uses image data collection devices mounted on vehicle to read markers installed alongside desired trajectory
FR3033903A1 (en) NAVIGATION ASSISTANCE SYSTEM FOR AN AIRCRAFT WITH HIGH HEAD DISPLAY SCREEN AND CAMERA.
US20220309786A1 (en) Method for training a supervised artificial intelligence intended to identify a predetermined object in the environment of an aircraft
EP3578926B1 (en) Securing method of processing of an aircraft synthetic vision system, associated system and computer program product
Liu et al. Runway detection during approach and landing based on image fusion

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220505

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230427

17Q First examination report despatched

Effective date: 20230602