FR3113437A1 - Systeme et procede d’assistance au pilotage d’aeronef - Google Patents
Systeme et procede d’assistance au pilotage d’aeronef Download PDFInfo
- Publication number
- FR3113437A1 FR3113437A1 FR2008423A FR2008423A FR3113437A1 FR 3113437 A1 FR3113437 A1 FR 3113437A1 FR 2008423 A FR2008423 A FR 2008423A FR 2008423 A FR2008423 A FR 2008423A FR 3113437 A1 FR3113437 A1 FR 3113437A1
- Authority
- FR
- France
- Prior art keywords
- recommendations
- context
- pilot
- aircraft
- flight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000009471 action Effects 0.000 claims abstract description 27
- 238000011156 evaluation Methods 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 230000013016 learning Effects 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000000306 recurrent effect Effects 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 16
- 238000003066 decision tree Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 10
- 230000006403 short-term memory Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002068 genetic effect Effects 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 108090000623 proteins and genes Proteins 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000035772 mutation Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/04—Initiating means actuated personally
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/24—Transmitting means
- B64C13/38—Transmitting means with power amplification
- B64C13/50—Transmitting means with power amplification using electrical energy
- B64C13/503—Fly-by-Wire
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D43/00—Arrangements or adaptations of instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D2045/0075—Adaptations for use of electronic flight bags in aircraft; Supports therefor in the cockpit
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
Le document décrit un système et un procédé pour la gestion de recommandations de réglages d’équipements de cockpit d’un aéronef. Le procédé mis en œuvre par ordinateur comprend des étapes consistant à :- déterminer une évaluation d’un contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision ;- encoder les évaluations de contexte de vol et d’actions du pilote pour générer des caractéristiques clés de contexte ; et- déterminer une ou plusieurs recommandations de réglage d’équipements à partir des caractéristiques clefs de contexte. Figure pour l’abrégé : Fig. 1
Description
Domaine de l’invention
Le document décrit des procédés et des systèmes dans le domaine technique de l’assistance au pilotage d’aéronef en général, et des assistants virtuels intelligents en particulier.
Etat de la Technique
Un assistant virtuel est un logiciel ayant pour objectif, à partir d’éléments de contexte et/ou d’une base de données, de fournir des recommandations et/ou des éléments d’aide à la décision à l’utilisateur (au pilote en avionique).
Dans des aéronefs de complexité croissante, la surcharge mentale des pilotes devient de plus en plus importante et rend difficile la gestion de la mission. Ces difficultés peuvent générer du stress et ralentir le processus de prise de décision. Un certain nombre de solutions connues visent à minimiser le problème mais sans toutefois le résoudre pleinement. Une approche connue consiste par exemple à utiliser des systèmes embarqués certifiés comme aide au pilotage sur des fonctions spécifiques du vol. Une autre approche consiste à fournir la liste des systèmes inopérants. D’autres approches visent à automatiser certaines phases du vol. Bien que ces solutions répondent à leur objectif précis, elles ne se fondent pas sur un contexte global de vol et, de surcroît ne s’intéressent pas au comportement des pilotes dans un environnement orienté mission.
Ces solutions existantes ne permettent pas de traiter un contexte « hétérogène » ou « profond », i.e. défini sur des séquences d’événements très variés et mémorisés sur le long terme. Pour élaborer des suggestions (ou recommandations ou propositions), par ailleurs personnalisées, à un pilote, différentes technologiques peuvent être considérées : les technologies des systèmes de recommandation personnalisés et les systèmes d’interaction avec un utilisateur (robot de discussion ou «chatbot» en anglais).
Les systèmes de recommandation personnalisés sont très classiquement utilisés dans l’environnement d’Internet (e.g. recommandations de films, de séries, de musique, de livres, etc). Ces systèmes sont élaborés de manière à répondre à une problématique de proposition dans un contexte précis. Ils sont souvent basés sur des algorithmes dits de filtrage collaboratif où l’on propose un nouvel article ou service à un utilisateur à partir des données utilisateur (liste des derniers items consultés, préférences indiquées,..) et/ou d’une base de données décrivant les caractéristiques-clés des articles ou services pouvant être suggérés. Une nouvelle proposition est généralement élaborée sur un critère de similarité entre les informations extraites de l’activité de l’utilisateur et les caractéristiques clefs des articles ou services. Le cas échéant, la base de données des caractéristiques clefs est généralement élaborée lors de la conception du système, puis enrichie par renforcement. Certaines architectures de systèmes de recommandation plus récentes utilisent des réseaux de neurones, utilisés pour capturer ou extraire les caractéristiques-clés associées aux articles ou services qui seront utilisées pour calculer la suggestion.
Quant aux systèmes d’interaction avec un utilisateur nomméschatbots, ils sont également largement utilisés dans le contexte de l’assistance client sur Internet. Ils ont pour objectif de répondre de manière pertinente à une sollicitation précise du client. Ceschatbotssont généralement spécifiques à un domaine d’usage particulier. Différentes technologies existent (e.g. RASA, SNIPS, etc). Elles se composent généralement d’un module d’interprétation de contexte, guidé par des fichiers de reconnaissance d’intention et d’entité (écrits par le concepteur) et d’un module de décision de réponse, guidé par des scénarii de conversation (toujours écrits par le concepteur).
La littérature brevet publiée décrit différentes approches pour assister le pilotage. Le document de brevet FR3082829 intitulé « Gestion d’un aéronef » présente une architecture intéressante mais n’explicite pas les méthodes de calcul. Autre exemple, le document de brevet US8983687 décrit la gestion du vol d’un aéronef dans des conditions de vent particulières. Selon cette approche, des recommandations sont émises à destination du pilote en fonction des mesures effectuées et des règles d’utilisation de l’aéronef. Ce type d’approche présente également des limitations.
La complexité des relations entre les informations de contexte et la recommandation « idéale » ne permet pas de modéliser cette dernière de manière formelle. Les approches algorithmiques classiques (filtres, arbres de décisions,..) ne sont pas assez efficaces.
Il existe donc un besoin pour des systèmes et des procédés pour la recommandation de réglage d’équipement dans un aéronef.
Le document décrit des exemples de procédés et de systèmes permettant de fournir au pilote des recommandations de réglage d’équipements (ou des éléments d’aide à la décision) en se fondant sur l’analyse du contexte de vol global et/ou sur son historique long terme.
Avantageusement, les modes de réalisation utilisent de l’apprentissage automatique pour application à l’analyse de contexte de vol.
Avantageusement, les modes de réalisation peuvent être appliqués dans de nombreux secteurs de l’aéronautique, pour assister l’équipage des aéronefs, mais également pour de nombreux services « extérieurs » à l’aéronef (e.g. tour de contrôle, opérations de maintenance,dispatch…).
Avantageusement, l’invention se fonde sur un contexte global de vol, mesuré à partir des senseurs embarqués sur l’aéronef, externes à l’aéronef, ou issus de sources d’informations complémentaires (web par exemple). Par ailleurs, l’invention s’intéresse au comportement des pilotes dans un environnement orienté mission.
Avantageusement, les modes de réalisation des procédés et systèmes selon l’invention s’appuient sur des données hétérogènes et asynchrones décrivant le contexte de vol (dynamique de l’aéronef, phase de vol, état du système..) et/ou les actions du pilote. Ce contexte considère à la fois l’état courant et des états antérieurs, offrant une plage temporelle étendue.
Avantageusement, les modes de réalisation des procédés et systèmes selon l’invention peuvent tirer parti d’un contexte courant, quand bien même il ne correspond pas, ou pas exactement à un contexte précédemment connu par le système. Les capacités d’apprentissage automatisé permettent le traitement de données qui diffèrent des données d’entrainement.
Avantageusement, un mode de réalisation permet la personnalisation des recommandations au pilote (e.g. préférences déclarées ou inférées).
Avantageusement, les recommandations déterminées par les procédés et systèmes selon l’invention peuvent être fournies à la demande (réactives) et même être proactives (elles peuvent intervenir sans sollicitation du pilote, en anticipant une situation laquelle conduit à une action).
Avantageusement, l’analyse des informations bénéficie de l’utilisation de techniques d’apprentissage automatique sur les données. Ces techniques permettent de construire par apprentissage successif, un modèle informatique des relations entre les informations de contexte et la recommandation de réglage d’équipement désirée. Après entrainement sur un ensemble de données, ce modèle peut être capable de fournir la meilleure suggestion, et ce pour de nombreuses plages du domaine de fonctionnement.
Avantageusement, ce modèle informatique construit par apprentissage est complété par des mécanismes de surveillance (entre des bornes de fonctionnement).
Avantageusement, l’introduction d’un assistant virtuel construit par apprentissage dans l’exploitation d’un aéronef peut permettre une coordination entre différents acteurs dans l’exploitation de l’aéronef dans sa globalité (au sol, à bord), d’automatiser des tâches routinières ayant une faible valeur ajoutée (permettant aux pilotes de se concentrer sur les tâches à forte valeur ajoutée), de prendre en compte l’environnement de l’avion afin de proposer la meilleure action à réaliser pour poursuivre la mission, et aussi de réduire les erreurs d’origine humaine.
Avantageusement, les étapes conduisant aux recommandations permettent d’évaluer un contexte hétérogène et/ou fortement variable (et sur une plage temporelle étendue), de généraliser à un contexte non prévu lors de la conception.
Avantageusement, les systèmes de recommandation selon l’invention sont utilisables pour générer des recommandations hors du domaine d’usage prévu.
Avantageusement, les étapes conduisant aux recommandations permettent de personnaliser les recommandations de réglages d’équipement.
Avantageusement, les étapes conduisant aux recommandations permettent de traiter des contextes hétérogènes définis sur du long terme, par comparaison avec les systèmes de recommandation connus.
Avantageusement, les systèmes de recommandation personnalisés selon l’invention permettent des recommandations proactives, par comparaison avec les systèmes de recommandation connus qui sont activés lorsque l’utilisateur réalise une première action (par exemple la consultation d’une page web) et qui n’anticipent pas ses besoins.
Avantageusement, les systèmes de recommandation selon l’invention permettent de s’adapter à un contexte variable. Les techniques connues ne disposent pas d’une adaptabilité complète à une forte variabilité du contexte et/ou à une personnalisation par utilisateur. Par exemple, des technologies connues utilisent des scénarii prédéfinis, sans adaptation à la déviation des souhaits utilisateurs et sans personnalisation.
Pour obtenir les résultats recherchés, il est proposé un procédé mis en œuvre par ordinateur pour la gestion de recommandations de réglages d’équipements de cockpit d’un aéronef, comprenant les étapes consistant à :
- déterminer une évaluation d’un contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision ;
- encoder les évaluations de contexte de vol et d’actions du pilote pour générer des caractéristiques clés de contexte ; et
- déterminer une ou plusieurs recommandations de réglage d’équipements à partir des caractéristiques clefs de contexte.
- déterminer une évaluation d’un contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision ;
- encoder les évaluations de contexte de vol et d’actions du pilote pour générer des caractéristiques clés de contexte ; et
- déterminer une ou plusieurs recommandations de réglage d’équipements à partir des caractéristiques clefs de contexte.
Selon des modes de réalisation alternatifs ou combinés :
- le procédé comprend une étape consistant à mettre en œuvre une ou plusieurs desdites recommandations de réglage d’équipements déterminées ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un calcul de similarité entre lesdites caractéristiques clés de contexte et une base de données de suggestions prédéfinies ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un réseau de neurones récurrents pouvant faire l’objet d’un apprentissage automatique ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un ou plusieurs arbres de décision multicritères ;
- un arbre de décision est un arbre de décision à logique floue ;
- un arbre de décision est un arbre génétique flou ;
- le procédé comprend une étape consistant à personnaliser lesdites recommandations aux préférences du pilote ;
- le procédé comprend de plus une étape consistant à restituer une recommandation de réglage par voie d’affichage graphique sur un ou plusieurs écrans existants dans le cockpit et/ou par projection d’informations dans le cockpit ;
- un ou plusieurs des résultats de calcul intermédiaires, notamment une ou plusieurs recommandations de réglages, des informations relatives aux causes racines et/ou du contexte de calcul d’une ou de plusieurs des étapes du procédé font l’objet d’un affichage dans une interface homme-machine ;
- le procédé comprend une étape consistant à afficher une ou plusieurs représentations du contexte de vol au pilote ;
- l’apprentissage automatique est un apprentissage en ligne ;
- l’apprentissage automatique est un apprentissage hors ligne.
- le procédé comprend une étape consistant à mettre en œuvre une ou plusieurs desdites recommandations de réglage d’équipements déterminées ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un calcul de similarité entre lesdites caractéristiques clés de contexte et une base de données de suggestions prédéfinies ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un réseau de neurones récurrents pouvant faire l’objet d’un apprentissage automatique ;
- l’étape consistant à déterminer une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un ou plusieurs arbres de décision multicritères ;
- un arbre de décision est un arbre de décision à logique floue ;
- un arbre de décision est un arbre génétique flou ;
- le procédé comprend une étape consistant à personnaliser lesdites recommandations aux préférences du pilote ;
- le procédé comprend de plus une étape consistant à restituer une recommandation de réglage par voie d’affichage graphique sur un ou plusieurs écrans existants dans le cockpit et/ou par projection d’informations dans le cockpit ;
- un ou plusieurs des résultats de calcul intermédiaires, notamment une ou plusieurs recommandations de réglages, des informations relatives aux causes racines et/ou du contexte de calcul d’une ou de plusieurs des étapes du procédé font l’objet d’un affichage dans une interface homme-machine ;
- le procédé comprend une étape consistant à afficher une ou plusieurs représentations du contexte de vol au pilote ;
- l’apprentissage automatique est un apprentissage en ligne ;
- l’apprentissage automatique est un apprentissage hors ligne.
L’invention couvre aussi un produit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé revendiqué, lorsque le programme est exécuté sur un ordinateur.
L’invention couvre de plus un système pour la gestion de recommandations de réglages d’équipements du cockpit d’un aéronef comprenant :
- un réseau de neurones récurrents à mémoire court-terme et long terme configuré pour déterminer une évaluation du contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision ; et
- des ressources de calcul ou de mémoire configurés pour encoder les évaluations de contexte de vol et d’actions du pilote sous forme de caractéristiques clés de contexte et pour déterminer une ou plusieurs recommandations de réglage d’équipements à partir des caractéristiques clefs de contexte.
- des ressources de calcul ou de mémoire configurés pour encoder les évaluations de contexte de vol et d’actions du pilote sous forme de caractéristiques clés de contexte et pour déterminer une ou plusieurs recommandations de réglage d’équipements à partir des caractéristiques clefs de contexte.
Selon des modes de réalisation alternatifs ou combinés :
- le réseau de neurones récurrents est un réseau de neurones récurrents à mémoire court-terme et long terme ;
- le système comprend une interface homme-machine pour restituer une ou plusieurs recommandations de réglage d’équipements au pilote.
- le réseau de neurones récurrents est un réseau de neurones récurrents à mémoire court-terme et long terme ;
- le système comprend une interface homme-machine pour restituer une ou plusieurs recommandations de réglage d’équipements au pilote.
Description des figures
D’autres caractéristiques et avantages de l’invention apparaîtront à l’aide de la description qui suit et des figures des dessins annexés dans lesquels :
Description détaillée de l’invention
Selon les modes de réalisation de l’invention, un « aéronef » peut être un drone, ou un avion commercial, ou un avion de fret, ou bien encore un hélicoptère, embarquant ou non des passagers, ou tout élément étant susceptible d’être télé-piloté (par liaison radio, satellite, ou autre), au moins partiellement (de manière intermittente, ou périodique, ou même opportuniste au cours du temps).
Une « recommandation » est généralement non-contraignante mais connote généralement qu’elle résulte d’un processus de calcul investi d’une certaine confiance et elle vise généralement à l’atteinte ou la satisfaction d’un ou de plusieurs objectifs préalablement connus, calculés ou calculables.
En complément ou en substitution de ce terme, plusieurs autres termes peuvent être usités (avec différentes connotations).
Selon les modes de réalisation, le procédé selon l’invention peut manipuler une « proposition » (e.g. en réponse à une demande expresse, par exemple le résultat d’un calcul) ou une « suggestion » (invitation entièrement facultative à l’opposé d’un ordre, visant généralement à influencer) ou un « conseil » (e.g. pouvant témoigner d’un taux de confiance insuffisant) ou un « résultat candidat ».
Le terme « suggestion » peut généralement être substitué au terme « recommandation » dans tout le document. Le terme « suggestion » connote une invitation non-contraignante, qui vise généralement à influencer et peut être agnostique ou non-engageant par rapport à un objectif à atteindre. Certains modèles de pilotage laissent les choix ultimes à l’humain et les termes « suggestion » ou « proposition » sont plus modérés.
De manière générale, il est possible d’associer un ou plusieurs attributs à une ou plusieurs recommandations, par exemple catégorisées selon la fiabilité et/ou la priorité et/ou la criticité des sources d’informations sur lesquelles elles se fondent (et/ou concernant l’entité qui manipule les données). Factuellement, les messages ou recommandations peuvent être classées ou discrétisées en une pluralité de classes ou catégories, chacune étant associée avec un ou plusieurs attributs prédéfinis. Différents critères de classement peuvent donc être appliqués pour sélectionner, déterminer le rang ou le score d’une ou plusieurs recommandations.
Une recommandation est suivie, ou non, d’actes (e.g. de conduite ou de pilotage), lesquels peuvent être en rapport - ou pas - avec le contenu sur le fond de la recommandation. La mesure du suivi d’une suggestion ou d’une recommandation donnée est possible (par exemple par comparaison entre les actes réels et les actes recommandés).
De manière générale, les modes de réalisation de l’invention peuvent être en « boucle ouverte » et/ou en « boucle fermée ». Par boucle ouverte, il est entendu qu’une intervention humaine est requise (e.g. le pilote doit valider une ou plusieurs étapes intermédiaires du procédé). Par boucle fermée, il est entendu que certaines opérations, pouvant par exemple faire l’objet de quantifications en matière de taux de confiance, de sécurité et/ou de sûreté aéronautique, peuvent ne pas requérir d’approbation humaine (au moins directe). Certaines étapes peuvent en effet être vérifiées par des algorithmes (qui « internalisent » donc dans la machine certains éléments de prise de décision du pilote humain). Il est implicite que les modes de régulation peuvent combiner des boucles ouvertes et des boucles fermées, et que les rétroactions peuvent évoluer au cours du temps, en raison de contraintes réglementaires notamment, mais pas seulement (modèle d’apprentissage humain, maintenir une compétence de pilotage non automatisable, etc)
Dans sa forme, une recommandation peut par exemple comprendre un ou plusieurs mots, énoncés sous forme de texte par affichage graphique ou par synthèse vocale ou par tout autre moyen sensoriel. Une suite de mots peut former une phrase ou une instruction (facultative ou activable). Par exemple une recommandation peut comprendre des éléments textuels issus d’une procédure de vol règlementaire. Une recommandation peut comprendre une ou plusieurs valeurs numériques assorties d’unités de mesure (par exemple un niveau de vol exprimé en pieds, un résultat, une valeur-cible, etc). Une recommandation peut comprendre un ou plusieurs symboles, graphique, courbe, plan en 2D ou en 3D, sens, direction, ou tout autre élément de nature symbolique (pictogramme, etc). Une recommandation peut prendre la forme de listes, de tableaux, de choix à effectuer, etc. Une recommandation peut être exécutable (par exemple par un ordinateur), par exemple après acceptation ou validation de la recommandation par le pilote ou un autre membre désigné de l’équipage.
Une recommandation peut concerner toute entrée possible dans l’avionique. Par exemple, une recommandation peut concerner sur le fond: des entrées liées au pilotage ; des entrées liées à la communication (préréglages de fréquence radio HF ou VHF, messages à envoyer à l’ATC e.g. reporting temps, point de passage, vitesse etc, des messages à envoyer au contrôle du trafic, des messages à envoyer en cabine, des messages à envoyer à d’autres aéronefs, etc) ; des entrées liées à la navigation (des noms de points de passage ou d’aéroport, des consignes de guidage ou des réglages de paramètres, des réglages de Baro pression, des procédures de navigation) ; des entrées liées à la gestion du vol (des procédures opérationnelles ou parties de procédures à réaliser, des actions à réaliser sur les systèmes de l’aéronef e.g. allumage consigne lumineuse, réglage intensité écran, etc...)
Qu’il s’agisse d’une recommandation en matière de pilotage, de communication, de navigation et/ou de gestion de l’état de l’avion, toutes se traduisent in fine par la manipulation, de manière tangible, d’équipements embarqués. Le « réglage d’équipement » est donc une variable, manifeste et tangible, d’un processus de calcul et/ou de raisonnement immatériel, d’origine machine et/ou humaine. Cependant, une recommandation peut contribuer à la compréhension de l'environnement (i.e caractère informatif) et ne pas nécessairement se traduire par une action de réglage d'équipement.
La illustre une architecture du système de l’invention dans un mode de réalisation.
Dans un mode de réalisation, les procédés et systèmes selon l’invention appréhendent le contexte de vol des points de vue « homme » (100, 112) et « machine » (101, 111). Le contexte de vol est entendu de manière holistique, i.e. évaluant ou restituant à la fois le contexte porteur (e.g. paramètres de vol, phase de vol, météorologie, etc) et le contexte du pilote (e.g. paramètres physiologiques, niveaux de stress, préférences d’utilisation, etc).
Dans un mode de réalisation, les contextes courants et passés sont pris en compte.
Dans un mode de réalisation, l’étape 111 « Evaluation et encodage contexte porteur » permet de générer une pluralité de caractéristiques clés associées au contexte de l’aéronef.
Dans un mode de réalisation, à l’étape 112 « Evaluation et encodage contexte pilote », différentes actions et paramètres du pilote sont prétraitées sur une plage temporelle étendue. En sortie, une pluralité de caractéristiques clés associées au contexte pilote sont générées.
Dans un mode de réalisation, les étapes d’évaluation sont effectuées en utilisant des réseaux de neurones récurrents (111, 1121).
Dans un mode de réalisation, un réseau de neurones récurrents est de type LSTM (Long Short Term Memory).
Les réseaux de neurones récurrents sont avantageux pour traiter des données d'entrée s’étendant sur plusieurs pas de temps dans le passé (e.g. analyse de séries temporelles). Un réseau de neurones récurrents est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué de neurones interconnectés interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les neurones sont reliés par des arcs ou synapses, associés à un poids. La sortie d'un neurone est une combinaison non-linéaire de ses entrées. Les techniques d'entraînement du réseau comprennent la rétro propagation du gradient. Pour éviter la disparition du gradient, des réseaux « Long Short-Term Memory »peuvent être utilisés.
Un réseau de neurones récurrents à mémoire court-terme et long terme (en anglais « Long Short-Term Memory » acronyme LSTM) est une architecture avantageuse de réseau de neurones récurrents qui permet de répondre au problème de disparition de gradient et également capable de prendre en compte des données temporelles sur une durée non déterministe. Un réseau LSTM est structuré de manière à ce que les erreurs se propagent aux pas antérieurs (jusqu'à plusieurs milliers d’étapes dans le passé) sans phénomène de disparition de gradient.
Alternativement au réseau de neurones récurrents « à mémoire court-terme et long terme », un réseau de neurones récurrents « à portes » peut être utilisé (en anglais « Gated Recurrent Unit » acronyme GRU).
A l’étape 120, le contexte complet combinant le contexte porteur et pilote est encodé, en synthétisant les différentes informations d’encodage porteur et pilote dans un même vecteur 121 de caractéristiques clefs de contexte. Ces caractéristiques clés peuvent être de nature variée : vitesses, altitude, état d’un système, phase de vol, distance à la destination, position des becs/volets, quantité de fuel, poussée moteur.
Les modules ou étapes 111, 112 et 120 peuvent être l’objet d’apprentissages automatisés, respectivement 1111, 1121 et 1201.
Selon les modes de réalisation, l’apprentissage automatique peut être réalisé en différentes étapes :
L’apprentissage 1111 du contexte porteur 111 peut être réalisé sur une base de données associant des informations de contexte (entrées) et des suggestions (sorties). Ici, les actions du pilote (et le retour du pilote sur les suggestions) ne sont pas pris en compte. Cet apprentissage permet d’entraîner le module « Evaluation et encodage contexte porteur » (ainsi que la partie du module « Elaboration de la suggestion » basé sur le contexte porteur).
L’apprentissage 1121 du comportement pilote et de ses préférences peut être réalisé sur simulateur d’entrainement, avec le pilote. Les entrées de contexte sont simulées et les actions pilote sont récupérées. Cet apprentissage permet d’entraîner l’étape ou le module « Evaluation et encodage contexte pilote » 112 (ainsi que la partie du module « Elaboration de la suggestion » basé sur les actions pilote et sur le couplage contexte porteur/action pilote). A l’issue de chaque simulation de vol, une évaluation peut être proposée.
Un apprentissage automatique par renforcement en opérations peut être effectué à partir des données opérationnelles. Dans un mode de réalisation, pendant le vol, les différents informations de contexte et actions pilotes sont enregistrées. Après le vol, le pilote réalise une évaluation des suggestions. Les hyper paramètres de l’apprentissage sont actualisés après acquisition d’un nombre suffisant de données de vols et d’évaluations.
A l’étape 130, un module d’évaluation 130 permet de déterminer une ou plusieurs recommandations 131 à partir des données agrégées du « contexte complet » obtenu suite aux opérations d’encodage. Suivant les modes de réalisation, ces recommandations peuvent être proactives (communiquées suite à l’évaluation des caractéristiques du contexte porteur) et/ou sur demande (e.g. sur sollicitation, i.e. suite à l’évaluation d’une action du pilote, cette action pouvant être une demande auprès du système de recommandation ou une action classique).
Les recommandations sont produites en utilisant différents algorithmes, chacun pouvant avoir des avantages et inconvénients selon les applications, tels que par exemple :
Ensemble de conditions If-then établies par l’expérience métier :
- Avantages : méthode explicable et facile à mettre en œuvre
- Inconvénients : ne sont pas forcément aussi pertinents que ce que l’on peut apprendre par apprentissage
- Avantages : méthode explicable et facile à mettre en œuvre
- Inconvénients : ne sont pas forcément aussi pertinents que ce que l’on peut apprendre par apprentissage
Arbres de décisions construits par apprentissage :
- Avantages : l’apprentissage permet de trouver des corrélations que l’homme de métier ne découvrirait pas forcément lors de son analyse ; méthode explicable et facile à mettre en œuvre
- Inconvénients : l’arbre de décision ne permet pas de modéliser forcément les situations les plus complexes
- Avantages : l’apprentissage permet de trouver des corrélations que l’homme de métier ne découvrirait pas forcément lors de son analyse ; méthode explicable et facile à mettre en œuvre
- Inconvénients : l’arbre de décision ne permet pas de modéliser forcément les situations les plus complexes
Réseaux de neurones construits par apprentissage, avec en variante les LSTM :
- Avantages : l’apprentissage permet de trouver des corrélations que l’homme de métier ne découvrirait pas forcément lors de son analyse ; la structure des réseaux de neurones permet de modéliser des phénomènes complexes ; le LSTM permet d’introduire une prise en compte du passé
- Inconvénients : algorithme qui n’est pas explicable, et qui nécessite beaucoup de données pour être performant.
- Avantages : l’apprentissage permet de trouver des corrélations que l’homme de métier ne découvrirait pas forcément lors de son analyse ; la structure des réseaux de neurones permet de modéliser des phénomènes complexes ; le LSTM permet d’introduire une prise en compte du passé
- Inconvénients : algorithme qui n’est pas explicable, et qui nécessite beaucoup de données pour être performant.
Des exemples de recommandations peuvent être d’activer/désactiver un système ; sélectionner un cap, une vitesse ou une fréquence avec une valeur associée ; suggérer un aéroport de déroutement plus adapté à la situation actuelle.
Dans un mode de réalisation, une étape permet de mettre en œuvre une ou plusieurs recommandations de réglage d’équipements. La mise en œuvre peut être directe, par exemple en boucle fermée, ou indirecte (via une boucle ouverte, après confirmation par le pilote et/ou un système machine tiers), ou bien intervenir (ou pas) après confirmation (respectivement infirmation ou inhibition ou modification).
Dans un mode de réalisation optionnel, les recommandations peuvent être personnalisées à l’étape 135 de différentes manières (e.g. prise en compte de l’activité courante et antérieure de l’utilisateur, prise en compte des préférences déclarées de l’utilisateur). Différentes méthodes peuvent être utilisées et notamment des pondérations dans les caractéristiques clés permettant de refléter les préférences du pilote en termes de recommandations.
Ces préférences interviennent sous forme de pondérations (paramètres) dans les dispositifs de calcul des recommandations. Ces paramètres sont ajustés avec les retours du pilote suite à l’expérimentation du système. Ces paramètres peuvent être par exemple des critères de durée de vol (plus court/plus long), de consommation de fuel, de confort de vol.
L’étape 140 concerne la représentation d’informations, i.e. impactant tant la forme que le fond. Des formats de restitution ou des interfaces homme-machine prédéfinis peuvent être mis en œuvre. Avantageusement, la visualisation d’information a été conçue et testée pour optimiser ou améliorer la compréhension du pilote.
Dans un mode de réalisation, la restitution de recommandation de réglage par voie d’affichage graphique se fait sur un ou plusieurs écrans existants dans le cockpit et/ou par projection d’informations dans le cockpit.
De manière optionnelle, un ou plusieurs des résultats de calcul intermédiaires, notamment une ou plusieurs recommandations de réglages, des informations relatives aux causes racines et/ou du contexte de calcul d’une ou de plusieurs des étapes du procédé fait l’objet d’un affichage dans une interface homme-machine.
L’interaction homme-machine dans le cadre de l’invention peut en effet être complexe. Un procédé selon l’invention peut comprendre une ou plusieurs boucles de rétroaction (e.g. aval rétroagissant sur l’amont, feedforward, etc). Une boucle de rétroaction peut être « fermée » c’est-à-dire inaccessible au contrôle par l’humain (elle est exécutée par la machine). Elle peut être « ouverte » (e.g. étape d’affichage dans une interface homme-machine, validation ou tout autre système de confirmation par l’humain). Différents modes de réalisation peuvent aboutir à des implémentations différentes en fermant, respectivement en ouvrant, une ou plusieurs boucles ouvertes, respectivement fermées. Par exemple, le procédé selon l’invention peut invoquer uniquement des boucles de rétroaction ouvertes (i.e. le pilote intervient à tous les stades), ou bien uniquement des boucles de rétroaction fermée (e.g. automatisation totale), ou bien une combinaison des deux (la mise à contribution de l’humain étant variable ou configurable). De la sorte, le procédé (qui peut être d’ « intelligence artificielle ») peut être interprété comme « transparent », au sens de contrôlable. L’affichage peut concerner des résultats de calcul intermédiaires, des informations relatives aux causes racines, et/ou au contexte de calcul. De la sorte le procédé peut être considéré comme « explicable ».
La illustre une architecture du module de détermination de recommandations du système de l’invention.
L’étape 130 peut utiliser une ou plusieurs des technologies comprenant :
- l’utilisation d’un calcul de similarité 131 entre les caractéristiques clés du contexte et une base de données 1311 de suggestions prédéfinies; et/ou
- l’utilisation d’arbres de décision multicritères 132 établis lors de la conception ; et/ou
- l’utilisation d’un module type réseau de neurones récurrents 133 (dont les sorties seront beaucoup plus variables) ; ce dernier peut faire l’objet d’un apprentissage 1331 par exemple par renforcement, mais également par d’autres types d’apprentissage.
- l’utilisation d’un calcul de similarité 131 entre les caractéristiques clés du contexte et une base de données 1311 de suggestions prédéfinies; et/ou
- l’utilisation d’arbres de décision multicritères 132 établis lors de la conception ; et/ou
- l’utilisation d’un module type réseau de neurones récurrents 133 (dont les sorties seront beaucoup plus variables) ; ce dernier peut faire l’objet d’un apprentissage 1331 par exemple par renforcement, mais également par d’autres types d’apprentissage.
Dans un mode de réalisation, l’apprentissage automatique 1331 comprend un ou plusieurs algorithmes sélectionné parmi les algorithmes comprenant: des machines à vecteur de support ou des séparateurs à vaste marge; des classifieurs; des réseaux de neurones; des arbres de décision et/ou des étapes de méthodes statistiques comme le modèle de mixture gaussienne, la régression logistique, l'analyse discriminante linéaire et/ou des algorithmes génétiques.
Dans un mode de réalisation, l’apprentissage automatique est effectué en ligne. En effet, l’apprentissage automatique peut être effectué de manière incrémentale ou en ligne. Quand le modèle est connu (poids stabilisés dans les réseaux de neurones) et embarqué, il est possible de poursuivre l'apprentissage en flux de données (pour améliorer le modèle existant, sans repartir de zéro). Un apprentissage automatique hors ligne apprend sur un ensemble de données complet tandis qu’un apprentissage en ligne peut continuer d’apprendre (« learning transfert »), de manière embarquée, sans avoir à ré-ingérer les données de départ. Avantageusement, l’apprentissage peut être préalablement effectué (de base, préalable) puis personnalisé sur les données spécifiques à une compagnie ou à un pilote particulier.
En l’espèce l’apprentissage en ligne peut être mis en œuvre en vol.
L’apprentissage en ligne peut se faire au travers d’un retour utilisateur qui valide les bonnes suggestions et rejette les suggestions non pertinentes (systèmes de récompense). Le système s’adapte dynamiquement en fonction des préférences utilisateur et environnementales et maximise les récompenses (135).
Dans un mode de réalisation, l’apprentissage automatique est effectué hors ligne. Les données d’apprentissage peuvent être des données historiques. En l’espèce l’apprentissage hors ligne permet d’utiliser de grandes capacités de calcul, sur des données massives (e.g. des flottes d’appareils). L’apprentissage hors ligne peut être mis en œuvre au sol, où la connectivité et l’accès aux données et/ou ressources de calcul peuvent être plus aisées.
Dans certains modes de réalisation, les apprentissages automatiques peuvent être réalisés pour partie en ligne et/ou hors ligne (e.g. étapes de synchronisation ultérieures etc).
Lors de l’utilisation du système, les retours utilisateur sont mémorisés afin d’être intégrés ultérieurement à la base de connaissance générée lors d’un apprentissage au sol.
Dans un mode de réalisation, la détermination d’une ou plusieurs recommandations de réglage d’équipements comprend une étape consistant à utiliser un ou plusieurs arbres de décision multicritères 1302.
Dans un mode de réalisation, un arbre de décision est un arbre de décision à logique floue ou un arbre génétique flou.
Un algorithme génétique comprend généralement au moins trois étapes (sélection, évaluation, génération par sélection et/ou mutation). Un croisement consiste à créer de nouveaux individus à partir d’autres individus. Par exemple pour deux individus avec 4 paramètres ou « gènes » [a, b, c, d] et [a’, b’, c’, d’] on peut obtenir [a, b, c’, d’] et [a’, b’, c, d]. Les croisements peuvent par exemple se faire par paire (e.g. en choisissant aléatoirement deux échantillons (« père », « mère ») qui sont croisés pour obtenir deux nouveaux échantillons (« enfants »). Dans un mode de réalisation, la méthode de croisement est un croisement à point multiple. Dans un mode de réalisation, la méthode de croisement est un croisement à un point. Une mutation consiste à modifier aléatoirement un individu de la population, par exemple en modifiant la valeur d’un des paramètres d’un individu à une nouvelle valeur aléatoire dans le domaine défini. Par exemple pour un individu avec 4 gènes ou paramètres [a, b, c, d] devient [a, e, c, d]. Les mutations peuvent se faire par sélection au hasard d’un gène et remplacement par un autre gène. Par exemple, dans un mode de réalisation, le taux de mutation peut être fixé à m% (entre 0,01 et 2%), et le changement de gène suit une loi uniforme.
L’utilisation de logique floue implique l’utilisation de langage naturel, ce qui contribue à renforcer l’intelligibilité des décisions, si le pilote a accès à une partie ou à la totalité des données et/ou des étapes de calcul.
Le terme « et/ou » souligne que les trois méthodes peuvent être des alternatives (une seule méthode peut être utilisée), mais également utilisées de manière concurrente (ou concourante). En effet, les différentes recommandations déterminées par chacune des méthodes peuvent être scorées ou autrement comparées et une sélection peut être effectuée (ainsi qu’un apprentissage automatique).
Le réglage des paramètres d’apprentissage est délicat : un réglage trop restrictif ne permettra pas d’appréhender des situations nouvelles alors qu’un réglage trop permissif conduira à des suggestions non pertinentes qui seraient rejetées ou ignorées par l’utilisateur qui n’aurait pas confiance en l’assistant.
Dans un mode de réalisation, le procédé est mis en œuvre par ordinateur.
Dans un mode de réalisation, le système pour la mise en œuvre de l’invention comprend un support de stockage lisible par ordinateur (RAM, ROM, mémoire flash ou une autre technologie de mémoire, par exemple support à disque ou un autre support de stockage non transitoire lisible par ordinateur) codé avec un programme d'ordinateur (c'est-à-dire plusieurs instructions exécutables) qui, lorsqu'il est exécuté sur un processeur ou plusieurs processeurs, effectue les fonctions des modes de réalisation décrits précédemment. A titre d'exemple d'architecture matérielle adaptée à mettre en œuvre l'invention, un dispositif peut comporter un bus de communication auquel sont reliés une unité centrale de traitement ou microprocesseur (CPU, acronyme de « Central Processing Unit » en anglais), lequel processeur peut être "multicore" ou "manycore"; une mémoire morte (ROM, acronyme de « Read OnIy Memory » en anglais) pouvant comporter les programmes nécessaires à la mise en œuvre de l'invention; une mémoire vive ou mémoire cache (RAM, acronyme de « Random Access Memory » en anglais) comportant des registres adaptés à enregistrer des variables et paramètres créés et modifiés au cours de l'exécution des programmes précités ; et une interface de communication ou E/S (I/O acronyme de « Input/Ouput » en anglais) adaptée à transmettre et à recevoir des données.
Dans le cas où l'invention est implantée sur une machine de calcul reprogrammable (par exemple un circuit FPGA), le programme correspondant (c'est-à-dire la séquence d'instructions) peut être stocké dans ou sur un médium de stockage amovible (par exemple une carte SD, ou un stockage de masse tel que un disque dur e.g. un SSD) ou non-amovible, volatile ou non-volatile, ce médium de stockage étant lisible partiellement ou totalement par un ordinateur ou un processeur. Le support lisible par ordinateur peut être transportable ou communicable ou mobile ou transmissible (i.e. par un réseau de télécommunication 2G, 3G, 4G, 5G, Wifi, BLE, fibre optique ou autre).
La référence à un programme d'ordinateur qui, lorsqu'il est exécuté, effectue l'une quelconque des fonctions décrites précédemment, ne se limite pas à un programme d'application s'exécutant sur un ordinateur hôte unique. Au contraire, les termes programme d'ordinateur et logiciel sont utilisés ici dans un sens général pour faire référence à tout type de code informatique (par exemple, un logiciel d'application, un micro logiciel, un microcode, ou toute autre forme d'instruction d'ordinateur, comme des web services ou SOA ou via des interfaces de programmation API) qui peut être utilisé pour programmer un ou plusieurs processeurs pour mettre en œuvre des aspects des techniques décrites ici. Les moyens ou ressources informatiques peuvent notamment être distribués ("Cloud computing"), éventuellement avec ou selon des technologies de pair-à-pair et/ou de virtualisation. Le code logiciel peut être exécuté sur n'importe quel processeur approprié (par exemple, un microprocesseur) ou cœur de processeur ou un ensemble de processeurs, qu'ils soient prévus dans un dispositif de calcul unique ou répartis entre plusieurs dispositifs de calcul (par exemple tels qu’éventuellement accessibles dans l’environnement du dispositif). Des technologies de sécurisation (crypto-processeurs, authentification éventuellement biométrique, chiffrement, carte à puce, etc) peuvent être utilisées.
Dans certains modes de réalisation, les différentes étapes de la méthode peuvent être implémentées en un ou plusieurs équipement avionique et/ou sur un ou plusieurs équipement non avionique par exemple un EFB acronyme anglais de « Electronic Flight Bag » (sacs ou sacoches de vol électroniques) et/ou tablettes et/ou calculateur embarqué ou au sol.
En complément - ou en substitut - des écrans avionique du cockpit, des moyens IHM supplémentaires peuvent être utilisés. De manière générale, les systèmes avionique (qui sont des systèmes certifiés par le régulateur aérien et qui peuvent présenter certaines limitations en termes d'affichage et/ou d'ergonomie) peuvent être avantageusement complémentés par des moyens non avioniques, en particulier des IHM avancées. Parmi ces IHM avancées, certains modes de réalisation de l'invention peuvent être implémentés par des moyens de réalité augmentée AR (e.g. projecteurs, lunettes, etc.) et/ou en réalité virtuelle VR (e.g. visière, visiocasque, etc.). Certains modes de réalisation peuvent être mixtes ou hybrides AR/VR ou en d'autres termes combiner des moyens EVS, acronyme pour "Enhanced Vision System" et/ou des moyens SVS, acronyme pour "Synthetic Vision System". Par exemple, des moyens de projection peuvent projeter les informations sur le pare-brise et/ou des éléments intérieurs du cockpit de l'aéronef.
Claims (16)
- Procédé mis en œuvre par ordinateur pour la gestion de recommandations de réglages d’équipements de cockpit d’un aéronef, comprenant les étapes consistant à :
- déterminer (111, 112) une évaluation d’un contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision (1111, 1121) ;
- encoder (120) les évaluations de contexte de vol et d’actions du pilote pour générer (121) des caractéristiques clés de contexte ; et
- déterminer (130) une ou plusieurs recommandations de réglage d’équipements (131) à partir des caractéristiques clefs de contexte. - Procédé selon la revendication 1, comprenant en outre l’étape consistant à mettre en œuvre une ou plusieurs desdites recommandations de réglage d’équipements déterminées.
- Procédé selon la revendication 1 ou 2 dans lequel l’étape (130) de détermination d’une ou plusieurs recommandations de réglage d’équipements (131) consiste à utiliser un calcul de similarité (1301) entre lesdites caractéristiques clés de contexte (121) et une base de données de suggestions prédéfinies (1311).
- Procédé selon l’une quelconque des étapes précédentes dans lequel l’étape (130) de détermination d’une ou plusieurs recommandations de réglage d’équipements (131) consiste à utiliser un réseau de neurones récurrents (1303) pouvant faire l’objet d’un apprentissage automatique (1331).
- Procédé selon l’une quelconque des étapes précédentes dans lequel l’étape (130) de détermination d’une ou plusieurs recommandations de réglage d’équipements (131) consiste à utiliser un ou plusieurs arbres de décision multicritères (1302).
- Procédé selon la revendication précédente, dans lequel l’étape (130) de détermination d’une ou plusieurs recommandations de réglage d’équipements (131) consiste à utiliser un arbre de décision à logique floue.
- Procédé selon la revendication 4 ou 5, dans lequel l’étape (130) de détermination d’une ou plusieurs recommandations de réglage d’équipements (131) consiste à utiliser un arbre génétique flou.
- Procédé selon l’une quelconque des revendications précédentes comprenant de plus une étape consistant à personnaliser lesdites recommandations aux préférences du pilote.
- Procédé selon l’une quelconque des revendications précédentes comprenant de plus une étape consistant à restituer (140) une recommandation de réglage par voie d’affichage graphique sur un ou plusieurs écrans existants dans le cockpit et/ou par projection d’informations dans le cockpit.
- Procédé selon l’une quelconque des revendications précédentes, dans lequel un ou plusieurs des résultats de calcul intermédiaires, notamment une ou plusieurs recommandations de réglages, des informations relatives aux causes racines et/ou du contexte de calcul d’une ou de plusieurs des étapes du procédé font l’objet d’un affichage dans une interface homme-machine.
- Procédé selon l’une quelconque des revendications précédentes, comprenant en outre une étape consistant à afficher une ou plusieurs représentations du contexte de vol au pilote.
- Procédé selon l’une quelconque des revendications précédentes, dans lequel l’apprentissage automatique est un apprentissage en ligne.
- Procédé selon l’une quelconque des revendications précédentes, dans lequel un apprentissage automatique est un apprentissage hors ligne.
- Produit programme d’ordinateur, ledit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé selon l'une quelconque des revendications 1 à 13, lorsque ledit programme est exécuté sur un ordinateur.
- Système pour la gestion de recommandations de réglages d’équipements du cockpit d’un aéronef comprenant :
- un réseau de neurones récurrents à mémoire court-terme et long terme configuré pour déterminer une évaluation du contexte de vol d’un aéronef et une évaluation d’actions du pilote de l’aéronef, en utilisant des algorithmes de décision ; et
- des ressources de calcul ou de mémoire configurés pour encoder les évaluations de contexte de vol et d’actions du pilote sous forme de caractéristiques clés de contexte (121) et pour déterminer (130) une ou plusieurs recommandations de réglage d’équipements (131) à partir des caractéristiques clefs de contexte (121). - Système selon la revendication 15, comprenant en outre une interface homme-machine pour restituer une ou plusieurs recommandations de réglage d’équipements au pilote.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2008423A FR3113437B1 (fr) | 2020-08-11 | 2020-08-11 | Systeme et procede d’assistance au pilotage d’aeronef |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2008423 | 2020-08-11 | ||
FR2008423A FR3113437B1 (fr) | 2020-08-11 | 2020-08-11 | Systeme et procede d’assistance au pilotage d’aeronef |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3113437A1 true FR3113437A1 (fr) | 2022-02-18 |
FR3113437B1 FR3113437B1 (fr) | 2022-09-09 |
Family
ID=74347141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2008423A Active FR3113437B1 (fr) | 2020-08-11 | 2020-08-11 | Systeme et procede d’assistance au pilotage d’aeronef |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3113437B1 (fr) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060190822A1 (en) * | 2005-02-22 | 2006-08-24 | International Business Machines Corporation | Predictive user modeling in user interface design |
FR2989181A1 (fr) * | 2012-04-04 | 2013-10-11 | Eurocopter France | Procede et dispositif d'adaptation de l'interface homme-machine d'un aeronef selon le niveau de l'etat fonctionnel du pilote |
US8983687B1 (en) | 2011-08-05 | 2015-03-17 | The Boeing Company | Wind shear safety performance tool |
US9542851B1 (en) * | 2015-11-03 | 2017-01-10 | The Boeing Company | Avionics flight management recommender system |
EP3246665A1 (fr) * | 2012-04-26 | 2017-11-22 | Bell Helicopter Textron Inc. | Système et procédé pour une utilisation économique d'un aéronef |
FR3082829A1 (fr) | 2018-06-21 | 2019-12-27 | Thales | Gestion d'un aeronef |
US10643480B2 (en) * | 2016-04-19 | 2020-05-05 | George Mason University | Method and apparatus for probabilistic alerting of aircraft unstabilized approaches using big data |
EP3657472A1 (fr) * | 2018-11-26 | 2020-05-27 | Honeywell International Inc. | Systèmes et procédés pour créer et utiliser un modèle contextuel applicable à la prédiction des conditions d'avertissement d'aéronefs et à l'analyse des performances d'aéronefs |
-
2020
- 2020-08-11 FR FR2008423A patent/FR3113437B1/fr active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060190822A1 (en) * | 2005-02-22 | 2006-08-24 | International Business Machines Corporation | Predictive user modeling in user interface design |
US8983687B1 (en) | 2011-08-05 | 2015-03-17 | The Boeing Company | Wind shear safety performance tool |
FR2989181A1 (fr) * | 2012-04-04 | 2013-10-11 | Eurocopter France | Procede et dispositif d'adaptation de l'interface homme-machine d'un aeronef selon le niveau de l'etat fonctionnel du pilote |
EP3246665A1 (fr) * | 2012-04-26 | 2017-11-22 | Bell Helicopter Textron Inc. | Système et procédé pour une utilisation économique d'un aéronef |
US9542851B1 (en) * | 2015-11-03 | 2017-01-10 | The Boeing Company | Avionics flight management recommender system |
US10643480B2 (en) * | 2016-04-19 | 2020-05-05 | George Mason University | Method and apparatus for probabilistic alerting of aircraft unstabilized approaches using big data |
FR3082829A1 (fr) | 2018-06-21 | 2019-12-27 | Thales | Gestion d'un aeronef |
EP3657472A1 (fr) * | 2018-11-26 | 2020-05-27 | Honeywell International Inc. | Systèmes et procédés pour créer et utiliser un modèle contextuel applicable à la prédiction des conditions d'avertissement d'aéronefs et à l'analyse des performances d'aéronefs |
Also Published As
Publication number | Publication date |
---|---|
FR3113437B1 (fr) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220076165A1 (en) | Systems and methods for automating data science machine learning analytical workflows | |
US11017677B2 (en) | Decision-making aid for revising a flight plan | |
US9239989B2 (en) | Computer-implemented system with adaptive cognitive features and method of using the same | |
KR20230007422A (ko) | 운송 시스템용 디지털 트윈 시스템 및 방법 | |
US20190171988A1 (en) | Cognitive ride scheduling | |
US11295275B2 (en) | System and method of providing to-do list of user | |
US10902356B2 (en) | Real-time cognitive supply chain optimization | |
US11295251B2 (en) | Intelligent opportunity recommendation | |
FR3067802A1 (fr) | Gestion de routes alternatives pour un aeronef | |
US11237565B2 (en) | Optimal driving characteristic adjustment for autonomous vehicles | |
EP3671392A1 (fr) | Apprentissage automatique en avionique | |
CN110245772A (zh) | 分析核心与聚合 | |
US20190347363A1 (en) | Using a dialog system for integrating multiple domain learning and problem solving | |
FR3082829A1 (fr) | Gestion d'un aeronef | |
WO2015036531A2 (fr) | Système de gestion des connaissances | |
WO2021013908A1 (fr) | Analyse de trajectoires d'aeronefs | |
Hechler et al. | Deploying AI in the Enterprise | |
WO2023096968A1 (fr) | Procédés et systèmes de transport intelligents | |
Kaur et al. | Artificial Intelligence and deep learning for decision makers: a growth hacker's guide to cutting edge technologies | |
KR20230039032A (ko) | 딥러닝 기반의 인공지능 자동 생성 방법 및 인공지능 정확도 개선을 위한 MLOps 장치 | |
Kouvaros et al. | Formal analysis of neural network-based systems in the aircraft domain | |
EP3537367A1 (fr) | Facilitation de la capture d'un segment de vol d'un aéronef | |
FR3113437A1 (fr) | Systeme et procede d’assistance au pilotage d’aeronef | |
US20200250706A1 (en) | Intelligent advertisement identification and interaction in an internet of things computing environment | |
EP4078558A1 (fr) | Dispositif et procede de proposition automatique de resolution de conflits aeriens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |