FR3119699A1 - Dispositif et procédé d'évaluation des compétences - Google Patents

Dispositif et procédé d'évaluation des compétences Download PDF

Info

Publication number
FR3119699A1
FR3119699A1 FR2101200A FR2101200A FR3119699A1 FR 3119699 A1 FR3119699 A1 FR 3119699A1 FR 2101200 A FR2101200 A FR 2101200A FR 2101200 A FR2101200 A FR 2101200A FR 3119699 A1 FR3119699 A1 FR 3119699A1
Authority
FR
France
Prior art keywords
data
technical
operator
behavior
evaluating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2101200A
Other languages
English (en)
Inventor
Pascal Peyronnet
Guillaume PABIA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR2101200A priority Critical patent/FR3119699A1/fr
Priority to CN202280014208.1A priority patent/CN116830178A/zh
Priority to EP22707644.5A priority patent/EP4292072A1/fr
Priority to PCT/EP2022/052860 priority patent/WO2022171563A1/fr
Priority to US18/276,032 priority patent/US20240105076A1/en
Publication of FR3119699A1 publication Critical patent/FR3119699A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/165Control of aircraft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer

Abstract

L’invention concerne un procédé d’évaluation de compétences d’au moins un opérateur en situation d’entrainement sur une plateforme, le procédé comprenant des étapes consistant à : collecter des données endogènes relatives à des manifestations physiques dudit opérateur, et des données exogènes relatives au contexte de ladite session sur une plateforme ;corréler les données endogènes et les données exogènes collectées, et générer des données de comportement observable, une donnée de comportement observable comprenant au moins un paramètre dit d’évènement déclencheur et un paramètre dit d’action ; analyser les données de comportement observable selon des séquences d’analyse prédéfinies, et générer des indicateurs de mesure de comportement observé, lesdites séquences d’analyse prédéfinies étant spécifiques à chaque compétence technique et non-technique à évaluer ; évaluer un comportement dudit opérateur, ladite évaluation consistant à comparer chaque indicateur de mesure de comportement observé à des valeurs de comportement de référence ;évaluer chaque compétence dudit opérateur en fonction des résultats des évaluations de comportement obtenus. Figure pour l’abrégé : Fig. 1

Description

Dispositif et Procédé d’évaluation des compétences
L’invention propose un dispositif ainsi qu’un procédé permettant d’évaluer de manière précise et synthétique les compétences d’un opérateur ou d’une équipe d’opérateurs en situation d’entrainement, de mission réelle ou simulée. Le domaine d’application de l’invention peut concerner tous les domaines mettant en œuvre des systèmes complexes gérés par des opérateurs ou équipe d’opérateurs, devant appliquer des procédures, prendre des décisions en fonction des situations, communiquer et interagir avec des systèmes et avec d’autres opérateurs, et pour lesquels la sécurité est primordiale. Plus précisément, l’invention concerne le domaine de l’évaluation des compétences de vol d’un pilote et/ou d’un équipage en situation de simulation ou d’entrainement sur une plateforme dédiée.
Ces domaines concernent, de manière non exhaustive :
  • Le domaine des transports comme par exemple l’aéronautique, le ferroviaire, le maritime ou l’automobile,
  • Le domaine de la gestion de situation comme par exemple le contrôle aérien, la sécurité publique,
  • Le domaine de la gestion de processus industriels comme par exemple la production d’énergie.
L’ « Evidence-Based Training » (EBT) est une méthode d’évaluation et d’entrainement des pilotes d’aviation commerciale développée par des acteurs du monde de l’aéronautique qui repose sur l’évaluation par les compétences (le « Competency-Based Training »).
Les pilotes sont ainsi évalués selon un ensemble de neuf compétences techniques et non techniques que sont l’application des procédures, la communication, la gestion de la trajectoire de vol (manuelle et automatisée), les connaissances, le « leadership » et le travail d’équipe, la résolution de problèmes ainsi que la prise de décision, la conscience de la situation et enfin la gestion de la charge de travail.
Afin d’aider les instructeurs dans l’évaluation de ces compétences non-techniques, l’Agence Européenne de la Sécurité Aérienne (EASA) a publié une liste d’Indicateurs du Comportement Observable (OBI pour « Observable Behavior Indicator »). Ces indicateurs de comportements permettent d’objectiver ces différentes compétences et donnent un cadre d’évaluation partagé entre les instructeurs, permettant une réduction de la subjectivité dans l’évaluation.
Néanmoins, ces OBI peuvent aussi faire l’objet d’interprétations variées entre instructeurs et peuvent être difficiles à détecter à cause de leur grand nombre ou de leur variété. En effet, une session d’entrainement ou de simulation dure généralement entre trois et quatre heures, ce qui représente un moment éprouvant aussi bien pour le pilote, qui joue la validité de sa licence, que pour l’instructeur en charge de la simulation. Ainsi, au cours de ces sessions, de nombreuses pannes et situations sont étudiées par le pilote ou l’équipage sous la tutelle de l’instructeur. Ce dernier est donc au cœur du dispositif d’entrainement et doit s’occuper de nombreuses tâches comme l’animation et l’exécution du scénario, le bon déroulement du scénario, la simulation des interactions de contrôle du trafic aérien, et des interactions de l’équipage de cabine.
En plus de cela, l’introduction de l’ « Evidence-Based Training » nécessite que l’instructeur surveille également le pilote et son équipe afin de détecter les données de Comportement Observable (OB) nécessaires pour l’évaluation des compétences.
Cependant, l’instructeur est peu outillé et n’utilise bien souvent que des annotations d’événements qu’il a observés pendant la session, la détection des nombreux OB, représentés par une dizaine d’indicateurs pour chaque compétence, est donc bien souvent partielle.
En résumé, les instructeurs ont donc à charge l’évaluation en temps réel des pilotes ainsi que la gestion de la simulation et l’organisation de la session d’entrainement. Limités par un positionnement, à l’arrière de l’équipage, peu propice à l’observation ainsi que par des outils inexistants ou encore trop peu développés, ces travaux d’observation sont difficiles à mener et la charge de travail des instructeurs est grandement accrue. Surchargés mentalement et/ou contraints par les activités nécessaires au bon déroulement de la session, les instructeurs ne peuvent détecter tous les indicateurs de comportements (OB) nécessaires à l’évaluation correcte des pilotes.
Ces biais peuvent par la suite introduire des lacunes dans l’évaluation et le travail sur les compétences des pilotes qui pourraient à leur tour mettre en péril la sécurité des opérations aériennes.
Des solutions pour pallier aux limitations citées précédemment ont été développées comme la vidéo-surveillance du pilote et de son équipe lors d’une situation d’entrainement permettant à l’instructeur d’obtenir un moyen de visionnage selon un point de vue différent du sien ou encore un moyen d’observer les compétences techniques (gestion des freins, du manche, des volets) mises en valeur par le pilote et son équipe. Néanmoins, aucune méthode d’objectivation de compétences non-techniques n’a été développée à ce jour. De plus, les systèmes d’assistance de l’instructeur ne sont généralement pas liés aux compétences de l’ « Evidence-Based Training » et les informations transmises à l’instructeur ne permettent généralement pas d’orienter l’instructeur facilement vers des données de Comportement Observable nécessaires à l’évaluation des compétences. Cette charge revient, in fine, à l’instructeur qui doit alors analyser lui aussi les vidéos obtenues ou les données captées afin de les corréler à d’éventuelles données de Comportement Observable permettant une évaluation d’une compétence. Quelques études, comme par exemple le brevet US10755591, mentionnent d’ores et déjà ces compétences mais n’apportent pas de solution significative à cette problématique.
Or, comme dit précédemment, le grand nombre de données de Comportement Observable détectable combiné à la nécessité d’étudier les supports d’assistance afin de pouvoir évaluer les compétences non-techniques, pour lesquelles les systèmes développés à ce jour ne proposent pas de solution, alourdissent toujours partiellement la charge de travail de l’instructeur sans assister pour autant ce dernier dans son évaluation.
L’invention vise à pallier tout ou partie des problèmes cités plus haut en proposant un dispositif et un procédé d’évaluation de compétences techniques et non-techniques d’un opérateur en situation d’entrainement sur une plateforme comportant divers éléments permettant :
  • la collecte de données contextuelles liées à la situation d’entrainement,
  • la collecte de données liées au pilote et/ou à son équipe pendant la situation d’entrainement,
  • l’analyse des données citées précédemment afin de détecter des données de Comportement Observable pendant la situation d’entrainement,
  • l’évaluation d’un comportement de l’opérateur,
  • l’évaluation d’au moins une compétence technique et/ou non technique de l’opérateur.
A cet effet, l’invention a pour objet un procédé d’évaluation de compétences techniques et non-techniques d’au moins un opérateur en situation de mission ou d’entrainement sur une plateforme réelle ou simulée, le procédé d’évaluation étant mis en œuvre par ordinateur et comprenant des étapes consistant à :
  • collecter des données endogènes relatives à des manifestations physiques dudit au moins un opérateur pendant une session de mission ou d’entrainement, et des données exogènes relatives au contexte de ladite session sur une plateforme réelle ou simulée ;
  • corréler les données endogènes et les données exogènes collectées, et générer des données de comportement observable, une donnée de comportement observable comprenant au moins un paramètre dit d’évènement déclencheur et un paramètre dit d’action ;
  • analyser à partir des paramètres d’évènement déclencheur et des paramètres d’action, les données de comportement observable selon des séquences d’analyse prédéfinies, et générer des indicateurs de mesure de comportement observé, lesdites séquences d’analyse prédéfinies étant spécifiques à chaque compétence technique et non-technique à évaluer ;
  • évaluer un comportement dudit au moins un opérateur, ladite évaluation consistant à comparer chaque indicateur de mesure de comportement observé à des valeurs de comportement de référence ; et
  • évaluer chaque compétence technique et non-technique dudit au moins un opérateur en fonction des résultats des évaluations de comportement obtenus.
Selon un aspect de l’invention, l’étape de collecte de données consiste au moins à capturer des données endogènes de nature observatoire et/ou manipulatoire et/ou de communication.
Selon un aspect de l’invention, l’étape de corrélation de données comprend une étape consistant à déterminer un événement déclencheur issu dudit au moins un opérateur, ledit événement déclencheur étant notamment la survenue d’un événement à l’origine d’une action dudit au moins un opérateur ou un délai dépassé.
Selon un aspect de l’invention, l’étape de corrélation de données comprend une étape consistant à déterminer un événement déclencheur issu de la plateforme réelle ou simulée, ledit événement déclencheur étant la survenue d’un événement à l’origine d’un changement d’état de la plateforme.
Selon un aspect de l’invention, l’étape consistant à déterminer un événement déclencheur, comprend une étape de détection d’événements déclencheurs issus dudit au moins un opérateur ou de ladite plateforme, et une étape de sélection d’au moins un événement déclencheur.
Selon un aspect de l’invention, l’étape d’analyse comprend une étape de comparaison des données endogènes à une base de donnée de correspondance présentant des données de comportement observable ainsi que leurs manifestations physiques allouées.
Selon un aspect de l’invention, le procédé d’évaluation comprend, après l’étape d’évaluation de compétence, une étape d’affichage des évaluations des compétences techniques et non-techniques.
Selon un aspect de l’invention, le procédé d’évaluation comprend une étape de stockage des données endogènes, des données exogènes, des données de comportement observable, et des résultats des évaluations.
L’invention a également pour objet un dispositif d’évaluation de compétences techniques et non-techniques d’au moins un opérateur en situation d’entrainement sur une plateforme réelle ou simulée, le dispositif d’évaluation comprenant des moyens pour mettre en œuvre les étapes du procédé d’évaluation.
Dans une implémentation particulière pour le domaine de l’avionique, le dispositif de l’invention est personnalisé pour évaluer les compétences techniques et non-techniques d’un pilote ou d’un équipage en situation d’entrainement sur une plateforme de simulation. A cet effet, l’invention couvre un simulateur de vol comprenant le dispositif de l’invention.
De plus, l’invention a trait à un produit programme d’ordinateur, ledit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé lorsque ledit programme est exécuté sur un ordinateur.
L’invention sera mieux comprise et d’autres avantages apparaîtront à la lecture de la description détaillée d’un mode de réalisation donné à titre d’exemple, description illustrée par les figures dans lesquelles :
la représente un enchainement d’étapes du procédé d’évaluation de compétences techniques et non-techniques d’au moins un opérateur en situation de mission ou d’entrainement sur une plateforme de l’invention dans un mode de réalisation ;
la représente des étapes de corrélation et d’analyse du procédé d’évaluation de compétences techniques et non-techniques d’au moins un opérateur en situation de mission ou d’entrainement sur une plateforme de l’invention dans un mode de réalisation ;
la représente un dispositif d’évaluation de compétences techniques et non-techniques d’au moins un opérateur en situation de mission ou d’entrainement dans un mode de réalisation de l’invention.
Par souci de clarté, les mêmes éléments porteront les mêmes repères dans les différentes figures.
Afin de pouvoir permettre cette évaluation d’au moins un opérateur, c’est-à-dire pour le domaine avionique, l’évaluation d’un pilote uniquement ou de ce dernier et de son équipe à bord, selon les neuf compétences techniques et non-techniques dévoilées ci-dessus, quelques publications détaillent chacune de ces neuf compétences et d’un certain nombre d’indicateurs de comportement observable susceptibles de permettre à un instructeur en charge de l’évaluation de caractériser les compétences. A titre d’exemple, il est possible de citer le document « Manuel of Evidence-Based Training » fourni par l’ICAO (2013) ou encore « Evidence-Based Training Implementation Guide » de l’IATA (July 2013).
Le procédé d’évaluation 100 de compétences techniques et non-techniques, représenté en , d’au moins un opérateur en situation de mission ou d’entrainement sur une plateforme réelle ou simulée s’appuie sur ces descriptions d’indicateurs.
Dans la présente description, le terme « donnée endogène » désigne les paramètres ou manifestations physiques en provenance de l’opérateur, soit le pilote, et/ou de l’équipe d’opérateurs, soit son équipage. A titre d’exemple, le suivi du regard ou des pupilles, la détection d’une posture particulière, la reconnaissance de gestes, l’analyse de communications ou encore d’actions manipulatoires sur une plateforme réelle ou simulée peuvent être considérés comme des données endogènes. Le terme « donnée exogène » caractérise, quant à lui, l’ensemble des données liées au contexte comme par exemple les données avioniques en provenance de la plateforme, des éléments liés au scénario et à la mise en situation du savoir-faire de l’opérateur ou de l’équipe d’opérateurs ou encore la météo affichée. Globalement, l’ensemble des données exogènes proviennent de la plateforme. En outre, la plateforme représente l’habitacle accueillant l’opérateur ou l’équipe d’opérateurs. Ainsi, dans le cadre d’une situation d’entrainement nécessitant une simulation d’une situation de vol, la plateforme représente le dispositif de mesure accueillant l’opérateur ou l’équipe d’opérateur. A l’inverse, dans le cadre d’une situation de vol réelle, la plateforme représente alors l’habitacle de l’aéronef dans lequel l’opérateur ou l’équipe d’opérateurs évolue.
Le procédé d’évaluation 100 peut être mis en œuvre lors d’une situation de vol mise en place sur une plateforme.
Le procédé d’évaluation 100, qui permet d’élaborer les informations nécessaires à l’évaluation des compétences d’au moins un opérateur, se décompose en plusieurs phases successives.
Le procédé d’évaluation 100 débute avec une étape de collecte 102 de données endogènes relatives à des manifestations physiques d’au moins un opérateur pendant la session de mission ou d’entrainement et de données exogènes relatives au contexte de la session de mission ou d’entrainement sur la plateforme. Les données endogènes et les données exogènes peuvent être fournies sous différents formats comme par exemple un format image, une vidéo, un signal audio, un signal électrique, une action ou un effort exercé sur une commande, un paramètre continu ou encore quantifié.
Plus précisément, les données endogènes collectées lors de l’étape 102 représentent des évènements élémentaires détectés par le procédé d’évaluation 100 et des paramètres d’observation (mouvement oculaire bref, cheminement oculaire), de manipulation détectée sur la plateforme comme des actions tactiles réalisées par le pilote sur sa plateforme, sur ses instruments de bord ou encore de communication avec des paramètres vocaux, de lexique utilisé, de locution.
La collecte 102 des données exogènes se fait par l’intermédiaire de la plateforme qui fournit toutes les informations et paramètres liés à la mise en situation de la plateforme, à savoir le contexte, le cas de figure rencontré par l’au moins un opérateur ou la mise en scène requise par un examinateur souhaitant qualifier les compétences de l’au moins un opérateur.
La détection d’action de la part de l’au moins un opérateur prend en compte le contexte opératoire, à savoir le poste dans lequel l’au moins un opérateur est immergé, le langage professionnel utilisé, le manuel utilisateur et d’emploi du poste.
A titre d’exemple, les données exogènes, qui représentent le contexte ou une situation précise pouvant faire agir ou réagir au moins un opérateur, peuvent représenter :
  • une phase de vol telle que le décollage,
  • des conditions de vol telles que la météo,
  • un mode de fonctionnement enclenché comme le mode d’autopilotage,
  • la présence d’une panne quelconque.
Ainsi, l’étape de collecte 102 de données consiste au moins à capturer des données endogènes de nature oculaire et/ou manipulatoire et/ou de communication ainsi que des données exogènes.
Après avoir collecté les données endogènes en provenance d’au moins un opérateur et les données exogènes de la plateforme, le procédé d’évaluation 100 initie une étape de corrélation 104 des données endogènes et des données exogènes. Cette étape de corrélation 104 peut être interprétée comme une étape de prétraitement appliquée à l’information brute que sont les données endogènes et les données exogènes.
Ainsi, l’étape de corrélation 104 permet de mettre en lien les données endogènes obtenues caractérisant une manifestation physique d’au moins un opérateur en réponse à une donnée exogène enregistrée. Ainsi, les données endogènes sont regroupées autour d’une ou plusieurs données exogènes. A la suite de cette corrélation des données endogènes autour d’une ou plusieurs données exogènes, l’étape de corrélation 104 permet de générer des données de comportement observable en fonction des corrélations observées.
Cette corrélation peut se faire de manière temporelle, c’est-à-dire qu’il est possible de faire un regroupement des données endogènes apparaissant à la suite de l’acquisition d’au moins une donnée exogène ou de manière thématique, c’est-à-dire qu’en fonction d’une donnée exogène donnée, un certain nombre de données endogènes prédéfini peut être attendu par le procédé d’évaluation 100 de manière à réaliser un groupement de ces données en fonction d’un thème précis comme par exemple le processus de vérification précédant une phase de décollage d’un aéronef.
Chaque donnée de comportement observable comprend donc au moins un paramètre dit d’évènement déclencheur et un paramètre dit d’action. Le paramètre d’événement déclencheur représente l’action qui est à l’origine d’une réaction potentielle de l’au moins un opérateur et de son agissement, représenté par au moins un paramètre d’action. Un événement déclencheur peut également être un délai dépassé, dans le cadre d’une procédure en cours.
Plus précisément et représenté en , l’étape de corrélation 104 de données comprend une étape 116 consistant à déterminer un événement déclencheur issu d’opérateur, l’événement déclencheur issu d’opérateur est la survenue d’un événement à l’origine d’une action de l’au moins un opérateur en réponse à cet événement déclencheur issu d’opérateur. Ainsi, le paramètre déclencheur issu d’opérateur peut être une donnée endogène, comme, par exemple, l’initialisation d’un dialogue technique entre l’équipe d’opérateurs. Néanmoins, il peut aussi être envisagé, dans un cas de figure plus généralisé, que le paramètre d’événement déclencheur soit une donnée exogène.
Alors, l’étape de corrélation 104 de données comprend une étape 118 consistant à déterminer un événement déclencheur issu de la plateforme. L’événement déclencheur issu de la plateforme représente la survenue d’un événement à l’origine d’un état de la plateforme et peut être interprété comme une donnée exogène. S’en suit alors une étape de détection d’événements déclencheurs 120 issus dudit au moins un opérateur ou de ladite plateforme, et une étape de sélection 122 d’au moins un événement déclencheur.
La détection d’événement déclencheur 120 issu d’opérateur se base sur la détection d’action de la part de l’au moins un opérateur. La détection d’événement déclencheur 120 issu de plateforme se base sur la détection d’état de la plateforme comme par exemple un changement de mode de pilotage, la sortie ou l’entrée du train d’atterrissage, une panne et sur la sortie d’enveloppe de paramètres dynamiques comme par exemple la vitesse, l’inclinaison, l’assiette.
En réponse à l’événement déclencheur, qu’il soit déclencheur issu de l’au moins un opérateur ou issu de la plateforme, le procédé d’évaluation 100 capte alors au moins un paramètre d’action représenté par une donnée endogène et présentant la manifestation physique d’une réaction de l’au moins un opérateur au paramètre déclencheur. Ainsi, le regroupement d’un paramètre déclencheur, représenté par une donnée exogène ou une donnée endogène et d’au moins un paramètre d’action, représenté par des données endogènes, permet, lors de l’étape de corrélation 104, de générer au moins une donnée de comportement observable traduisant selon des paramètres tangibles, le comportement de l’au moins un opérateur lors du déclenchement d’un événement.
Les actions traduisant les agissements réalisés par l’au moins un opérateur à la fois dans les domaines de l’observation, de la manipulation sur les instruments et les commandes de vol ou de la communication vocale. A titre d’exemple, un paramètre d’action peut représenter une donnée endogène oculaire comme une zone observée par l’au moins un opérateur ou représenter une donnée endogène vocale comme une locution prononcée par l’au moins un opérateur ou encore le paramètre d’action peut représenter une donnée endogène de manipulation comme une manipulation réalisée par l’au moins un opérateur.
A titre d’exemple, un paramètre d’événement déclencheur issu de l’au moins un opérateur peut représenter une donnée endogène oculaire comme une zone spécifique observée ou une donnée endogène vocale comme un message vocal spécifique détecté ou encore une donnée endogène de manipulation comme une action spécifique détectée.
A titre d’exemple, un paramètre d’événement déclencheur issu de la plateforme peut représenter :
  • la variation de l’état de la plateforme,
  • le dépassement d’un seuil ou la sortie d’une enveloppe pour des paramètres dynamiques de la plateforme,
  • des actions opérées sur les commandes de vol,
  • des ordres vocaux reçus de l’extérieur du cockpit ou d’autre membre d’équipage.
Ainsi, la génération de données de comportement observable traduit, de manière tangible, une production de caractéristiques mesurables et détectables par un délai, une durée, un enchaînement ou un ordonnancement associées à la réalisation de l’ensemble des éléments d’un comportement observable, en relation avec leur déclenchement.
En étape 106, le procédé d’évaluation 100 comprend une étape consistant à analyser les données de comportement observable selon des séquences d’analyse prédéfinies à partir des paramètres d’évènement déclencheur et des paramètres d’action. Plus précisément, l’étape 106 analyse des données de comportement observable sous le prisme des paramètres d’événement déclencheur et d’action en comparant (étape 132) les données endogènes et, plus particulièrement, ces deux types de paramètres d’événement déclencheur et d’action à une base de donnée de correspondance présentant des données de comportement observable ainsi que leurs manifestations physiques allouées. Cette base de donnée de correspondance comprend des séquences d’analyse prédéfinies présentant des données de comportement observable connue de l’Homme du métier ainsi que leurs manifestations physiques mesurables et détectables allouées. Ainsi, chaque séquence d’analyse prédéfinie comprend au moins un paramètre d’événement déclencheur et au moins un paramètre d’action et d’autres données endogènes et exogènes permettant de caractériser une situation de vol et un contexte pour au moins un opérateur ainsi que sa réaction attendu selon la situation prédéfinie. Cette analyse fournit la nature de l’action induite, sa localisation temporelle ainsi que sa durée ou sa fréquence. La base de données de correspondance comprend également une table de référence contenant des paramètres d’événements déclencheurs associés à chaque comportement à observer.
Ainsi, afin de pouvoir analyser le comportement d’au moins un opérateur lors d’une situation de vol, l’étape d’analyse 106 des données de comportement observable compare les données endogènes et exogènes détectées, et, plus précisément les paramètres d’événement déclencheur et d’action, aux paramètres d’événement déclencheur et d’action ainsi que des données endogènes et exogènes prédéfinies. Les séquences d’analyse prédéfinies sont spécifiques à chaque compétence technique et non-technique à évaluer.
L’analyse des données de comportement observé prises en compte identifie trois natures différentes de celles-ci associées aux agissements de l’au moins un opérateur :
  • des données d’observation ou oculaire,
  • des données de manipulation ou d’actions manuelles sur les commandes de vol et les équipements du poste opérateur,
  • des données de communication ou d’échanges vocaux.
Ces indicateurs de mesure du comportement observé déterminés au travers de métriques relatives à l’apparition et à l’enchaînement des différentes données endogènes liée au comportement détectées, par exemple, peuvent être présentés de manière non exhaustive sous la forme :
  • d’un délai par rapport au déclenchement et/ou du paramètre d’événement déclencheur,
  • d’un délai minimal et maximal entre deux occurrences d’événements induits de même type,
  • d’un nombre d’occurrences d’événements induits de même type dans un laps de temps,
  • d’une identification de succession ordonnée d’événements successifs,
  • d’un délai entre les événements successifs d’enchaînement,
  • d’une durée de d’enchaînement complet.
Cette génération d’indicateur de comportement observé permet alors d’initier une étape 108, représentée en , consistant à évaluer un comportement d’au moins un opérateur. L’évaluation du comportement de l’au moins un opérateur consiste à comparer chaque indicateur de mesure de comportement observé faite pour chaque comportement observé basé sur un ensemble d’éléments de comportement détectés à des valeurs de comportement de référence prédéfinies, grâce, à titre d’exemple, à l’état de l’art connu, des procédures définies ou des protocoles établis, permettant une évaluation de sa conformité à la référence définie.
La mesure des comportements observés s’organise donc autour de deux principales étapes qui s’enchaînent :
  • la détection du comportement, par l’intermédiaire de l’étape 104 de corrélation et de génération de données de comportement observable, qui identifie les éléments induits ou les actions induites par au moins un opérateur suite à un événement déclenchant et réalisés dans un contexte défini. Cette détection fournit, par l’intermédiaire de l’étape 104, la nature de l’action induite, et sa localisation temporelle en précisant l’instant de début d’action, de fin d’action et durée de l’action.
  • La mesure du comportement, par l’intermédiaire de l’étape 106 d’analyse et de génération d’indicateurs de mesure de comportement observé, qui applique une métrique sur la réalisation de l’ensemble de ces éléments de comportement en relation avec leur déclenchement. Les données de comportement observé regroupent un ensemble d’éléments de comportement détectés qu’il faut assembler et organiser et en construire un regroupement sur lequel appliquer une métrique.
L’analyse 106 et l’évaluation 108 du comportement observé revient à comparer l’action qui a été produite et détectée lors de l’étape de collecte 102 par l’intermédiaire des données endogènes aux actions qui doivent être observées lors d’une situation définie par l’intermédiaire de la mesure du comportement observé comparée à une référence établie en y intégrant une tolérance. Cette comparaison utilise la base de données de correspondance qui formalise et codifie l’ensemble des éléments de référence et leur tolérance, issus de procédures, d’état de l’art, de bonne pratique.
Après avoir évalué le comportement d’au moins un opérateur, le procédé d’évaluation 100 peut initier une étape 110 consistant à évaluer chaque compétence technique et non-technique de l’au moins un opérateur en fonction des résultats des évaluations de comportement obtenus lors de l’étape 108. Ainsi, l’étape 110 détermine une métrique en combinant les différentes évaluations effectuées sur les comportements observables et leurs indicateurs de mesure de comportement observé relatifs à la compétence en question, fournissant une évaluation synthétique représentative pour l’ensemble de la compétence technique ou non technique.
Dans un mode de réalisation, le procédé d’évaluation 100 comprend, après l’étape d’évaluation 110 de compétence, une étape d’affichage 112 des évaluations des compétences techniques et non-techniques. Ainsi, afin de faciliter la lecture de l’évaluation des compétences techniques et non-techniques faites de l’au moins un opérateur, il est possible d’afficher une ou plusieurs compétences évaluées selon leur nature ou selon une échelle temporelle ou de mission permettant de contextualiser l’évaluation pour l’instructeur. Cette étape d’affichage 112 permet également d’afficher l’ensemble des données endogènes détectées mises en relation avec les données exogènes permettant de présenter de manière précise les réactions de l’au moins un opérateur en fonction de l’état de la plateforme réelle ou simulée.
A titre d’exemple, l’étape d’affichage 112 peut, pour chaque compétence, permettre l’affichage d’une ligne dédiée présentant les occurrences des données de comportement observable évaluées et datées ainsi qu’une synthèse de l’évaluation de la compétence.
Cette solution permet de mettre en relation les différentes compétences et également d’analyser les corrélations entre elles au niveau des différents comportements observés.
Pour différencier chaque compétence, un code de couleurs peut être défini associant chaque couleur à une compétence technique ou non-technique évaluée.
Pour des raisons de lisibilité ou d’intérêt de l’instructeur, chaque ligne de compétence évaluée peut être ou non affichée.
Dans un mode de réalisation, le procédé d’évaluation 100 peut comprendre une étape de stockage 114 des données endogènes, des données exogènes, des données de comportement observable, et des résultats des évaluations. Ce stockage permet d’emmagasiner des données supplémentaires permettant d’améliorer les capacités d’évaluation du procédé d’évaluation 100 en enrichissant la base de données de correspondance pour un usage ultérieur du procédé d’évaluation 1.
Par ailleurs, l’invention propose un dispositif d’évaluation 200, représenté en , de compétences techniques et non-techniques d’au moins un opérateur en situation d’entrainement sur une plateforme 200 réelle ou simulée, comprenant des moyens pour mettre en œuvre les étapes du procédé d’évaluation 100. Le dispositif d’évaluation 200 comprend un module de collecte 204 des données endogènes et des données exogènes apte à mettre en œuvre l’étape de collecte 102, un module de corrélation 206 des données endogènes et les données exogènes collectées apte à mettre en œuvre l’étape de corrélation 104, un module d’analyse 208, à partir des paramètres d’évènement déclencheur et des paramètres d’action, des données de comportement observable apte à mettre en œuvre l’étape d’analyse 106 et un module d’évaluation 210 du comportement dudit au moins un opérateur et des compétences technique et non-technique dudit au moins un opérateur apte à mettre en œuvre les étape d’évaluation du comportement 108 et de chaque compétence 110.
Le dispositif d’évaluation 200 peut comprendre d’autres modules complémentaires permettant de mettre en œuvre les étapes complémentaires du procédé d’évaluation 1.
Ainsi, le dispositif d’évaluation 200 peut comprendre un module d’affichage 212 permettant de mettre en œuvre l’étape d’affichage 112 et un module de stockage 214 permettant de mettre en œuvre l’étape de stockage 114. Le module de stockage 214 peut être un module physique présent dans le dispositif d’évaluation 200 ou être un module numérique distribué sur un serveur internet, recevant et transmettant ses données à l’aide d’un réseau internet. Cela permet à ce module d’avoir la possibilité de réaliser le traitement des données dans le cloud pour avoir accès à une importante capacité de calcul.
Le module de collecte 204 comprend également au moins un capteur d’image 216 et/ou un capteur audio (pour la détection vocale) 218 et /ou un capteur de manipulandum 220 et/ou des capteurs additionnels 222 comme par exemple un capteur physiologique de type électrocardiogramme (ECG) afin de pouvoir collecter toutes les données endogènes en provenance de l’au moins un opérateur. Le module de collecte 204 est aussi relié à la plateforme 202 réelle ou simulé afin d’avoir accès aux données exogènes.
L’invention fournit par ailleurs un produit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé d’évaluation 100 lorsque ledit programme est exécuté sur un ordinateur.
Les modes de réalisation de l’invention peuvent être mis en œuvre par divers moyens, par exemple par du matériel (‘hardware’), des logiciels, ou une combinaison de ceux-ci.
En général les routines exécutées pour mettre en œuvre les modes de réalisation de l'invention, qu'elles soient mises en œuvre dans le cadre d'un système d'exploitation ou d'une application spécifique, d'un composant, d'un programme, d'un objet, d'un module ou d'une séquence d'instructions, ou même d’un sous-ensemble de ceux-là, peuvent être désignées dans les présentes comme “code de programme informatique” ou simplement « code de programme ». Le code de programme comprend typiquement des instructions lisibles par ordinateur qui résident à divers moments dans des dispositifs divers de mémoire et de stockage dans un ordinateur et qui, lorsqu'elles sont lues et exécutées par un ou plusieurs processeurs dans un ordinateur, amènent l’ordinateur à effectuer les opérations nécessaires pour exécuter les opérations et/ou les éléments propres aux aspects variés des modes de réalisation de l'invention. Les instructions d'un programme, lisibles par ordinateur, pour réaliser les opérations des modes de réalisation de l'invention peuvent être, par exemple, le langage d'assemblage, ou encore un code source ou un code objet écrit en combinaison avec un ou plusieurs langages de programmation.

Claims (11)

  1. Procédé d’évaluation (100) de compétences techniques et non-techniques d’au moins un opérateur en situation de mission ou d’entrainement sur une plateforme réelle ou simulée, le procédé d’évaluation (100) étant mis en œuvre par ordinateur et comprenant des étapes consistant à :
    • collecter (102) des données endogènes relatives à des manifestations physiques dudit au moins un opérateur pendant une session de mission ou d’entrainement, et des données exogènes relatives au contexte de ladite session sur une plateforme réelle ou simulée ;
    • corréler (104) les données endogènes et les données exogènes collectées, et générer des données de comportement observable, une donnée de comportement observable comprenant au moins un paramètre dit d’évènement déclencheur et un paramètre dit d’action ;
    • analyser (106) à partir des paramètres d’évènement déclencheur et des paramètres d’action, les données de comportement observable selon des séquences d’analyse prédéfinies, et générer des indicateurs de mesure de comportement observé, lesdites séquences d’analyse prédéfinies étant spécifiques à chaque compétence technique et non-technique à évaluer ;
    • évaluer (108) un comportement dudit au moins un opérateur, ladite évaluation consistant à comparer chaque indicateur de mesure de comportement observé à des valeurs de comportement de référence ; et
    • évaluer (110) chaque compétence technique et non-technique dudit au moins un opérateur en fonction des résultats des évaluations de comportement obtenus.
  2. Procédé d’évaluation (100) de compétences techniques et non-techniques selon la revendication 1, dans lequel l’étape de collecte (102) de données consiste au moins à capturer des données endogènes de nature observatoire et/ou manipulatoire et/ou de communication.
  3. Procédé d’évaluation (100) de compétences techniques et non-techniques selon les revendications 1 ou 2, dans lequel l’étape de corrélation (104) de données comprend une étape consistant à déterminer (116) un événement déclencheur issu dudit au moins un opérateur, ledit événement déclencheur étant notamment la survenue d’un événement à l’origine d’une action dudit au moins un opérateur ou un délai dépassé.
  4. Procédé d’évaluation (100) de compétences techniques et non-techniques selon l’une quelconque des revendications 1 à 3, dans lequel l’étape de corrélation (104) de données comprend une étape consistant à déterminer (118) un événement déclencheur issu de la plateforme réelle ou simulée, ledit événement déclencheur étant la survenue d’un événement à l’origine d’un changement d’état de la plateforme.
  5. Procédé d’évaluation (100) de compétences techniques et non-techniques selon la revendication 3 ou 4, dans lequel l’étape consistant à déterminer un événement déclencheur, comprend une étape de détection (120) d’événements déclencheurs issus dudit au moins un opérateur ou de ladite plateforme, et une étape de sélection (122) d’au moins un événement déclencheur.
  6. Procédé d’évaluation (100) de compétences techniques et non-techniques selon l’une quelconque des revendications 1 à 5 dans lequel l’étape d’analyse (106) comprend une étape de comparaison (124) des données endogènes à une base de donnée de correspondance présentant des données de comportement observable ainsi que leurs manifestations physiques allouées.
  7. Procédé d’évaluation (100) de compétences techniques et non-techniques selon l’une quelconque des revendications 1 à 6, comprenant de plus, après l’étape d’évaluation (110) de compétence, une étape d’affichage (112) des évaluations des compétences techniques et non-techniques.
  8. Procédé d’évaluation (100) de compétences techniques et non-techniques selon l’une quelconque des revendications 1 à 7, comprenant une étape de stockage (114) des données endogènes, des données exogènes, des données de comportement observable, et des résultats des évaluations.
  9. Dispositif d’évaluation (200) de compétences techniques et non-techniques d’au moins un opérateur en situation d’entrainement sur une plateforme (202) réelle ou simulée, le dispositif d’évaluation (200) comprenant des moyens pour mettre en œuvre les étapes du procédé d’évaluation (100) selon l’une quelconque des revendications 1 à 8.
  10. Simulateur de vol comprenant un dispositif d’évaluation selon la revendication 9.
  11. Produit programme d’ordinateur, ledit programme d’ordinateur comprenant des instructions de code permettant d’effectuer les étapes du procédé selon l'une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté sur un ordinateur.
FR2101200A 2021-02-09 2021-02-09 Dispositif et procédé d'évaluation des compétences Pending FR3119699A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR2101200A FR3119699A1 (fr) 2021-02-09 2021-02-09 Dispositif et procédé d'évaluation des compétences
CN202280014208.1A CN116830178A (zh) 2021-02-09 2022-02-07 用于评估技能的设备和方法
EP22707644.5A EP4292072A1 (fr) 2021-02-09 2022-02-07 Dispositif et procede d'evaluation des competences
PCT/EP2022/052860 WO2022171563A1 (fr) 2021-02-09 2022-02-07 Dispositif et procede d'evaluation des competences
US18/276,032 US20240105076A1 (en) 2021-02-09 2022-02-07 Device and method for evaluating skills

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2101200 2021-02-09
FR2101200A FR3119699A1 (fr) 2021-02-09 2021-02-09 Dispositif et procédé d'évaluation des compétences

Publications (1)

Publication Number Publication Date
FR3119699A1 true FR3119699A1 (fr) 2022-08-12

Family

ID=77519139

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2101200A Pending FR3119699A1 (fr) 2021-02-09 2021-02-09 Dispositif et procédé d'évaluation des compétences

Country Status (5)

Country Link
US (1) US20240105076A1 (fr)
EP (1) EP4292072A1 (fr)
CN (1) CN116830178A (fr)
FR (1) FR3119699A1 (fr)
WO (1) WO2022171563A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115471377B (zh) * 2022-09-14 2024-02-13 上海安洵信息技术有限公司 一种人才赋能管理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10755591B2 (en) 2016-12-09 2020-08-25 The Boeing Company Electronic device and method for debriefing evidence-based training sessions
FR3098389A1 (fr) * 2019-07-11 2021-01-15 Thales Dispositif et procede d'analyse du comportement d'un sujet

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10755591B2 (en) 2016-12-09 2020-08-25 The Boeing Company Electronic device and method for debriefing evidence-based training sessions
FR3098389A1 (fr) * 2019-07-11 2021-01-15 Thales Dispositif et procede d'analyse du comportement d'un sujet

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L'IATA, EVIDENCE-BASED TRAINING IMPLEMENTATION GUIDE, July 2013 (2013-07-01)
L'ICAO: "Manuel of Evidence-Based Training", 2013

Also Published As

Publication number Publication date
EP4292072A1 (fr) 2023-12-20
CN116830178A (zh) 2023-09-29
WO2022171563A1 (fr) 2022-08-18
US20240105076A1 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
US10984674B2 (en) System and method to teach and evaluate image grading performance using prior learned expert knowledge base
EP0292381B1 (fr) Procédé d'élaboration d'un modèle statistique pour déterminer la charge de travail d'un pilote d'aéronef, modèle en résultant, dispositif pour la mise en oeuvre de ce procédé et applications du modèle
US20180232567A1 (en) Interactive and adaptive training and learning management system using face tracking and emotion detection with associated methods
US9141924B2 (en) Generating recommendations for staffing a project team
US10002311B1 (en) Generating an enriched knowledge base from annotated images
US20200178876A1 (en) Interactive and adaptive learning, neurocognitive disorder diagnosis, and noncompliance detection systems using pupillary response and face tracking and emotion detection with associated methods
US10311743B2 (en) Systems and methods for providing a multi-modal evaluation of a presentation
US11475788B2 (en) Method and system for evaluating and monitoring compliance using emotion detection
FR2989181A1 (fr) Procede et dispositif d'adaptation de l'interface homme-machine d'un aeronef selon le niveau de l'etat fonctionnel du pilote
Hijazi et al. iReview: An intelligent code review evaluation tool using biofeedback
EP4292072A1 (fr) Dispositif et procede d'evaluation des competences
Schunn et al. The psychology of uncertainty in scientific data analysis
WO2021004799A1 (fr) Dispositif et procede d'analyse du comportement d'un sujet
US20230105077A1 (en) Method and system for evaluating and monitoring compliance, interactive and adaptive learning, and neurocognitive disorder diagnosis using pupillary response, face tracking emotion detection
WO2007012723A2 (fr) Procédé et système de modélisation d'une interface entre un utilisateur et son environnement à bord d'un véhicule
Mehrubeoglu et al. Capturing reading patterns through a real-time smart camera iris tracking system
US20210158214A1 (en) Method of performing a process using artificial intelligence
Becerra et al. M2LADS: A System for Generating MultiModal Learning Analytics Dashboards in Open Education
De Bruin Automated usability analysis and visualisation of eye tracking data
US11568757B1 (en) Affective, behavioral, and cognitive processes data collection
Argel et al. Intellitell: A Web-based Storytelling Platform for Emotion Recognition with Machine Learning
EP1915591A1 (fr) Procede de traitement de donnees en vue de la determination de motifs visuels dans une scene visuelle
US20230022601A1 (en) Method, system and computer program product for mapping a visual field
Rowe et al. It’s all about the process: building sensor-driven emotion detectors with GIFT
WO2022268865A1 (fr) Procede et dispositif d'analyse predictive du comportement d'un operateur en interaction avec un systeme complexe

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220812

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4