FR2957170A1 - Equipment monitoring system designing tool for engine of aircraft, involves processing unit evaluating quantification of monitoring system based on quality value of result corresponding to output quality value associated with output module - Google Patents

Equipment monitoring system designing tool for engine of aircraft, involves processing unit evaluating quantification of monitoring system based on quality value of result corresponding to output quality value associated with output module Download PDF

Info

Publication number
FR2957170A1
FR2957170A1 FR1051528A FR1051528A FR2957170A1 FR 2957170 A1 FR2957170 A1 FR 2957170A1 FR 1051528 A FR1051528 A FR 1051528A FR 1051528 A FR1051528 A FR 1051528A FR 2957170 A1 FR2957170 A1 FR 2957170A1
Authority
FR
France
Prior art keywords
module
output
quality
monitoring system
quality value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1051528A
Other languages
French (fr)
Other versions
FR2957170B1 (en
Inventor
Jerome Henri Noel Lacaille
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Aircraft Engines SAS
Original Assignee
SNECMA SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SNECMA SAS filed Critical SNECMA SAS
Priority to FR1051528A priority Critical patent/FR2957170B1/en
Publication of FR2957170A1 publication Critical patent/FR2957170A1/en
Application granted granted Critical
Publication of FR2957170B1 publication Critical patent/FR2957170B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0213Modular or universal configuration of the monitoring system, e.g. monitoring system having modules that may be combined to build monitoring program; monitoring system that can be applied to legacy systems; adaptable monitoring system; using different communication protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design

Abstract

The tool has an information processing unit (9) e.g. computer or logic controller, to calculate an output quality value of an input module corresponding to a data acquisition module, based on a transfer function associating imprecision of output in response to imprecision of input by using an intrinsic quality indicator, with the input module. The processing unit evaluates quantification of an equipment monitoring system (11) based on a quality value of a diagnosis result that corresponds to the quality value associated with an output module corresponding to an abnormality evaluation module. An independent claim is also included for a system for monitoring an equipment of an engine of an aircraft, comprising a data acquisition module.

Description

OUTIL DE CONCEPTION D'UN SYSTÈME DE SURVEILLANCE D'UN MOTEUR D'AÉRONEF DESIGN TOOL FOR AN AIRCRAFT ENGINE MONITORING SYSTEM

DOMAINE TECHNIQUE La présente invention concerne le domaine de systèmes de surveillance d'un moteur d'un aéronef et plus particulièrement, d'un outil de conception d'un système de surveillance d'un équipement du moteur d'aéronef. TECHNICAL FIELD The present invention relates to the field of aircraft engine monitoring systems and more particularly to a tool for designing a surveillance system for an aircraft engine equipment.

ÉTAT DE LA TECHNIQUE ANTÉRIEURE La surveillance ou la détection d'anomalie d'un moteur d'aéronef est très importante pour la sécurité de l'aéronef. On utilise des systèmes de surveillance pour vérifier le bon fonctionnement des différents équipements du moteur d'aéronef. Il existe par exemple, un système de surveillance pour analyser le comportement du moteur pendant le processus d'allumage, un autre pour analyser la trajectoire des gaz, un autre encore pour détecter le colmatage des filtres, et un autre pour analyser la consommation d'huile, etc. STATE OF THE PRIOR ART The monitoring or the detection of anomaly of an aircraft engine is very important for the safety of the aircraft. Monitoring systems are used to verify the proper operation of the various aircraft engine equipment. For example, there is a monitoring system for analyzing the behavior of the engine during the ignition process, another for analyzing the gas trajectory, another for detecting filter clogging, and another for analyzing fuel consumption. oil, etc.

Tous ces systèmes de surveillance permettent d'améliorer la sécurité et la fiabilité des moteurs d'aéronef. En particulier, ils permettent d'éviter ou de limiter l'arrêt en vol (in-flight shutdown IFSD), de réduire les retards ou annulation des vols (delays and cancellations D&C), et plus particulièrement, facilitent la maintenance du moteur en anticipant les défaillances et en identifiant les composants fautifs ou défaillants. 2 Cependant, la conception de chaque système de surveillance nécessite des moyens spécifiques et complexes pour résoudre les différents aspects techniques de la surveillance liée à chaque équipement particulier du moteur. Pour cela il faut construire un modèle spécifique à l'équipement surveillé et gérer des données de test et de validation correspondant à cet équipement du moteur. Ainsi, pour chaque équipement, il faut déployer beaucoup de ressources et de temps pour modéliser, développer, et valider le système de surveillance correspondant. En particulier, la validation d'un système de surveillance est une étape qui nécessite de manipuler un très grand nombre de données qui réclament un important temps de calcul afin de les analyser. En outre, il est important de bien choisir les indicateurs de validation afin d'éviter qu'une anomalie soit signalée par erreur ou qu'un élément du moteur soit en défaut sans que l'événement soit décelé. All of these monitoring systems improve the safety and reliability of aircraft engines. In particular, they make it possible to avoid or limit the IFSD (in-flight shutdown), to reduce delays or cancellation of flights (D & C delays and cancellations), and more particularly, facilitate engine maintenance by anticipating failures and identifying faulty or faulty components. However, the design of each monitoring system requires specific and complex means to solve the different technical aspects of the monitoring related to each particular engine equipment. To do this, it is necessary to build a model specific to the monitored equipment and to manage test and validation data corresponding to this engine equipment. Thus, for each equipment, it is necessary to deploy a lot of resources and time to model, develop, and validate the corresponding monitoring system. In particular, the validation of a monitoring system is a step that requires handling a very large number of data that require a significant amount of computing time to analyze them. In addition, it is important to choose the validation indicators in order to avoid that an anomaly is reported by mistake or that an element of the engine is in default without the event being detected.

De plus, il peut arriver que le niveau de validation d'un système de surveillance soit différent de celui d'un autre système de surveillance. Ceci peut compliquer l'analyse des données issues des différents systèmes de surveillance du moteur. In addition, it may happen that the validation level of a surveillance system is different from that of another surveillance system. This can complicate the analysis of data from different engine monitoring systems.

L'objet de la présente invention est de proposer un outil de conception d'un système de surveillance d'un équipement du moteur d'aéronef permettant de définir un environnement de modalisation qui soit indépendant du contexte applicatif tout en permettant une validation fiable de manière simple et 3 une réutilisation des éléments destinés à des taches différentes. The object of the present invention is to propose a tool for designing an aircraft engine equipment monitoring system that makes it possible to define a modalization environment that is independent of the application context while allowing reliable validation in a manner that simple and 3 reuse elements for different stains.

EXPOSÉ DE L'INVENTION La présente invention est définie par un outil de conception d'un système de surveillance d'au moins un équipement d'un moteur d'aéronef, ledit système de surveillance étant configuré pour recevoir des mesures spécifiques audit équipement et pour délivrer un résultat diagnostiquant l'état dudit équipement, comportant : - des moyens pour construire ledit système de surveillance selon une structure assemblant une chaîne de modules dédiés à des tâches particulières dudit système de surveillance et comprenant au moins un module d'entrée, au moins un module intermédiaire, et au moins un module de sortie, lesdits modules étant munis d'interfaces d'entrée-sortie leur permettant de communiquer entre eux et/ou avec ledit équipement et son environnement, chacun desdits modules étant configuré pour recevoir via son interface d'entrée, une entrée et une valeur de qualité d'entrée DQV associée à ladite entrée, et pour délivrer sur son interface de sortie, une sortie correspondant à une sévérité et une valeur de qualité de sortie PQV associée à ladite sortie, - des moyens pour attribuer une valeur de qualité auxdites mesures spécifiques qui correspondent à l'entrée associée audit au moins un module d'entrée, - des moyens pour calculer pour chacun desdits modules, la valeur de qualité de sortie PQV 4 dudit module selon une fonction de transfert associant une imprécision de la sortie en réponse à une imprécision de l'entrée en utilisant au moins un indicateur de qualité intrinsèque audit module, et - des moyens pour évaluer une qualification du système de surveillance en fonction d'une valeur de qualité dudit résultat qui correspond à la valeur de qualité de la sortie PQV associée audit au moins un module de sortie. Ainsi, l'outil de conception permet de valider la structure de modules génériques indépendants du contexte applicatif et collaborant entre eux pour définir un système de surveillance spécifique à un équipement particulier du moteur. Avantageusement, l'outil de conception comporte des moyens pour pondérer la valeur de qualité de sortie de chacun des modules et pour déterminer une note de qualité structurelle globale en fonction desdites valeurs pondérées. 20 Ainsi, on obtient plus de précision sur la validation structurelle du système de surveillance. Selon un premier mode de réalisation, ledit indicateur de qualité structurelle correspond à un indicateur d'estimation de variance de l'imprécision de 25 la sortie générée en réponse à une entrée bruitée lors d'un apprentissage dudit module. Ceci permet de valider, de manière générique, la qualité structurelle de chaque module. Selon un deuxième mode de réalisation, ledit 30 indicateur de qualité structurelle correspond à un indicateur d'adéquation AQV définissant la mesure d'une 10 15 distance entre l'entrée dudit module et une entrée de calibrage définie lors d'un apprentissage dudit module. Cet indicateur d'adéquation AQV mesure l'accord entre les données d'entrée courantes et les données 5 d'entrée observées lors du calibrage du module et donne ainsi une indication sur son niveau d'obsolescence. Selon un deuxième mode de réalisation, ledit indicateur de qualité structurelle correspond à un indicateur de robustesse MQV mesurant une capacité d'utilisation du module face à des nouvelles entrées, l'indicateur de robustesse étant déterminé lors d'un apprentissage dudit module. L'indicateur de robustesse est une information de qualité a priori qui donne une mesure de ce que le module a l'habitude de répondre comme qualité. Avantageusement, la valeur de qualité de sortie PQV dudit module est calculée en combinant au moins deux indicateurs parmi lesdits indicateurs d'estimation de variance, d'adéquation AQV, et de robustesse MQV. PRESENTATION OF THE INVENTION The present invention is defined by a tool for designing a system for monitoring at least one equipment of an aircraft engine, said surveillance system being configured to receive measurements specific to said equipment and to delivering a result diagnosing the state of said equipment, comprising: means for constructing said monitoring system in a structure assembling a chain of modules dedicated to particular tasks of said surveillance system and comprising at least one input module, at least an intermediate module, and at least one output module, said modules being provided with input-output interfaces enabling them to communicate with each other and / or with said equipment and its environment, each of said modules being configured to receive via its interface input, an input and a DQV input quality value associated with said input, and to output on its own output interface, an output corresponding to a severity and a PQV output quality value associated with said output, - means for assigning a quality value to said specific measurements that correspond to the input associated with said at least one input module means for calculating, for each of said modules, the output quality value PQV 4 of said module according to a transfer function associating an inaccuracy of the output in response to an inaccuracy of the input by using at least one intrinsic quality indicator said module, and - means for evaluating a qualification of the monitoring system according to a quality value of said result which corresponds to the quality value of the PQV output associated with said at least one output module. Thus, the design tool makes it possible to validate the structure of generic modules independent of the application context and collaborating with each other to define a specific monitoring system for a particular piece of equipment of the engine. Advantageously, the design tool comprises means for weighting the output quality value of each of the modules and for determining an overall structural quality score as a function of said weighted values. Thus, more precision is obtained on the structural validation of the monitoring system. According to a first embodiment, said structural quality indicator corresponds to a variance estimation indicator of the imprecision of the output generated in response to a noisy input during a learning of said module. This makes it possible to validate, in a generic way, the structural quality of each module. According to a second embodiment, said structural quality indicator corresponds to an adequacy indicator AQV defining the measurement of a distance between the input of said module and a calibration input defined during a learning of said module. This AQV adequacy indicator measures the agreement between the current input data and the input data observed during the calibration of the module and thus gives an indication of its level of obsolescence. According to a second embodiment, said structural quality indicator corresponds to an MQV robustness indicator measuring a capacity of use of the module vis-à-vis new inputs, the robustness indicator being determined during a learning of said module. The robustness indicator is information of a priori quality which gives a measure of what the module is used to answer as quality. Advantageously, the PQV output quality value of said module is calculated by combining at least two of said indicators for estimating variance, AQV matching, and MQV robustness.

Ceci permet d'augmenter la précision de la qualité interne de chaque module et donc d'augmenter la fiabilité de la validation structurelle du système de surveillance. Avantageusement, l'outil de conception comporte des moyens pour appliquer au moins un indicateur de qualité de données sur un résultat dudit système de surveillance obtenu à partir des mesures spécifiques connues comprenant des fautes connues pour vérifier la détection desdites fautes. This makes it possible to increase the accuracy of the internal quality of each module and thus to increase the reliability of the structural validation of the monitoring system. Advantageously, the design tool comprises means for applying at least one data quality indicator to a result of said monitoring system obtained from the known specific measures including faults known to verify the detection of said faults.

Ceci permet de qualifier la qualité du résultat et par conséquent, en combinaison avec la qualification 6 structurelle, permet de complètement valider le système de surveillance et donne une indication sur l'efficacité et le niveau de maturation du système. Selon un premier exemple, l'indicateur de qualité de données est une mesure d'une probabilité de détection POD définie comme étant la probabilité de détecter une faute quand l'équipement surveillé présente une anomalie, et qui est déterminé selon une contrainte d'un taux prédéterminé de fausse alarme PFA défini comme étant la probabilité que l'équipement surveillé est sain quand le système de surveillance détecte une faute. La probabilité de détection POD permet de valider avec une grande fiabilité le résultat du 15 système de surveillance. Selon un deuxième exemple, l'indicateur de qualité de données est une mesure d'un taux de localisation PCL définie comme étant la probabilité qu'une localisation est bonne lorsqu'une anomalie de 20 l'équipement est observée. Le taux ou probabilité de localisation PCL est une information de qualité de classification qui permet de valider avec une grande efficacité le résultat du système de surveillance. 25 Avantageusement, l'outil de conception comporte des moyens pour calculer un indicateur de qualité de corrélation CQV dudit système de surveillance en calculant une corrélation entre la valeur de qualité de sortie PQV et une fonction liée audit indicateur de 30 qualité de données. 7 Ceci permet d'augmenter encore davantage la fiabilité de la validation du système de surveillance en réalisant une synthèse entre sa validation structurelle et sa validation de résultat. This qualifies the quality of the result and therefore, in combination with the structural qualification, allows complete validation of the monitoring system and gives an indication of the efficiency and level of maturation of the system. According to a first example, the data quality indicator is a measure of a POD detection probability defined as being the probability of detecting a fault when the monitored equipment has an anomaly, and which is determined according to a constraint of a predetermined false alarm rate PFA defined as the probability that the monitored equipment is healthy when the monitoring system detects a fault. The probability of detection POD makes it possible to validate with great reliability the result of the surveillance system. In a second example, the data quality indicator is a measure of a PCL location rate defined as being the probability that a location is good when an anomaly of the equipment is observed. The PCL location rate or probability is a classification quality information that makes it possible to validate the result of the monitoring system with great efficiency. Advantageously, the design tool includes means for calculating a CQV correlation quality indicator of said monitoring system by calculating a correlation between the output quality value PQV and a function related to said data quality indicator. This makes it possible to further increase the reliability of the validation of the monitoring system by performing a synthesis between its structural validation and its result validation.

Avantageusement, l'outil de conception comporte des moyens pour calculer un indicateur de taux de couverture de fautes CVR défini en fonction d'une probabilité a priori d'apparition de chaque faute et d'un volume de données nécessaires pour couvrir ladite chaque faute. Ainsi, le taux de couverture de fautes peut être utilisé pour moduler certains indicateurs de qualité de données permettant de confirmer la validation du système de surveillance. Advantageously, the design tool comprises means for calculating a CVR fault coverage rate indicator defined as a function of a prior probability of occurrence of each fault and a volume of data necessary to cover said each fault. Thus, the fault coverage rate can be used to modulate some data quality indicators to confirm the validation of the monitoring system.

Avantageusement, l'outil de conception comporte des moyens pour calculer un indicateur de qualité de généricité mesurant un niveau de généricité de chacun desdits modules utilisés dans la composition dudit système de surveillance. Advantageously, the design tool comprises means for calculating a genericity quality indicator measuring a level of genericity of each of said modules used in the composition of said monitoring system.

L'indicateur de qualité de généricité donne une information supplémentaire sur la validation du système de surveillance. Avantageusement, l'outil de conception comporte des moyens pour calculer un indicateur de pertinence globale du système de surveillance en fonction d'une note de pertinence et d'une pondération associées à chacun desdits modules. La pertinence globale permet d'apporter une information sur la performance du système de surveillance. 8 L'invention vise également un système de surveillance d'au moins un équipement d'un moteur d'aéronef conçu par l'outil de conception selon les caractéristiques ci-dessus et comportant : au moins un module d'acquisition de données configuré pour recevoir via son interface d'entrée des mesures spécifiques IN1 et une valeur de qualité DQV1 associée auxdites mesures spécifiques, et pour délivrer sur son interface de sortie des données spécifiques OUT1 et une valeur de qualité de sortie PQV1 associée auxdites données spécifiques, un module de normalisation configuré pour recevoir via son interface d'entrée, lesdites données spécifiques et ladite valeur de qualité de sortie correspondante et pour délivrer sur son interface de sortie des données standardisées OUT2 et une valeur de qualité PQV2 associée auxdites données standardisées, un module de détection d'anomalie configuré pour recevoir via son interface d'entrée, lesdites données standardisées et ladite valeur de qualité associée aux données standardisées et pour délivrer sur son interface de sortie, un vecteur d'anomalie OUT3 et une valeur de qualité PQV3 associée audit vecteur d'anomalie, et un module de classification configuré pour recevoir via son interface d'entrée, ledit vecteur d'anomalie et ladite valeur de qualité associée au vecteur d'anomalie et pour délivrer sur via son interface de sortie, une mesure d'identification de défaillances OUT4 et une valeur de qualité PQV4 associée à ladite mesure d'identification. 9 BRÈVE DESCRIPTION DES DESSINS La Fig. 1 illustre des moyens matériels mis en oeuvre dans un système de surveillance d'un équipement d'un moteur d'aéronef, selon l'invention ; La Fig. 2 illustre de manière schématique un outil de conception du système de surveillance de la Fig. 1 ; La Fig. 3 illustre de manière schématique un 10 module pouvant être utilisé dans le système de surveillance de la Fig. 1 ; La Fig. 4 illustre un exemple de distribution de probabilités de bonne et mauvaise santé d'un équipement du moteur d'aéronef, selon l'invention ; et 15 La Fig. 5 illustre un exemple d'un système de surveillance de la Fig. 1. EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS La Fig. 1 illustre des moyens matériels mis en 20 oeuvre dans le système de surveillance d'un équipement d'un moteur d'aéronef, selon l'invention. Ces moyens matériels 1 comportent des capteurs 3 pour mesurer des données concernant un équipement particulier 5 du moteur d'aéronef 7 et son 25 environnement et des moyens de traitement 9 de l'information tel un calculateur ou ordinateur pour l'exécution d'un ou de plusieurs programmes d'ordinateur comprenant des instructions de code de programme, stockés dans les moyens de stockage de 10 l'ordinateur et conçus pour mettre en oeuvre un système de surveillance 11 de l'équipement 5. Le système de surveillance 11 est configuré pour recevoir des mesures spécifiques à l'équipement 5 et pour délivrer un résultat diagnostiquant l'état de cet équipement 7. Plus particulièrement, le système de surveillance 11 est configuré pour recueillir et numériser les mesures spécifiques acquises par les capteurs 3 sur l'équipement 5 du moteur 7 et son environnement. Le système de surveillance 11 est configuré aussi pour définir des variables spécifiques donnant des indications sur des éléments physiques ou logiques de l'équipement 5. The genericity quality indicator provides additional information on the validation of the monitoring system. Advantageously, the design tool comprises means for calculating a global relevance indicator of the surveillance system according to a relevance score and a weighting associated with each of said modules. Overall relevance provides information on the performance of the surveillance system. The invention also relates to a system for monitoring at least one equipment of an aircraft engine designed by the design tool according to the above characteristics and comprising: at least one data acquisition module configured to receiving, via its input interface, specific measurements IN1 and a quality value DQV1 associated with said specific measurements, and for delivering on its output interface specific data OUT1 and an output quality value PQV1 associated with said specific data, a module of standardization configured to receive via said input interface, said specific data and said corresponding output quality value and to output on its output interface standardized data OUT2 and a quality value PQV2 associated with said standardized data, a detection module anomaly configured to receive via its input interface, said standardized data and the said quality value associated with the standardized data and for delivering on its output interface, an abnormality vector OUT3 and a quality value PQV3 associated with said anomaly vector, and a classification module configured to receive via its input interface , said abnormality vector and said quality value associated with the anomaly vector and for outputting via its output interface, a fault identification measurement OUT4 and a quality value PQV4 associated with said identification measurement. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates hardware means implemented in a monitoring system of an aircraft engine equipment, according to the invention; Fig. 2 schematically illustrates a design tool of the monitoring system of FIG. 1; Fig. 3 schematically illustrates a module that can be used in the monitoring system of FIG. 1; Fig. 4 illustrates an example of distribution of probabilities of good and bad health of aircraft engine equipment, according to the invention; and FIG. 5 illustrates an example of a monitoring system of FIG. 1. DETAILED DESCRIPTION OF PARTICULAR EMBODIMENTS FIG. 1 illustrates hardware means implemented in the monitoring system of an aircraft engine equipment, according to the invention. These material means 1 comprise sensors 3 for measuring data relating to a particular piece of equipment of the aircraft engine 7 and its environment, and information processing means 9 such as a computer or computer for carrying out one or more of a plurality of computer programs comprising program code instructions stored in the storage means of the computer and adapted to implement a monitoring system 11 of the equipment 5. The monitoring system 11 is configured to receiving equipment-specific measurements 5 and providing a result diagnosing the state of this equipment 7. More particularly, the monitoring system 11 is configured to collect and digitize the specific measurements acquired by the sensors 3 on the equipment 5 of the engine 7 and its environment. The monitoring system 11 is also configured to define specific variables giving indications on physical or logical elements of the equipment 5.

Le système de surveillance 11 peut aussi être configuré pour standardiser ou normaliser ces variables spécifiques et pour construire des signatures ou vecteur d'anomalies représentatives du comportement de l'équipement 5. The monitoring system 11 can also be configured to standardize or standardize these specific variables and to construct signatures or vectors of anomalies representative of the behavior of the equipment 5.

Le système de surveillance 11 est configuré aussi pour évaluer des scores afin de diagnostiquer ou de détecter si la signature d'anomalie révèle une anomalie. Selon la valeur du score par rapport à un seuil prédéfini, le système de surveillance 11 est configuré pour générer ou pas une alarme indiquant qu'une anomalie est détectée. Le système de surveillance 11 peut aussi être configuré pour identifier ou classifier les anomalies détectées. The monitoring system 11 is also configured to evaluate scores to diagnose or detect whether the anomaly signature reveals an abnormality. Depending on the value of the score relative to a predefined threshold, the monitoring system 11 is configured to generate or not an alarm indicating that an anomaly is detected. The monitoring system 11 may also be configured to identify or classify the detected anomalies.

Ainsi, selon le type d'application, le système de surveillance 11 est configuré pour réaliser 11 plusieurs tâches pouvant comprendre l'acquisition des données, la normalisation des données, la détection d'anomalies, et éventuellement la classification des anomalies détectées. Thus, depending on the type of application, the monitoring system 11 is configured to perform several tasks that may include data acquisition, data normalization, anomaly detection, and possibly the classification of detected anomalies.

La Fig. 2 illustre de manière schématique un outil de conception du système de surveillance 11 d'un équipement 5 du moteur d'aéronef 7, selon l'invention. L'outil de conception comporte les moyens de traitement 9 de l'information comprenant les moyens que l'on trouve habituellement dans un ordinateur : une unité centrale 9a, des moyens de stockage 9b, des périphériques d'entrées 9c ainsi que des périphériques de sorties 9d. Les moyens de traitement 9 sont utilisés pour construire le système de surveillance 11 selon un assemblage de différentes composantes ou éléments qu'on appellera « modules » 13a-13x dédiés à des tâches particulières du système de surveillance 11. En effet, les moyens de stockage 9b comprennent une pluralité de modules 13a-13x qui peuvent être accessibles par exemple, depuis une représentation graphique interactive et où chaque module indique les tâches spécifiques ou fonctions exécutables qu'il utilise. Fig. 2 schematically illustrates a design tool of the monitoring system 11 of an equipment 5 of the aircraft engine 7, according to the invention. The design tool comprises the information processing means 9 comprising the means that are usually found in a computer: a central unit 9a, storage means 9b, input peripherals 9c and peripheral devices. 9d outlets. The processing means 9 are used to construct the monitoring system 11 according to an assembly of different components or elements that will be called "modules" 13a-13x dedicated to particular tasks of the monitoring system 11. In fact, the storage means 9b comprise a plurality of modules 13a-13x which can be accessed for example from an interactive graphical representation and where each module indicates the specific tasks or executable functions that it uses.

Ainsi, le système de surveillance 11 peut être construit selon une structure assemblant une chaîne de modules 13 sélectionnés parmi la pluralité de modules 13a-13x selon les tâches particulières du système de surveillance. Thus, the monitoring system 11 can be constructed according to a structure assembling a chain of modules 13 selected from the plurality of modules 13a-13x according to the particular tasks of the monitoring system.

La chaîne de modules 13 comprend au moins un module d'entrée 13a à 13c, au moins un module de sortie 12 13f et 13g, et éventuellement un ou plusieurs modules intermédiaires 13d et 13e. Il existe des modules pour toutes les tâches nécessaires à la surveillance et détection des anomalies. Par exemple, quelques modules peuvent être spécialisés pour l'acquisition des données, d'autres pour des tâches d'arithmétique, encore d'autres pour faire un filtrage ou pour l'exploitation des données stochastiques, etc. The module chain 13 comprises at least one input module 13a to 13c, at least one output module 12 13f and 13g, and optionally one or more intermediate modules 13d and 13e. There are modules for all tasks required for monitoring and troubleshooting. For example, some modules may be specialized for data acquisition, others for arithmetic tasks, others for filtering or for the exploitation of stochastic data, etc.

La Fig. 3 illustre de manière schématique un module 13i pouvant être utilisé dans le système de surveillance 11, selon l'invention. Chaque module intègre des fonctions algorithmiques qui sont appelées quand c'est nécessaire. En fait, il peut exister une fonction pour initialiser l'état du module, une autre pour faire le calibrage, d'autres fonctions pour l'exécution de l'algorithme et éventuellement une autre pour tracer les résultats. Fig. 3 schematically illustrates a module 13i that can be used in the monitoring system 11, according to the invention. Each module integrates algorithmic functions that are called when necessary. In fact, there may be a function to initialize the state of the module, another to do the calibration, other functions for the execution of the algorithm and possibly another to plot the results.

A titre d'exemple non limitatif utilisable dans le cadre de la présente invention, on peut citer la structure des modules décrite par l'auteur de la présente invention J. Lacaille dans une publication intitulé « A Maturation Environment to Develop and Manage Health Monitoring Algorithms », PHM 2009, San Diego, CA. Chaque module 13i est muni d'une interface d'entrée 13i1 et d'une interface de sortie 13i2 lui permettant de communiquer avec au moins un autre module et/ou avec les capteurs 3 et/ou avec les périphériques de sortie 9d. Chacun des modules 13i est configuré pour 13 recevoir via son interface d'entrée 13i1, une entrée IN (Input) et une valeur de qualité d'entrée DQV (Data Quality Value) associée à l'entrée IN, et pour délivrer sur son interface de sortie 13i2, une sortie Out (Output) correspondant à une sévérité (Risk) et une valeur de qualité de sortie (c'est-à-dire, une valeur de qualité de la sévérité) PQV (Predictive Quality Value) associée à la sortie OUT. Ainsi, les interfaces d'entrée-sortie 13i1-13i2 permettent aux modules 13 de communiquer entre eux ou avec l'extérieur. Plus particulièrement, un module d'entrée 13a correspond à un module d'acquisition de données configuré pour recevoir via son interface d'entrée 13a1, une entrée IN1 correspondant à des mesures spécifiques à l'équipement 5 et son environnent en provenance des capteurs 3. Le module d'entrée 13a est configuré pour recevoir aussi via son interface d'entrée une valeur de qualité d'entrée DQV1 associée aux mesures spécifiques. En particulier, les moyens de traitement 9 attribuent une valeur de qualité DQV1 prédéterminée aux mesures spécifiques. Par exemple, au départ, les moyens de traitement 9 attribuent une valeur de qualité DQV1 égale à un (DQV1=1) aux mesures spécifiques. As a nonlimiting example that can be used in the context of the present invention, mention may be made of the structure of the modules described by the author of the present invention J. Lacaille in a publication entitled "A Maturation Environment to Develop and Manage Health Monitoring Algorithms". , PHM 2009, San Diego, CA. Each module 13i is provided with an input interface 13i1 and an output interface 13i2 enabling it to communicate with at least one other module and / or with the sensors 3 and / or with the output peripherals 9d. Each of the modules 13i is configured to receive, via its input interface 13i1, an input IN and a value of input quality DQV (Data Quality Value) associated with the input IN, and to deliver on its interface output 13i2, an Out (Output) output corresponding to a severity (Risk) and an output quality value (i.e., a quality of severity value) PQV (Predictive Quality Value) associated with the OUT output. Thus, the input-output interfaces 13i1-13i2 allow the modules 13 to communicate with each other or with the outside. More particularly, an input module 13a corresponds to a data acquisition module configured to receive via its input interface 13a1, an input IN1 corresponding to measurements specific to the equipment 5 and its environment from the sensors 3 The input module 13a is configured to also receive via its input interface an input quality value DQV1 associated with the specific measurements. In particular, the processing means 9 assign a predetermined quality value DQV1 to the specific measurements. For example, at the outset, the processing means 9 assign a quality value DQV1 equal to one (DQV1 = 1) to the specific measurements.

Chaque module est responsable de ses données de sortie. Ainsi, le module d'entrée 13a délivre sur son interface de sortie 13a2, une sortie OUT1 et une valeur de qualité de la sortie PQV1 qui sont récupérées par le module suivant 13d via son interface d'entrée 13d1. De module en module, on arrive au dernier (ou derniers) 14 module(s) 13f, 13g de la chaîne 13 correspondant au module(s) de sortie. Plus particulièrement, un module de sortie peut correspondre à un module d'évaluation d'anomalies 13f ou un module de classification 13g. Par exemple, le module 13f est configuré pour recevoir via son interface d'entrée 13f1, une entrée IN4 (correspondant à la sortie du module précédent : IN4=0UT3) et une valeur de qualité d'entrée DQV4 (correspondant à la valeur de qualité de sortie du module précédent : DQV4=PQV3) en provenance du module précédent 13e et pour délivrer via son interface de sortie 13f2, une sortie OUT4 correspondant au résultat du système de surveillance et une valeur de qualité du résultat PQV4. Each module is responsible for its output data. Thus, the input module 13a delivers on its output interface 13a2, an output OUT1 and a quality value of the output PQV1 which are retrieved by the next module 13d via its input interface 13d1. From module to module, we arrive at the last (or last) 14 module (s) 13f, 13g of the chain 13 corresponding to the module (s) output. More particularly, an output module may correspond to an anomaly evaluation module 13f or a classification module 13g. For example, the module 13f is configured to receive via its input interface 13f1, an input IN4 (corresponding to the output of the previous module: IN4 = 0UT3) and an input quality value DQV4 (corresponding to the quality value output of the previous module: DQV4 = PQV3) from the previous module 13e and to deliver via its output interface 13f2, an output OUT4 corresponding to the result of the monitoring system and a quality value of the result PQV4.

Le résultat OUT4 du système de surveillance 11 est un diagnostic de l'anomalie ; c'est une mesure qui reflète un comportement anormal de l'équipement 5. Par exemple, si la valeur du résultat OUT4 dépasse un seuil prédéfini, une détection d'anomalie apparaît et éventuellement, génère une alarme sur les périphériques de sorties 9d. A ce résultat est associée une qualité de sortie PQV4 indicatrice de la fiabilité du résultat OUT4. Cette qualité PQV4 qui représente une précision de chaque sortie peut être utilisée pour moduler tout le système de décision qui arrive après. Par exemple, si un résultat OUT4 dépasse le seuil prédéfini indiquant l'existence d'une anomalie, mais que la qualité du résultat PQV4 est faible, alors on peut éventuellement supposer que la détection de l'anomalie n'est pas très fiable. 15 Comme la qualité du résultat dépend de la qualité de chacun des modules, les moyens de traitement 9 sont configurés pour calculer pour chaque module 13i, la valeur de qualité de sortie PQV du module 13i selon une fonction de transfert associant une imprécision de la sortie OUT en réponse à une imprécision de l'entrée IN en utilisant au moins un indicateur de qualité intrinsèque 15i au module 13i. L'indicateur de qualité intrinsèque 15i correspond à une mesure de sensibilité du module. Par exemple, afin de mesurer de manière générique, la qualité structurelle de chaque module 13i, l'indicateur de qualité structurelle 15i peut correspondre à un indicateur d'estimation de variance de l'imprécision de la sortie générée en réponse à une entrée bruitée lors d'un apprentissage du module 13i. En pratique, lors de la phase de validation, on peut bruiter le voisinage d'un point d'entrée IN (par exemple, en mélangeant des données tout en respectant la distribution des lois des entrées). En réponse, la sortie OUT du module 13i présente une variation par rapport à la sortie habituelle, ce qui permet de calculer la variance de ce résultat indiquant la variabilité de l'information de la sortie. Ainsi, pour chacun des points d'une base de données d'apprentissage, on peut calculer une variance correspondante et on fait une estimation (par exemple, selon un modèle de régression) de la variance. Dans ce cas, cette fonction d'estimation de la variance est l'indicateur de qualité intrinsèque 15i qui correspond aussi à la fonction de transfert du module. 16 Selon un autre exemple, l'indicateur de qualité structurelle 15i peut correspondre à un indicateur d'adéquation AQV (Adequancy Quality Value) définissant la mesure d'une distance entre l'entrée IN du module 13i et une entrée de calibrage définie lors d'un apprentissage du module 13i. Dans ce cas, l'indicateur d'adéquation AQV traduit l'imprécision des données d'entrée en une imprécision sur les données de sortie. Ici, en première approximation, la fonction de transfert est égale à l'indicateur d'adéquation AQV (c'est-à-dire, PQV = AQV x DQV) . Cet indicateur d'adéquation AQV mesure l'accord entre les données d'entrée IN courantes et les données d'entrée observées lors du calibrage du module 13i et donne ainsi une indication sur son niveau d'obsolescence. Par exemple, si les entrées IN d'un module 13i ne ressemblent plus aux observations utilisées pendant sa calibration, le module 13i nécessite d'être remanié. On notera que l'AQV peut être calculé pour tout type de modules. L'indicateur d'adéquation AQV est l'adéquation d'une donnée d'entrée. Ainsi, d'une manière pratique, il suffit d'enregistrer les données qui servent au calibrage du module 13i pour qu'on puisse ensuite mesurer son adéquation, en comparant ces données de calibrage à des nouvelles données qui arrivent pendant l'exécution du module 13i. Autrement dit, on mesure la distance entre les nouvelles entrées et les entrées habituelles de calibrage. On peut utiliser par exemple, une distance de distribution de type Kullback-Lieber. 17 L'indicateur d'adéquation AQV peut aussi être calculé comme un ajustement des dernières observations. On peut utiliser le niveau-p d'un test statistique de distribution de comparaison avec ou sans hypothèses du type Ansari-Bradely, Kolmogorov-Smirnov, Wicoxon, ou autres. Comme indiqué précédemment, l'AQV peut être définie comme la probabilité que la distribution courante des entrées correspond à la distribution d'observations utilisée pour la calibration. Alors, après la calibration, l'adéquation est égale à un (AQV=1). Cependant, quand le contexte de mesure change, l'AQV tend naturellement vers zéro. On peut soit prévenir l'utilisateur ou mettre à jour le module 13i de manière automatique. Dans ce dernier cas, une sélection d'observations est implémentée pour des desseins de réapprentissages. Selon un autre exemple, l'indicateur de qualité structurelle 15i correspond à un indicateur de robustesse MQV (Model Quality Value) mesurant une capacité d'utilisation du module 13i face à des nouvelles entrées. Cet indicateur de robustesse MQV est déterminé lors d'un apprentissage du module 13i. Dans ce cas, l'imprécision des données de sortie dépend de la robustesse du module 13i (c'est-à-dire, de la capacité d'utiliser le module pour des nouvelles données d'entrée), et la fonction de transfert est ici égale à l'indicateur de robustesse MQV (c'est-à-dire, PQV = MQV x DQV) L'indicateur de robustesse MQV donne ainsi une information sur le fonctionnement du module 13i par 18 rapport à des données générales et indique alors quelle doit être la qualité moyenne du module 13i lorsque des nouvelles données sont appliquées. Le MQV indique la qualité d'un état interne du module 13i calculée pendant le calibrage, donc pendant la mise au point du module 13i sur des données de test et ainsi, à la fin du calibrage, on a une qualité intrinsèque au module 13i. Autrement dit, c'est une information de qualité a priori qui donne une mesure de ce que le module 13i a l'habitude de répondre comme qualité. On notera qu'en général, un module 13i est calibré à partir d'un ensemble limité de mesures et alors l'estimation de l'indicateur de robustesse MQV peut être calculée en utilisant un modèle de validation croisée ou une technique de bootstrap. Le MQV peut être estimé pour tout module ayant une sortie quantifiable. Bien entendu, la valeur de qualité de sortie PQV d'un module 13i peut être calculée en combinant au moins deux indicateurs de qualité structurelle 15i parmi les indicateurs d'estimation de variance, d'adéquation AQV, et de robustesse MQV. Ceci permet de tenir compte de plusieurs composantes de l'état interne du module 13i qui peuvent dépendre des mesures de l'entrée et des états internes du module 13i. Par défaut, la valeur de qualité de sortie PQV du module 13i peut être calculée en effectuant une multiplication normalisée entre l'indicateur d'adéquation AQV et l'indicateur de robustesse MQV. The result OUT4 of the monitoring system 11 is a diagnosis of the anomaly; it is a measurement which reflects an abnormal behavior of the equipment 5. For example, if the value of the result OUT4 exceeds a predefined threshold, an anomaly detection appears and possibly generates an alarm on the output devices 9d. To this result is associated a quality of output PQV4 indicating the reliability of the result OUT4. This quality PQV4 which represents a precision of each output can be used to modulate all the decision system that comes after. For example, if an OUT4 result exceeds the predefined threshold indicating the existence of an anomaly, but the quality of the PQV4 result is low, then it may be assumed that the detection of the anomaly is not very reliable. Since the quality of the result depends on the quality of each of the modules, the processing means 9 are configured to calculate for each module 13i, the output quality value PQV of the module 13i according to a transfer function associating an inaccuracy of the output. OUT in response to inaccuracy of the IN input using at least one intrinsic quality indicator 15i to the module 13i. The intrinsic quality indicator 15i corresponds to a sensitivity measurement of the module. For example, in order to generically measure the structural quality of each module 13i, the structural quality indicator 15i may correspond to a variance estimation indicator of the imprecision of the output generated in response to a noisy input when learning a module 13i. In practice, during the validation phase, the neighborhood of an IN entry point can be noisy (for example, by mixing data while respecting the distribution of the laws of the inputs). In response, the output OUT of the module 13i has a variation with respect to the usual output, which makes it possible to calculate the variance of this result indicating the variability of the information of the output. Thus, for each of the points in a learning database, a corresponding variance can be calculated and an estimate (for example, based on a regression model) of the variance. In this case, this variance estimation function is the intrinsic quality indicator 15i which also corresponds to the transfer function of the module. According to another example, the structural quality indicator 15i may correspond to an Adequancy Quality Value (AQV) indicator defining the measurement of a distance between the input IN of the module 13i and a calibration input defined during the analysis. learning a module 13i. In this case, the AQV adequacy indicator translates the imprecision of the input data into an imprecision on the output data. Here, as a first approximation, the transfer function is equal to the adequacy indicator AQV (i.e., PQV = AQV x DQV). This AQV adequacy indicator measures the agreement between the current IN input data and the input data observed during the calibration of the module 13i and thus gives an indication of its level of obsolescence. For example, if the IN inputs of a module 13i no longer resemble the observations used during its calibration, the module 13i needs to be reworked. It should be noted that the AQV can be calculated for any type of module. The AQV adequacy indicator is the adequacy of an input data. Thus, in a practical manner, it suffices to record the data used for calibrating the module 13i so that its suitability can then be measured by comparing these calibration data with new data that arrives during the execution of the module. 13i. In other words, the distance between the new inputs and the usual calibration inputs is measured. For example, a Kullback-Lieber distribution distance can be used. 17 The AQV adequacy indicator can also be calculated as an adjustment of the last observations. The p-level of a statistical comparison distribution test can be used with or without Ansari-Bradely, Kolmogorov-Smirnov, Wicoxon, or other hypotheses. As indicated previously, the AQV can be defined as the probability that the current distribution of the inputs corresponds to the distribution of observations used for the calibration. Then, after the calibration, the adequacy is equal to one (AQV = 1). However, when the measurement context changes, the AQV tends to zero naturally. One can either warn the user or update the module 13i automatically. In the latter case, a selection of observations is implemented for re-learning purposes. In another example, the structural quality indicator 15i corresponds to a Model Quality Value (MQV) robustness indicator measuring a capacity of use of the module 13i in front of new inputs. This robustness indicator MQV is determined during a learning module 13i. In this case, the inaccuracy of the output data depends on the robustness of the module 13i (i.e., the ability to use the module for new input data), and the transfer function is here equal to the robustness indicator MQV (that is, PQV = MQV x DQV) The robustness indicator MQV thus gives information on the operation of the module 13i with respect to general data and then indicates what should be the average quality of the module 13i when new data is applied. The MQV indicates the quality of an internal state of the module 13i calculated during the calibration, thus during the development of the module 13i on test data and thus, at the end of the calibration, there is an intrinsic quality to the module 13i. In other words, it is a quality information a priori that gives a measure of what the 13i module is used to answer as quality. Note that in general, a module 13i is calibrated from a limited set of measurements and then the estimate of the robustness indicator MQV can be calculated using a cross-validation model or a bootstrap technique. The MQV can be estimated for any module with a quantifiable output. Of course, the PQV output quality value of a module 13i can be calculated by combining at least two structural quality indicators 15i among the variance estimation, AQV matching, and MQV robustness indicators. This makes it possible to take into account several components of the internal state of the module 13i that may depend on the measurements of the input and the internal states of the module 13i. By default, the output quality value PQV of the module 13i can be calculated by performing a normalized multiplication between the AQV adequacy indicator and the MQV robustness indicator.

Dans ce cas, la qualité des données de sortie dépend à 19 la fois du degré d'obsolescence et de la robustesse du module 13i de la manière suivante : PQV = (MQV OO AQV )xDQV En particulier, on peut prendre la moyenne géométrique .JMQVxAQV si on n'a aucune idée sur les dimensions de l'état intrinsèque des espaces des modules et des données. La qualité de sortie PQV mesure la qualité de chaque module et comme les données d'entrée de chacun des modules intermédiaire(s) 13d, 13e et de sortie 13f, 13g sont calculées par des modules précédents (c'est-à-dire, chaque tâche intermédiaire possède une qualité conditionnée par chaque tâche précédente), alors, la qualité du résultat PQV4 (ou PQV5) donne une bonne indication des qualités de tous les modules précédents 13a à 13e (ou 13a à 13f) de la chaîne de modules 13. Ceci permet de valider le système de surveillance 11 en tant que fonction globale indiquant que lorsqu'on introduit des données dans ce système, on obtient un résultat OUT4 (ou OUTS) avec une certaine information de qualité PQV4 (ou PQV5) sur ces résultats. Les moyens de traitement 9 sont configurés pour évaluer une qualification du système de surveillance 11 en fonction de la valeur de qualité PQV4 (ou PQV5) du résultat OUT4 (ou OUTS) qui correspond à la valeur de qualité de la sortie associée au module(s) de sortie 13f, 13g et qui dépend de la qualité intrinsèque de chacun des modules. Ainsi, la qualification structurelle du système est une validation du système de surveillance 11 en tant qu'une sélection de différents modules qui 20 collaborent entre eux pour résoudre les différentes tâches opérationnelles du système. Autrement dit, les différentes fonctions des différents modules 13a à 13g nécessaires à la surveillance de l'équipement 5 (par exemple, des fonctions concernant l'acquisition des mesures, la normalisation des données, la détection des anomalies, la classification et l'identification des fautes) sont validées de manière indépendante en calculant la qualité interne de chaque module recueillie auprès des expériences locales du module. Avantageusement, les moyens de traitement 9 sont configurés pour pondérer la valeur de qualité de sortie de chacun des modules et pour déterminer une note de qualité structurelle globale en fonction de ces valeurs pondérées. Ceci permet de remonter une information au niveau du système de surveillance 11 en prenant en compte une note de qualité de chacun des modules de la chaîne 13 selon son importance. Après la validation de la structure ou l'architecture du système de surveillance 11, il est avantageux de valider la qualité de son résultat. Ainsi, les moyens de traitement 9 sont configurés pour appliquer au moins un indicateur de qualité de données 17 (voir Fig. 2) sur un résultat OUT4 ou OUTS du système de surveillance 11 obtenu à partir des mesures spécifiques connues comprenant des fautes connues pour vérifier la détection des fautes. Autrement dit, on introduit des mesures spécifiques dans le système de surveillance 11 à partir d'une base de données de fautes générées par simulation, bancs d'essais, et quelquefois (mais 21 heureusement, très rarement) des enregistrements des événements opérationnels réels. Ensuite, on applique un indicateur ou plusieurs indicateurs de qualité de données 17 sur le résultat du système de surveillance 11 pour vérifier la détection des fautes. Ceci donne une note de résultat en parallèle de la note structurelle qui permet de valider le système de surveillance 11 sur un jeu de données spécifique, sur un équipement 5 spécifique du moteur 7 d'aéronef, et dans un contexte spécifique. Selon un premier exemple, l'indicateur de qualité de données 17 est une mesure d'une probabilité de détection P0D (Probability Of Detection) définie comme étant la probabilité de détecter une faute quand l'équipement 5 surveillé présente une faute (ou anomalie). La probabilité de détection POD est déterminée selon une contrainte d'un taux prédéterminé de fausse alarme PFA (Probability of False Alarm) défini comme étant la probabilité que l'équipement 5 surveillé est sain quand le système de surveillance 11 détecte une faute. La probabilité de détection POD (Probability Of Detection) qui est une information de qualité du résultat aussi appelée la puissance de détection 1-p, permet de valider avec une grande fiabilité le résultat du système de surveillance 11. On notera que la probabilité de détection POD s'applique essentiellement sur les modules de diagnostic d'anomalies ou d'évaluation de fautes. 22 La probabilité de détection POD peut être calculée à partir d'une base de données de fautes générées par simulation, bancs d'essais, et quelquefois (mais très rarement) des enregistrements des événements opérationnels réels. Dans ce cas, la probabilité de détection POD peut être estimée comme le rapport du nombre de fautes détectées sur le nombre total de fautes. On notera que le taux ou la probabilité de fausse-alarme PFA est un critère très important dans le domaine aéronautique. En effet, l'événement que l'équipement est sain (c'est-à-dire, en bonne santé) lorsque le système de surveillance détecte une faute est un phénomène qu'il faut limiter parce qu'il peut modifier de manière définitive l'image de crédibilité que l'utilisateur peut avoir du système de surveillance 11. Ainsi, il est très avantageux que le taux ou la probabilité de fausse-alarme PFA soit faible. La probabilité de fausse-alarme PFA qui est définie par la probabilité d'être sain quand on a détecté, peut être calculée à partir des règles bayésiennes. Soit P(détecté) la probabilité marginale qu'une anomalie est détectée par le système de surveillance 11, et P(sain) la probabilité marginale que l'équipement 5 est sain. Alors, le taux de fausse alarme PFA est la probabilité que l'équipement 5 est a posteriori sain sachant qu'une faute est détectée. Ceci peut être représenté par la probabilité conditionnelle suivante : 3 0 PFA = P(sain / détecté) = P(détecté/sain)P(sain) P(détecté) 23 La probabilité de détecter une faute quand l'équipement est sain correspond à l'erreur de détection a =P(détecté/sain) La Fig. 4 illustre un exemple de distribution de probabilités de bonne et mauvaise santé. Plus particulièrement, la courbe Cl représente la distribution d'une probabilité de bonne santé (équipement sain) et la courbe C2 représente la distribution d'une probabilité de mauvaise santé (équipement en faute) par rapport à un seuil prédéfini de diagnostic D. L'erreur de détection a (c'est-à-dire, la probabilité de détecter une faute quand l'équipement est sain) correspond à la partie de la courbe Cl qui dépasse le seuil de diagnostic D. L'erreur (c'est-à-dire, le complément de la probabilité de détection POD) correspond à la partie de la courbe C2 avant le seuil de diagnostic D. Ainsi, le taux de fausse alarme PFA peut être obtenu en fonction de la probabilité de détection POD (c'est-à-dire, 1-P= P(détecté/ faute)) ainsi que d'une probabilité a priori d'avoir une faute P(faute) et de l'erreur de détection a, de la manière suivante : PFA= a(1ùP(faute)) a(1ùP(faute» +PODxP(faute) Avantageusement, afin d'atteindre un faible taux prédéterminé de fausse alarme PFA (par exemple inférieur à 1%), on peut exploiter une méthode de confirmation en utilisant par exemple, plusieurs détections successives. Ainsi, en confirmant une anomalie par corroboration d'information, on va 24 naturellement diminuer le taux de fausse alarme qui se comporte comme un produit de probabilités. Par ailleurs, l'erreur de détection a peut être ajustée pour des PFA et POD données, selon l'équation suivante : a = PODx PFA x P(faute) 1-PFA 1-P(faute) Ceci peut être intéressant car un module est calibré en utilisant l'erreur de détection a sachant que la puissance de détection POD est obtenue comme une information de qualité. Cette équation montre que comme le taux de fausse alarme PFA et la probabilité a priori d'avoir une faute P(faute) sont très faibles, l'erreur de détection a qui se comporte comme leur produit, sera encore plus faible. In this case, the quality of the output data depends both on the degree of obsolescence and on the robustness of the module 13i as follows: PQV = (MQV OO AQV) xDQV In particular, the geometric mean can be taken. JMQVxAQV if you have no idea about the dimensions of the intrinsic state of module spaces and data. The output quality PQV measures the quality of each module and as the input data of each of the intermediate (s) 13d, 13e and 13f, 13g output modules are calculated by previous modules (i.e., each intermediate task has a quality conditioned by each previous task), then the quality of the result PQV4 (or PQV5) gives a good indication of the qualities of all the previous modules 13a to 13e (or 13a to 13f) of the chain of modules 13 This makes it possible to validate the monitoring system 11 as a global function indicating that when data is entered into this system, an OUT4 result (or OUTS) with some quality information PQV4 (or PQV5) is obtained on these results. . The processing means 9 are configured to evaluate a qualification of the monitoring system 11 as a function of the quality value PQV4 (or PQV5) of the result OUT4 (or OUTS) which corresponds to the quality value of the output associated with the module (s). ) output 13f, 13g and depends on the intrinsic quality of each of the modules. Thus, the structural qualification of the system is a validation of the monitoring system 11 as a selection of different modules that collaborate with each other to solve the different operational tasks of the system. In other words, the different functions of the various modules 13a to 13g necessary for the monitoring of the equipment 5 (for example, functions concerning the acquisition of the measurements, the standardization of the data, the detection of the anomalies, the classification and the identification faults) are validated independently by calculating the internal quality of each module collected from the module's local experiments. Advantageously, the processing means 9 are configured to weight the output quality value of each of the modules and to determine an overall structural quality score as a function of these weighted values. This makes it possible to trace information at the level of the monitoring system 11 by taking into account a quality score of each of the modules of the chain 13 according to its importance. After the validation of the structure or the architecture of the monitoring system 11, it is advantageous to validate the quality of its result. Thus, the processing means 9 are configured to apply at least one data quality indicator 17 (see Fig. 2) to an OUT4 or OUTS result of the monitoring system 11 obtained from the known specific measures including faults known to verify the detection of faults. In other words, specific measurements are introduced into the monitoring system 11 from a database of faults generated by simulation, test benches, and sometimes (but fortunately very rarely) records of actual operational events. Next, one or more data quality indicators 17 are applied to the result of the monitoring system 11 to verify the detection of faults. This gives a result score in parallel with the structural note which makes it possible to validate the monitoring system 11 on a specific data set, on a specific equipment 5 of the aircraft engine 7, and in a specific context. According to a first example, the data quality indicator 17 is a measure of a probability of detection P0D (Probability of Detection) defined as being the probability of detecting a fault when the monitored equipment has a fault (or anomaly). . The probability of detection POD is determined according to a constraint of a predetermined false alarm rate PFA (Probability of False Alarm) defined as the probability that the monitored equipment is healthy when the monitoring system 11 detects a fault. The probability of detection POD (Probability Of Detection) which is a quality information of the result also called the detection power 1-p, makes it possible to validate with great reliability the result of the surveillance system 11. It will be noted that the probability of detection POD mainly applies to fault diagnosis or fault assessment modules. 22 The probability of POD detection can be calculated from a database of faults generated by simulation, test benches, and sometimes (but very rarely) records of actual operational events. In this case, the POD detection probability can be estimated as the ratio of the number of faults detected to the total number of faults. It should be noted that the rate or probability of PFA false alarm is a very important criterion in the aeronautical field. Indeed, the event that the equipment is healthy (that is, in good health) when the surveillance system detects a fault is a phenomenon that must be limited because it can permanently change the credibility image that the user can have of the monitoring system 11. Thus, it is very advantageous that the rate or probability of false alarm PFA is low. The probability of PFA false alarm that is defined by the probability of being healthy when detected, can be calculated from Bayesian rules. Let P (detected) the marginal probability that an anomaly is detected by the monitoring system 11, and P (healthy) the marginal probability that the equipment 5 is healthy. Then, the false alarm rate PFA is the probability that the equipment 5 is a posteriori healthy knowing that a fault is detected. This can be represented by the following conditional probability: PFA = P (healthy / detected) = P (detected / healthy) P (healthy) P (detected) 23 The probability of detecting a fault when the equipment is healthy corresponds to the detection error a = P (detected / healthy) FIG. Figure 4 illustrates an example of a probability distribution of good and bad health. More particularly, the curve C1 represents the distribution of a probability of good health (healthy equipment) and the curve C2 represents the distribution of a probability of poor health (equipment at fault) compared to a predefined threshold of diagnosis D. L detection error (i.e., the probability of detecting a fault when the equipment is healthy) corresponds to the part of the curve C1 which exceeds the diagnostic threshold D. The error (it is that is, the complement of the detection probability POD) corresponds to the part of the curve C2 before the diagnostic threshold D. Thus, the false alarm rate PFA can be obtained as a function of the probability of detection POD (c that is, 1-P = P (detected / fault)) as well as a prior probability of having a fault P (fault) and the detection error a, as follows: PFA = a (1p (fault)) a (1p (fault) + PODxP (fault) Advantageously, in order to reach a low predetermined rate of false alarm PFA (for example less than 1%), we can operate a confirmation method using for example several successive detections. Thus, by confirming an information corroboration anomaly, the false alarm rate that behaves as a product of probabilities will of course be decreased. In addition, the detection error can be adjusted for PFA and POD data, according to the following equation: a = PODx PFA x P (fault) 1-PFA 1-P (fault) This can be interesting because a module is calibrated using the detection error knowing that the POD detection power is obtained as a quality information. This equation shows that since the false alarm rate PFA and the probability a priori of having a fault P (fault) are very small, the detection error that behaves like their product, will be even lower.

Selon un deuxième exemple, l'indicateur de qualité de données 17 est une mesure d'un taux de localisation PCL (Probability of Class Localisation) définie comme étant la probabilité qu'une localisation est bonne lorsqu'une anomalie de l'équipement 5 est observée. Le taux ou probabilité de localisation PCL, qui est une information de qualité de classification, est essentiellement appliqué sur les modules de classification (par exemple, le module 13g) et permet de valider avec une grande efficacité le résultat du système de surveillance 11. Ceci permet de bien localiser l'élément précis (par exemple, alternateur, câble, harnais, etc.) de l'équipement 5 présentant une anomalie. 25 D'une manière générale, la probabilité de détection POD permet de détecter si l'équipement 5 comporte un élément anormal, et ensuite le taux de localisation PCL indique l'efficacité avec laquelle on peut localiser ou identifier cet élément. Le taux de localisation PCL lorsqu'il est appliqué sur un module de classification 13g présente une signification similaire à celle de la probabilité de détection POD. Après la détection d'une faute, un module de diagnostic 13f peut fournir une signature d'anomalie et un module de classification 13g associe une empreinte à cette signature. Cette empreinte peut être représentative d'une faute spécifique ou même d'un composant physique qui a subi l'impact de la dégradation détectée. Cette classification peut être déterministe (c'est-à-dire, que l'empreinte est clairement identifiée) ou probabiliste (c'est-à-dire, qu'une probabilité d'impact est associée à chaque empreinte). Le taux de localisation PCL calcule la proportion de bonnes classifications parmi toutes les fautes . PCL = P(bien classifié / faute) = P(C / F) Comme précédemment, le taux de localisation PCL peut être estimé à partir d'une base de données de mesures de fautes (par simulations, bancs d'essai, ou rares événements). Le taux de localisation PCL peut être déduit de manière bayésienne à partir des indicateurs précédents . According to a second example, the data quality indicator 17 is a measure of a PCL (Probability of Class Location) detection rate defined as being the probability that a location is good when an anomaly of the equipment 5 is observed. The PCL location rate or probability, which is classification quality information, is essentially applied to the classification modules (for example, the module 13g) and makes it possible to validate the result of the monitoring system 11 with great efficiency. makes it possible to locate the precise element (for example, alternator, cable, harness, etc.) of the equipment 5 having an anomaly. In general, the probability of detection POD makes it possible to detect whether the equipment 5 comprises an abnormal element, and then the PCL localization rate indicates the efficiency with which this element can be located or identified. The PCL localization rate when applied to a 13g classification module has a similar meaning to that of the POD detection probability. After detection of a fault, a diagnostic module 13f can provide an anomaly signature and a classification module 13g associates a fingerprint with this signature. This footprint may be representative of a specific fault or even of a physical component that has been impacted by the detected degradation. This classification can be deterministic (that is, the footprint is clearly identified) or probabilistic (that is, a probability of impact is associated with each footprint). The PCL localization rate calculates the proportion of good classifications among all faults. PCL = P (well classified / fault) = P (C / F) As previously, the PCL localization rate can be estimated from a database of fault measurements (by simulations, test benches, or rare events). The PCL localization rate can be Bayesian deduced from the previous indicators.

PCL = P(C / F) = P(C / FD)P(D / F) + P(C / FD)P(D / F) P(C / D) = P(C / DF)P(F /D) + P(C / DS)P(S / D) PCL = P(C / D) POD 1ùPFA 26 La lettre C signifie « bien classifié », la lettre F signifie « faute », la lettre D signifie « détecté », le symbole D signifie « non détecté », la lettre S signifie que l'équipement est « sain » (autrement dit, S=F). Sachant que P(C/D)=0 (car il ne peut pas y avoir de classification quand aucune détection n'est déclenchée), que P(C/S)=0 (car si le système est sain, toute tentative possible de classification sera une erreur), que PFA=P(S/D)=1-P(F/D), et que POD=P(D/F), alors on obtient : On notera que chacun des deux indicateurs PCL et POD ou éventuellement, un tout autre indicateur de qualité de données 17 peut être utilisé indépendamment l'un de l'autre ou en combinaison selon le type d'application du système de surveillance 11. Avantageusement, les moyens de traitement 9 sont configurés pour calculer un indicateur de qualité de corrélation CQV (Correlation Quality Value) du système de surveillance 11 en calculant une corrélation entre la valeur de qualité de sortie PQV et une fonction liée à l'indicateur de qualité de données 17. Bien entendu, on peut utiliser comme indicateur de qualité de données 17 la probabilité de détection POD ou le taux de localisation PCL ou un tout autre indicateur de qualité. L'indicateur de qualité de données (par exemple, le POD) correspond à une mesure d'une erreur E 27 a posteriori entre une sortie prévue y et une sortie estimée y (c'est-à-dire, E = yûÿ) . On notera que la corrélation entre PQV et E doit être nulle, sinon il aurait existé une méthode pour améliorer l'estimation. Cependant, la corrélation entre PQV et E2 n'est pas nulle et correspond à une valeur négative qui est même plus proche de -1 quand PQV est une « bonne » information. Ainsi, on peut, par exemple, calculer l'indicateur de qualité de corrélation CQV comme l'opposé de la corrélation entre le carré de l'erreur E et la valeur de qualité de sortie PQV. L'indicateur de qualité de corrélation CQV qualifie la pertinence ou la précision de la qualité de sortie PQV et réalise ainsi une synthèse entre la validation structurelle et la validation de résultat du système de surveillance 11. Avantageusement, les moyens de traitement 9 sont configurés pour calculer un indicateur de taux de couverture de fautes CVR (Coverage Quality Value) défini en fonction d'une probabilité a priori d'apparition de chaque faute et d'un volume de données nécessaires pour couvrir cette faute. Le taux de couverture correspond aux données dont on dispose pour valider chaque type de faute. Notamment, on identifie ainsi les fautes non couvertes par le système de surveillance 11. Pour calculer la couverture, on utilise une connaissance a priori sur l'occurrence de chaque faute (c'est-à-dire, la probabilité d'apparition de la faute) et sur le volume de données nécessaires pour couvrir 28 cette faute. L'expert dans le domaine de surveillance d'un moteur d'aéronef associe donc un pourcentage de couverture par faute (par exemple, 50% si l'on ne dispose que de la moitié du volume de données nécessaire pour couvrir cette faute particulière). On fait alors une moyenne pondérée par les occurrences Oi de ces couvertures Ci pour obtenir le taux de couverture CVR : CVR = L OZ x Cl avec E OZ =1 . PCL = P (C / F) = P (C / FD) P (D / F) + P (C / FD) P (D / F) P (C / D) = P (C / DF) P (F) / D) + P (C / DS) P (S / D) PCL = P (C / D) POD 1pFA 26 The letter C means "well classified", the letter F means "fault", the letter D means "detected" The symbol D means "not detected", the letter S means that the equipment is "healthy" (in other words, S = F). Knowing that P (C / D) = 0 (because there can be no classification when no detection is triggered), that P (C / S) = 0 (because if the system is healthy, any possible attempt to classification will be an error), that PFA = P (S / D) = 1-P (F / D), and that POD = P (D / F), then we get: Note that each of the two indicators PCL and POD or possibly, any other data quality indicator 17 may be used independently of one another or in combination depending on the type of application of the monitoring system 11. Advantageously, the processing means 9 are configured to calculate a correlation quality indicator CQV (Correlation Quality Value) of the monitoring system 11 by calculating a correlation between the output quality value PQV and a function related to the data quality indicator 17. Of course, it is possible to use as an indicator of data quality 17 the probability of detection POD or the PCL location rate or a to another quality indicator. The data quality indicator (e.g. POD) corresponds to a measurement of a posterior error E 27 between a predicted output y and an estimated output y (i.e., E = yÿÿ). It should be noted that the correlation between PQV and E must be zero, otherwise there would have been a method to improve the estimate. However, the correlation between PQV and E2 is not zero and corresponds to a negative value that is even closer to -1 when PQV is a "good" information. Thus, for example, the correlation quality indicator CQV can be calculated as the opposite of the correlation between the square of the error E and the output quality value PQV. The QQV correlation quality indicator qualifies the relevance or accuracy of the PQV output quality and thus makes a synthesis between the structural validation and the result validation of the monitoring system 11. Advantageously, the processing means 9 are configured to calculating a Coverage Quality Value (CVR) coverage rate indicator defined as a function of a prior probability of occurrence of each fault and a volume of data necessary to cover this fault. The coverage rate corresponds to the data available to validate each type of fault. In particular, the faults not covered by the surveillance system are thus identified. To calculate the coverage, a priori knowledge is used on the occurrence of each fault (that is, the probability of occurrence of the fault). fault) and the amount of data needed to cover this fault. The expert in the field of monitoring of an aircraft engine therefore associates a percentage of coverage per fault (for example, 50% if only half of the volume of data necessary to cover this particular fault is available) . We then make a weighted average by the occurrences Oi of these covers Ci to obtain the coverage rate CVR: CVR = L OZ x Cl with E OZ = 1.

Par exemple, le taux de localisation PCL qui est un taux de bonne classification peut être modulé en utilisant les informations ayant permis de calculer le taux de couverture CVR. En particulier, on peut moduler le résultat de chaque classe i par l'occurrence Oi et/ou la couverture Ci. Ainsi, le taux de couverture de fautes CVR peut être utilisé pour moduler certains indicateurs de qualité de données 17 permettant de confirmer la validation du système de surveillance 11. For example, the PCL location rate which is a good classification rate can be modulated using the information that made it possible to calculate the CVR coverage rate. In particular, it is possible to modulate the result of each class i by the occurrence Oi and / or the coverage Ci. Thus, the CVR fault coverage rate can be used to modulate certain data quality indicators 17 enabling confirmation of the validation. the surveillance system 11.

En outre, les moyens de traitement 9 sont avantageusement configurés pour calculer un indicateur de qualité de généricité GCL (Generic Level) mesurant un niveau de généricité de chacun des modules 13 utilisés dans la composition du système de surveillance 11. L'indicateur de qualité de généricité GCL est un indicateur de structure qui peut être utilisé pour tous les modules et indique le nombre de fois où un module est utilisé. In addition, the processing means 9 are advantageously configured to calculate a Generic Level Genericity Level (GCL) quality indicator measuring a level of genericity of each of the modules 13 used in the composition of the monitoring system 11. The quality indicator of GCL is a structure flag that can be used for all modules and indicates the number of times a module is used.

En pratique, on peut associer un poids à chaque module 13i selon son importance dans la composition du 29 système de surveillance 11. Ainsi, le niveau de généricité du système de surveillance 11 peut être calculé comme une moyenne pondérée des indicateurs de qualité de généricité GCL. Quand un module 13i est utilisé plus souvent, sa qualité est plus vite accrue et par conséquent, plus le système de surveillance 11 comporte de modules génériques plus grande est la fiabilité de sa validation. Par ailleurs, les moyens de traitement 9 sont avantageusement configurés pour calculer un indicateur de pertinence globale ROM (Relevance Of Methodology) du système de surveillance 11 en fonction d'une note de pertinence et d'une pondération associées à chacun des 15 modules 13. En effet, le système de surveillance 11 est composé de modules 13 et chaque module 13i réalise une tâche particulière en utilisant un algorithme spécifique. Le choix des modules qu'on a utilisés dans 20 la composition du système de surveillance 11 peut être validé par l'expert en attribuant une note de pertinence pour chaque module 13i. En fonction de la pondération associée à chaque module du système de surveillance 11 on en déduit finalement une note de 25 pertinence globale ROM. Elle indique s'il est encore possible de faire des améliorations techniques dans le choix des modules 13 pour améliorer le système de surveillance 11. La Fig. 5 illustre un exemple d'un système de 30 surveillance 11 constitué d'une chaîne de modules 13, selon l'invention. 10 30 Cet exemple montre que les modules d'entrée 13a, 13b comportent un module d'acquisition de données normales 13a et un module d'acquisition de données simulées 13b. L'un ou l'autre des modules d'acquisition 13a, 13b communique avec un module de normalisation 13d. Lors d'une phase de calibration, c'est le module d'acquisition de données simulées 13b qui communique avec le module de normalisation 13d. En revanche, en exécution ou fonctionnement normal, c'est le module d'acquisition de données normales 13a qui communique avec le module de normalisation 13d. Le module de normalisation 13d est connecté à un module de diagnostique ou de détection d'anomalie 13f (scoring) qui est connecté à son tour à un module de classification 13g pour identifier les fautes. Le système de surveillance 11 de la Fig. 5 peut être utilisé par exemple, pour analyser le comportement du moteur 7 d'aéronef pendant les premières secondes du processus d'allumage. In practice, a weight can be associated with each module 13i according to its importance in the composition of the monitoring system 11. Thus, the level of genericity of the monitoring system 11 can be calculated as a weighted average of the GCL genericity quality indicators. . When a module 13i is used more often, its quality is increased faster and therefore, the more the generic generic modules 11 monitoring system is the reliability of its validation. Moreover, the processing means 9 are advantageously configured to calculate an indicator of relevance relevance of methodology (ROM) of the monitoring system 11 as a function of a relevance score and a weighting associated with each of the 15 modules 13. Indeed, the monitoring system 11 is composed of modules 13 and each module 13i performs a particular task using a specific algorithm. The choice of modules used in the composition of the monitoring system 11 can be validated by the expert by assigning a score of relevance for each module 13i. According to the weighting associated with each module of the monitoring system 11, a note of global relevance ROM is finally deduced. It indicates whether it is still possible to make technical improvements in the choice of modules 13 to improve the monitoring system 11. FIG. 5 illustrates an example of a monitoring system 11 consisting of a chain of modules 13, according to the invention. This example shows that the input modules 13a, 13b comprise a normal data acquisition module 13a and a simulated data acquisition module 13b. One or the other of the acquisition modules 13a, 13b communicates with a normalization module 13d. During a calibration phase, the simulated data acquisition module 13b communicates with the normalization module 13d. On the other hand, in execution or normal operation, it is the normal data acquisition module 13a which communicates with the normalization module 13d. The normalization module 13d is connected to a diagnostic or anomaly detection module 13f (scoring) which is in turn connected to a classification module 13g to identify faults. The monitoring system 11 of FIG. 5 can be used for example to analyze the behavior of the aircraft engine 7 during the first seconds of the ignition process.

Lors de la phase de calibration ou d'entraînement, ce système de surveillance 11 peut être validé de manière structurelle en utilisant les indicateurs de qualité intrinsèque 15i décrits précédemment. De plus, le résultat du système de surveillance 11 peut être validé en utilisant les indicateurs de qualité de données 17 ainsi que les autres indicateurs décrits précédemment. En exécution, le module d'acquisition de données normales 13a est configuré pour recevoir via son interface d'entrée 13a1 des mesures IN1 spécifiques temporelles acquises par les capteurs 3 sur le moteur 7 31 d'aéronef et pour délivrer sur son interface de sortie 13a2 des données ou variables spécifiques OUT1 donnant des indications sur des éléments physiques ou logiques de l'équipement 5. Ces données sont extraites des mesures brutes temporelles (températures, pressions, débit du carburant, rotations d'arbres, etc.). A titre d'exemple, les données spécifiques peuvent correspondre au délai nécessaire pour qu'un arbre du moteur 7 atteigne l'accélération maximale après chaque démarrage du moteur, le gradient des températures des gaz d'échappement du moteur 7, le temps d'allumage, le temps d'ouverture de soupape, la tendance de la vitesse, etc. En outre, le module d'acquisition de données 13a est configuré pour recevoir via son interface d'entrée 13a1 une valeur de qualité DQV1 des mesures spécifiques et pour délivrer via son interface de sortie 13a2, une valeur de qualité de sortie PQV1 associée aux données spécifiques OUT1. During the calibration or training phase, this monitoring system 11 can be validated structurally using the intrinsic quality indicators 15i described above. In addition, the result of the monitoring system 11 can be validated using the data quality indicators 17 and the other indicators described above. In execution, the normal data acquisition module 13a is configured to receive, via its input interface 13a1, time specific IN1 measurements acquired by the sensors 3 on the aircraft engine 311 and to deliver on its output interface 13a2. specific data or variables OUT1 giving indications on physical or logical elements of the equipment 5. These data are extracted from the raw time measurements (temperatures, pressures, fuel flow, rotations of trees, etc.). By way of example, the specific data may correspond to the time required for a shaft of the motor 7 to reach maximum acceleration after each starting of the engine, the gradient of the exhaust gas temperatures of the engine 7, the time of ignition, valve opening time, speed trend, etc. In addition, the data acquisition module 13a is configured to receive, via its input interface 13a1, a quality value DQV1 of the specific measurements and to deliver via its output interface 13a2, a value of output quality PQV1 associated with the data. specific OUT1.

Le module de normalisation 13d est configuré pour recevoir via son interface d'entrée 13d1, les données spécifiques OUT1 (IN2=OUT1) et la valeur de qualité de sortie PQV1 (DQV2=PQV1) correspondante en provenance du module d'acquisition 13a pour normaliser ces données spécifiques et pour délivrer sur son interface de sortie 13d2 des données standardisées OUT2 indépendantes vis-à-vis du contexte extérieur ainsi qu'une valeur de qualité PQV2 associée aux données standardisées. The normalization module 13d is configured to receive via its input interface 13d1, the specific data OUT1 (IN2 = OUT1) and the corresponding output quality value PQV1 (DQV2 = PQV1) from the acquisition module 13a to normalize. these specific data and to deliver on its output interface 13d2 standardized data OUT2 independent vis-à-vis the external context and a quality value PQV2 associated with the standardized data.

A partir de ces données standardisées, il s'agit maintenant de diagnostiquer une anomalie puis de 32 déduire une défaillance spécifique et éventuellement le composant physique concerné. Ainsi, le module de détection d'anomalie 13f qui correspond à un premier module de sortie est configuré pour recevoir via son interface d'entrée 13f1, les données standardisées OUT2 (IN3= OUT2) ainsi que la valeur de qualité PQV2 (DQV3=PQV2) associée aux données standardisées en provenance du module de normalisation 13d pour construire une signature ou vecteur d'anomalie représentative du comportement du moteur 7 et pour diagnostiquer si le vecteur d'anomalie révèle une anomalie. Le module de détection d'anomalie 13f peut détecter une anomalie en calculant par exemple, la norme du vecteur d'anomalie sachant que les signatures normales sont assez plates alors que les anormalités sont représentées par des variations importantes et facilement interprétables. En outre, le module de détection d'anomalie 13f est configuré pour délivrer sur son interface de sortie 13f2, le vecteur d'anomalie ou risque OUT3 ainsi qu'une valeur de qualité PQV3 associée au vecteur d'anomalie. Au cas où le vecteur d'anomalie ou score révèle une anormalité avec une valeur de qualité pertinente et un indicateur de qualité de résultat pertinent, une alarme est alors déclenchée. Plus particulièrement, si la valeur du score OUT3 dépasse un premier seuil de diagnostic prédéfini, si la valeur de qualité PQV3 associée au score dépasse un second seuil prédéfini, et si par exemple, la probabilité de détection POD est pertinente, alors une détection apparaît qui génère une 33 alarme. Ceci permet de déclencher des alertes précises basées sur un bon critère de détection. Le module de classification 13g qui correspond à un deuxième module de sortie est configuré, uniquement au cas où le vecteur d'anomalie OUT3 révèle une anormalité, de recevoir via son interface d'entrée 13g1, le vecteur d'anomalie OUT3 (IN4= OUT3) ainsi que la valeur de qualité PQV3 (DQV4=PQV3) associée au vecteur d'anomalie en provenance du module de détection d'anomalie 13f. En réponse, le module de classification 13g est configuré pour délivrer sur son interface de sortie 13g2, une mesure d'identification des défaillances OUT4 ainsi qu'une valeur de qualité PQV4 associée à la mesure d'identification. From this standardized data, it is now necessary to diagnose an anomaly and then deduce a specific failure and possibly the physical component concerned. Thus, the anomaly detection module 13f which corresponds to a first output module is configured to receive via its input interface 13f1, the standardized data OUT2 (IN3 = OUT2) and the quality value PQV2 (DQV3 = PQV2 ) associated with the standardized data from the normalization module 13d to construct a signature or anomaly vector representative of the behavior of the engine 7 and to diagnose if the anomaly vector reveals an anomaly. The anomaly detection module 13f can detect an anomaly by calculating, for example, the standard of the anomaly vector knowing that the normal signatures are rather flat whereas the abnormalities are represented by important and easily interpretable variations. In addition, the anomaly detection module 13f is configured to deliver on its output interface 13f2, the abnormality vector or risk OUT3 and a quality value PQV3 associated with the anomaly vector. In case the abnormality vector or score reveals an abnormality with a relevant quality value and a relevant result quality indicator, an alarm is then triggered. More particularly, if the value of the score OUT3 exceeds a first predefined diagnostic threshold, if the quality value PQV3 associated with the score exceeds a second predefined threshold, and if for example the probability of detection POD is relevant, then a detection appears which generates an alarm. This makes it possible to trigger precise alerts based on a good detection criterion. The classification module 13g which corresponds to a second output module is configured, only in case the abnormality vector OUT3 reveals an abnormality, to receive via its input interface 13g1, the anomaly vector OUT3 (IN4 = OUT3 ) as well as the quality value PQV3 (DQV4 = PQV3) associated with the anomaly vector from the anomaly detection module 13f. In response, the classification module 13g is configured to deliver on its output interface 13g2, a failure identification measurement OUT4 and a quality value PQV4 associated with the identification measurement.

Après avoir identifié les défaillances en calculant par exemple, pour chacune une probabilité d'occurrence, on peut utiliser cette dernière pour détecter les composants fautifs. Pour cela, on peut exploiter une grille de décision définie par expertise et donnant pour chacun des composants physiques analysés une probabilité de faute quand une défaillance précise est observée. After having identified the failures by calculating for example, for each one a probability of occurrence, one can use this one to detect the faulty components. For this, we can exploit a decision grid defined by expertise and giving for each of the analyzed physical components a probability of fault when a specific failure is observed.

Claims (14)

REVENDICATIONS1. Outil de conception d'un système de surveillance (11) d'au moins un équipement (5) d'un moteur (7) d'aéronef, ledit système de surveillance étant configuré pour recevoir des mesures spécifiques audit équipement et pour délivrer un résultat diagnostiquant l'état dudit équipement, caractérisé en ce qu'il comporte : - des moyens (9) pour construire ledit système de surveillance (11) selon une structure assemblant une chaîne de modules (13) dédiés à des tâches particulières dudit système de surveillance et comprenant au moins un module d'entrée (13a à 13c) et au moins un module de sortie (13f, 13g), lesdits modules (13) étant munis d'interfaces d'entrée-sortie (13i1-13i2) leur permettant de communiquer entre eux et/ou avec ledit équipement (5) et son environnement, chacun desdits modules étant configuré pour recevoir via son interface d'entrée (13i1), une entrée (IN) et une valeur de qualité d'entrée (DQV) associée à ladite entrée, et pour délivrer sur son interface de sortie (13i2), une sortie correspondant à une sévérité et une valeur de qualité de sortie(PQV) associée à ladite sortie, - des moyens (9) pour attribuer une valeur de qualité auxdites mesures spécifiques qui correspondent à l'entrée associée audit au moins un module d'entrée (13a à 13c), - des moyens (9) pour calculer pour chacun desdits modules, la valeur de qualité de sortie (PQV) 35 dudit module (13i) selon une fonction de transfert associant une imprécision de la sortie en réponse à une imprécision de l'entrée en utilisant au moins un indicateur de qualité intrinsèque (15i) audit module, et - des moyens (9) pour évaluer une qualification du système de surveillance (11) en fonction d'une valeur de qualité dudit résultat qui correspond à la valeur de qualité de la sortie (PQV) associée audit au moins un module de sortie (13f, 13g). REVENDICATIONS1. Tool for designing a monitoring system (11) of at least one equipment (5) of an aircraft engine (7), said surveillance system being configured to receive measurements specific to said equipment and to deliver a result diagnosing the state of said equipment, characterized in that it comprises: - means (9) for constructing said monitoring system (11) according to a structure assembling a chain of modules (13) dedicated to particular tasks of said monitoring system and comprising at least one input module (13a-13c) and at least one output module (13f, 13g), said modules (13) being provided with input-output interfaces (13i1-13i2) allowing them to communicating with each other and / or with said equipment (5) and its environment, each of said modules being configured to receive via its input interface (13i1), an input (IN) and an associated input quality value (DQV) at said entrance, and to deliver on its output interface (13i2), an output corresponding to a severity and an output quality value (PQV) associated with said output, - means (9) for assigning a quality value to said specific measurements that correspond to the input associated with said at least one input module (13a to 13c), - means (9) for calculating for each of said modules the output quality value (PQV) of said module (13i) according to a transfer function associating a imprecision of the output in response to inaccuracy of the input using at least one intrinsic quality indicator (15i) to said module, and - means (9) for evaluating a qualification of the monitoring system (11) as a function of a quality value of said result which corresponds to the quality value of the output (PQV) associated with said at least one output module (13f, 13g). 2. Outil de conception selon la revendication 1, caractérisé en ce qu'il comporte des moyens (9) pour pondérer la valeur de qualité de sortie de chacun des modules (13) et pour déterminer une note de qualité structurelle globale en fonction desdites valeurs pondérées. 2. Design tool according to claim 1, characterized in that it comprises means (9) for weighting the output quality value of each of the modules (13) and for determining an overall structural quality score according to said values. weighted. 3. Outil de conception selon la revendication 1 ou 2, caractérisé en ce que ledit indicateur de qualité structurelle correspond à un indicateur d'estimation de variance de l'imprécision de la sortie générée en réponse à une entrée bruitée lors d'un apprentissage dudit module. 3. Design tool according to claim 1 or 2, characterized in that said structural quality indicator corresponds to a variance estimation indicator of the imprecision of the output generated in response to a noisy input during a learning of said module. 4. Outil de conception selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit indicateur de qualité structurelle (15i) correspond à un indicateur d'adéquation (AQV) définissant la mesure d'une distance entre l'entrée 36 dudit module (13i) et une entrée de calibrage définie lors d'un apprentissage dudit module. 4. Design tool according to any one of the preceding claims, characterized in that said structural quality indicator (15i) corresponds to an adequacy indicator (AQV) defining the measurement of a distance between the input 36 of said module. (13i) and a calibration input defined during a learning of said module. 5. Outil de conception selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit indicateur de qualité structurelle (15i) correspond à un indicateur de robustesse (MQV) mesurant une capacité d'utilisation du module face à des nouvelles entrées, l'indicateur de robustesse étant déterminé lors d'un apprentissage dudit module. 5. Design tool according to any one of the preceding claims, characterized in that said structural quality indicator (15i) corresponds to a robustness indicator (MQV) measuring a capacity of use of the module facing new inputs, the robustness indicator being determined during a learning of said module. 6. Outil de conception selon la revendication 5, caractérisé en ce que la valeur de qualité de sortie (PQV) dudit module est calculée en combinant au moins deux indicateurs parmi lesdits indicateurs d'estimation de variance, d'adéquation (AQV), et de robustesse (MQV). The design tool according to claim 5, characterized in that the output quality value (PQV) of said module is calculated by combining at least two of said variance estimation, adequacy (AQV) indicators, and Robustness (MQV). 7. Outil de conception selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comporte des moyens (9) pour appliquer au moins un indicateur de qualité de données (17) sur un résultat dudit système de surveillance (11) obtenu à partir des mesures spécifiques connues comprenant des fautes connues pour vérifier la détection desdites fautes. 7. Design tool according to any one of the preceding claims, characterized in that it comprises means (9) for applying at least one data quality indicator (17) to a result of said monitoring system (11) obtained from the known specific measures comprising known faults to verify the detection of said faults. 8. Outil de conception selon la revendication 7, caractérisé en ce que l'indicateur de qualité de données (17) est une mesure d'une probabilité de détection définie comme étant la 37 probabilité de détecter une faute quand l'équipement surveillé présente une anomalie, et qui est déterminé selon une contrainte d'un taux prédéterminé de fausse alarme défini comme étant la probabilité que l'équipement surveillé est sain quand le système de surveillance détecte une faute. A design tool according to claim 7, characterized in that the data quality indicator (17) is a measure of a probability of detection defined as being the probability of detecting a fault when the monitored equipment exhibits a fault. anomaly, and which is determined according to a constraint of a predetermined false alarm rate defined as being the probability that the monitored equipment is healthy when the monitoring system detects a fault. 9. Outil de conception selon la revendication 7 ou 8, caractérisé en ce que l'indicateur de qualité de données (17) est une mesure d'un taux de localisation définie comme étant la probabilité qu'une localisation est bonne lorsqu'une anomalie de l'équipement est observée. A design tool according to claim 7 or 8, characterized in that the data quality indicator (17) is a measure of a location rate defined as the probability that a location is good when an anomaly equipment is observed. 10. Outil de conception selon l'une quelconque des revendications 7 à 9, caractérisé en ce qu'il comporte des moyens (9) pour calculer un indicateur de qualité de corrélation dudit système de surveillance (11) en calculant une corrélation entre la valeur de qualité de sortie (PQV) et une fonction liée audit indicateur de qualité de données. 10. Design tool according to any one of claims 7 to 9, characterized in that it comprises means (9) for calculating a correlation quality indicator of said monitoring system (11) by calculating a correlation between the value quality of output (PQV) and a function related to said data quality indicator. 11. Outil de conception selon l'une quelconque des revendications 7 à 10, caractérisé en ce qu'il comporte des moyens (9) pour calculer un indicateur de taux de couverture de fautes défini en fonction d'une probabilité a priori d'apparition de chaque faute et d'un volume de données nécessaires pour couvrir ladite chaque faute.30 38 11. Design tool according to any one of claims 7 to 10, characterized in that it comprises means (9) for calculating a fault coverage rate indicator defined according to a prior probability of occurrence of each fault and a volume of data necessary to cover the said fault. 12. Outil de conception selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comporte des moyens (9) pour calculer un indicateur de qualité de généricité mesurant un niveau de généricité de chacun desdits modules (13) utilisés dans la composition dudit système de surveillance (11). 12. Design tool according to any one of the preceding claims, characterized in that it comprises means (9) for calculating a genericity quality indicator measuring a level of genericity of each of said modules (13) used in the composition. said monitoring system (11). 13. Outil de conception selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comporte des moyens (9) pour calculer un indicateur de pertinence globale du système de surveillance (11) en fonction d'une note de pertinence et d'une pondération associées à chacun desdits modules (13). 13. Design tool according to any one of the preceding claims, characterized in that it comprises means (9) for calculating an overall relevance indicator of the surveillance system (11) according to a rating of relevance and reliability. weighting associated with each of said modules (13). 14. Système de surveillance d'au moins un équipement (5) d'un moteur (7) d'aéronef conçu par l'outil de conception selon l'une quelconque des revendications précédentes caractérisé en ce qu'il comporte : au moins un module d'acquisition de données (13a, 13b) configuré pour recevoir via son interface d'entrée (13a1) des mesures spécifiques (IN1) et une valeur de qualité (DQV1) associée auxdites mesures spécifiques, et pour délivrer sur son interface de sortie (13a2) des données spécifiques (OUT1) et une valeur de qualité de sortie (PQV1) associée auxdites données spécifiques, un module de normalisation (13d) configuré pour recevoir via son interface d'entrée (13d1), lesdites données spécifiques et ladite valeur de 39 qualité de sortie correspondante et pour délivrer sur son interface de sortie (13d2) des données standardisées (0UT2) et une valeur de qualité (PQV2) associée auxdites données standardisées, un module de détection d'anomalie (13f) configuré pour recevoir via son interface d'entrée (13f1), lesdites données standardisées et ladite valeur de qualité associée aux données standardisées et pour délivrer sur son interface de sortie (13f2), un vecteur d'anomalie (0UT3) et une valeur de qualité (PQV3) associée audit vecteur d'anomalie, et un module de classification (13g) configuré pour recevoir via son interface d'entrée (13g1), ledit vecteur d'anomalie et ladite valeur de qualité associée au vecteur d'anomalie et pour délivrer sur via son interface de sortie (13g2), une mesure d'identification de défaillances (0UT4) et une valeur de qualité (PQV4) associée à ladite mesure d'identification.20 14. System for monitoring at least one equipment (5) of an aircraft engine (7) designed by the design tool according to any one of the preceding claims, characterized in that it comprises: at least one data acquisition module (13a, 13b) configured to receive via its input interface (13a1) specific measurements (IN1) and a quality value (DQV1) associated with said specific measurements, and to output on its output interface (13a2) specific data (OUT1) and an output quality value (PQV1) associated with said specific data, a normalization module (13d) configured to receive via said input interface (13d1), said specific data and said value corresponding output quality and to output on its output interface (13d2) standardized data (0UT2) and a quality value (PQV2) associated with said standardized data, an anomaly detection module (13f) configured é to receive via said input interface (13f1), said standardized data and said quality value associated with the standardized data and to deliver on its output interface (13f2), an anomaly vector (0UT3) and a quality value (PQV3) associated with said anomaly vector, and a classification module (13g) configured to receive via its input interface (13g1), said anomaly vector and said quality value associated with the anomaly vector and to deliver on via its output interface (13g2), a failure identification measure (0UT4) and a quality value (PQV4) associated with said identification measure.
FR1051528A 2010-03-03 2010-03-03 DESIGN TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE Active FR2957170B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1051528A FR2957170B1 (en) 2010-03-03 2010-03-03 DESIGN TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1051528A FR2957170B1 (en) 2010-03-03 2010-03-03 DESIGN TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE

Publications (2)

Publication Number Publication Date
FR2957170A1 true FR2957170A1 (en) 2011-09-09
FR2957170B1 FR2957170B1 (en) 2015-04-17

Family

ID=42272217

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1051528A Active FR2957170B1 (en) 2010-03-03 2010-03-03 DESIGN TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE

Country Status (1)

Country Link
FR (1) FR2957170B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014064396A2 (en) 2012-10-26 2014-05-01 Snecma System for monitoring a set of components of a device
FR3012636A1 (en) * 2013-10-24 2015-05-01 Snecma METHOD FOR NON-REGRESSION OF A DESIGN TOOL OF AN AIRCRAFT ENGINE MONITORING SYSTEM
EP3009906A1 (en) * 2014-10-15 2016-04-20 The Boeing Company Motor health management apparatus and method
FR3028067A1 (en) * 2014-11-05 2016-05-06 Snecma VALIDATION TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE
US20170185937A1 (en) * 2015-12-23 2017-06-29 Safran Aircraft Engines Aircraft flight data evaluation system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J LACAILLE: "A Maturation Environment to Develop and Manage Health Monitoring Algorithms", ANNUAL CONFEREMCE OF THE PROGNOSTICS AND HEALTH MANAGEMENT SOCIETY 2009, 18 September 2009 (2009-09-18), San Diego, CA, USA, pages 1 - 10, XP002590124 *
KACPRZYNSKI G J ET AL: "Health management system design: development, simulation and cost/benefit optimization", AEROSPACE CONFERENCE PROCEEDINGS, 2002. IEEE MAR 9-16, 2002, PISCATAWAY, NJ, USA,IEEE, vol. 6, 9 March 2002 (2002-03-09), pages 3065 - 3072, XP010604875, ISBN: 978-0-7803-7231-3 *
VIASSOLO D E ET AL: "Advanced Estimation for Aircraft Engines", AMERICAN CONTROL CONFERENCE, 2007. ACC '07, IEEE, PISCATAWAY, NJ, USA, 9 July 2007 (2007-07-09), pages 2807 - 2821, XP031215706, ISBN: 978-1-4244-0988-4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754429B2 (en) 2012-10-26 2017-09-05 Snecma System for monitoring a set of components of a device
WO2014064396A2 (en) 2012-10-26 2014-05-01 Snecma System for monitoring a set of components of a device
FR3012636A1 (en) * 2013-10-24 2015-05-01 Snecma METHOD FOR NON-REGRESSION OF A DESIGN TOOL OF AN AIRCRAFT ENGINE MONITORING SYSTEM
US10094740B2 (en) 2013-10-24 2018-10-09 Safran Aircraft Engines Non-regression method of a tool for designing a monitoring system of an aircraft engine
CN105527971A (en) * 2014-10-15 2016-04-27 波音公司 Motor Health Management Apparatus and Method
EP3009906A1 (en) * 2014-10-15 2016-04-20 The Boeing Company Motor health management apparatus and method
US10336472B2 (en) 2014-10-15 2019-07-02 The Boeing Company Motor health management apparatus and method
CN105527971B (en) * 2014-10-15 2020-11-20 波音公司 Motor health management apparatus and method
WO2016071605A1 (en) * 2014-11-05 2016-05-12 Snecma Tool for validating a system for monitoring an aircraft engine
FR3028067A1 (en) * 2014-11-05 2016-05-06 Snecma VALIDATION TOOL FOR A SYSTEM FOR MONITORING AN AIRCRAFT ENGINE
US10032322B2 (en) 2014-11-05 2018-07-24 Safran Aircraft Engines Validation tool for an aircraft engine monitoring system
RU2684225C2 (en) * 2014-11-05 2019-04-04 Сафран Эркрафт Энджинз Aircraft engine monitoring system validation instrument
US20170185937A1 (en) * 2015-12-23 2017-06-29 Safran Aircraft Engines Aircraft flight data evaluation system

Also Published As

Publication number Publication date
FR2957170B1 (en) 2015-04-17

Similar Documents

Publication Publication Date Title
EP2376989B1 (en) Identification of defects in an aircraft engine
EP3215903B1 (en) Tool for validating a system for monitoring an aircraft engine
EP2376988B1 (en) Standardisation of data used for monitoring an aircraft engine
EP2368161B1 (en) Detection of anomalies in an aircraft engine
EP2912526B1 (en) System for monitoring a set of components of a device
EP3123139B1 (en) Method for estimating the normal or abnormal character of a measured value of a physical parameter of an aircraft motor
FR2970358A1 (en) PROGNOSTIC OF DURATION BEFORE MAINTENANCE BY FUSION BETWEEN MODELING AND SIMULATION, FOR ELECTRONIC EQUIPMENTS ON BOARD IN AN AIRCRAFT
EP3350660B1 (en) Decision aid system and method for the maintenance of a machine with learning of a decision model supervised by expert opinion
FR3035232A1 (en) SYSTEM FOR MONITORING THE HEALTH CONDITION OF AN ENGINE AND ASSOCIATED CONFIGURATION METHOD
FR2957170A1 (en) Equipment monitoring system designing tool for engine of aircraft, involves processing unit evaluating quantification of monitoring system based on quality value of result corresponding to output quality value associated with output module
FR3012636A1 (en) METHOD FOR NON-REGRESSION OF A DESIGN TOOL OF AN AIRCRAFT ENGINE MONITORING SYSTEM
FR3095424A1 (en) System and method for monitoring an aircraft engine
WO2017077247A1 (en) System and method for monitoring a turbomachine, with indicator merging for the synthesis of an alarm confirmation
FR3026882A1 (en) METHOD FOR DETERMINING AT LEAST ONE FAILURE OF AN AIRCRAFT EQUIPMENT AND CORRESPONDING SYSTEM
Dzakowic et al. Advanced Techniques for the verification and validation of prognostics & health management capabilities
Langer et al. A self-learning approach for validation of communication in embedded systems
FR3120145A1 (en) Method for evaluating the wear of a part of a turbomachine
FR2966878A1 (en) System for monitoring validity of temperature measurement chain of exhaust gases of jet engine of aircraft, has computer analyzing results of statistical test on abnormality detection indicator to assess validity of chain

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

CD Change of name or company name

Owner name: SAFRAN AIRCRAFT ENGINES, FR

Effective date: 20170719

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15