FR3062733A1 - Procede de surveillance d'un equipement de type actionneur electromecanique - Google Patents

Procede de surveillance d'un equipement de type actionneur electromecanique Download PDF

Info

Publication number
FR3062733A1
FR3062733A1 FR1750979A FR1750979A FR3062733A1 FR 3062733 A1 FR3062733 A1 FR 3062733A1 FR 1750979 A FR1750979 A FR 1750979A FR 1750979 A FR1750979 A FR 1750979A FR 3062733 A1 FR3062733 A1 FR 3062733A1
Authority
FR
France
Prior art keywords
learning
observations
sub
class
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1750979A
Other languages
English (en)
Other versions
FR3062733B1 (fr
Inventor
Romain Breuneval
Babak Nahid-Mobarakeh
Badr MANSOURI
Guy Clerc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Safran Electronics and Defense SAS
Original Assignee
Centre National de la Recherche Scientifique CNRS
Safran Electronics and Defense SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Safran Electronics and Defense SAS filed Critical Centre National de la Recherche Scientifique CNRS
Priority to FR1750979A priority Critical patent/FR3062733B1/fr
Publication of FR3062733A1 publication Critical patent/FR3062733A1/fr
Application granted granted Critical
Publication of FR3062733B1 publication Critical patent/FR3062733B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/023Learning or tuning the parameters of a fuzzy system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Testing Electric Properties And Detecting Electric Faults (AREA)

Abstract

L'invention concerne un procédé de surveillance comportant une phase de diagnostic pour évaluer un état d'un équipement, la phase de diagnostic comprenant : - une étape d'apprentissage comportant : - une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des observations (50) ; - une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations (51) ; - une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou (52) ; - une étape de diagnostic en opération consistant à acquérir en opération et à classifier de nouvelles observations.

Description

Titulaire(s) : SAFRAN ELECTRONICS & DEFENSE Société par actions simplifiée, CENTRE NATIONAL DE LA RECHERCHE SCIENTIFIQUE Etablissement public.
Demande(s) d’extension
Mandataire(s) : CABINET BOETTCHER.
PROCEDE DE SURVEILLANCE D'UN EOUIPEMENT DE TYPE ACTIONNEUR ELECTROMECANIOUE.
FR 3 062 733 - A1 (U/) L'invention concerne un procédé de surveillance comportant une phase de diagnostic pour évaluer un état d'un équipement, la phase de diagnostic comprenant:
- une étape d'apprentissage comportant:
- une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des observations (50) ;
- une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations (51);
- une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou (52) ;
- une étape de diagnostic en opération consistant à acquérir en opération et à classifier de nouvelles observations.
51 52
Figure FR3062733A1_D0001
Figure FR3062733A1_D0002
L'invention concerne le domaine des procédés de surveillance d'un équipement de type actionneur électromécanique.
ARRIERE PLAN DE L'INVENTION
Les fonctions de health monitoring (on parle aussi, mais moins fréquemment, de maintenance conditionnelle, de maintenance prédictive ou de maintenance prévisionnelle) sont utilisées pour anticiper la dégradation d'un équipement ou d'un système, notamment dans le domaine aéronautique.
Les fonctions de health monitoring permettent ainsi d'éviter une panne, d'optimiser la durée de vie, d'anticiper et de planifier les opérations de maintenance (et d'une éventuelle dépose), et donc de réduire les coûts des opérations de maintenance de l'équipement ou du système.
La mise en œuvre d'une fonction de health monitoring comporte classiquement une phase d'acquisition de données, une phase de pré-conditionnement des données, une phase d'extraction de signatures, une phase de diagnostic et une phase de pronostic.
La phase d'acquisition de données consiste à acquérir des données de mesure produites par des capteurs mesurant des paramètres représentatifs d'une performance de l'équipement ou du système.
L'acquisition des données est par exemple réalisée via des essais, ou bien par téléchargement sur l'équipement ou sur le système lorsque celui-ci est opérationnel.
La phase de pré-conditionnement des données consiste notamment à filtrer les données pour supprimer le bruit de mesure présent dans les données.
La phase d'extraction de signatures consiste à traiter les données pour en extraire des signatures représentatives de l'état de l'équipement ou du système et, éventuellement, d'une dégradation du fonctionnement de l'équipement ou du système. Une telle dégradation est causée par la présence d'un ou de plusieurs défauts subis par l'équipement ou par le système. Les signatures sont donc représentatives du ou des défauts.
La phase de diagnostic consiste notamment à évaluer les signatures pour estimer l'état de l'équipement ou du système et, en cas de défaut, pour localiser et évaluer la sévérité dudit défaut.
La phase de pronostic consiste à estimer la durée de vie restante de l'équipement ou du système.
OBJET DE L'INVENTION
L'invention a pour objet d'évaluer un degré de confiance des diagnostics réalisés au cours de la phase de diagnostic d'une fonction de health monitoring, et de détecter de nouveaux défauts ou des défauts combinés au cours de la phase de diagnostic de la fonction de health monitoring.
RESUME DE L’INVENTION
En vue de la réalisation de ce but, on propose un procédé de surveillance d'un équipement de type actionneur électromécanique, comportant une phase de diagnostic pour évaluer un état de l'équipement, la phase de diagnostic comprenant :
- une étape préliminaire consistant à acquérir des observations comprenant des mesures de paramètres de l'équipement représentatifs d'une performance de l'équipement ;
- une première étape d'élaboration de signatures consistant à produire une première base de données comportant des signatures représentatives d'une absence de défaut et de défauts de l'équipement présents dans les observations ;
- une étape d'apprentissage utilisant la première base de données et comprenant :
— une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des observations ;
— une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations ;
— une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou ;
- une étape de diagnostic en opération consistant à acquérir en opération de nouvelles observations et à classifier les nouvelles observations.
Le procédé de surveillance selon l'invention permet d'évaluer un degré de confiance des diagnostics réalisés au cours de la phase de diagnostic, et de détecter de nouveaux défauts ou des défauts combinés au cours de la phase de diagnostic.
L'invention sera mieux comprise à la lumière de la description qui suit d'un mode de mise en œuvre particulier non limitatif de l'invention.
BREVE DESCRIPTION DES DESSINS
Il sera fait référence aux dessins annexés, parmi lesquels :
- la figure 1 représente une échelle de sévérité d'un défaut de court-circuit ;
— la figure 2 représente le principe de la reconnaissance de formes mise en œuvre dans une fonction de classification ;
— la figure 3 représente un graphique comprenant un hyperplan séparateur et des points dont les coordonnées sont des observations ;
— la figure 4 représente une projection de données dans un espace euclidien de plus grande dimension ;
- la figure 5 représente la mise en œuvre d'une
méthode One vs Ail f
— la figure 6 représente la mise en œuvre d'une
méthode One vs One r
- la figure 7 représente la mise en œuvre d'une
méthode One to Others ;
- la figure 8 représente des étapes de réglage d'un algorithme SVM selon une logique classique ;
- la figure 9 est un tableau comprenant la définition de normes triangulaires ;
- la figure 10 représente le couplage entre un modèle d'apprentissage flou et un modèle d'apprentissage net ;
- la figure 11 représente un schéma d'un modèle d'apprentissage flou ;
- la figure 12 représente des étapes de réglage d'un algorithme SVM selon une logique floue ;
- la figure 13 est une carte représentant une règle de décision ;
- la figure 14 représente une étape d'apprentissage du procédé de surveillance selon 1'invention ;
- les figures 15 à 17 représentent une étape de diagnostic du procédé de surveillance selon l'invention.
DESCRIPTION DETAILLEE DE L'INVENTION
Le procédé de surveillance selon l'invention est ici mis en œuvre sur un actionneur électromécanique linéaire de commande de vol d'un aéronef.
L'actionneur électromécanique linéaire comporte ici un moteur électrique de type moteur synchrone à aimants permanents, une transmission mécanique qui peut être en prise directe ou indirecte, un module électronique de puissance qui peut être déporté ou non, un module électronique de commande qui peut être déporté ou non, et un ensemble de capteurs. L'ensemble de capteurs comprend ici un capteur de courant, une sonde de température, un capteur d'effort et un capteur de position. Le capteur de position mesure une position angulaire du rotor du moteur électrique.
Le procédé de surveillance selon l'invention permet de réaliser une fonction de health monitoring sur l'actionneur électromécanique linéaire.
Comme cela a été dit plus tôt, la fonction de health monitoring comporte une phase d'acquisition de données, une phase de pré-conditionnement des données, une phase d'extraction de signatures, une phase de diagnostic et une phase de pronostic.
La phase de diagnostic, dont il est ici question, comporte tout d'abord une étape préliminaire consistant à acquérir des observations comprenant des mesures de paramètres de l'actionneur électromécanique linéaire.
Les paramètres comprennent par exemple un ou des courants triphasés, une température, vitesse, un effort de charge électromécanique linéaire, etc.
Les paramètres sont susceptibles manière combinée, et sont représentatifs d'une performance de l'actionneur électromécanique linéaire.
La performance de l'actionneur électromécanique linéaire peut être une performance quelconque : durée de vie de l'actionneur électromécanique linéaire, précision de 1'actionnement, temps de réponse, etc.
Le procédé de surveillance selon 1'invention comprend ensuite une première étape d'élaboration de signatures pour la détection d'un ou de plusieurs défauts subis par l'actionneur électromécanique linéaire, et une deuxième étape d'élaboration de signatures pour estimer la sévérité du ou des défauts.
Une signature est une grandeur sensible à la dégradation de l'actionneur électromécanique linéaire. La une position, une sur l'actionneur d'évoluer de valeur de la signature varie s'il y a présence d'un ou de plusieurs défauts. Cette variation est fonction de la sévérité du ou des défauts. Les signatures sont calculées à partir des paramètres mesurés.
La première étape d'élaboration de consiste à produire une première base comportant des signatures des observations.
La deuxième étape d'élaboration de consiste à produire des deuxièmes bases comportant des signatures de données de signatures de données signatures de données défaut, les données de défaut étant représentatives d'une sévérité d'au moins un défaut susceptible de dégrader le fonctionnement de 1'actionneur électromécanique linéaire.
Les deuxièmes bases de données sont utilisées pour estimer la sévérité du ou des défauts.
La première base de données est créée de la manière suivante.
Soit un ensemble de m observations Oj, j e {l,...,m}. Chaque observation constitue ici un ensemble de mesures, issues des capteurs de 1'actionneur électromécanique linéaire. Ces mesures peuvent par exemple être effectuées sur des profils opérationnels de l'aéronef lorsque l'aéronef est en vol, ou sur des profils imposés lorsque l'aéronef se trouve sur le tarmac.
Pour chaque observation Oj, on calcule un ensemble
b) de d signatures de défauts tel que
X(j’ = [signi (Oj) ,..., signd (Oj) ] .
On obtient ainsi la première base de données
’xæ' signiCoJ^.^signdCo!) ’
.xCm) -signi(om),..., signd (om).
X!
Xi
CD
Xd
Cl)
Cm)
Xr
Cm)
Un vecteur Y, dit vecteur des labels, est associé à la première base de données.
Chaque observation est associée à un label yj e {1,..., C}, où C est un nombre de classes. On dit, pour chaque observation, que l'observation appartient à une classe. Chaque classe représente un mode de fonctionnement du système. On pourra par exemple définir les classes suivantes :
- classe 1 : pas de défaut ;
- classe 2 : présence d'un défaut mécanique ;
- classe 3 : présence d'un défaut électrique.
Les deuxièmes bases de données sont quant à elles créées de la manière suivante.
Les deuxièmes bases de données correspondent à un ensemble XSEV = {Xsevi,..., Xsevc-i} de bases de données d'observations. Les signatures issues des observations des bases de données Xsevjç peuvent être différentes de celles de la base X. Elles peuvent également être distinctes entre deux Xsevk. Chaque base Xsevk contient des données concernant un unique défaut (le kième). Les données représentent le défaut pour plusieurs sévérités {ski,..., skftsgtr^} .
Les classes représentent donc les niveaux de sévérités ykj E {1, ...,nsevk}. L'ensemble des ykj est noté YSEV.
Pour chaque défaut, la sévérité est estimée sur une échelle qui est graduée selon un paramètre de sévérité ech h 0.
Le paramètre de sévérité ech peut avoir une signification physique ou non.
Par exemple, l'échelle 1, visible sur la figure 1, est graduée selon le paramètre de sévérité Rf, qui est la résistance de défaut représentant la résistance dans une ligne de fuite entre deux spires sur le stator du moteur électrique.
Le paramètre de sévérité pourrait aussi être par exemple une profondeur d'une fissure sur un roulement à billes, une surface d'une zone écaillée sur un roulement à billes, etc.
Les classes sont reportées sur l'échelle 1.
L'objectif de la phase de diagnostic, dont il est ici question, est d'établir un modèle à partir des bases de données et des vecteurs (X, Y, XSEV, YSEV), permettant de prédire la classe d'une nouvelle observation, c'est à dire d'établir un diagnostic relatif à la nouvelle observation.
La phase de diagnostic utilise une méthode issue de la famille de méthodes dite « de reconnaissance de formes ». Dans une telle méthode, en référence à la figure 2, la prédiction repose sur une mesure de similarité entre une nouvelle observation x(new) et des classes (Ω1, ..., Ωσ) , la classe Ω1 correspondant à une absence de défaut, la classe Ω2 correspondant à un défaut appelé « défaut 1 », la classe Qc correspondant à un défaut appelé « défaut c-1 ».
La phase de diagnostic comporte ensuite deux étapes principales : une étape d'apprentissage du modèle de diagnostic, et une étape d'utilisation du modèle de diagnostic en opération (diagnostic en opération).
L'étape d'apprentissage du modèle de diagnostic utilise tout d'abord la première base de données puis les deuxièmes bases de données.
L'étape d'apprentissage du modèle de diagnostic comprend tout d'abord une première sous-étape d'apprentissage et de réglage d'un algorithme SVM (SVM, pour Support Vector Machine, en anglais, ou Machine à Vecteur de Support) selon une logique classique pour générer un modèle d'apprentissage net de classification des signatures des observations.
On décrit tout d'abord l'apprentissage mis en œuvre dans la première sous-étape d'apprentissage et de réglage de l'algorithme SVM selon une logique classique, dans un cas binaire linéaire non séparable.
En référence à la figure 3, l'objectif est ici de trouver un hyperplan séparateur 2 qui maximise la marge
d.
La distance entre les échantillons les plus proches d'un première groupe 3 et 1'hyperplan séparateur 2, et la distance entre les échantillons les plus proches d'un deuxième groupe 4 et 1'hyperplan séparateur Ί, sont respectivement égales à d+ et d-, où d+=d-=l/j |ω||.
La marge s'exprime alors par : d=l/2||ω[|.
L'hyperplan séparateur 2 qui maximise la marge a pour équation : h(x)=wTx(new)+b.
L'appartenance de x(new) à l'un des premier groupe 3 ou deuxième groupe 4 est définie par un test d'appartenance consistant à définir le signe (>0 ou <0) de h (x) .
Il convient alors de maximiser la fonction coût suivante :
où :
- la valeur |||ω|[2 correspond à une maximisation de la marge ;
- la valeur Cre5(2i^i) exprime la limitation des valeurs des coefficients de Lagrange (pour la régularisation) ;
- Cre^ est un paramètre choisi qui représente la tolérance aux exemples mal classés.
La fonction coût, reformulée en Lagrangien dual, s'écrit :
Ld = Σ*=ι «i - 7 Zij «i ajyiyjX^x®.
Les contraintes suivantes doivent être respectées :
- Q < et , < Cre^
- Σι=ι«ΐΥί = 0
- w=
On décrit cette fois l'apprentissage mis en œuvre dans la première sous-étape d'apprentissage et de réglage de l'algorithme SVM selon une logique classique, dans un cas binaire non linéaire et non séparable.
On utilise une fonction noyau pour projeter des données dans un espace euclidien % de plus grande dimension. On effectue ainsi une transformation non linéaire :
Φ : R.d -> (avec » d) .
On définit alors un hyperplan optimal dans %, et on remplace dans les équations les x®x® par φ(χ®).φ(χ®).
La fonction noyau K est telle que :
κ(χ®, χ®) = Φ(χ®).Φ(χω).
Il n'est donc plus nécessaire de connaître Φ explicitement, car connaître K est suffisant. La fonction noyau est équivalente à une fonction de similarité, qu'il est possible de paramétrer en fonction des données.
On voit sur la figure 4 un exemple de mise en œuvre de cette méthode. Les données sont initialement situées sur une droite 5 (un espace de dimension 1) , et ne peuvent être séparées. La projection des données sur un plan (un espace de dimension 2) comprenant un hyperplan séparateur 7 permet de séparer les données.
Un certain nombre de conditions doivent être respectées pour qu'une fonction soit une fonction noyau. En particulier, la fonction doit être continue, symétrique, et semi-définie positive, ou bien la fonction doit être définie conformément au théorème de Mercer.
La fonction noyau est ainsi par exemple :
- une fonction linéaire :
Kl(x®, x®) = x®x® ,
- une fonction polynomiale de degré p :
Kz(x^, x^) = (1 +χ^χ^)ρ ;
- une fonction gaussienne (ou fonction à base radiale dite « RBF ») :
||χω-χω||2
K3(x®, x®) = e 2s!
- une fonction sigmoïde :
K4(x®, x®) = tanh(ccx®x® + β).
Dans le cas binaire non linéaire non séparable, la fonction coût, reformulée en Lagrangien dual, s'écrit : L(a) = Σ’=ι ak - |Zi,j «i “]ΥίΥ)Φ(χω)· Φ(χ®) = Σΐ=ι ak - |Σϊ,| ajYiYjK(x®, x®)
L'hyperplan est quant à lui défini par l'équation :
f(x„e„) = Ji*OT *(x<’eW))] + b = Σ,ΐ Ol + b, où :
- Ns est un nombre de vecteurs supports (correspondant aux observations sur les marges) ;
- sCl), avec i e (1, Ns}, sont les vecteurs supports.
La fonction coût est ainsi une fonction quadratique de la forme :
-xTHx+ fTx.
La fonction quadratique respecte les contraintes :
(Aeax = bea
J eq , ou :
t0 < x< C
- x = a (Lagrangien) ;
- xT est un vecteur matrice transposé ;
- H = YTKY (Produit lagrangien/labels ;
- K est une matrice noyau ;
- f est un vecteur avec des 1 de même taille que a ;
- A — YT -tt-eq — 1 r
- beq est un vecteur de zéros de même taille que a.
Ainsi, tous les algorithmes de résolution de problèmes quadratiques sont utilisables, et notamment l'algorithme du simplexe, l'algorithme des points intérieurs, l'algorithme d'optimisation séquentiel du minimum (ou SMO), l'algorithme de programmation séquentielle quadratique (ou SQP), etc.
On décrit cette fois l'apprentissage mis en œuvre dans la première sous-étape d'apprentissage et de réglage de l'algorithme SVM selon une logique classique, dans un cas de SVM multi-classes. Les techniques d'apprentissage utilisant des algorithmes SVM portent classiquement sur deux classes. On étend ici ce type de techniques d'apprentissage à C classes.
On utilise une combinaison de plusieurs modèles SVM binaires.
On rappelle que :
- C est le nombre de classes ;
- les x® G avec j E sont les données ;
- les yjG{l,..,C} sont les labels.
Trois principales méthodes peuvent être utilisées : la méthode « One vs Ail » (ou méthode OvA) , la méthode « One vs One » (ou méthode OvO) , et la méthode « One to Others » (ou méthode OtO).
Chacune de ces méthodes présente des avantages et des inconvénients.
La méthode OvO est en général plus performante que la méthode OvA, en matière de précision et de robustesse.
La méthode OtO est la plus rapide (en matière de temps de calcul), alors que la méthode OvO est plus lente que la méthode OvA.
On précise ici le fonctionnement de chacune de ces méthodes.
Le principe de la méthode OvA est de tester une classe contre toutes les autres, successivement.
Pour chaque classe i, on définit un nouveau vecteur label Y® tel que :
Siyj =i alors y® = +1 sinonyi·^ =—1
L'indice des classes est tel que : i E {1,..,C}.
L'indice des observations est tel que : j E Un apprentissage sur le couple (X,Y®) est ainsi mis en œuvre.
En référence à la figure 5, où quatre classes Cl, C2, C3, C4 sont représentées, le test est réalisé d'abord
pour la classe Cl contre les classes C2, C3, C4, puis
pour la classe C2 contre les classes Cl, C3, C4, puis
pour la classe C3 contre les classes Cl, C2, C4, puis
pour la classe C4 contre les classes Cl, C2, C3.
Ainsi, l'attribution d'une classe à une nouvelle observation xtnew) consiste à tester x(new) sur c classifieurs binaires, et donc à calculer les distances à C hyperplans.
Pour un classifieur k, la distance est exprimée par :
f(Xnew) = + b , où Ngk est un nombre de vecteurs supports pour le <-ène classifieur.
La classe de xCnew) est celle qui maximise f(xnew).
Le principe de la méthode OvO est de tester une classe contre une autre.
Pour les clases Cl et C2, si y, = 1 alors y^ =+1, et si Yj = 2 , alors = —1 , sinon y··12) = 0.
Un apprentissage sur le couple (X,Y®) est ainsi mis en œuvre.
Le nombre total d'apprentissages est égal à :
C *-.
En référence à la figure 6, où quatre classes Cl, C2, C3, C4 sont représentées, la classe Cl est cotée +1 et la classe C2 est cotée -1, puis la classe Cl est cotée + 1 et la classe C3 est cotée -1, puis la classe Cl est cotée +1 et la classe C4 est cotée -1, puis la classe C2 est cotée +1 et la classe C3 est cotée -1.
Ainsi, l'attribution d'une classe à une nouvelle observation xCnew) consiste à tester x(ncw) surC* — 2 classifieurs binaires. Chaque classe apparaît donc C—1 fois.
fk4)
On note fj J un classifieur traitant la classe k d e{i,..,c-i}).
On a
N,
Sk fi(k) (x(new)) = XtîleW)) + _ i=i
On a donc F(k)(xCnew)) = h
avec δ = +1 si la classe k est du côté +1, et avec Ô = — 1 sinon.
. (new) sera celle qui maximise
On réglage
La classe attribué à x' F(k) (xinew)) _
Le principe de la méthode OtO est de reprendre la méthode OvA en supprimant les points classifiés à chaque étape. On diminue ainsi les coûts de calcul. On utilise aussi la méthode OvA pour attribuer une classe à une nouvelle observation x(new).
Ainsi, en référence à la figure 7, où quatre classes Cl, C2, C3, C4 sont représentées, le test est réalisé d'abord pour la classe Cl contre les classes C2, C3, C4, puis pour la classe C2 contre les classes C3 et C4, puis pour la classe C3 contre la classe C4.
s'intéresse désormais plus particulièrement au mis en œuvre dans la première sous-étape d'apprentissage et de réglage de l'algorithme SVM selon une logique classique.
On définit les notations suivantes, visibles sur la figure 8 :
- a : apprentissage ;
- t : test ;
- Xa, Xt : bases de données ;
- Ya, Yt : vecteurs de labels ;
- ML : modèle d'apprentissage net SVM entraîné ;
- MLr : modèle d'apprentissage net SVM réglé ;
- me : métriques d'évaluation (erreur, temps d'apprentissage, temps de prédiction...) ;
- crit : critères liés aux me (maximum de l'erreur sous seuil, temps de prédiction sous seuil...) ;
- mel : erreur calculée ;
- si : seuil sur l'erreur.
En référence à la figure 8, le réglage' consiste à choisir la fonction noyau K (étape 10) , à choisir les paramètres de la fonction noyau (étape 11), et à choisir le paramètre C (étape 12) . Puis, le réglage consiste à réaliser l'apprentissage évoqué plus tôt, en utilisant la base de données Xa et le vecteur de labels Ya (étape 13), et à réaliser le test d'appartenance en utilisant le modèle d'apprentissage net SVM entraîné ML et la base de données Xt (étape 14). L'erreur mel est ensuite calculée (étape 15). L'erreur mel est alors comparée avec le seuil sur l'erreur si (étape 16). Si l'erreur mel est supérieure au seuil sur l'erreur si, le choix des paramètres de la fonction noyau est affiné. Sinon, le modèle obtenu est considéré comme étant réglé, et devient le modèle d'apprentissage net SVM réglé MLr.
L'étape d'apprentissage du modèle de diagnostic comprend ensuite une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations.
On s'intéresse tout d'abord au modèle d'apprentissage flou dans un cas binaire.
Selon la théorie des ensembles classique (ou ensembles nets), l'appartenance de x à un ensemble C est défini par une fonction d'appartenance :
pc(x):x -> {0,1}.
Deux valeurs seulement sont possibles.
Selon la théorie des ensembles flous, l'appartenance de x à un ensemble C est définie par une fonction d'appartenance (ou MBF, pour Membership Functions, en anglais) :
acix;:x - [0,1].
Une infinité de valeurs graduées est possible.
Pour faire le lien avec la classification, on considère que x est une observation et que C est une classe.
On définit une combinaison d'appartenances via des normes triangulaires.
Deux types de norme sont utilisées : Tnorme T (opérateur d'intersection) et Tconorme J_ (opérateur d'union).
Les lois internes vérifient :
[0,1] x [0,1] [0,1] .
On notera <p une norme triangulaire quelconque, pouvant être une Tnorme ou une Tconorme.
Les propriétés à vérifier (Vx,y,z G [0,1]) sont :
- la commutativité : ip(x,y) = tp(y, x) ;
- l'associativité : cp(x,tp(y,z) = cp(cp(y, x),zj) ;
- la non décroissance par rapport à chaque variable : y < z => <p(x,y) < φ(χ, z) ;
- l'élément neutre e : cp(x, e) = x (Tnorme : e = 1, Tconorme : e = 0) .
La figure 9 fournit des exemples de normes, avec a e [0,1] et b ^[0,1].
Deux normes sur une même ligne du tableau de la figure 9 sont dites duales.
En référence à la figure 10, le degré d'appartenance γ des vecteurs supports SV dans le cas binaire, et le type de fonction d'appartenance sont tout d'abord définis (étape 20).
Le modèle d'apprentissage flou SVM est appris de la même manière que le modèle d'apprentissage net SVM (voir plus tôt - étape 21). Les appartenances sont définies à partir des mesures de distance, et les paramètres des fonctions d'appartenance (appelés a, b,... sur la figure 10) sont calculés (étape 22).
Les fonctions d'appartenances des deux classes doivent avoir les propriétés suivantes :
- le degré d'appartenance des vecteurs supports est égal à ] 0,5; 1] ;
- les deux fonctions d'appartenances ul et u2 sont symétriques par rapport à 0 et leur somme est égale à 1 : ul (dh)+u2 (dh) =1V dh (dh est la distance à 1'hyperplan). La fonction ul est la fonction d'appartenance d'un point à la classe telle que y=-l, et la fonction u2 est la fonction d'appartenance d'un point à la classe telle que y=-l.
La figure 11 illustre ce qui vient d'être dit, dans le cas où γ=0,8.
On s'intéresse maintenant au modèle d'apprentissage flou dans un cas multi-classes.
L'apprentissage se fait de la même manière que pour les méthodes multi-classes précédemment décrites, mais en apprenant à chaque itération un modèle d'apprentissage flou dans le cas binaire, au lieu d'un modèle d'apprentissage net dans le cas binaire.
En vue d'effectuer un diagnostic, les appartenances sont combinées via des normes triangulaires.
On peut ainsi calculer :
- une matrice représentant le degré d'appartenance des observations aux classes : UciâSS. Le degré d'appartenance peut représenter un degré de confiance où un degré de sévérité, en fonction de la base de données construite ;
- un vecteur représentant l'appartenance des choisir le type de l'appartenance des SV :
observations à des classes inconnues (c'est à dire qui ne sont pas présentes dans la base d'apprentissage) : UothersEn référence à la figure 12, le réglage consiste à MBF (étape 30) , à choisir γ (étape 31) , et à choisir la norme utilisée (étape 32).
Puis, le réglage consiste à calculer les paramètres MBF en utilisant la base de données Xa et le modèle d'apprentissage net SVM réglé MLr (étape 33), à calculer les appartenances en utilisant un modèle d'apprentissage flou SVM entraîné MLFZ et la base de données Xt (étape 34), et à réaliser un calcul métrique d'évaluation en utilisant la matrice Uciass et le vecteur Uothers (étape 35) . Le respect des critères est alors vérifié (étape 36} . Si l'erreur me est supérieure au seuil sur l'erreur, le choix des paramètres de la fonction noyau est affiné. Sinon, le modèle est considéré comme réglé, et le modèle obtenu est un modèle d'apprentissage SVM Flou - Fusion Flou réglé MLFZr.
L'étape d'apprentissage du modèle de diagnostic comprend ensuite une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou.
La sous-étape de paramétrage de la règle de décision automatique consiste tout d'abord à calculer un indicateur de rejet en distance.
L'objectif de l'indicateur de rejet en distance est de détecter les points de classes présentes dans la base d'apprentissage pour une observation x par :
inconnues (non Il se calcule
ID(x) = uothersCx) maxk - K(gk,x) K(gc,x)}'
OU x 6 Bd est une observation ;
- uothers(X) définit l'appartenance de l'observation x à des classes non-définies ;
- KÇg|ç,x) définit le kernel (mesure de similarité) entre le centre de gravité gk de la classe k et l'observation
x.
Puis, la sous-étape de paramétrage de la règle de décision automatique consiste à calculer un indicateur d'ambiguïté.
L'objectif de l'indicateur d'ambiguïté est de détecter les points appartenant à deux classes (ou plus) en même temps (défauts combinés) . Il se calcule pour une observation x par :
IA<> _ max{K(gkl,x) ; K(g2,x) }
AU-classJcikz (x) où :
- kl : classe pour laquelle l'appartenance de x est maximum ;
- k2 : classe pour laquelle l'appartenance de x atteint sa deuxième plus forte valeur ;
- AuciasSkik^ (x) — juciasSki(x) — uciasSfei (x) J.
La sous-étape de paramétrage de la règle de décision automatique nécessite de calculer un indicateur de référence pour l'indicateur de rejet en distance et un indicateur de référence pour l'indicateur d'ambiguïté.
On suppose que la base d'apprentissage Xa est pertinente par rapport aux défauts considérés et qu'elle ne contient pas d'erreur.
L'indicateur de rejet en distance est évalué par rapport à son écart avec son indicateur de référence. L'indicateur d'ambiguïté est évalué par rapport à son écart avec son indicateur de référence.
Les indicateurs de référence sont calculés de la manière suivante :
- IDref = maxxeXa{ID(x)} (pour l'indicateur de distance) ;
- IAref = maxxeXa{IA(x)} (pour l'indicateur d'ambiguïté).
Les opérateurs définissent également des seuils IDseuili, IDseuil2, IAseuin et IAseuii2, à partir desquels les valeurs ID/IDref et IA/IAref sont considérées comme anormales.
La règle de décision automatique qui est utilisée ici est une règle de décision simple basée sur les seuils. Cette règle peut être représentée comme un plan de décision. Le plan de décision est ici une « carte » en deux dimensions comprenant différentes zones, chaque zone correspondant à une décision. Un exemple d'une telle carte 40 est représenté sur la figure 13.
La carte 40 comprend plusieurs zones de décision : une zone de décision normale 41, des zones de décision de rejet en distance 42, des zones de décision d'ambiguïté 43, et une zone de décision de rejet en distance ou d'ambiguïté 44. Les zones de décision sont délimitées par les valeurs de seuil ID3euin, IDseuii2, IAseuin et IA3euil2.
L'étape d'apprentissage du modèle de diagnostic comprend ensuite, pour chaque défaut, une deuxième sousétape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des données de défaut, et une deuxième sous-étape d'apprentissage et de réglage d'un algorithme t.ll selon une logique floue pour générer un modèle d'apprentissage flou de classification des données de sévérité.
On évalue ainsi la sévérité de chaque défaut à partir des deuxièmes bases de données XSEV, en établissant un ensemble de modèles d'apprentissage SVMFZFF.
Cela deuxièmes sévérités consiste, pour chaque base de l'ensemble de bases de données XSEV (représentatives des d'un défaut), à régler un modèle d'apprentissage en appliquant les étapes d'apprentissage et de réglage d'un modèle d'apprentissage net, et en appliquant les étapes d'apprentissage et de réglage d'un modèle d'apprentissage flou qui viennent d'être décrites.
La figure 14 synthétise ce qui vient d'être expliqué pour l'étape d'apprentissage de la phase de diagnostic.
L'étape d'apprentissage comprend ainsi une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net, qui utilise les bases de données X et Y (sous-étape 50), puis une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations (sous-étape 51). Ces sous-étapes 50, 51 sont suivies par une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou, qui produit le modèle d'apprentissage SVM Flou - Fusion Flou réglé MLFZr et les seuils de référence IDref, IDseuiiir fDseu±i2< IAr®f, lAgeuin, IAseuii2 (étape 52) .
L'étape d'apprentissage comprend en outre, pour chaque défaut, une deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des données de sévérité pour chaque défaut, et une deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des données de sévérité pour chaque défaut.
Ainsi, pour le défaut 1, la deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique (étape 53) utilise Xsevi et Ysevl, et la deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue (étape 54) produit le modèle d'apprentissage MLFZ_DEFlr.
De même, pour le défaut C-l, la deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique (étape 55) utilise XseVc-i et Ysevc-i, et la deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue (étape 54) produit le modèle d'apprentissage MLFZ_DEF(cC-1}r.
On produit ainsi un ensemble de C-l modèles d'apprentissage SVMFZ-FF.
On s'intéresse maintenant à l'étape de diagnostic en opération de la phase de diagnostic. L'étape de diagnostic en opération consiste à acquérir de nouvelles observations alors que 1'actionneur électromécanique linéaire est en opération, et à classifier les nouvelles observations.
Pour chaque défaut, un modèle d'apprentissage SVMFZ - FF multi-classes a été entraîné et réglé sur des données représentatives. Ce modèle permet de détecter les défauts et d'estimer la sévérité du ou des défauts détectés. On notera C le nombre de classes (sain, défautl,... défaut C — 1) . Une seule méthode multi-classes est utilisée parmi les trois méthodes qui ont été présentées.
Les signatures sont extraites d'observations effectuées en vol et/ou sur des profils spécifiques appliqués sur le tarmac. Plusieurs observations ont été réalisées (5 à 10) pour limiter les effets du bruit. Ces observations sont réalisées à intervalles de temps courts (très inférieurs au temps de dégradation du système) les unes des autres. Par exemple, sur un vol long-courrier, les observations sont réalisées toutes les heures ou toutes les deux heures.
On note m le nombre d'observations réalisées. Elles sont rassemblées dans une base de test Xt représentative de l'état de 1'actionneur électromécanique linéaire entre deux vols.
Un diagnostic doit alors être effectué avant le décollage de l'aéronef.
Le diagnostic vise notamment à évaluer si l'état de l'actionneur électromécanique linéaire permet à l'aéronef de décoller, de voler et d'atterrir conformément aux normes de sécurité spécifiées.
En référence à la figure 15, l'étape d'utilisation du modèle de diagnostic en opération consiste donc, alors que l'actionneur électromécanique linéaire est opérationnel (étape 60), à acquérir une série de mesures sur profils (étape 61), à effectuer un préconditionnement des mesures (étape 62), et à extraire des signatures de défaut (étape 63) .
On obtient ainsi la base de test Xt.
Puis, en référence à la figure 16, l'étape d'utilisation du modèle de diagnostic en opération consiste ensuite à calculer des distances aux hyperplans en utilisant la base de test Xt (étape 64), à calculer des appartenances aux classes (étape 65) , à calculer la moyenne des appartenances UM pour chaque classe (étape 66), et à calculer un indicateur de rejet en distance ID et un indicateur d'ambiguïté IA (étape 67).
Puis, en référence à la figure 17, l'étape d'utilisation du modèle de diagnostic en opération comporte une étape de prise de décision automatique (étape 68), qui utilise la moyenne des appartenances UM pour chaque classe, l'indicateur de rejet en distance ID et l'indicateur d'ambiguïté IA.
Lorsque la prise de décision correspond à une décision dans la zone de décision normale (étape 69) , on évalue si un défaut est présent ou non (étape 70) . Si c'est le cas, un calcul de la sévérité echk(x) du défaut k est réalisé (étape 71). Sinon, l'actionneur électromécanique linéaire est déclaré sain.
Lorsque la prise de décision correspond à une décision dans la zone de décision ambiguë (étape 72) , et que des défauts sont potentiellement présents, des calculs de sévérité sont réalisés. Sur la figure 17, on voit qu'un défaut a et un défaut b sont potentiellement présents (étapes 73a et 73b) . Un calcul de la sévérité echa(x) du défaut a est donc réalisé (étape 74a), et un calcul de la sévérité echb (x) du défaut b est donc réalisé (étape 74b).
Lorsque la prise de décision correspond à une décision dans la zone de décision de rejet en distance (étape 75), les points sont transmis à des analystes (experts humains) pour analyse.
On décrit maintenant plus en détail l'étape 65 de calcul des appartenances aux classes.
On définit l'ensemble MDL comme étant un ensemble de modèles d'apprentissage flous MDL± dans des cas binaires (le nombre de modèles d'apprentissage flous MDLi dépend du type de méthode multi-classes).
On définit de plus un opérateur d'agrégation d'informations Ψ: MmtC(R) f-> reposant sur une norme triangulaire φ, où Mmc(X) est une matrice de m lignes et c colonnes à coefficients dans R.
La mise en œuvre de l'opérateur d'agrégation d'information Ψ consiste à appliquer successivement la norme triangulaire φ pour fusionner l'information contenue dans c nombres en un seul et unique coefficient. On parle également d'agrégation d'informations.
Pour chaque méthode multi-classes, on notera les opérateurs comme :
- One vs Ail : Ψ basé sur une Tnorme φ ;
- One vs One : Ψ-l basé sur une Tnorme φΊ (opérateur d'intersection) et Ψ2 basé sur la Tconorme duale φ2 de (pi (opérateur d'union) ;
— One to Others : Ψχ basé sur une Tnorme cpx (opérateur d'intersection) et Ψ2 basé sur la Tconorme duale cp2 de (pt (opérateur d'union).
On rappelle les notations suivantes
- u-l : la fonction d'appartenance d'un point appartenant à la classe telle que y=-l,
- u2 : la fonction d'appartenance d'un point appartenant à la classe telle que y=+l,
Dans le cas du modèle d'apprentissage flou basé sur la méthode « One vs Ail », un exemple d'algorithme utilisé est :
(1) Initialiser
Uclass (m,c) , Uau(m,c) et Uothers (mjl) comme matrices nulles (2) Calculs d'appartenances
Pour i allant de 1 à c Calculer u-l et u2 pour MDLj Remplacer la ieme colonne de Uciass par u2 Remplacer de la ieme colonne de Uali par
Fin Pour (3) Calcul de Uothers :
UotherS = Ψ(υ,Π)
Dans le cas du modèle d'apprentissage flou basé sur la méthode « One vs One », un exemple d'algorithme utilisé est :
(1) Initialiser :
Uciass (m,c) , Urei (m,l) et Uothers (m,l) comme matrice nulles
Uclass_k comme ensemble vide (Vk E{l,..,c}) (2) Calculs d'appartenances :
cfc—11
Pour î allant de 1 à 2
Calculer iq et u2 pour MDLi (voir planche 28) ;
Mettre u2 dans Uc]ass_c.+ (classe +1) ;
Mettre U-χ dans Uciass_c._ (classe -1)
Fin Pour (3) Fusion pour chaque classe :
Pour j allant de 1 à c
Remplacer la jieme colonne de Uciass par
Fin Pour (4) Fusion sur toutes les classes :
Urel = V2(Uclass) (5) Calcul de Uothers :
Uothers Urej
Dans le cas du modèle d'apprentissage flou basé sur la méthode « One to Others », un exemple d'algorithme utilisé est :
(1) Initialiser :
Uciass Uc+ (m,c), Urest (m,c), Urel (m,l) et
Uothers (ni, 1) comme matrice nulles (2) Calculs d'appartenances Pour i allant de 1 à c-1
Calculer u2 et u2 pour MDLi Trouver les points considérés comme classifiés :
ind = trouver[u2 >0.5] ;
Sauvegarder les valeurs de u2 pour les points
classifiés dans la iemecolonne de Uc+;
Sauvegarder les valeurs de pour les
classifiés dans la ieme colonne de If urest '
Retirer les points classifiés de Xt.
c — 1
Trouver les points classifiés en + 1 :
mdfin-L = trouver[u2 > uj ;
Sauvegarder les valeurs de u2 pour ces points dans la iemecolonne de Uc+ ;
Sauvegarder les valeurs de ur pour ces points dans la iemecolonne de Urest ;
Trouver les points classifiés en -1 :
indfin2 = trouver[u2 < ut] ;
Sauvegarder les valeurs de u2 pour ces points dans la dernière colonne de Uc+ ;
Sauvegarder les valeurs de pour ces points dans la dernière colonne de Urest ;
Fin Si
Fin Pour (3) Fusion pour chaque classe :
Pour j allant de 2 à c
Mettre dans une même matrice U la colonne j de Uc+ et les colonnes de Urest allant De 1 à (y — 1)
Remplacer la jleme colonne de Uclass par Ψ±(ΙΓ)
Fin Pour
Remplacer la Ie colonne de Uclass par la première de Uc+ (4) Fusion sur toutes les classes :
Urei = V2(Uclass) ( 5 ) Calcul de Uothers :
Uflthers 1 Orei
On décrit maintenant plus en détail l'étape 66 de calcul de la moyenne des appartenances.
On calcule la moyenne des appartenances des m observations pour chaque classe, ce qui revient à faire la moyenne sur chaque colonne de Uciass.
On obtient un vecteur UM = [umoyy ... umoyk ... umoyc] , où umoyk est la moyenne des appartenances à la classe k sur les m observations.
On calcule ensuite l'indicateur de rejet en distance et l'indicateur d'ambiguïté (étape 67).
L'indicateur de rejet en distance et l'indicateur d'ambiguïté sont calculés pour chaque observation selon les formules produites plus tôt.
Les ratios par rapport aux valeurs de références sont ensuite calculés.
On décrit maintenant plus en détail l'étape 68 de prise de décision automatique.
Les points sont projetés sur la carte 40 représentée sur la figure 13.
A chaque zone de décision de la carte correspond une action.
Pour la zone de décision normale 41, la classe déterminée est celle ayant le umoyk le plus élevé. La sévérité du défaut est calculée.
Pour les zones de décision d'ambiguïté 43, toutes les classes avec une appartenance supérieure à un seuil seuilapp sont considérées. La sévérité des défauts (classes) est considérée.
Pour la zone de décision de rejet en distance ou d'ambiguïté 44 et les zones de décision de rejet en distance 42, les points sont transmis à des analystes (experts humains) pour analyse. Les informations à transmettre sont :
- base de test ;
- valeurs des indicateurs ;
- matrice Uciass ;
- matrice Uothers ;
- séquences de mesures correspondantes.
Le calcul de la sévérité du ou des défauts est réalisé de la manière suivante.
Les m observations sont passées par les modèles MLFZ_DEFr activés.
Pour chaque défaut, on moyenne les appartenances obtenues sur les classes de sévérités. On obtient :
UMsev_ (jefa: moyenne des appartenances aux classes de sévérités du défaut a.
Le calcul de la sévérité du défaut se fera en combinant UM et l'échelle de sévérité via une moyenne géométrique pondérée :
umoyk sevdefa(x) = rik=iecilk sk=iumoyk , où :
- x : série de m mesures faites sur le système ;
- defa : défaut considéré ;
- echk : valeur de l'échelle pour la classe k ;
- umoyjj : moyenne des appartenances à la classe k ;
Dans l'exemple du défaut de court-circuit, on obtient :
, umoyt . I umoy2 λ , umoy3 .
sevcc(x) = Rf(x) = 100 sk=iumoyk * 10^k=iumoyv * i^=1«W,
Bien entendu, l'invention n'est pas limitée au mode de réalisation décrit mais englobe toute variante entrant dans le champ de l'invention telle que définie par les revendications.
Bien que l'on ait appliqué ici l'invention à un actionneur électromécanique linéaire de commande de vol d'aéronef, l'invention peut être mise en œuvre dans tout type d'application et de domaine, pour surveiller tout type d'équipement ou de système.
Les défauts et les paramètres de l'équipement représentatifs d'une performance de l'équipement peuvent bien sûr être différents de ceux cités ici.

Claims (12)

  1. REVENDICATIONS
    1. Procédé de surveillance d'un équipement de type actionneur électromécanique, comportant une phase de diagnostic pour évaluer un état de l'équipement, la phase de diagnostic comprenant :
    - une étape préliminaire consistant à acquérir des observations comprenant des mesures de paramètres de l'équipement représentatifs d'une performance de l'équipement ;
    - une première étape d'élaboration de signatures consistant à produire une première base de données comportant des signatures représentatives d'une absence de défaut et de défauts de l'équipement présents dans les observations ;
    - une étape d'apprentissage utilisant la première base de données et comprenant :
    - une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique pour générer un modèle d'apprentissage net de classification des observations (50) ;
    une première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue pour générer un modèle d'apprentissage flou de classification des observations (51) ;
    - une sous-étape de paramétrage d'une règle de décision automatique au moyen du modèle d'apprentissage net et du modèle d'apprentissage flou (52) ;
    - une étape de diagnostic en opération consistant à acquérir en opération de nouvelles observations et à classifier les nouvelles observations.
  2. 2. Procédé de surveillance selon la revendication 1, dans lequel la première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique consiste, dans un cas binaire linéaire non séparable, à définir un hyperplan séparateur (2) et une fonction coût.
  3. 3. Procédé de surveillance selon la revendication 1, dans lequel la première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique consiste, dans un cas binaire non linéaire non séparable, à utiliser une fonction noyau pour projeter les signatures des observations dans un espace euclidien de plus grande dimension.
  4. 4. Procédé de surveillance selon la revendication 1, dans lequel la première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique classique consiste, dans un cas de SVM multiclasses, à utiliser une méthode de type OvO ou une méthode de type OtO ou une méthode de type OvA.
  5. 5. Procédé de surveillance selon la revendication 1, dans lequel la première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue comprend l'utilisation d'une norme triangulaire.
  6. 6. Procédé de surveillance selon la revendication 1, dans lequel la première sous-étape d'apprentissage et de réglage d'un algorithme SVM selon une logique floue comprend le calcul d'une matrice représentant le degré d'appartenance des observations aux classes et le calcul d'un vecteur représentant l'appartenance des observations à des classes inconnues.
  7. 7. Procédé de surveillance selon la revendication 1, dans lequel la sous-étape de paramétrage d'une règle de décision automatique consiste à calculer un indicateur de rejet en distance et un indicateur d'ambiguïté.
  8. 8. Procédé de surveillance selon la revendication 1, dans lequel la phase de diagnostic comporte en outre :
    - une deuxième étape d'élaboration de signatures consistant à produire une deuxième comportant des signatures de données chaque défaut, les données de représentatives d'une sévérité d'au base de données de sévérité pour sévérité étant moins un défaut de dégrader le fonctionnement de la de susceptible 1'équipement, et dans lequel l'étape d'apprentissage utilise deuxième base de données et comporte en outre :
    - une deuxième sous-étape d'apprentissage et réglage d'un algorithme SVM pour chaque défaut selon une logique classique pour générer un modèle d'apprentissage net de classification des données de sévérité pour chaque défaut ;
    - une deuxième sous-étape d'apprentissage et de réglage d'un algorithme SVM pour chaque défaut selon une logique floue pour générer un modèle d'apprentissage flou de classification des données de sévérité pour chaque défaut.
  9. 9. Procédé revendication 1, dans opération comprend :
    - une sous-étape de construction d'une base de test comprenant des observations représentatives de l'état de l'équipement ;
    - une sous-étape de diagnostic.
  10. 10. Procédé de surveillance selon la revendication 8, dans lequel la sous-étape de diagnostic des moyennes d'appartenance des des classes, à calculer un distance et un indicateur d'ambiguité, et à projeter les moyennes d'appartenance, l'indicateur de rejet en distance et l'indicateur de surveillance selon la lequel l'étape de diagnostic en consiste à calculer nouvelles observations à indicateur de rejet en d'ambiguïté dans un plan de décision,
  11. 11, Procédé de surveillance selon la revendication 9, dans lequel le plan de décision est une carte comprenant une zone de décision normale, une zone
    5 de de décision de rejet en distance et une zone de décision d'ambiguïté.
  12. 12. Procédé de surveillance selon la revendication 1, dans lequel les paramètres comprennent un courant triphasé et/ou une température et/ou une position et/ou une vitesse et/ou un effort de charge.
    1/11
    100 (Classe 1 ) 10 (Classe 2) 1 (Classe 3) Rf [Ω]
    2/11
    LO
    Ο
    LL.
    3/11
    4/11 i ι ι ι
FR1750979A 2017-02-06 2017-02-06 Procede de surveillance d'un equipement de type actionneur electromecanique Active FR3062733B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1750979A FR3062733B1 (fr) 2017-02-06 2017-02-06 Procede de surveillance d'un equipement de type actionneur electromecanique

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750979A FR3062733B1 (fr) 2017-02-06 2017-02-06 Procede de surveillance d'un equipement de type actionneur electromecanique
FR1750979 2017-02-06

Publications (2)

Publication Number Publication Date
FR3062733A1 true FR3062733A1 (fr) 2018-08-10
FR3062733B1 FR3062733B1 (fr) 2019-03-29

Family

ID=58547699

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1750979A Active FR3062733B1 (fr) 2017-02-06 2017-02-06 Procede de surveillance d'un equipement de type actionneur electromecanique

Country Status (1)

Country Link
FR (1) FR3062733B1 (fr)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110596530A (zh) * 2019-09-06 2019-12-20 国网山东省电力公司寿光市供电公司 一种小电流接地故障选线方法
CN111611867A (zh) * 2020-04-24 2020-09-01 滁州学院 基于多分类模糊相关向量机的滚动轴承智能故障诊断方法
CN113378901A (zh) * 2021-05-31 2021-09-10 国网上海市电力公司 一种基于kfcm聚类分析和pmu装置的主动配电网预想故障集筛选方法
CN113777997A (zh) * 2021-09-24 2021-12-10 贵州电网有限责任公司 一种基于fsm模型的远动机智能重启方法
FR3114401A1 (fr) * 2020-09-23 2022-03-25 Cartesiam Procédé de surveillance du fonctionnement d’une machine à partir de signaux de courant électrique et dispositif pour la mise en œuvre d’un tel procédé

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ACHMAD WIDODO ET AL: "Support vector machine in machine condition monitoring and fault diagnosis", MECHANICAL SYSTEMS AND SIGNAL PROCESSING, vol. 21, no. 6, 12 January 2007 (2007-01-12), pages 2560 - 2574, XP055092871, ISSN: 0888-3270, DOI: 10.1016/j.ymssp.2006.12.007 *
BREUNEVAL ROMAIN ET AL: "Identification of a roller screw for diagnosis of flight control actuator", 2016 IEEE INTERNATIONAL CONFERENCE ON PROGNOSTICS AND HEALTH MANAGEMENT (ICPHM), IEEE, 20 June 2016 (2016-06-20), pages 1 - 8, XP032945059, DOI: 10.1109/ICPHM.2016.7542839 *
HANG JUN ET AL: "Application of multi-class fuzzy support vector machine classifier for fault diagnosis of wind turbine", FUZZY SETS AND SYSTEMS, ELSEVIER, AMSTERDAM, NL, vol. 297, 13 July 2015 (2015-07-13), pages 128 - 140, XP029538513, ISSN: 0165-0114, DOI: 10.1016/J.FSS.2015.07.005 *
LIN C F ET AL: "Training algorithms for fuzzy support vector machines with noisy data", PATTERN RECOGNITION LETTERS, ELSEVIER, AMSTERDAM, NL, vol. 25, no. 14, 15 October 2004 (2004-10-15), pages 1647 - 1656, XP026938864, ISSN: 0167-8655, [retrieved on 20040928], DOI: 10.1016/J.PATREC.2004.06.009 *
RANGANATH KOTHAMASU ET AL: "System health monitoring and prognostics - a review of current paradigms and practices", THE INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY, SPRINGER, BERLIN, DE, vol. 28, no. 9, 15 March 2006 (2006-03-15), pages 1012 - 1024, XP019324766, ISSN: 1433-3015, DOI: 10.1007/S00170-004-2131-6 *
RUKSHAN BATUWITA ET AL: "FSVM-CIL: Fuzzy Support Vector Machines for Class Imbalance Learning", IEEE TRANSACTIONS ON FUZZY SYSTEMS, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 18, no. 3, 25 May 2010 (2010-05-25), pages 558 - 571, XP011302517, ISSN: 1063-6706 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110596530A (zh) * 2019-09-06 2019-12-20 国网山东省电力公司寿光市供电公司 一种小电流接地故障选线方法
CN110596530B (zh) * 2019-09-06 2022-01-25 国网山东省电力公司寿光市供电公司 一种小电流接地故障选线方法
CN111611867A (zh) * 2020-04-24 2020-09-01 滁州学院 基于多分类模糊相关向量机的滚动轴承智能故障诊断方法
CN111611867B (zh) * 2020-04-24 2023-03-24 滁州学院 基于多分类模糊相关向量机的滚动轴承智能故障诊断方法
FR3114401A1 (fr) * 2020-09-23 2022-03-25 Cartesiam Procédé de surveillance du fonctionnement d’une machine à partir de signaux de courant électrique et dispositif pour la mise en œuvre d’un tel procédé
EP3974851A1 (fr) * 2020-09-23 2022-03-30 Cartesiam Procede de surveillance du fonctionnement d'une machine a partir de signaux de courant electrique et dispositif pour la mise en oeuvre d'un tel procede
US11885849B2 (en) 2020-09-23 2024-01-30 Stmicroelectronics International N.V. Method for monitoring a machine on the basis of electric current signals and device for implementing such a method
CN113378901A (zh) * 2021-05-31 2021-09-10 国网上海市电力公司 一种基于kfcm聚类分析和pmu装置的主动配电网预想故障集筛选方法
CN113777997A (zh) * 2021-09-24 2021-12-10 贵州电网有限责任公司 一种基于fsm模型的远动机智能重启方法
CN113777997B (zh) * 2021-09-24 2024-01-05 贵州电网有限责任公司 一种基于fsm模型的远动机智能重启方法

Also Published As

Publication number Publication date
FR3062733B1 (fr) 2019-03-29

Similar Documents

Publication Publication Date Title
FR3062733A1 (fr) Procede de surveillance d&#39;un equipement de type actionneur electromecanique
CA2746543C (fr) Identification de defaillances dans un moteur d&#39;aeronef
EP3089888B1 (fr) Procédé, dispositif et système d&#39;estimation de l&#39;etat de santé d&#39;une batterie d&#39;un véhicule électrique ou hybride en condition d&#39;utilisation, et procédé de construction d&#39;un modèle pour une telle estimation
CA2746537C (fr) Standardisation de donnees utilisees pour la surveillance d&#39;un moteur d&#39;aeronef
EP3097455B1 (fr) Procede de prediction d&#39;une anomalie de fonctionnement des equipements d&#39;un aeronef ou d&#39;une flotte d&#39;aeronefs
FR2970358A1 (fr) Pronostic de duree avant maintenance par fusion entre modelisation et simulation, pour equipements electroniques embarques dans un aeronef
EP3215903B1 (fr) Outil de validation d&#39;un système de surveillance d&#39;un moteur d&#39;aéronef
FR2980850A1 (fr) Procede et systeme de diagnotic de l&#39;etat interne d&#39;une batterie par emission acoustique.
WO2016075409A1 (fr) Procédé de surveillance d&#39;un moteur d&#39;aéronef en fonctionnement dans un environnement donné
Aditya et al. Enabling trust in deep learning models: a digital forensics case study
CA2888716A1 (fr) Systeme de surveillance d&#39;un ensemble de composants d&#39;un equipement
FR3046268A1 (fr) Systeme d&#39;exploitation de donnees de vol d&#39;un aeronef
US20160093117A1 (en) Generating Estimates of Failure Risk for a Vehicular Component
WO2020217004A1 (fr) Système et procédé de surveillance d&#39;un moteur d&#39;aéronef
FR3035232A1 (fr) Systeme de surveillance de l&#39;etat de sante d&#39;un moteur et procede de configuration associe
WO2017077247A1 (fr) Système et procédé de surveillance d&#39;une turbomachine avec fusion d&#39;indicateurs pour la synthèse d&#39;une confirmation d&#39;alarme
CA2377029C (fr) Systeme d&#39;intelligence artificielle pour la classification d&#39;evenements, d&#39;objets ou de situations a partir de signaux et de parametres discriminants issus de modeles
FR2957170A1 (fr) Outil de conception d&#39;un systeme de surveillance d&#39;un moteur d&#39;aeronef
WO2021069824A1 (fr) Dispositif, procédé et programme d&#39;ordinateur de suivi de moteur d&#39;aéronef
EP3846087A1 (fr) Procede et systeme de selection d&#39;un modele d&#39;apprentissage au sein d&#39;une pluralite de modeles d&#39;apprentissage
EP4078409A1 (fr) Procédé et dispositif de supervision d&#39;un système de pistage
CN115987689B (zh) 一种网络入侵检测方法及装置
FR2970796A1 (fr) Procede de traitement de messages de pannes generes dans un appareil a systemes complexes
Xie et al. A Fault Prognosis Model of Battery Packs of Electric Vehicles based on Long Short-term Memory Neural Networks
Song et al. Early fault detection for rolling bearings: A meta‐learning approach

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180810

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8