FR3135781A1 - procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines. - Google Patents

procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines. Download PDF

Info

Publication number
FR3135781A1
FR3135781A1 FR2204874A FR2204874A FR3135781A1 FR 3135781 A1 FR3135781 A1 FR 3135781A1 FR 2204874 A FR2204874 A FR 2204874A FR 2204874 A FR2204874 A FR 2204874A FR 3135781 A1 FR3135781 A1 FR 3135781A1
Authority
FR
France
Prior art keywords
neural network
signal
lmax
equal
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2204874A
Other languages
English (en)
Other versions
FR3135781B1 (fr
Inventor
Yosra Marnissi
Dany Abboud
Fadi KARKAFI
Guillaume DOQUET
Mohammed EL BADAOUI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR2204874A priority Critical patent/FR3135781B1/fr
Priority to PCT/FR2023/050716 priority patent/WO2023222985A1/fr
Publication of FR3135781A1 publication Critical patent/FR3135781A1/fr
Application granted granted Critical
Publication of FR3135781B1 publication Critical patent/FR3135781B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/04Bearings
    • G01M13/045Acoustic or vibration analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/02Gearings; Transmission mechanisms
    • G01M13/028Acoustic or vibration analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/14Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object using acoustic emission techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4454Signal recognition, e.g. specific values or portions, signal events, signatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4472Mathematical theories or simulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4481Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/02Indexing codes associated with the analysed material
    • G01N2291/025Change of phase or condition
    • G01N2291/0258Structural degradation, e.g. fatigue of composites, ageing of oils
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/26Scanned objects
    • G01N2291/269Various geometry objects
    • G01N2291/2693Rotor or turbine parts

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Mathematical Physics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Procédé un procédé automatique de surveillance de pièce tournante de machine tournante par adaptation de domaines. Procédé (100) de surveillance automatique d'une pluralité de pièce tournantes de machines tournantes, base de données cible comprenant une pluralité de signaux temporels issus d'une distribution et générés à partir de chaque pièce tournante, et à partir à partir d'une base de données source comprenant une pluralité de signaux temporels issus d'une distribution S différente de la distribution T et générés à partir d'une pièce tournante source d'une machine tournante source et étant associé à une classe de fonctionnement, la surveillance étant réalisée grâce à un modèle d'apprentissage profond adaptatif permettant d'adapter la distribution source à la distribution cible, le modèle d'apprentissage profond étant entrainé par minimisation d'une fonction coût relative à des fonctions noyau Gaussiennes de paramètre σ estimé à partir d'un triangle pascal .

Description

procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines. DOMAINE TECHNIQUE DE L’INVENTION
Le domaine technique de l’invention est celui de l'adaptation de domaine de distributions et du transfert d'apprentissage profond.
La présente invention concerne un procédé automatique de surveillance de pièce tournante de machine tournante.
ARRIERE-PLAN TECHNOLOGIQUE DE L’INVENTION
Dans de nombreux secteurs industriels, le diagnostic et la surveillance de pièces mécaniques, telles que des moteurs et leurs différentes pièces tournantes (roulement, engrenage, arbre, fan,…) sont primordiaux afin de connaître leur état de fonctionnement ou de santé et ainsi planifier des opérations de maintenance de manière à minimiser leur durée d’indisponibilité. Un système ou procédé de diagnostic et de surveillance fiable permet ainsi une détection et une identification précoce d’un endommagement, afin d’éviter la propagation de ce dernier à d’autres pièces mécaniques, et de programmer une maintenance adaptée basé sur l’état de santé de la pièce surveillé. Ainsi, la surveillance mécanique présente un enjeu majeur pour les industries mécaniques et particulièrement pour l'industrie aéronautique.
La surveillance d'une pièce tournante d'une machine tournante est classiquement réalisée par analyse de signaux vibratoires générés par la pièce tournante et acquis par des capteurs vibro-acoustiques, tels que des accéléromètres, et est couramment utilisée pour déterminer l'état de fonctionnement de moteurs d'aéronef et de leurs pièces tournantes. Lors des phases de production ou de maintenance, des signaux vibratoires haute fréquence sont acquis lorsque la machine tournante est en fonctionnement, afin de détecter des signaux faibles, caractéristiques d’endommagements d'une pièce mécanique, appelés signatures, et ainsi prévenir une défaillance des moteurs. La surveillance par analyse des signaux vibratoires est l’une des méthodes les plus utilisées en raison de son aspect non-intrusif et de la richesse des signaux vibratoires en termes d’information de diagnostic.
L’approche classique des méthodes de diagnostic vibratoire est basée sur des méthodes de traitement du signal à partir de signaux vibratoires. Les signaux sont à l’entrée d’une tache de traitement comprenant des méthodes de traitement (séparation de sources, filtrage, débruitage, et) ayant comme but d’extraire ou d’améliorer une « signature vibratoire » d’intérêt et de l’associer à une pièce mécanique. L’analyse vibratoire consiste donc à inférer l’état de santé d’une pièce mécanique tournante à travers sa signature vibratoire, cette inférence nécessitant une connaissance cinématique à priori, ainsi qu’un expert de surveillance. Par la suite, des indicateurs appropriés peuvent être construits pour quantifier l’endommagement et faciliter la prise de décision.
Des méthodes de surveillance et de diagnostic basées sur l'intelligence artificielle sont de plus en plus développées actuellement. Le but principal de ces méthodes est de remplacer la connaissance humaine requise dans les approches traditionnelles, par un apprentissage des machines à partir d’un nombre abondant de données.
Dans ce contexte, le diagnostic intelligent des défauts (DID) émerge comme une solution auxiliaire ou alternative à l’approche « traitement du signal » déjà évoquée. Avec le développement rapide de l'apprentissage profond, le diagnostic intelligent des défauts a présenté des intérêts significatifs durant ces dernières années.
Le succès d'un modèle d’apprentissage profond dépend à la fois du choix de l’architecture dudit modèle ainsi que la représentativité et l’abondance des données d’entrainement. Par exemple dans le cas où on s’intéresse à la surveillance des roulements, des signaux de roulements sains et avec chaque type de défaut sont requis pour entrainer le modèle afin qu’il puisse analyser de nouveaux roulements et classifier leur état. Le succès des approches de DID est soumis à une hypothèse commune : il existe suffisamment de données étiquetées pour former des modèles de diagnostic fiables. En aéronautique, cependant, il est difficile de collecter suffisamment de données étiquetées à cause de la rareté des défauts. En conséquence, les données non étiquetées provenant des machines réelles ne peuvent pas entraîner les modèles de diagnostic pour fournir des résultats précis. De plus, la différence de contexte d’acquisition entre les signaux d'entrainement des bases de données existantes et les signaux à classifier affecte la performance des modèles d'apprentissage car deux signaux acquis dans deux contextes différents sont issus de deux distributions de probabilités différentes.
L’adaptation du domaine est un outil permettant de réutiliser les connaissances apprises par un ensemble de signaux acquis à partir d'une machine tournante dans un premier contexte, cet ensemble de données est appelé domaine source, en les transférant à des analyses de signaux connexes, acquis pour le même type de machine tournante mais dans un contexte différent : ce groupe de données est appelé le domaine cible. Le domaine source représente un ensemble de données déjà acquises et étiquetées, c.à.d. que leur classe de fonctionnement est connue.
Afin de réutiliser les bases de données sources pour les tâches de diagnostic d'une base de données cible, des modèles d'apprentissage par transfert profond, en considérant des paramètres à régler, notamment pour la fonction coût du modèle, sont utilisés en raison de leur efficacité et leur capacité à réduire la grande différence de distribution entre le domaine source et le domaine cible. En revanche, l’état de santé de la pièce mécanique surveillé est inconnu. Les données du domaine cible sont donc naturellement non étiquetées. Pour cela, le problème principal revient à pouvoir régler les paramètres du modèle d'apprentissage profond sans avoir recours aux étiquettes de l'état de fonctionnement de la machine tournante pour identifier si le modèle a prédit correctement son état actuel.
L’invention offre une solution aux problèmes évoqués précédemment, en permettant de réaliser une surveillance automatique de pièce tournante, dont la classe de fonctionnement est inconnue, à partir d'un modèle d'apprentissage par transfert profond sur une base de données source et cible en réglant des paramètres relatifs au modèle d'apprentissage indépendamment des étiquettes de la base de données cible.
Un premier aspect de l’invention concerne un procédé de surveillance automatique d'au moins une pièce tournante d'une machine tournante, à partir d'une base de données dite cible comprenant au moins un signal temporel issu d'une distribution T, le signal temporel étant généré à partir de la pièce tournante, et à partir à partir d'une base de données source comprenant une pluralité de signaux temporels issus d'une distribution S différente de la distribution T, chaque signal temporel de la base de données source étant généré à partir d'une pièce tournante source d'une machine tournante source et étant associé à une classe de fonctionnement parmi un ensemble des classes de fonctionnement, le procédé étant caractérisé en ce qu'il comprend les étapes suivantes:
  • Entrainement d'un réseau de neurones artificiels dit adaptatif, pour obtenir un réseau de neurones artificiels entraîné capable d'associer à un signal temporel issu d'une distribution union de S et de T une classe parmi l'ensemble des classes de fonctionnement, le réseau de neurones adaptatif comprenant une première partie d'extraction de caractéristiques et une deuxième partie d'adaptation de la distribution S vers la distribution T et de classification, le réseau de neurones artificiels étant entraîné simultanément sur les bases de données source et cible, l'entrainement étant réalisé par minimisation d'une fonction coût la fonction coût comprenant :
    • un premier terme correspondant à l’erreur entre la classe obtenue par le réseau de neurones pour chaque signal de la base de données source et la classe associée au dit signal de la base de données sources;
    • un deuxième terme calculé à partir d'au moins un écart maximal moyen entre une fonction de la base de données source et une fonction de la base de données cible, l'écart maximal moyen étant calculé à partir d'au moins une fonction noyau Gaussienne de paramètre σ, le paramètre σ étant estimé à partir d'un triangle pascal,
  • Utilisation sur chaque signal de la base de données cible du réseau de neurones artificiels adaptatif, entraîné, pour associer une classe de fonctionnement au dit signal.
On définit le domaine cible DTtel que DT= {X, T= PT(X T )} ; oùXest un espace de descripteurs des caractéristiques d'un signal, T =P(X T )est la distribution de la probabilité marginale etX T X.
On définit le domaine source DStel que DS= {X, S= PS(X S )} ; oùXest un espace de descripteurs des caractéristiques d'un signal, S =P(X S )est la distribution de la probabilité marginale etX S X.
Par " distribution S différente de la distribution T" on entend PS(X S ) ≠ PT(X T )
L'invention permet avantageusement de classifier des signaux d'une base de données cible non étiquetée, dans une classe d'un ensemble de classe, à partir d'une base de données source étiquetées, les signaux de la base de données source étant de distribution différente de la distribution des signaux de la base de données cible, grâce à un paramètre σ dépendant d'un triangle de pascal, sans nécessiter de réglage à partir d'étiquettes manquantes de la base de données cibles. En effet, la minimisation de la fonction coût du réseau de neurones étant réalisée en partie grâce à partir d'une fonction noyau Gaussienne, la dernière ligne d'un triangle de pascal permet avantageusement de représenter une fonction noyau Gaussienne de même taille que la dernière ligne que le triangle, la taille étant choisie selon les bases de données sources et cibles par exemple, et de déterminer donc ses paramètres, sans réglage supplémentaire extérieur. Ainsi, L'invention permet de réaliser une surveillance automatisée de pièces tournantes de machines tournantes, grâce à des signaux issus d'une distribution T sans étiquettes associées, sans intervention d'un expert et permet donc d'avoir un gain de temps lors de la maintenance des machines tournantes.
Outre les caractéristiques qui viennent d’être évoquées dans le paragraphe précédent, le procédé selon un premier aspect de l’invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes, considérées individuellement ou selon toutes les combinaisons techniquement possibles :
  • l'ensemble de classes de fonctionnement de la pièce comprend au moins une classe de fonctionnement nominal et au moins une classe de fonctionnement défectueux.
  • la première partie du réseau de neurones adaptatif comprend un nombre de couches Nc1, Nc1étant un entier naturel supérieur ou égal à 1 et en ce que la deuxième partie du réseau de neurones adaptatif comprend un nombre de couches Nc2, Nc2étant un entier naturel supérieur ou égal à 1.
  • la surveillance est réalisée pour une pluralité de nTpièces tournantes de machines tournantes et en ce que base de données cible comprend une pluralité de signaux notée = { }1≤j≤n T.
  • la pluralité de signaux de la base de données source est notée = { }1≤j≤nSet le deuxième terme de la fonction coût est calculé à chaque époque à partir de la fonction , l'ensemble de signaux fm( ) = { }1≤i≤n Sreprésentant la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , chaque signal ayant une longueur LmS, et l'ensemble de signaux = { }1≤j≤n Treprésentant la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , chaque signal ayant une longueur Lm T, m étant un entier compris dans un ensemble Ncc comprenant chaque numéro de couche de la deuxième partie à partir de laquelle un écart maximal moyen est calculé, avec :
    • MMDp( ( ), ( ))= ,
Avec :
  • = , avec σmSS(p) la variance de la fonction noyau Gaussiene relative à l'ensemble fm( ) ,
  • = , avec σmTT(p) la variance de la fonction noyau gaussienne relative à l'ensemble fm( )
  • = avec σmST(p) la variance de la fonction noyau Gaussienne relative à l'ensemble fm( ) et à l'ensemble fm( ),
N étant un entier naturel supérieur ou égal à 1, chaque vecteur [σmSS(p)]p≥1étant noté σmSS, chaque vecteur [σmTT(p)]p≥1étant noté σmTT, chaque vecteur [σmST(p)]p≥1étant noté σmSTet chaque matrice étant notée σm, le paramètre σ étant égal à l'ensemble {σm}m Ncc. Avantageusement, le nombre N de fonctions Noyau Gaussiennes permet d'augmenter la précision de calcul de la fonction et donc de la fonction coût d'entrainement du réseau de neurones artificiels adaptatif.
  • l'étape d'entrainement du réseau de neurones adaptatif est réalisée selon un nombre d'époques M, et pour chaque époque du nombre d'époques M, le paramètre σ = {σm}m Nccest estimé selon les sous-étapes suivantes :
    • Pour chaque couche m ∈ Ncc :
  • Détermination de Lmax, Lmaxétant la longueur maximale entre la longueur de chaque signal de l'ensemble { }1≤i≤n Set chaque signal de l'ensemble { }1≤j≤n T,
  • Rééchantillonnage de chaque signal en une image Imm,i Sen deux dimensions de taille * , et rééchantillonnage de chaque signal en une image Imm,j Ten deux dimensions de taille * ,
  • Détermination d'une variance d'une fonction noyau Gaussienne d'ordre selon les sous-étapes suivantes :
  • Construction d'une matrice Ng√Lmaxreprésentant un noyau gaussien de taille * la matrice Ng√Lmaxégale à : 2(1-√Lmax)*tTP√Lmax*TP√Lmax* 2(1-√Lmax),
TP√Lmaxreprésentant la dernière ligne d'un triangle de pascal d'ordre ettTP√Lmaxétant la transposée de TP√Lmax,
  • Calcul de la variance à partir de la formule : , max(Ng√Lmax) étant égal à la valeur maximale de la matrice Ng√Lmax,
  • Calcul d'un vecteur selon les sous-étapes suivantes :
    • Calcul de σSSà partir de ,
    • Calcul de σTTà partir de
    • Calcul de σSTà partir de
  • Calcul de σmselon la formule suivante : σm= * Avantageusement, les signaux sont rééchantillonnés et convertis en images afin de gagner en temps de calculs. De plus, le paramètre σ est estimé grâce à aux deux bases de données source et cible et grâce au triangle de pascal, sans nécessiter d'étiquettes pour la base de données cible à classifier.
  • Selon un mode de réalisation :
    • σSS= - )² *[1 2 4 8 …. ], chaque coefficient σSS(p) étant égal à 2p-1* - )²,
    • σTT= - )² *[1 2 4 8 …. ], chaque coefficient σTT(p) étant égal à 2p-1* - )².
    • σST= - )² *[1 2 4 8 …. ], chaque coefficient σST(p) étant égal à 2p-1* - )².
  • N est égal à 5. Plus N est élevé plus l'estimation du paramètre est σ précise. Le fait d’augmenter l’ordre présente un inconvénient du point de vue ressources disponibles pour exécuter les calculs. Avantageusement, N égal à 5 permet d'obtenir un compromis entre une estimation correcte de σ et un temps de calcul réduit.
  • Selon un mode de réalisation, le procédé selon un premier aspect de l'invention comprend l'étape suivante, précédant l'étape d'entrainement du réseau de neurones artificiels adaptatifs :
    • Entrainement d'un premier réseau de neurones entraîné capable d'associer à un signal temporel non stationnaire issu de la distribution S une classe de fonctionnement parmi l'ensemble de classes de fonctionnements, le premier réseau de neurones comprenant une première partie d'extraction de caractéristiques et une deuxième partie de classification, le réseau de neurones artificiels étant entraîné sur la base de données source,
la première partie du réseau de neurones artificiels adaptatif étant confondue avec la première partie du premier réseau de neurones avant l'entrainement du réseau de neurones artificiels adaptatif.
Un troisième aspect de l'invention concerne un produit-programme d’ordinateur comprenant des instructions qui, quand le programme est exécuté sur un ordinateur, conduisent celui-ci à mettre en œuvre les étapes du procédé selon un premier aspect de l'invention et le procédé selon un deuxième aspect de l'invention.
L’invention et ses différentes applications seront mieux comprises à la lecture de la description qui suit et à l’examen des figures qui l’accompagnent.
BREVE DESCRIPTION DES FIGURES
Les figures sont présentées à titre indicatif et nullement limitatif de l’invention.
  • La montre un schéma synoptique d'un procédé de surveillance de pièce tournante de machine tournante selon l'invention,
  • La représente le rééchantillonnage d'un signal temporel en une image en deux dimensions,
  • La représente un noyau Gaussien de taille 28 x 28,
DESCRIPTION DETAILLEE
Les figures sont présentées à titre indicatif et nullement limitatif de l’invention.
La montre une représentation schématique d'un schéma synoptique d'un procédé 100 de surveillance automatique d'au moins une pièce tournante d'une machine tournante, à partir d'une base de données dite cible comprenant au moins un signal temporel issu d'une distribution T et généré à partir de la pièce tournante, et à partir d'une base de données source comprenant une pluralité de signaux temporels issus d'une distribution S différente de la distribution T.
La machine tournante est par exemple un moteur, de préférence un turboréacteur d'aéronef.
Par exemple, la pièce tournante de la machine tournante est un ou plusieurs arbre mécanique, un ou plusieurs roulements, un ou plusieurs fans, un ou plusieurs turbines ou un ou plusieurs compresseurs.
Selon un mode de réalisation, la surveillance est réalisée pour une pluralité de nTpièces tournantes de machines tournantes et en ce que base de données cible comprend une pluralité de signaux notée = { }1≤j≤n T, nT étant un entier naturel supérieur à 1.
Les nTpièces tournantes sont de même type, ainsi, les nTpièces tournantes sont des roulements par exemple.
Chaque signal temporel est généré à partir d'une pièce tournante parmi les nT pièces tournantes .
Chaque signal temporel peut être un signal temporel non stationnaire. Par "signal temporel non stationnaire", on entend un signal physique temporel dont le contenu fréquentiel varie dans le temps.
Dans la suite de la rédaction, on utilisera indifféremment les termes "signal temporel " ou "signal".
Dans la suite de la rédaction, on utilisera indifféremment les termes "signal de la base de données cible " ou "signal cible".
Chaque signal cible est généré de préférence à partir de vibrations d'une pièce tournante dite cible d'une machine tournante dite cible.
Chaque signal cible est par exemple mesuré à l’aide d’un capteur, éventuellement embarqué dans une machine tournante cible, par exemple un capteur vibro-acoustique. Le capteur vibro-acoustique est par exemple un accéléromètre, une jauge de contrainte ou un microphone.
Chaque signal cible comprend un nombre LTde points, le nombre LTpouvant dépendre de la fréquence d'échantillonnage du capteur.
Selon un mode de réalisation préféré, chaque signal cible est un signal vibratoire.
La pluralité de signaux cibles est notée = { }1≤j≤ n T, nTétant un entier naturel non nul représentant le nombre de signaux cibles dans la base de données cible.
Chaque signal temporel non stationnaire issu d'une distribution T est un signal généré à partir des vibrations de la pièce tournante de la machine tournante dans un contexte T'.
On définit le domaine cible DTtel que DT= {X, T= PT(X T )} ; oùXest un espace de descripteurs des caractéristiques d'un signal, T =P(X T )est la distribution de la probabilité marginale etX T X.
Un contexte correspond aux conditions de fonctionnements d'une machine tournante, par exemple les valeurs des paramètres relatifs à la machine tournante. Un paramètre relatif à la machine tournante peut être la vitesse de rotation de la machine tournante, la charge, la température de la machine tournante, le type de machine tournante, ou la position du capteur vibro-acoustique dans la machine tournante.
La pluralité de signaux source est notée = { }1≤i≤nS, nSétant un entier naturel non nul représentant le nombre de signaux sources dans la base de données source. La base de données sources comprend nS signaux générés à partir de nS pièces tournantes sources de machines tournantes sources.
Chaque signal temporel de la base de données source est généré à partir d'une pièce tournante source d'une machine tournante source et est associé à une classe de fonctionnement parmi un ensemble des classes de fonctionnement. De préférence, chaque signal de la base de données source est généré à partir de vibrations de la pièce tournante source.
Une base de données dont chaque signal est associé à une classe parmi un ensemble de classes est dite "étiquetée". Ainsi, la base de données source est étiquetée.
Dans la suite de la rédaction, on utilisera indifféremment les termes "signal de la base de données source " ou "signal source".
Chaque signal source est par exemple mesuré à l’aide d’un capteur, éventuellement embarqué dans une machine tournante source, par exemple un capteur vibro-acoustique. Le capteur vibro-acoustique est par exemple un accéléromètre, un jauge de contrainte ou un microphone.
Chaque pièce tournante source est de même type que chaque pièce tournante, c’est-à-dire que si chaque pièce tournante est un roulement, chaque pièce tournante source est un roulement.
Chaque signal source comprend un nombre LSde points, le nombre LSpouvant dépendre de la fréquence d'échantillonnage du capteur.
Chaque machine tournante source est de même type que chaque machine tournante cible, c’est-à-dire que si chaque machine tournante cible est un moteur d’aéronef, chaque machine tournante source est également un moteur d’aéronef.
L'entier naturel nSpeut être égal ou différent de l'entier naturel nT.
Deux signaux sont issus d'une même distribution si, lors de leur acquisition, la valeur d'un seul paramètre relatif à la machine tournante varie.
Chaque signal temporel non stationnaire issu de la distribution S est un signal généré à partir des vibrations de la pièce tournante de la machine tournante dans un contexte S'.
On définit le domaine source DStel que DS= {X, S= PS(XS)} ; oùXest l'espace de descripteurs des caractéristiques d'un signal, S = PS(XS) est la distribution de la probabilité marginale etX S X.
Les contextes S' et T' sont différents.
Si deux signaux sont acquis dans deux contextes différents, au moins deux paramètres relatifs à la machine tournante ont des valeurs différentes et les deux signaux sont de distribution différentes.
Lorsque deux signaux sont acquis dans deux contextes différentes, on considère que leurs domaines sont de distributions différentes. On considère ainsi que les domaines Dset DTsont de distributions différentes.
Par " domaines Dset DTsont de distributions différentes " on entend : XS= XTet PS(XS) ≠ Pt(Xt) (et donc S ≠ T).
Par exemple, un ensemble de signaux comprenant un premier, un deuxième et un troisième signal, est mesuré par un capteur fixé sur une même machine tournante . Chaque signal est mesuré sur le même type de machine tournante, à température de la machine tournante égale et à position égale de la machine tournante, le seul paramètre dont la valeur varie est la vitesse de rotation de la machine tournante, notée N2. Le premier signal est mesuré pour N2 = 600 tours par minutes, le deuxième signal est mesuré lorsque N2 = 800 tours par minutes, le troisième signal est mesuré pour N2 = 1000 tours par minutes. Le premier, deuxième et troisième signal sont mesurés dans un même contexte et font partie d'une même distribution.
Par exemple, un premier signal et un deuxième signal sont mesurés par un capteur fixé sur une. Le premier signal est mesuré pour une vitesse N2 = 600 tours et pour une charge égale à 1HP, le deuxième signal est mesuré pour une vitesse N2=800 tours et pour une charge égale à 3HP. Deux paramètres relatifs à la machine tournante ont des valeurs différentes lors de l'acquisition du premier signal et du deuxième signal, ainsi le premier et le deuxième signal ne sont pas issus de la même distribution.
L'ensemble des classes de fonctionnement est un ensemble de classes de fonctionnement de la pièce tournante.
Par exemple, l'ensemble des classes de fonctionnement de la pièce tournante comprend au moins les classes suivantes : classe de fonctionnement nominal et classe de fonctionnement défectueux.
Par exemple, l'ensemble des classes de fonctionnement de la pièce tournante comprend les classes suivantes : classe de fonctionnement nominal, classe de fonctionnement présentant un premier défaut, classe de fonctionnement présentant un deuxième défaut, classe de fonctionnement présentant un troisième défaut. Un premier défaut peut être un défaut d'usure par exemple. Un deuxième défaut peut être un défaut d'écaillement par exemple.
Selon un premier mode de réalisation, le procédé 100 peut comprendre une première étape 101 d'entrainement supervisé d'un premier réseau de neurones artificiels pour obtenir un réseau de neurones artificiels entrainé capable de fournir à partir d'un signal appartenant à la distribution S, une classe comprise dans l'ensemble des classes de fonctionnement.
L’entraînement supervisé, autrement appelé apprentissage supervisé, permet d’entraîner un réseau de neurones artificiels à une tâche prédéfinie, en mettant à jour ses paramètres de manière à minimiser une fonction de coût correspondant à l’erreur entre la donnée de sortie fournie par le réseau de neurones artificiels et la vraie donnée de sortie, c’est-à-dire ce que le réseau de neurones artificiels devrait fournir en sortie pour remplir la tâche prédéfinie sur une certaine donnée d’entrée.
Le réseau de neurones artificiels comprend de préférence une première partie d'extraction de caractéristiques, et une deuxième partie de classification.
La première partie comprend de préférence un ensemble de couches de neurones artificiels de convolution et un ensemble de couche de neurones artificiels dite de "pooling", chaque couche de neurones artificiels de pooling étant précédée d'une couche de neurones artificiels de convolution et suivie d'une couche de neurones artificiels de convolution.
La première partie comprend un nombre de couches Nc1, Nc1étant un entier naturel supérieur ou égal à 1 et de préférence égal à 4.
L’entraînement supervisé du premier réseau de neurones artificiels consiste à mettre à jour les paramètres du premier réseau de neurones artificiels de manière à minimiser une fonction de coût correspondant à l’erreur entre la prédiction de la classe fournie par le réseau de neurones artificiels à partir d’un signal source de la base de données source et la classe associée au dit signal source dans la base de données source.
La fonction de coût est par exemple une fonction quadratique moyenne ou une fonction entropie croisée.
La minimisation de la fonction coût est par exemple réalisée par un algorithme de descente du gradient stochastique avec rétropropagation (« Back-Propagation Through Time » en anglais ou BPTT).
L'entrainement du premier réseau de neurones est réalisé selon un nombre d'époques N, N étant un entier naturel supérieur à 1.
Le procédé 100 comprend une étape 102 d'entrainement d'un réseau de neurones artificiels dit adaptatif pour obtenir un réseau de neurones artificiels entraîné capable d'associer à un signal temporel non stationnaire issu d'une distribution union de S et de T une classe parmi l'ensemble de classes.
Le réseau de neurones artificiels adaptatif est entraîné simultanément sur la base de données source et sur la base de données cible.
le réseau de neurones adaptatif comprend une première partie d'extraction de caractéristiques et une deuxième partie dite d'adaptation de domaines et de classification.
De préférence, la première partie du réseau de neurones adaptatif est confondue avec la première partie du premier réseau de neurones avant de débuter l'entrainement du réseau de neurones adaptatif. Ainsi, la première partie du réseau de neurones adaptatif comprend un nombre de couches Nc1, Nc1étant un entier naturel supérieur ou égal à 1 et de préférence égal à 4.
De préférence, la deuxième partie du réseau de neurones adaptatif comprend un ensemble de couches dites "fully-connected" (de l'anglais, entièrement connectées).
De préférence, la deuxième partie du réseau de neurones artificiels adaptatif comprend un nombre de couches Nc2, Nc2étant un entier naturel supérieur ou égal à 1 et de préférence égal à 4 ou 5 par exemple.
Dans la suite, la notation ( ) représente la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , et ( ) représente la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , m étant un entier naturel compris dans l'intervalle .
L'ensemble (XS) est égal à { }1≤i≤nS.
Chaque élément de l'ensemble (XS) est un signal ayant un nombre de points Lms, Lmsétant un entier naturel non nul.
L'ensemble (XT) est égal à { }1≤j≤nT.
Chaque élement de l'ensemble (XT) est un signal de ayant un nombre de points LmT, LmTétant un entier naturel non nul.
Les entiers LmSet LmTpeuvent être égaux ou différents.
Dans la suite, on confondra les expressions "nombre de points d'un signal" et "longueur d'un signal".
L'entrainement du réseau de neurones adaptatif est réalisé selon un nombre d'époques M,M étant un entier supérieur ou égal à 1, par minimisation d'une fonction coût relative au réseau de neurones artificiels adaptatif à chaque époque.
Dans la suite, on confondra les expressions " fonction coût relative au réseau de neurones artificiels adaptatif " et "fonction de coût adaptative".
La minimisation de la fonction coût adaptative est par exemple réalisée par un algorithme de descente du gradient stochastique avec rétropropagation (« Back-Propagation Through Time » en anglais ou BPTT).
La fonction coût comprend au moins un premier terme et un deuxième terme.
Le premier terme de la fonction coût est proportionnel à l’erreur entre la prédiction de la classe fournie par le réseau de neurones artificiels adaptatif à partir d’un signal source de la base de données source et la classe, parmi l'ensemble des classes fonction {yi}i≥1, associée au dit signal source dans la base de données source.
Le deuxième terme de la fonction coût est calculé à partir d'au moins la somme de chaque écart maximal moyen (en anglais MMD : "maximum mean discreapancy") calculé à la sortie d'au moins une couche de la deuxième partie, pour la base de données source et la base de données cible en entrée du réseau de neurones adaptatifs.
Le deuxième terme est calculé à partir de la formule suivante :
L'indice m appartenant à un ensemble Ncc comprenant chaque numéro de couche de la deuxième partie choisie et à partir de laquelle un écart maximal moyen est calculé. Ncc peut comprendre un seul numéro de couche ou un nombre de numéros de couches supérieur à 1 et strictement inférieur à Nc1+ Nc2.
La formule de de MMDp( ( ), ( )) est la suivante :
MMDp(fm( ),fm( ))=
kpétant une fonction noyau Gaussienne.
On considère qu'une somme de fonctions noyau Gaussiennes est une fonction noyau Gaussienne.
N est un entier naturel supérieur ou égal à 1 représentant le nombre de fonctions noyau Gaussiennes considérées pour le calcul du deuxième terme.
Notons MMDSSple terme , avec égal à : , avec σ mSS (p) la variance de la fonction noyau Gaussienne relative à l'ensemble fm(XS) .
Notons MMDT Tple terme avec égal à : , avec σ mTT (p) la variance de la fonction noyau gaussienne relative à l'ensemble fm(XT) .
Notons MMDS Tple terme avec égal à : avec σ mST (p) la variance de la fonction noyau Gaussienne relative à l'ensemble fm(XS) et à l'ensemble fm(XT).
Ainsi, MMDp( ( ), ( = MMDSSp + MMDTTp- 2 MMDSTp.
Chaque vecteur [σmSS(p)]p≥1est noté σmSS, chaque vecteur [σmTT(p)]p≥1est noté σmTT, chaque vecteur [σmST(p)]p≥1est noté σmST .
Dans la suite, pour chaque couche m ∈Ncc chaque matrice est notée σ m et l'ensemble {σ m }m Ncc est noté σ . Ainsi, σ est un paramètre de la fonction
La fonction est une somme de fonctions noyau Gaussiennes.
A chaque époque du nombre de M d'époques de l'entrainement du réseau de neurones adaptatif, la fonction coût est minimisée, et donc le premier terme et le deuxième termes de la fonction sont minimisés.
Le paramètre σ est estimé à chaque époque du nombre d'époques M, avant la minimisation du deuxième terme de la fonction coût.
La détermination du paramètre σ comprend une pluralité de sous-étapes décrites dans la suite.
Pour chaque couche m ∈ Ncc, une première sous-étape de détermination du paramètre σ est une sous-étape de détermination d'une longueur Lmax, représentant la longueur maximale entre la longueur LmTet la longueur LmS.
Une deuxième étape du procédé 100 d'estimation est une étape de rééchantillonnage de chaque signal en une image Imm,i Sen deux dimensions sur une échelle de gris et de chaque signal en une image Imm,j Ten deux dimensions sur une échelle de gris.
Chaque colonne de l'image Imm,i Scomprend un nombre de pixels égal à et chaque ligne de Imm,i Scomprend un nombre de pixels égal à .
Chaque colonne de l'image Imm,j Tverticale comprend un nombre de pixels égal à et chaque ligne de l'image Imm,j Tcomprend un nombre de pixels égal à .
La est une représentation de l'étape de rééchantillonnage en deux-dimensions d'un signal de longueur M.
Une deuxième sous-étape de détermination du paramètre σ est une sous-étape de construction d'une matrice Ng√Lmax.représentant un noyau gaussien de taille * et de variance à partir de la dernière ligne d'un triangle de pascal d'ordre .
La construction de la matrice Ng√Lma xest réalisée à partir d'un vecteur TP√Lmaxcomportant colonnes et une ligne et représentant la dernière ligne du triangle de pascal d'ordre .
La matrice Ng√Lmaxest égale à 2(1-√Lmax)*tTP√Lmax*TP√Lmax* 2(1-√Lmax),tTP√Lmaxétant la transposée de TP√Lmax.
La matrice Ng√Lmaxreprésente une reproduction du noyau gaussien de taille , la valeur centrale de la matrice étant la valeur maximale, les valeurs de ladite matrice diminuant petit à petit en s’éloignant du centre, afin d’arriver aux coins de la matrice Ng√Lmaxprésentant des valeurs égales à 1.
Par exemple, pour = 5, la dernière ligne d'un triangle de Pascal d'ordre 5 est le vecteur suivant : [1 4 6 4 1].
Ainsi, pour = 5, TP√Lmaxvaut et 21-√Lmax=2-4=(1/16).
Ainsi Ng√Lmaxvaut (1/16) * *(1/16) =
L'image d'une matrice Ng√Lmaxreprésentant un noyau gaussien de taille 28*28 est représentée dans la .
Une troisième sous-étape de détermination du paramètre σ est une sous- étape de calcul de la variance du noyau gaussien représenté par la matrice Ng√Lmax. La matrice Ng√Lmaxreprésente le noyau Gaussien de formule suivante : G(x,y)= . La fonction G(x,y) est maximale lorsque le terme exponentiel tend vers 1, ainsi et vaut G(x,y)max= .
Notons max(Ng√Lmax) la valeur maximale de la matrice Ng√Lmax ,ainsi, G(x,y)max= max(Ng√Lmax), ce qui permet d'obtenir :
=
ne dépend pas de l'époque d'entrainement, ainsi, peut être calculé uniquement à la première époque puis réutilisé pour chaque époque parmi le nombre d'époques M, ou recalculé à chaque époque.
Une quatrième sous-étape de détermination du paramètre σ est une sous-étape de calcul de d'une matrice
est calculé à partir de la formule : .
est calculé à partir de la formule := .
est calculé à partir de la formule :
De préférence, σSS = - )² *[1 2 4 8 …. ]. Chaque coefficient σSS(p) de la matrice σSS est égal à 2p-1* .
De préférence, σTT = - )² *[1 2 4 8 …. ]. Chaque coefficient σTT(p) de la matrice σTTest égal à 2p-1* .
De préférence, σST = - )² *[1 2 4 8 …. ]. Chaque coefficient σST(p) de la matrice σS Test égal à 2p-1*=
Selon un mode de réalisation ,N est égal à 1. Ainsi, dans ce mode de réalisation, σSS = - )² , σTT = - )² et σST = - )².
De préférence, N est égal à 5. Un nombre N égal à 5 permet d'obtenir un d’équilibre entre le temps de calcul de la fonction de coût adaptative et une précision satisfaisante de l’estimation de la différence de distributions
Ainsi, la matrice dépend de chaque époque d'entrainement, l'ensemble { 1≤j≤nS,et l'ensemble { }1≤j≤nT,étant modifiés à chaque époque d'entrainement du nombre M d'époques.
Le procédé d'estimation de la matrice σmcomprend une étape de calcul de la matrice σmà partir du produit de la variance et de la matrice
De préférence, σm = * .
Ainsi, le paramètre égal à l'ensemble {σ m }m Ncc est estimé selon les sous-étapes précédentes.
Le procédé 100 comprend une étape d'utilisation 103 sur chaque signal de la base de données cible du réseau de neurones artificiels adaptatif, entraîné, pour associer une classe de fonctionnement au dit signal.

Claims (10)

  1. Procédé (100) de surveillance automatique d'au moins une pièce tournante d'une machine tournante, à partir d'une base de données dite cible comprenant au moins un signal temporel issu d'une distribution T, le signal temporel étant généré à partir de la pièce tournante, et à partir à partir d'une base de données source comprenant une pluralité de signaux temporels issus d'une distribution S différente de la distribution T, chaque signal temporel de la base de données source étant généré à partir d'une pièce tournante source d'une machine tournante source et étant associé à une classe de fonctionnement parmi un ensemble des classes de fonctionnement, le procédé étant caractérisé en ce qu'il comprend les étapes suivantes :
    • Entrainement (102) d'un réseau de neurones artificiels dit adaptatif, pour obtenir un réseau de neurones artificiels entraîné capable d'associer à un signal temporel issu d'une distribution union de S et de T une classe parmi l'ensemble des classes de fonctionnement, le réseau de neurones adaptatif comprenant une première partie d'extraction de caractéristiques et une deuxième partie d'adaptation de la distribution S vers la distribution T et de classification, le réseau de neurones artificiels étant entraîné simultanément sur les bases de données source et cible, l'entrainement étant réalisé par minimisation d'une fonction coût comprenant :
      • un premier terme correspondant à l’erreur entre la classe obtenue par le réseau de neurones pour chaque signal de la base de données source et la classe associée au dit signal de la base de données sources;
      • un deuxième terme calculé à partir d'au moins un écart maximal moyen entre une fonction de la base de données source et une fonction de la base de données cible, l'écart maximal moyen étant calculé à partir d'au moins une fonction noyau Gaussienne de paramètre σ estimé à partir d'un triangle pascal,
    • Utilisation (103) sur chaque signal de la base de données cible du réseau de neurones artificiels adaptatif, entraîné, pour associer une classe de fonctionnement au dit signal.
  2. Procédé (100) selon la revendication précédente caractérisé en ce que l'ensemble de classes de fonctionnement comprend au moins :
    • une classe de fonctionnement nominal, et
    • une classe de fonctionnement défectueux.
  3. Procédé (100) selon l'une quelconques de revendications précédente caractérisé en ce que la première partie du réseau de neurones adaptatif comprend un nombre de couches Nc1, Nc1étant un entier naturel supérieur ou égal à 1 et en ce que la deuxième partie du réseau de neurones adaptatif comprend un nombre de couches Nc2, Nc2étant un entier naturel supérieur ou égal à 1.
  4. Procédé (100) selon l'une quelconques des revendications précédentes caractérisé en ce que la surveillance est réalisée pour une pluralité de nTpièces tournantes de machines tournantes et en ce que base de données cible comprend une pluralité de signaux notée = { }1≤j≤ n T.
  5. Procédé selon les revendications 3 et 4 caractérisé en ce que la pluralité de signaux de la base de données source est notée = { }1≤j≤nS et en ce que le deuxième terme de la fonction coût est calculé à chaque époque à partir de la fonction , l'ensemble de signaux fm( ) = {fm }1≤i≤n Sreprésentant la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , chaque signal fm ayant une longueur LmS, et l'ensemble de signaux fm( ) = {fm }1≤j≤n Treprésentant la sortie de la m-ième couche du réseau de neurones artificiels adaptatif pour une entrée , chaque signal fm ayant une longueur Lm T, m étant un entier compris dans un ensemble Ncc comprenant chaque numéro de couche de la deuxième partie à partir de laquelle un écart maximal moyen est calculé, avec :
    MMDp(fm( ),fm( ))= ,
    Avec :
    • = , avec σmSS(p) la variance de la fonction noyau Gaussiene relative à l'ensemble fm(XS) ,
    • = , avec σmTT(p) la variance de la fonction noyau gaussienne relative à l'ensemble fm(XT)
    • = avec σmST(p) la variance de la fonction noyau Gaussienne relative à l'ensemble fm(XS) et à l'ensemble fm(XT),
    N étant un entier naturel supérieur ou égal à 1, chaque vecteur [σmSS (p)]p≥1étant noté σmSS , chaque vecteur [σmTT (p)]p≥1étant noté σmTT, chaque vecteur [σmST (p)]p≥1étant noté σmST et chaque matrice étant notée σ m , le paramètre σ étant égal à l'ensemble {σ m }m Ncc.
  6. Procédé (100) selon la revendication précédente caractérisé en ce que l'étape d'entrainement (102) du réseau de neurones adaptatif est réalisée selon un nombre d'époques M, et en ce que pour chaque époque du nombre d'époques M, le paramètre σ = {σm}m Nccest estimé selon les sous-étapes suivantes :
    • Pour chaque couche m ∈ Ncc :
      • Détermination de Lmax, Lmaxétant la longueur maximale entre la longueur de chaque signal de l'ensemble { }1≤i≤nSet chaque signal de l'ensemble { }1≤j≤ n T,
      • Rééchantillonnage de chaque signal en une image Imm,i Sen deux dimensions de taille * , et rééchantillonnage de chaque signal en une image Imm,j Ten deux dimensions de taille * ,
      • Détermination d'une variance d'une fonction noyau Gaussienne de taille * selon les sous-étapes suivantes :
        • Construction d'une matrice Ng√Lmaxreprésentant un noyau gaussien d'ordre la matrice Ng√Lmaxégale à : 2( 1-√Lmax )*tTP√Lmax*TP√Lmax* 2( 1-√Lmax ),
    TP√Lmaxreprésentant la dernière ligne d'un triangle de pascal d'ordre ettTP√Lmaxétant la transposée de TP√Lmax,
    • Calcul de la variance à partir de la formule : , max(Ng√Lmax) étant égal à la valeur maximale de la matrice Ng√Lmax
    • Calcul d'un vecteur selon les sous-étapes suivantes :
      • Calcul de σSSà partir de ,
      • Calcul de σTTà partir de
      • Calcul de σSTà partir de
    • Calcul de σmselon la formule suivante : σm= *
  7. Procédé (100) selon la revendication précédente caractérisé en ce que :
    • σSS= *[1 2 4 8 …. ], chaque coefficient σSS(p) étant égal à 2p-1* - )²,
    • σTT= *[1 2 4 8 …. ], chaque coefficient σTT(p) étant égal à 2p-1* .
    • σST= - )² *[1 2 4 8 …. ], chaque coefficient σST(p) étant égal à 2p-1*
  8. Procédé (100) selon l'une quelconques des revendications 1 à 3 caractérisé en ce que N est égal à 5.
  9. Procédé (100) selon l'une quelconques des revendications précédentes caractérisé en ce qu'il comprend l'étape suivante, précédant l'étape d'entrainement du réseau de neurones artificiels adaptatifs :
    • Entrainement (101) d'un premier réseau de neurones entraîné capable d'associer à un signal temporel non stationnaire issu de la distribution S une classe de fonctionnement parmi l'ensemble de classes de fonctionnement, le premier réseau de neurones comprenant une première partie d'extraction de caractéristiques et une deuxième partie de classification, le réseau de neurones artificiels étant entraîné sur la base de données source,
    Et caractérisé en ce que la première partie du réseau de neurones artificiels adaptatif est confondue avec la première partie du premier réseau de neurones avant l'entrainement du réseau de neurones artificiels adaptatif.
  10. Produit-programme d’ordinateur comprenant des instructions qui, quand le programme est exécuté sur un ordinateur, conduisent celui-ci à mettre en oeuvre les étapes du procédé (100) selon l’une quelconque des revendications 1 à 9.
FR2204874A 2022-05-20 2022-05-20 procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines. Active FR3135781B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2204874A FR3135781B1 (fr) 2022-05-20 2022-05-20 procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines.
PCT/FR2023/050716 WO2023222985A1 (fr) 2022-05-20 2023-05-17 Procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2204874 2022-05-20
FR2204874A FR3135781B1 (fr) 2022-05-20 2022-05-20 procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines.

Publications (2)

Publication Number Publication Date
FR3135781A1 true FR3135781A1 (fr) 2023-11-24
FR3135781B1 FR3135781B1 (fr) 2024-04-12

Family

ID=86760476

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2204874A Active FR3135781B1 (fr) 2022-05-20 2022-05-20 procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines.

Country Status (2)

Country Link
FR (1) FR3135781B1 (fr)
WO (1) WO2023222985A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110176033A (zh) * 2019-05-08 2019-08-27 北京航空航天大学 一种基于概率图的混合概率逆深度估计方法
CN113705105A (zh) * 2021-08-31 2021-11-26 长安大学 一种不同负载滚动轴承故障诊断方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110176033A (zh) * 2019-05-08 2019-08-27 北京航空航天大学 一种基于概率图的混合概率逆深度估计方法
CN113705105A (zh) * 2021-08-31 2021-11-26 长安大学 一种不同负载滚动轴承故障诊断方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FARINA A ET AL: "Tartaglia-Pascal's triangle: a historical perspective with applicat", SIGNAL, IMAGE AND VIDEO PROCESSING, SPRINGER-VERLAG, LONDON, vol. 7, no. 1, 25 May 2011 (2011-05-25), pages 173 - 188, XP035157416, ISSN: 1863-1711, DOI: 10.1007/S11760-011-0228-6 *
SCHWENDEMANN SEBASTIAN ET AL: "Bearing fault diagnosis with intermediate domain based Layered Maximum Mean Discrepancy: A new transfer learning approach", ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE, PINERIDGE PRESS, SWANSEA, GB, vol. 105, 11 August 2021 (2021-08-11), XP086779624, ISSN: 0952-1976, [retrieved on 20210811], DOI: 10.1016/J.ENGAPPAI.2021.104415 *
TONY PHILLIPS: "From Pascal's Triangle to the Bell-shaped Curve", 9 February 2018 (2018-02-09), 201 Charles Street Providence, Rhode Island 02904-2213, pages 1 - 9, XP093016028, Retrieved from the Internet <URL:https://www.ams.org/publicoutreach/feature-column/fcarc-normal> [retrieved on 20230120] *

Also Published As

Publication number Publication date
FR3135781B1 (fr) 2024-04-12
WO2023222985A1 (fr) 2023-11-23

Similar Documents

Publication Publication Date Title
CN111458142B (zh) 基于生成对抗网络和卷积神经网络的滑动轴承故障诊断方法
EP0573357B1 (fr) Procédé de diagnostic d&#39;un processus évolutif
Sugumaran et al. Fault diagnosis of roller bearing using fuzzy classifier and histogram features with focus on automatic rule learning
EP2696344B1 (fr) Procede et systeme pour detecter des evenements sonores dans un environnement donne
CN116793682A (zh) 基于iCORAL-MMD和对抗迁移学习的轴承故障诊断方法
US11853047B2 (en) Sensor-agnostic mechanical machine fault identification
CN113008559B (zh) 基于稀疏自编码器和Softmax的轴承故障诊断方法及系统
CN116593157A (zh) 少样本下基于匹配元学习的复杂工况齿轮故障诊断方法
CN114993677B (zh) 不平衡小样本数据的滚动轴承故障诊断方法及系统
CN111811819A (zh) 一种基于机器学习的轴承故障诊断方法及装置
CN114565006A (zh) 一种基于深度学习的风力发电机叶片损伤检测方法及系统
CN110018322A (zh) 一种基于深度学习的转速检测方法及系统
CN111076934A (zh) 一种基于s变换诊断轴承潜在故障的方法
CN114462446A (zh) 基于振动信号的滚动轴承故障诊断方法及电子设备
CN114048787B (zh) 一种基于Attention CNN模型的轴承故障实时智能诊断方法与系统
FR3135781A1 (fr) procédé automatique de surveillance de pièces tournantes de machines tournantes par adaptation de domaines.
CN112434729B (zh) 一种类不平衡样本下基于层再生网络的故障智能诊断方法
FR3111200A1 (fr) Procédé et système de contrôle d’un niveau d’endommagement d’au moins une pièce d’aéronef, aéronef associé.
CN115238833A (zh) 一种空气涡轮起动机轴承性能退化特征提取方法
Sharma et al. Bearing Fault Classification using Acoustic Features and Artificial Neural Network
Kolar et al. Rotating shaft fault prediction using convolutional neural network: a preliminary study
Kaewkongka et al. Continuous wavelet transform and neural network for condition monitoring of rotodynamic machinery
CN115017451B (en) Solid lubrication bearing transfer film performance acoustic emission characterization method based on Laplace wavelet and KPCA
EP4441663A1 (fr) Procédé de diagnostic automatique d&#39;une pièce
CN118641205B (zh) 基于水平可视图模体特征的滚动轴承状态分类方法及系统

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20231124

PLFP Fee payment

Year of fee payment: 3