DE102021124047A1 - Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager - Google Patents

Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager Download PDF

Info

Publication number
DE102021124047A1
DE102021124047A1 DE102021124047.6A DE102021124047A DE102021124047A1 DE 102021124047 A1 DE102021124047 A1 DE 102021124047A1 DE 102021124047 A DE102021124047 A DE 102021124047A DE 102021124047 A1 DE102021124047 A1 DE 102021124047A1
Authority
DE
Germany
Prior art keywords
domain
pattern
data
training
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021124047.6A
Other languages
English (en)
Inventor
Xingwu ZHANG
Xiaolei Yu
Zhibin Zhao
Ming Li
Chuang Sun
Yilong Lui
Xuefeng Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Publication of DE102021124047A1 publication Critical patent/DE102021124047A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/04Bearings
    • G01M13/045Acoustic or vibration analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/08Railway vehicles
    • G01M17/10Suspensions, axles or wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die vorliegende Veröffentlichung offenbart eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager, umfassend folgende Schritte: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor; Eingeben der gekennzeichneten Trainingsdaten hinsichtlich einer Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und nicht gekennzeichneten Zieldomänendaten hinsichtlich einer Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen; Einrichten eines theoretischen Extremwertmodells mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten, anschließend werden die Merkmale des Testmusters oder des Zieldomänenmusters ins eingerichtete theoretische Extremwertmodell, und die Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Fehlertyp gehört, wird ausgegeben, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Muster zum unbekannten Fehlertyp, sonst gehört es zum bekannten Fehlertyp, Feststellen der Kategorie des Testmusters oder des Zieldomänenmusters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Veröffentlichung betrifft das Gebiet der mechanischen Fehlerdiagnose, insbesondere eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager.
  • STAND DER TECHNIK
  • Da das Deep-Learning in der Lage ist, nützliche Merkmale automatisch zu extrahieren, wird das Deep-Learning weit verbreitet bei vielen mechanischen Fehlerdiagnoseaufgaben verwendet. Die bestehenden Deep-Learning-basierten Fehlerdiagnosemethoden haben jedoch zwei Probleme: zum einen wird es angenommen, dass die für das Training verwendeten gekennzeichneten Daten und die für das Testen verwendeten nicht gekennzeichneten Daten den gleichen Kennzeichensatz aufweisen, in praktischen Anwendungen kann die Annahme sehr schwer erfüllt werden, der Typ des Fehlers in der Testphase ist unvorhersehbar, d,h, kann der Kennzeichensatz der Testdaten möglicherweise nur einen Teil der bekannten Fehlerkategorien enthalten und kann unbekannte Fehler enthalten. Andererseits ist die Voraussetzung für die gute Leistung von Deep-Learning, dass die Trainings- und Testmuster die gleiche Verteilung haben. Die Arbeitsbedingungen von Hochgeschwindigkeits-EMUs werden sich jedoch ändern, so dass die Verteilung von Trainings- und Testmustern unterschiedlich ist, was zu einem starken Rückgang der Diagnoseleistung führt.
  • Die oben erwähnten Informationen, die im Abschnitt vom Stand der Technik offenbart sind, dienen nur dazu, das Verständnis des Hintergrunds der vorliegenden Erfindung zu verbessern, und können daher Informationen enthalten, die nicht den Stand der Technik bilden, der einem Durchschnittsfachmann auf diesem Gebiet in diesem Land bekannt ist.
  • INHALT DER VORLIEGENDEN ERFINDUNG
  • Hinsichtlich der Mängel aus dem Stand der Technik zielt die vorliegende Veröffentlichung darauf ab, eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager zur Verfügung zu stellen. Zuerst wird das Problem der Fehlerdiagnose offener Menge definiert: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, enthält der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlerkategorien und unbekannte Fehler; wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, enthält der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlerkategorien und unbekannte Fehler. In der Trainingsphase werden für die Hochgeschwindigkeits-EMUs, die unter den konstanten Arbeitsbedingungen und unter den unterschiedlichen Arbeitsbedingungen arbeiten, jeweils ein eindimensionales konvolutionelles neuronales Netzwerk und ein bilaterales gewichtetes Konfrontationsnetzwerk verwendet, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren, dann werden die durch die Trainingsdaten oder die Quelldomänendaten gelernten Merkmale verwendet, um ein theoretisches Extremwertmodell einzurichten. In der Testphase wird das gelernte Netzwerk zum Vorhersagen des Kennzeichens und das theoretische Extremwertmodell zum Erkennen der unbekannten Kategorien verwendet.
  • Um das obige Ziel zu erreichen, verwendet die vorliegende Veröffentlichung die folgende technische Lösung:
    • eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager, umfassend folgende Schritte:
      • S100: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor;
      • S200: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, wird das Schwingungssignal in Trainingsdaten, Verifizierungsdaten und Testdaten unterteilt, wobei die Trainingsdaten und die Verifizierungsdaten gekennzeichnet und die Testdaten nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, wird das Schwingungssignal des Betriebs unter einer der Arbeitsbedingungen in Quelldomänendaten und Verifizierungsdaten unterteilt, wobei die Quelldomänendaten und die Verifizierungsdaten gekennzeichnet sind, und wobei das Schwingungssignal des Betriebs unter einer anderen Arbeitsbedingung als Zieldomänendaten verwendet wird, die nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Die unter der obigen Annahme durchgeführte Fehlerdiagnoseaufgabe wird als Fehlerdiagnose offener Menge definiert;
      • S300: Einrichten eines eindimensionalen konvolutionellen neuronalen Netzwerks mit einem Merkmalsextraktor F und einem Kennzeichenprädiktor G hinsichtlich einer Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen; Einrichten eines bilateralen gewichteten Konfrontationsnetzwerks mit einem Merkmalsextraktor F, einem Kennzeichenprädiktor G, einem Domänenklassifikator D und Hilfsdomänenklassifikator Dω für eine Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen;
      • S400: Eingeben der gekennzeichneten Trainingsdaten hinsichtlich einer Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten hinsichtlich der Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen;
      • S500: Verwenden der Trainingsdaten oder Quelldomänendaten nach Abschluss des Trainings, um ein theoretisches Extremwertmodell einzurichten und somit unbekannte Fehlertypen in der Testphase zu erkennen;
      • S600: Eingeben der nicht gekennzeichneten Testdaten ins trainierte eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich die Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte eindimensionale konvolutionelle neuronale Netzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; Eingeben der nicht gekennzeichneten Zieldomänendaten ins trainierte bilaterale gewichtete Konfrontationsnetzwerk hinsichtlich der Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte bilaterale gewichtete Konfrontationsnetzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt;
      • S700: Eingeben der Merkmale des Verifizierungsdatenmusters in das theoretische Extremwertmodell, um den Schwellenwert zu bestimmen;
      • S800: Eingeben der Merkmale des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell, Ausgeben der Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster möglicherweise zum unbekannten Typ gehört, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Muster zum unbekannten Typ, sonst gehört es zum bekannten Typ, Feststellen der Kategorie des Musters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.
  • Bevorzugt sind in Schritt S200 die Trainingsdaten oder die Quelldomänendaten wie folgt ausgedrückt: D s = { ( x l s , y l s ) , , ( x n s s , y n s s ) }
    Figure DE102021124047A1_0001

    und wobei x i s
    Figure DE102021124047A1_0002
    für das i -te Trainingsmuster oder Quelldomänenmuster, y i s
    Figure DE102021124047A1_0003
    für das Fehlerkategorienkennzeichen, das dem Trainingsmuster oder dem Quelldomänenmuster entspricht, und ns für die Anzahl der Trainingsmuster oder der Quelldomänenmuster steht,
  • Bevorzugt sind in Schritt S200 die Testdaten oder die Zieldomänendaten wie folgt ausgedrückt: D t = { x 1 t , , x n t t }
    Figure DE102021124047A1_0004

    wobei x i t
    Figure DE102021124047A1_0005
    für das i-te Testmuster oder Zieldomänenmuster und nt für die Anzahl der Testmuster oder der Zieldomänenmuster steht,
  • Bevorzugt ist in Schritt S300 der Merkmalsextraktor durch eine konvolutionelle Schicht und eine vollständig verbundene Schicht gebildet, um Merkmale aus Eingabedaten zu extrahieren; wobei der Kennzeichenprädiktor durch eine vollständig verbundene Schicht gebildet ist, um Eingabemerkmale zu klassifizieren; und wobei der Domänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um zu unterscheiden, ob die Eingabemerkmale aus der Quelldomäne oder der Zieldomäne stammen. Der Hilfsdomänenklassifikator ist durch eine vollständig verbundene Schicht gebildet, um einen Ähnlichkeitsindex des Quelldomänenmusters und des Zieldomänenmusters mit der Quelldomäne bereitzustellen.
  • Bevorzugt umfasst in Schritt S400 das Training für das eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich der Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die folgenden Unterschritte umfasst:
    • S401: Eingeben der gekennzeichneten Trainingsdaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, Extrahieren der Merkmale der Trainingsdaten und Aufzeichnen als ƒ = F(x);
    • S402: Eingeben des extrahierten Merkmals der Trainingsdaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen, wodurch ein Kategoriekennzeichen-vorhersagewert erhalten und als g = G(ƒ) aufgezeichnet wird; Berechnen der Verlustfunktion des Kennzeichenprädiktors in Übereinstimmung mit dem Kategoriekennzeichen-vorhersagewert und Verwenden dieser als die Zielfunktion des Trainings des eindimensionalen konvolutionellen neuronalen Netzwerks, um eine Rückwärtsausbreitung durchzuführen;
    • S403: Wiederholen der Schritte S401 bis S402, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des eindimensionalen konvolutionellen neuronalen Netzwerks abgeschlossen, Bevorzugt umfasst in Schritt S400 das Training für das bilaterale gewichtete Konfrontationsnetzwerk die folgenden Unterschritte:
    • S401: gleichzeitiges Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, auf die Weise wird das Merkmal der Quelldomänendaten und der Zieldomänendaten extrahiert und als ƒ = F' (x) aufgezeichnet;
    • S402: Eingeben des extrahierten Merkmals der Quelldomänendaten und der Zieldomänendaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen und einen Kategoriekennzeichen-vorhersagewert zu erhalten, der als g=G(ƒ) aufgezeichnet wird;
    • S403: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten werden durch den Hilfsdomänenklassifikator vorwärts ausgebreitet, wobei die Ausgabe des Hilfsdomänenklassifikators zum Konstruieren eines Domänenähnlichkeitsindexes des Musters verwendet wird;
    • S404: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Domänenklassifikator vorwärts ausgebreitet, um einen Domänenkennzeichen-Vorhersagewert zu erhalten;
    • S405: Gewichten des Quelldomänen- und Zieldomänenmusters gemäß dem Kategoriekennzeichen-vorhersagewert und dem Domänenkennzeichen-Vorhersagewert und mittels des Domänenähnlichkeitsindexes, um die Verlustfunktion des Kennzeichenprädiktors, des Domänenklassifikators und des Hilfsdomänenklassifikators zu ermitteln und somit die Zielfunktion zu konstruieren, wobei nach dem Konstruieren der Zielfunktion eine Rückwärtsausbreitung durchgeführt wird;
    • S406: Wiederholen der Schritte S401 bis S405, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des bilateralen gewichteten Konfrontationsnetzwerks abgeschlossen,
  • Bevorzugt wird in Schritt S402 nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Trainingsdaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Trainingsdaten ermittelt, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x j s , y i s ) D s c = 1 K 1 [ y i s = c ] log [ G c ( ƒ i s ) ] ,
    Figure DE102021124047A1_0006
    und wobei E für die Erwartung, x i s
    Figure DE102021124047A1_0007
    für das i -te Trainingsmuster, y t s
    Figure DE102021124047A1_0008
    für das dem Trainingsmuster entsprechende Fehlerkategorienkennzeichen, Ds für alle Trainingsmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien, G c ( ƒ i s )
    Figure DE102021124047A1_0009
    für die Wahrscheinlichkeit, dass das i-te Trainingsmerkmal als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0010
    für das Merkmal des i-ten Trainingsmusters steht.
  • Die Zielfunktion des Trainingsnetzwerks wird als min F , G L g
    Figure DE102021124047A1_0011
    ausgedrückt.
  • Bevorzugt soll in Schritt S403 die Entropie des Vorhersagewerts des Musters zum Konstruieren des Domänenähnlichkeitsindexes des Musters berechnet werden.
  • Die Entropie des Kennzeichen-Vorhersagewerts des i -ten Quelldomänenmusters wird berechnet: H ( g i s ) = k = 1 K g i , k s log  g i , k s
    Figure DE102021124047A1_0012
    wobei g i s
    Figure DE102021124047A1_0013
    für den Kennzeichen-Vorhersagewert des i -ten Quelldomänenmusters, g i , k s
    Figure DE102021124047A1_0014
    für die Wahrscheinlichkeit, dass das i-te Quelldomänenmuster als die Kategorie k vorhergesagt wird, und K für die Anzahl der Quelldomänenkategorien steht.
  • Der Domänenähnlichkeitsindex des i -ten Quelldomänenmusters ist: ω s ( ƒ i s ) = H ( g j t ) log  K D ω ( ƒ i s )
    Figure DE102021124047A1_0015
    wobei D ω ( ƒ i s )
    Figure DE102021124047A1_0016
    für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das i -te Quelldomänenmusters steht. Die Entropie des Kennzeichen-Vorhersagewerts des j -ten Zieldomänenmusters wird berechnet: H ( g j t ) = k = 1 K g j , k t log  g j , k t
    Figure DE102021124047A1_0017
    wobei g j t
    Figure DE102021124047A1_0018
    für den Kennzeichen-Vorhersagewert des j -ten Zieldomänenmusters und g j , k t
    Figure DE102021124047A1_0019
    für die Wahrscheinlichkeit steht, dass das j -te Zieldomänenmuster als die Kategorie k vorhergesagt wird.
  • Der Domänenähnlichkeitsindex des j -ten Zieldomänenmusters ist: ω t ( ƒ j t ) = D ω ( ƒ j t ) H ( g j t ) log  K
    Figure DE102021124047A1_0020
    wobei D ω ( ƒ j t )
    Figure DE102021124047A1_0021
    für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das j -te Zieldomänenmusters steht. Bevorzugt kann in Schritt S405 nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Quelldomänendaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Quelldomänendaten ermittelt werden, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x i s , y j s ) D s c = 1 K 1 [ y i s = c ] l o g [ G c ( ƒ i s ) ] ,
    Figure DE102021124047A1_0022
    und wobei E für die Erwartung, x i s
    Figure DE102021124047A1_0023
    für das i -te Quelldomänenmuster, y i s
    Figure DE102021124047A1_0024
    für das dem Quelldomänenmuster entsprechende Fehlerkategorienkennzeichen, Ds für alle Quelldomänenmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien, G c ( ƒ i s )
    Figure DE102021124047A1_0025
    für die Wahrscheinlichkeit, dass das i-te Quelldomänenmerkmals als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0026
    für das Merkmal des i -ten Quelldomänenmusters steht.
  • Der Verlust des Hilfsdomänenklassifikators kann gemäß dem wahren Domänenkennzeichen ermittelt werden, wobei der Verlust des Hilfsdomänenklassifikators als L d ω = E x i s D s log [ D ω ( ƒ i s ) ] E x j s D t log [ 1 D ω ( ƒ j t ) ] .
    Figure DE102021124047A1_0027
    ausgedrückt wird, und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0028
    für alle Quelldomänenmuster, x j t D t
    Figure DE102021124047A1_0029
    für alle Zieldomänenmuster, D ω ( ƒ i s )
    Figure DE102021124047A1_0030
    für den Domänenkennzeichen-Vorhersagewert des i -ten Quelldomänenmusters und D ω ( ƒ j s )
    Figure DE102021124047A1_0031
    für den Domänenkennzeichen-Vorhersagewert des j -ten Zieldomänenmusters steht.
  • Im Berechnungsprozess des Verlusts des Domänenklassifikators wird jedes Muster mittels des Domänenähnlichkeitsindexes nach Anspruch 8 gewichtet, nachdem der Domänenkennzeichen-Vorhersagewert des Domänenklassifikators erhalten war, wird der endgültige Verlust des Domänenklassifikators gemäß dem wahren Domänenkennzeichen wie folgt ausgedrückt: L d = E x i s D s ω s ( ƒ i s ) log [ D ( ƒ i s ) ] E x j s D t ω t ( ƒ j t ) log [ 1 D ( ƒ j t ) ] .
    Figure DE102021124047A1_0032
    und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0033
    für alle Quelldomänenmuster, x j t D t
    Figure DE102021124047A1_0034
    für alle Zieldomänenmuster, D ( ƒ i s )
    Figure DE102021124047A1_0035
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das i -te Quelldomänenmusters und D ( ƒ j t )
    Figure DE102021124047A1_0036
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das j -te Zieldomänenmusters steht.
  • Die Zielfunktion des Trainingsnetzwerks wie folgt ausgedrückt wird: max F , G L g + λ L d
    Figure DE102021124047A1_0037
    min D L d
    Figure DE102021124047A1_0038
    min D ω L d ω ,
    Figure DE102021124047A1_0039
    und wobei A für den Kompromisskoeffizienten steht.
  • Bevorzugt wird in Schritt S500 ein theoretisches Extremwertmodell mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten eingerichtet, ƒ i s
    Figure DE102021124047A1_0040
    steht für das Merkmal des i -ten Trainingsmusters oder Quelldomänenmusters und S i , c = ƒ i , c s
    Figure DE102021124047A1_0041
    für das Merkmal des i -ten korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters, das der Kategorie c gehört. Die durchschnittlichen Merkmale jeder Kategorie wird durch mc ausgedrückt, wobei mc dadurch erhalten wird, dass die Merkmale aller korrekt klassifizierten Trainingsmuster oder Quelldomänenmuster, die der Kategorie c gehören, gemittelt werden: m c = m e a n ( S i , c )
    Figure DE102021124047A1_0042
  • In der Kategorie c ist der Abstand jeden korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters zu dem entsprechenden mc: L d = E x i s D s ω s ( ƒ i s ) log [ D ( ƒ i s ) ] E x j t D t ω t ( ƒ j t ) log [ 1 D ( ƒ j t ) ] .
    Figure DE102021124047A1_0043
    um das theoretische Extremwertmodell jedes Typs zu erhalten, wird die Schwanzverteilung von x i s D s
    Figure DE102021124047A1_0044
    von jedem Typ dazu verwendet, die Weibull-Verteilung anzupassen, um die Positionsparameter τc, Formparameter κc und Skalenparameter λc jedes Typs der Weibull-Verteilung zu erhalten.
  • Bevorzugt werden in Schritt S700 die Verifizierungsdaten wie folgt ausgedrückt: D v = { ( x l v , y l v ) , , ( x n v v , y n v v ) }
    Figure DE102021124047A1_0045
    wobei x k v
    Figure DE102021124047A1_0046
    für das k-te Verifizierungsdatenmuster, y k v
    Figure DE102021124047A1_0047
    für das dem Verifizierungsdatenmuster entsprechende Fehlerkategorienkennzeichen und nv für die Anzahl der Verifizierungsdatenmuster steht.
  • Das Merkmal des Verifizierungsdatenmusters wird ins theoretische Extremwertmodell eingegeben, wobei in der Kategorie c der Abstand jeden Verifizierungsdatenmusters zum entsprechenden mc beträgt: d k ,c v = m c ƒ k ,c v
    Figure DE102021124047A1_0048
    wobei ƒ k , c v
    Figure DE102021124047A1_0049
    für das Merkmal des k -ten Verifizierungsdatenmusters, das der Kategorie c gehört, steht. Dann wird d k , c v
    Figure DE102021124047A1_0050
    zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet: ω c ( d k , c v ) = 1 exp ( d k , c v τ c λ c ) K C
    Figure DE102021124047A1_0051
    wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Verifizierungsdatenmuster zum unbekannten Typ gehört. Wenn ω c ( d k , c v )
    Figure DE102021124047A1_0052
    größer als der Schwellenwert Ω ist, wird das Muster als unbekannten Typ angesehen.
  • Wenn der Schwellenwert Ω auf 95% eingestellt wird, werden die Verifizierungsdaten nicht als Wert von unbekanntem Typ unterteilt.
  • Bevorzugt wird in Schritt S800 das Merkmal des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, wobei die Muster in Übereinstimmung mit dem Kennzeichen-Vorhersagewert klassifiziert werden. In der Kategorie c ist der Abstand jeden Trainingsmusters oder Zieldomänenmusters zu dem entsprechenden mc: d j , c t = m c ƒ j , c t
    Figure DE102021124047A1_0053
    wobei ƒ j , c t
    Figure DE102021124047A1_0054
    für das Merkmal des j -ten Testmusters oder Zieldomänenmusters, das der Kategorie c gehört, steht. Dann wird d j , c t
    Figure DE102021124047A1_0055
    zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet: ω c ( d j , c t ) = 1 exp ( d j , c t τ c λ c ) K C
    Figure DE102021124047A1_0056
    wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Typ gehört.
  • Wenn die Wahrscheinlichkeit den Schwellenwert Ω überschreitet, wird das Muster so angesehen, dass es zu einem unbekannten Typ gehört, sonst gehört es zum bekannten Typ, wobei in Übereinstimmung mit dem Kennzeichen-Vorhersagewert die Kategorie des Musters bestimmt wird.
  • Im Vergleich zu dem Stand der Technik hat die vorliegende Veröffentlichung die folgenden vorteilhaften Wirkungen: für die Fehlerdiagnoseaufgabe offener Menge eines Hochgeschwindigkeits-EMUs, der unter konstanten Arbeitsbedingungen arbeitet, kann die Deep-Learning-basierte Fehlerdiagnosemethode gemäß der vorliegenden Erfindung, wenn der Kennzeichensatz der Testdaten einen Teil der bekannten Typen und unbekannte Typen enthält, eine genaue Diagnose für die Muster bekannter Typen und eine wirksame Erkennung für die Muster unbekannter Typen durchführen;
    für die Fehlerdiagnoseaufgabe offener Menge eines Hochgeschwindigkeits-EMUs, der unter unterschiedlichen Arbeitsbedingungen arbeitet, kann die Deep-Learning-basierte Fehlerdiagnosemethode gemäß der vorliegenden Erfindung, wenn der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Typen und unbekannte Typen enthält, den Verteilungsunterschied zwischen den bekannten Typen der Quelldomäne und der Zieldomäne verringern sowie die unbekannten Typen und die bekannten Typen voneinander trennen, am Ende werden eine genaue Diagnose für die Muster bekannter Typen und eine wirksame Erkennung für die Muster unbekannter Typen realisiert.
  • Figurenliste
    • 1 zeigt ein Ablaufdiagramm einer Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
    • 2 zeigt ein schematisches Diagramm des Modellrahmens einer Fehlerdiagnosemethode offener Menge des Tiefenmodells und der Extremwerttheorie unter konstanten Arbeitsbedingungen in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
    • 3 zeigt ein schematisches Diagramm des Modellrahmens einer Fehlerdiagnosemethode offener Menge des Tiefenmodells und der Extremwerttheorie unter unterschiedlichen Arbeitsbedingungen in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
    • 4 bis 6 zeigen schematische Diagramme von Netzwerkstrukturen entsprechender Ausführungsbeispiele der vorliegenden Veröffentlichung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Im Zusammenhang mit 1 bis 6 werden die bevorzugten Ausführungsbeispiele der vorliegenden Veröffentlichung im Folgenden näher erläutert. Obwohl in Figuren die ausführlichen Ausführungsbeispiele der vorliegenden Veröffentlichung offenbart sind, versteht es sich, dass die vorliegende Veröffentlichung in verschiedenen Formen realisiert werden kann, ohne von den hier erläuterten Ausführungsbeispielen beschränkt zu werden. Im Gegensatz dazu werden diese Ausführungsbeispiele dazu verwendet, die vorliegende Veröffentlichung gründlicher zu verstehen und den Umfang der vorliegenden Veröffentlichung vollständig an die Fachleute auf diesem Gebiet zu übertragen.
  • Es sollte darauf hingewiesen werden, dass in der Beschreibung und den Ansprüchen bestimmte Wortschätze verwendet werden, um bestimmte Komponenten zu bezeichnen. Der Fachmann auf diesem Gebiet sollte verstehen, dass der Fachmann verschiedenen Begriffe zum Bezeichnen derselben Komponente verwenden kann. Die Beschreibung und Ansprüche verwenden keine Unterschiede in Begriffen als Mittel zur Unterscheidung von Komponenten, sondern verwenden Unterschiede in Funktionen von Komponenten als Unterscheidungskriterium, Z,B, ist „einschließen“ oder „einschließen“ in der gesamten Beschreibung und den Ansprüchen ein offener Begriff, der als „einschließen, aber nicht beschränkt auf“ interpretiert werden soll. Die folgende Erläuterung der Beschreibung ist eine bevorzugte Ausführungsform zum Implementieren der vorliegenden Erfindung, aber die Erläuterung basiert auf den allgemeinen Prinzipien der Beschreibung und sollte den Umfang der vorliegenden Erfindung nicht beschränken. Der Schutzumfang der vorliegenden Veröffentlichung sollte durch die Ansprüche definiert werden.
  • Um das Verstehen der Ausführungsbeispiele der vorliegenden Veröffentlichung zu erleichtern, werden sie im Zusammenhang mit Figuren und ausführlichen Ausführungsbeispielen im Folgenden näher erläutert, wobei die jeweiligen Figuren keine Beschränkung für die Ausführungsbeispiele der vorliegenden Veröffentlichung bilden. Wie in 1 dargestellt, umfasst eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager in einem Ausführungsbeispiel folgende Schritte: S100: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor,
    S200: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, wird das Schwingungssignal in Trainingsdaten, Verifizierungsdaten und Testdaten unterteilt, wobei die Trainingsdaten und die Verifizierungsdaten gekennzeichnet und die Testdaten nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, wird das Schwingungssignal des Betriebs unter einer der Arbeitsbedingungen in Quelldomänendaten und Verifizierungsdaten unterteilt, wobei die Quelldomänendaten und die Verifizierungsdaten gekennzeichnet sind, und wobei das Schwingungssignal des Betriebs unter einer anderen Arbeitsbedingung als Zieldomänendaten verwendet wird, die nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Die unter der obigen Annahme durchgeführte Fehlerdiagnoseaufgabe wird als Fehlerdiagnose offener Menge definiert,
    wobei in diesem Schritt die Trainingsdaten oder die Quelldomänendaten wie folgt ausgedrückt sind: D S = { ( x 1 S , y 1 s ) , , ( x n s s , y n s s ) } ,
    Figure DE102021124047A1_0057

    wobei die Testdaten oder die Zieldomänendaten wie folgt ausgedrückt sind: D t = { x 1 t , , x n t t } .
    Figure DE102021124047A1_0058
    und wobei x i s
    Figure DE102021124047A1_0059
    für das i -te Trainingsmuster oder Quelldomänenmuster, y i s
    Figure DE102021124047A1_0060
    für das Fehlerkategorienkennzeichen, das dem Trainingsmuster oder dem Quelldomänenmuster entspricht und ns für die Anzahl der Trainingsmuster oder der Quelldomänenmuster steht, x i t
    Figure DE102021124047A1_0061
    steht für das i -te Testmuster oder Zieldomänenmuster und nt für die Anzahl der Testmuster oder der Zieldomänenmuster.
  • Es versteht sich, dass vor dem Erfassen der Schwingungssignale Fehler verschiedener Typen und verschiedener Grade für unterschiedliche Lager an dem Hochgeschwindigkeits-EMU vorgefertigt werden sollen. Dabei entspricht hoch- und untengestelltes s der Quelldomäne und hoch- und untengestelltes t der Zieldomäne.
  • Beispielhaft können das erste Schwingungssignal und das zweite Schwingungssignal ein zeitlich veränderliches Schwingungsbeschleunigungssignal an dem Lager des Hochgeschwindigkeits-EMUs sein, wobei das Schwingungsbeschleunigungssignal den Informationen des Fehlertyps und der Fehlerstufe des Lagers entsprechen kann.
  • Darüber hinaus sind für den Fachmann auf diesem Gebiet die Quelldomäne und die Zieldomäne zwei grundlegende Begriffe im Transferlernen. Im Allgemeinen wird das vorhandene Wissen als Quelldomäne bezeichnet, und das zu lernende neue Wissen wird als Zieldomäne bezeichnet, dabei kann durch das Transferlernen das Wissen der Quelldomäne an die Zieldomäne überführt werden. Insbesondere in diesem Ausführungsbeispiel können die Quelldomänendaten die unter einer Arbeitsbedingung erfassten Daten mit dem Kennzeichen sein und die Fehlerinformationen des Lagers enthalten, und die Zieldomäne kann die unter einer anderen Arbeitsbedingung erfassten Daten ohne Kennzeichen sein. Mit der Methode in dem vorliegenden Ausführungsbeispiel können die in den Quelldomänendaten enthaltenen Fehlerinformationen unter einer Arbeitsbedingung in die Zieldomänendaten überführt werden, um die Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers unter einer anderen Arbeitsbedingung zu vervollständigen,
    • S300: Einrichten eines eindimensionalen konvolutionellen neuronalen Netzwerks mit einem Merkmalsextraktor F und einem Kennzeichenprädiktor G hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen; Einrichten eines bilateralen gewichteten Konfrontationsnetzwerks mit einem Merkmalsextraktor F, einem Kennzeichenprädiktor G, einem Domänenklassifikator D und Hilfsdomänenklassifikator Dω hinsichtlich einer Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen;
    in diesem Schritt ist der Merkmalsextraktor durch eine konvolutionelle Schicht und eine vollständig verbundene Schicht gebildet, um Merkmale aus Eingabedaten zu extrahieren;
    wobei der Kennzeichenprädiktor durch eine vollständig verbundene Schicht gebildet ist, um Eingabemerkmale zu klassifizieren; und wobei der Domänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um zu unterscheiden, ob die Eingabemerkmale aus der Quelldomäne oder der Zieldomäne stammen. Der Hilfsdomänenklassifikator ist durch eine vollständig verbundene Schicht gebildet, um einen Ähnlichkeitsindex des Quelldomänenmusters und des Zieldomänenmusters mit der Quelldomäne bereitzustellen,
    • S400: Eingeben der gekennzeichneten Trainingsdaten hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten hinsichtlich einer Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen; S500: Verwenden der Trainingsdaten oder Quelldomänendaten nach Abschluss des Trainings, um ein theoretisches Extremwertmodell einzurichten und somit unbekannte Fehlertypen in der Testphase zu erkennen;
    • S600: Eingeben der nicht gekennzeichneten Testdaten ins trainierte eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich die Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte eindimensionale konvolutionelle neuronale Netzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; Eingeben der nicht gekennzeichneten Zieldomänendaten ins trainierte bilaterale gewichtete Konfrontationsnetzwerk hinsichtlich der Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte bilaterale gewichtete Konfrontationsnetzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt;
    • S700: Eingeben der Merkmale des Verifizierungsdatenmusters in das theoretische Extremwertmodell, um den Schwellenwert zu bestimmen,
    • S800: Eingeben der Merkmale des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell, Ausgeben der Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster möglicherweise zum unbekannten Typ gehört, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Muster zum unbekannten Typ, sonst gehört es zum bekannten Typ, Feststellen der Kategorie des Musters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.
  • In dem vorliegenden Ausführungsbeispiel wird das Problem der Fehlerdiagnose offener Menge definiert und eine Fehlerdiagnosemethode offener Menge des Hochgeschwindigkeits-EMU-Lagers im Betrieb unter konstanten Arbeitsbedingungen und unterschiedlichen Arbeitsbedingungen zur Verfügung gestellt. In der Trainingsphase werden hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die Trainingsdaten in das eindimensionale konvolutionelle neuronale Netzwerk eingegeben, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren; hinsichtlich einer Fehlerdiagnose offener Menge unter unterschiedlichen Arbeitsbedingungen werden die Quelldomänendaten und die Zieldomänendaten gleichzeitig ins bilaterale gewichtete Konfrontationsnetzwerk eingegeben, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren, den Verteilungsunterschied der gemeinsam genutzten Kategorie der Quelldomäne und der Zieldomäne zu verringern sowie die Muster unbekannter Typen von anderen Mustern zu trennen. Nach dem Training wird mittels der gelernten Merkmale ein theoretisches Extremwertmodell eingerichtet. In der Testphase wird das gelernte Modell zum Vorhersagen des Kennzeichens und das theoretische Extremwertmodell zum Erkennen der unbekannten Typen verwendet. Gleichzeitig wird ein korrektes Kategorisieren für die Muster bekannter Typen und ein wirksames Erkennen für die Muster unbekannter Typen realisiert.
  • In einem anderen Ausführungsbeispiel umfasst in Schritt S400 das Training für das eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich der Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die folgenden Unterschritte: S401: Eingeben der gekennzeichneten Trainingsdaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, Extrahieren der Merkmale der Trainingsdaten und Aufzeichnen als ƒ = F(x);
    • S402: Eingeben des extrahierten Merkmals der Trainingsdaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen, wodurch ein Kategoriekennzeichen-vorhersagewert erhalten und als g=G(ƒ) aufgezeichnet wird; Berechnen der Verlustfunktion des Kennzeichenprädiktors in Übereinstimmung mit dem Kategoriekennzeichen-vorhersagewert und Verwenden dieser als die Zielfunktion des Trainings des eindimensionalen konvolutionellen neuronalen Netzwerks, um eine Rückwärtsausbreitung durchzuführen;
    wobei in diesem Schritt nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Trainingsdaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Trainingsdaten ermittelt wird, und wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x j s , y i s ) D s c = 1 K 1 [ y i s = c ] log [ G ( ƒ i s ) ] ,
    Figure DE102021124047A1_0062
    und wobei E für die Erwartung, x i s
    Figure DE102021124047A1_0063
    für das i -te Trainingsmuster, y i s
    Figure DE102021124047A1_0064
    für das dem Trainingsmuster entsprechende Fehlerkategorienkennzeichen, Ds für alle Trainingsmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien, G c ( ƒ i s )
    Figure DE102021124047A1_0065
    für die Wahrscheinlichkeit, dass das i-te Trainingsmerkmal als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0066
    für das Merkmal des i -ten Trainingsmusters steht.
  • Die Zielfunktion des Trainingsnetzwerks wird als min F , G L g
    Figure DE102021124047A1_0067
    ausgedrückt.
    • S403: Wiederholen der Schritte S401 bis S402, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des eindimensionalen konvolutionellen neuronalen Netzwerks abgeschlossen.
  • Für eine Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen wird die Methode nach Anspruch 1 verwendet, wobei in Schritt S400 das Training für das bilaterale gewichtete Konfrontationsnetzwerk die folgenden Schritte umfasst:
    • S401: gleichzeitiges Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, auf die Weise wird das Merkmal der Quelldomänendaten und der Zieldomänendaten extrahiert und als ƒ=F(x) aufgezeichnet;
    • S402: Eingeben des extrahierten Merkmals der Quelldomänendaten und der Zieldomänendaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen und einen Kategoriekennzeichen-vorhersagewert zu erhalten, der als g = G(f) aufgezeichnet wird;
    • S403: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten werden durch den Hilfsdomänenklassifikator vorwärts ausgebreitet, wobei die Ausgabe des Hilfsdomänenklassifikators zum Konstruieren eines Domänenähnlichkeitsindexes des Musters verwendet wird.
  • In diesem Schritt soll die Entropie des Vorhersagewerts des Musters zum Konstruieren des Domänenähnlichkeitsindexes des Musters berechnet werden.
  • Die Entropie des Kennzeichen-Vorhersagewerts des i -ten Quelldomänenmusters wird berechnet: H ( g i s ) = k = 1 K g i , k s log  g i , k s
    Figure DE102021124047A1_0068
    und wobei g i s
    Figure DE102021124047A1_0069
    für den Kennzeichen-Vorhersagewert des i -ten Quelldomänenmusters, g i , k i
    Figure DE102021124047A1_0070
    für die Wahrscheinlichkeit, dass das i-te Quelldomänenmuster als die Kategorie k vorhergesagt wird, und K für die Anzahl der Quelldomänenkategorien steht.
  • Der Domänenähnlichkeitsindex des i -ten Quelldomänenmusters ist: ω s ( ƒ i s ) = H ( g i s ) log  K D ω ( ƒ i s )
    Figure DE102021124047A1_0071
    wobei D ω ( ƒ i s )
    Figure DE102021124047A1_0072
    für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das i -te Quelldomänenmusters steht. Die Entropie des Kennzeichen-Vorhersagewerts des j -ten Zieldomänenmusters wird berechnet: H ( g j t ) = k = 1 K g j , k t log  g j , k t
    Figure DE102021124047A1_0073
    wobei g j t
    Figure DE102021124047A1_0074
    für den Kennzeichen-Vorhersagewert des j -ten Zieldomänenmusters und g j , k s
    Figure DE102021124047A1_0075
    für die Wahrscheinlichkeit steht, dass das j -te Zieldomänenmuster als die Kategorie k vorhergesagt wird.
  • Der Domänenähnlichkeitsindex des j -ten Zieldomänenmusters ist: ω t ( ƒ j t ) = D ω ( ƒ j t ) H ( g j t ) log  K
    Figure DE102021124047A1_0076
    wobei D ω ( ƒ j t )
    Figure DE102021124047A1_0077
    für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das j -te Zieldomänenmusters steht,
    • S404: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Domänenklassifikator vorwärts ausgebreitet, um einen Domänenkennzeichen-Vorhersagewert zu erhalten;
    • S405: Gewichten des Quelldomänen- und Zieldomänenmusters gemäß dem Kategoriekennzeichen-vorhersagewert und dem Domänenkennzeichen-Vorhersagewert und mittels des Domänenähnlichkeitsindexes, um die Verlustfunktion des Kennzeichenprädiktors, des Domänenklassifikators und des Hilfsdomänenklassifikators zu ermitteln und somit die Zielfunktion zu konstruieren, wobei nach dem Konstruieren der Zielfunktion eine Rückwärtsausbreitung durchgeführt wird.
  • In diesem Schritt kann nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Quelldomänendaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Quelldomänendaten ermittelt werden, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x j s , y i s ) D s c = 1 K 1 [ y i s = c ] log [ G c ( ƒ i s ) ] ,
    Figure DE102021124047A1_0078
    und wobei E für die Erwartung, x i s
    Figure DE102021124047A1_0079
    für das i -te Quelldomänenmuster, y i s
    Figure DE102021124047A1_0080
    für das dem Quelldomänenmuster entsprechende Fehlerkategorienkennzeichen, Ds für alle Quelldomänenmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien, G c ( ƒ i s )
    Figure DE102021124047A1_0081
    für die Wahrscheinlichkeit, dass das i -te Quelldomänenmerkmals als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0082
    für das Merkmal des i -ten Quelldomänenmusters steht.
  • Der Verlust des Hilfsdomänenklassifikators kann gemäß dem wahren Domänenkennzeichen ermittelt werden, wobei der Verlust des Hilfsdomänenklassifikators wie folgt ausgedrückt wird: L d ω = E x i s D s log [ D ω ( ƒ i s ) ] E x j t D t log [ 1 D ( ƒ j t ) ] .
    Figure DE102021124047A1_0083
    und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0084
    für alle Quelldomänenmuster, x j s D s
    Figure DE102021124047A1_0085
    für alle Zieldomänenmuster, x j t D t
    Figure DE102021124047A1_0086
    für den Domänenkennzeichen-Vorhersagewert des i -ten Quelldomänenmusters und D ω ( ƒ j s )
    Figure DE102021124047A1_0087
    für den Domänenkennzeichen-Vorhersagewert des j -ten Zieldomänenmusters steht.
  • Im Berechnungsprozess des Verlusts des Domänenklassifikators wird jedes Muster mittels des Domänenähnlichkeitsindexes nach Anspruch 8 gewichtet, nachdem der Domänenkennzeichen-Vorhersagewert des Domänenklassifikators erhalten war, wird der endgültige Verlust des Domänenklassifikators gemäß dem wahren Domänenkennzeichen wie folgt ausgedrückt: L d = E x i s D s ω s ( ƒ i s ) log [ D ( ƒ i s ) ] E x j s D t ω t ( ƒ j t ) log [ 1 D ( ƒ j t ) ] .
    Figure DE102021124047A1_0088
    und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0089
    für alle Quelldomänenmuster, x j t D s
    Figure DE102021124047A1_0090
    für alle Zieldomänenmuster, D ( ƒ i s )
    Figure DE102021124047A1_0091
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das i -te Quelldomänenmusters und D ( ƒ j t )
    Figure DE102021124047A1_0092
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das j -te Zieldomänenmusters steht.
  • Die Zielfunktion des Trainingsnetzwerks wird wie folgt ausgedrückt: max F , G L g + λ L d
    Figure DE102021124047A1_0093
    min D L d
    Figure DE102021124047A1_0094
    min D ω L d ω ,
    Figure DE102021124047A1_0095
    und wobei A für den Kompromisskoeffizienten steht.
    • S406: Wiederholen der Schritte S401 bis S405, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des bilateralen gewichteten Konfrontationsnetzwerks abgeschlossen.
  • In einem anderen Ausführungsbeispiel wird in Schritt S500 ein theoretisches Extremwertmodell mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten eingerichtet, ƒ i s
    Figure DE102021124047A1_0096
    steht für das Merkmal des i -ten Trainingsmusters oder Quelldomänenmusters und S i , c = ƒ i , c s
    Figure DE102021124047A1_0097
    für das Merkmal des i -ten korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters, das der Kategorie c gehört, Die durchschnittlichen Merkmale jeder Kategorie wird durch mc ausgedrückt, wobei mc dadurch erhalten wird, dass die Merkmale aller korrekt klassifizierten Trainingsmuster oder Quelldomänenmuster, die der Kategorie c gehören, gemittelt werden: m c = m e a n ( S i , c ) .
    Figure DE102021124047A1_0098
  • In der Kategorie c ist der Abstand jeden korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters zu dem entsprechenden mc: d i , c s = S i , c m c
    Figure DE102021124047A1_0099
    um das theoretische Extremwertmodell jedes Typs zu erhalten, wird die Schwanzverteilung von d i , c s
    Figure DE102021124047A1_0100
    von jedem Typ dazu verwendet, die Weibull-Verteilung anzupassen, um die Positionsparameter τc, Formparameter κc und Skalenparameter λc jedes Typs der Weibull-Verteilung zu erhalten.
  • In Schritt S700 werden die Verifizierungsdaten wie folgt ausgedrückt: D v = { ( x l v , y l v ) , , ( x n v v , y n v v ) }
    Figure DE102021124047A1_0101
    wobei x k v
    Figure DE102021124047A1_0102
    für das k -te Verifizierungsdatenmuster, y k v
    Figure DE102021124047A1_0103
    für das dem Verifizierungsdatenmuster entsprechende Fehlerkategorienkennzeichen und nv für die Anzahl der Verifizierungsdatenmuster steht. Dabei entspricht hoch- und untengestelltes v der Verifizierungsdomäne.
  • Das Merkmal des Verifizierungsdatenmusters wird ins theoretische Extremwertmodell eingegeben, wobei in der Kategorie c der Abstand jeden Verifizierungsdatenmusters zum entsprechenden mc beträgt: d k , c v = m c ƒ k , c v
    Figure DE102021124047A1_0104
    wobei ƒ k , c v
    Figure DE102021124047A1_0105
    für das Merkmal des k -ten Verifizierungsdatenmusters, das der Kategorie c gehört, steht. Dann wird d k , c v
    Figure DE102021124047A1_0106
    zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet: ω c ( d k , c v ) = 1 exp ( d k ,c v τ c λ c ) K C
    Figure DE102021124047A1_0107
    wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Verifizierungsdatenmuster zum unbekannten Typ gehört. Wenn ω c ( d k , c v )
    Figure DE102021124047A1_0108
    größer als der Schwellenwert Ω ist, wird das Muster als unbekannten Typ angesehen.
  • Wenn der Schwellenwert Ω auf 95% eingestellt wird, werden die Verifizierungsdaten nicht als Wert von unbekanntem Typ unterteilt.
  • In Schritt S800 wird das Merkmal des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, wobei die Muster in Übereinstimmung mit dem Kennzeichen-Vorhersagewert klassifiziert werden, In der Kategorie c ist der Abstand jeden Trainingsmusters oder Zieldomänenmusters zu dem entsprechenden mc: d j , c t = m c ƒ j , c t
    Figure DE102021124047A1_0109
    wobei ƒ j , c t
    Figure DE102021124047A1_0110
    für das Merkmal des j -ten Testmusters oder Zieldomänenmusters, das der Kategorie c gehört, steht. Dann wird d j , c t
    Figure DE102021124047A1_0111
    zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet: ω c ( d j , c t ) = 1 exp ( d j , c t τ c λ c ) K C
    Figure DE102021124047A1_0112
    wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Typ gehört.
  • Wenn die Wahrscheinlichkeit den Schwellenwert Ω überschreitet, wird das Muster so angesehen, dass es zu einem unbekannten Typ gehört, sonst gehört es zum bekannten Typ, wobei in Übereinstimmung mit dem Kennzeichen-Vorhersagewert die Kategorie des Musters bestimmt wird.
  • Mit der Methode in dem vorliegenden Ausführungsbeispiel kann eine Fehlerdiagnose offener Menge für die Hochgeschwindigkeits-EMUs im Betrieb unter konstanten Arbeitsbedingungen und unterschiedlichen Arbeitsbedingungen durchgeführt werden, dadurch können nicht nur die Muster bekannter Typen genau klassifiziert werden, sondern die Muster unbekannter Typen können auch wirksam erkannt werden.
  • 2 und 3 zeigen schematische Diagramme der Modellstruktur einer Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager. Wie in 2 dargestellt, werden hinsichtlich einer Fehlerdiagnose unter gleichen Arbeitsbedingungen der Merkmalsextraktor und der Kennzeichenprädiktor trainiert, so dass das Netzwerk eine gute Merkmalsdarstellungsfähigkeit hat und ist der Lage ist, die bekannten Typen korrekt zu klassifizieren; nach dem Modelltraining wird ein theoretisches Extremwertmodell mittels der Merkmale des Trainingsmusters eingerichtet, und in der Testphase wird das Merkmal des Testmusters ins theoretische Extremwertmodell eingegeben, um in den Testmustern die Muster, die zu unbekannten Typen gehören, zu erkennen. Wie in 3 dargestellt, werden hinsichtlich einer Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen der Merkmalsextraktor und der Kennzeichenprädiktor trainiert, so dass das Netzwerk eine gute Merkmalsdarstellungsfähigkeit hat und ist der Lage ist, die bekannten Typen korrekt zu klassifizieren; wobei der Hilfsdomänenklassifikator trainiert wird, um einen Domänenähnlichkeitsindex zu erhalten, auf die Weise werden im Adaptationsprozess der Domäne die Quelldomänenmuster und die Zieldomänenmuster gewichtet; und wobei die Adaptation der Domäne durch ein Konfrontationslernen realisiert wird, einerseits wird der Merkmalsextraktor trainiert, um ein Merkmal zu generieren, wobei der Domänenklassifikator nicht unterscheiden kann, ob es aus der Quelldomäne oder der Zieldomäne stammt; andererseits wird der Domänenklassifikator trainiert, so dass er möglichst unterscheidet, ob das Merkmal aus der Quelldomäne oder der Zieldomäne stammt; unter dem Einfluss des Domänenähnlichkeitsindexes werden die Muster, die zu der gemeinsam genutzten Kategorie gehören, in dem Adaptationsprozess der Domäne stärker gewichtet, und die Muster, die zu den unbekannten Typen gehören, werden in dem Adaptationsprozess der Domäne geringer gewichtet, um die Merkmale der gemeinsam genutzten Kategorie, deren Domäne unveränderlich ist, zu erhalten und die Merkmale der Muster, die zu ausschließlichen Typen gehören, zu trennen. Nach dem Modelltraining wird ein theoretisches Extremwertmodell mittels der Merkmale des Quelldomänenmusters eingerichtet, und in der Testphase wird das Merkmal des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, um in den Zieldomänenmustern die Muster, die zu unbekannten Typen gehören, zu erkennen. Nachfolgend für die Fehlerdiagnose unter konstanten Arbeitsbedingungen ein Vergleichsexperiment mit dem eindimensionalen konvolutionellen neuronalen Netzwerk (1DCNN), ResNet18 und 1DCNN in Kombination mit dem Nearest-Neighbour-Algorithmus (1DCNN+KNN) durchgeführt; für die Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen wird ein Vergleichsexperiment mit dem Domain-Adversarial-Neural-Network (DANN), dem Bilateral-Weighted-Adversarial-Network (BWAN) und DANN in Kombination mit der Extremwerttheorie durchgeführt, um die technische Lösung der vorliegenden Veröffentlichung weiter zu erläutern.
  • Insbesondere sind die für das Vergleichsexperiment verwendeten wichtigsten Bewertungsindikatoren die Genauigkeitsrate (ALL) der Kategorie K+1, die Genauigkeitsrate der gemeinsam genutzten Kategorie (ALL*), die Genauigkeitsrate der unbekannten Kategorie (UNK) und der harmonische Mittelwert (H-Score) von ALL* und UNK. Dabei wird ALL definiert als: ALL = (die Anzahl der korrekt vorhergesagten Muster der gemeinsam genutzten Kategorie + die Anzahl der korrekt vorhergesagten Muster der unbekannten Kategorie) /die Gesamtzahl der Muster. ALL* wird definiert als: ALL* = die Anzahl der korrekt vorhergesagten Muster der gemeinsam genutzten Kategorie/die Anzahl der Muster der gemeinsam genutzten Kategorie, H-Score ist definiert als: H-Score= 2 · ALL* · UNK / (ALL* + UNK), H-Score ist nur hoch, wenn ALL* und UNK beide hoch sind.
  • Der erste Datensatz, der im Experiment verwendet wird, ist die Lagerdaten des Fahrmotors, die unter 3 verschiedenen Arbeitsbedingungen erfasst werden. Wie in Tabelle 1 dargestellt, stehen 0, 1, 2 für die Nummer der Datensätze dar, die bei verschiedenen Drehzahlen erfasst werden, für die Fehlerdiagnose unter konstanten Arbeitsbedingungen können drei Diagnoseaufgaben gebildet werden: T0, T1, T2, z,B, steht T0 dafür, dass die Trainingsdaten und die Testdaten jeweils bei einer Drehzahl von 800 U/min und einer Radiallast von 5,4KN erfasst werden; für die Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen können 6 Diagnoseaufgaben gebildet werden: T01, T02, T10, T12,T20,T21 z,B, steht T01 dafür, dass die Quelldomänendaten bei einer Drehzahl von 800 U/min und einer Radiallast von 5,4KN und die Zieldomänendaten bei einer Drehzahl von 2800 U/min und einer Radiallast von 5,4KN erfasst werden. Bei den Lagern bestehen 3 Fehlertypen (Innenringfehler, Außenringfehler und Wälzkörperfehler). Jeder Fehlertyp hat zwei Fehlerstufen: leicht und mittel. Es gibt insgesamt 6 Fehlerzustände, wie in Tabelle 2 dargestellt. Das Schwingungssignal wird durch den Beschleunigungssensor an der Lagerhülse des Fahrmotors erfasst, wobei die Abtastfrequenz 25600 Hz beträgt, und wobei alle 1024 Punkte im Schwingungssignal als ein Muster verwendet werden. Tabelle 1
    Nummer der Arbeitsbedingung Drehzahl Radiallast
    0 800 U/min 5,4KN
    1 2800 U/min 5,4KN
    2 800 U/min 6KN
    Tabelle 2
    Kategorienkennzeichen Fehlerposition Fehlerstufe
    0 Innenring Leicht
    1 Mittel
    2 Außenring Leicht
    3 Mittel
    4 Wälzkörper Mittel
    5 Leicht
  • Hinsichtlich der Fehlerdiagnoseaufgabe offener Menge sind die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Trainingskennzeichensatz und Testkennzeichensatz wie in Tabelle 3 dargestellt, und die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Quelldomänenkennzeichensatz und Zieldomänenkennzeichensatz sind wie in Tabelle 4 dargestellt. Tabelle 3
    Aufgabe Last Drehzahl Trainingskennzeichensatz Testkennzeichensatz
    T0 5,4kN 800 U/min 0,2,4,5 0,1,2,3,4
    T1 5,4kN 2800 U/min 0,2,3,4,5 0,1,2,3
    T2 6kN 800 U/min 0,1,2,4 0,2,3
    Tabelle 4
    Aufgabe Quelldomäne - >Zieldomäne (Radiallast) Quelldomäne - >Zieldomäne (Drehzahl) Quelldomänenkennzeichensatz Zieldomänenkennzeichensatz
    T01 5,4->5,4kN 800->2800 U/min 0,2,4,5 0,1,2,3,4
    T02 5,4->6kN 800->800 U/min
    T10 5,4->5,4kN 2800->800 U/min 0,2,3,4,5 0,1,2,3
    T12 5,4->6kN 2800->800
    U/min
    T20 6->5,4kN 800->800 U/min 0,1,2,4 0,2,3
    T21 6->5,4kN 800->2800 U/min
  • Bei einer Drehzahl von 800 (U/min) und einer Radiallast von 5,4 KN sind die spezifischen Daten der jeweiligen Fehlerinformationen in Tabelle 2 wie in Tabelle 5 dargestellt: Tabelle 5
    Kennzeichen Daten
    0 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    1 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    ......
    2 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    ......
    3 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    ......
    4 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    ......
    5 3,9062499E-005
    7,8124998E-005
    1,1718750E-004
    1,5625000E-004
    1,9531250E-004
    2,3437499E-004
    2,7343750E-004
    3,1249999E-004
    3,5156251E-004
    3,9062501E-004
    ......
  • Um die Gerechtigkeit des Experiments zu gewährleisten, werden die Hyperparametereinstellungen aller Methoden gleich eingestellt. Die Diagnoseergebnisse jeder Methode unter gleichen Arbeitsbedingungen sind in Tabelle 6 dargestellt. Es ist ersichtlich, dass das ALL der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben am höchsten ist, was darauf hinweist, dass die vorgeschlagene Methode die beste Diagnoseleistung für alle Muster aufweist; das ALL* und UNK der in der vorliegenden Erfindung vorgeschlagenen Methode sind bei allen Diagnoseaufgaben am höchsten, und das H-Score hat die höchste Genauigkeit bei den meisten Diagnoseaufgaben, was darauf hinweist, dass die vorgeschlagene Methode sowohl die Muster bekannter Kategorie klassifizieren als auch die Muster unbekannter Kategorie wirksam erkennen kann, was die Wirksamkeit des theoretischen Extremwertmodells verifiziert. Die Diagnoseergebnisse jeder Methode unter unterschiedlichen Arbeitsbedingungen sind in Tabelle 7 dargestellt. Es ist ersichtlich, dass das ALL* der in der vorliegenden Erfindung vorgeschlagenen Methode eine durchschnittliche Genauigkeit bei allen Diagnoseaufgaben von 80,6% aufweist, was darauf hinweist, dass die vorgeschlagene Methode den Unterschied zwischen den Domänen wirksam verringern kann; das UNK und das H-score der in der vorliegenden Erfindung vorgeschlagenen Methode sind bei allen Diagnoseaufgaben am höchsten, was verifiziert, dass die vorgeschlagene Methode die Fähigkeit aufweist, unter unterschiedlichen Arbeitsbedingungen gleichzeitig die bekannten Kategorien genau zu klassifizieren und die unbekannten Kategorien zu erkennen, was die Überlegenheit der vorgeschlagenen Methode im Umgang mit dem Problem der Fehlerdiagnose offener Menge anzeigt. Tabelle 6
    Aufgabe 1DCNN ResNet18 1DCNN+KNN Vorgeschlagene Methode
    ALL ALL ALL ALL* UNK H-score ALL ALL* UNK H-score
    T0 59,8% 58,8% 86,9% 93,5% 76,9% 84,4% 98,1% 97,0% 99,7% 98,3%
    T1 76,2% 76,2% 86,8% 96,5% 55,9% 70,7% 92,7% 98,5% 74,3% 84,7%
    T2 66,1% 62,9% 89,7% 85,9% 97,2% 91,2% 96,4% 94,8% 99,7% 97,2%
    MITTELWERT 67,4% 66,0% 87,8% 92,0% 76,6% 82,1% 95,7% 96,8% 91,2% 93,9%
    Tabelle 7
    Aufgabe DANN BWAN DANN+EVT Vorgeschlagene Methode
    ALL ALL ALL ALL* UNK H-score ALL ALL* UNK H-score
    T01 60,2% 60,4% 77,8% 91,8% 56,5% 65,0% 88,2% 89,5% 86,2% 87,5%
    T02 58,6% 58,3% 66,3% 94,1% 24,6% 36,5% 79,2% 65,9% 99,2% 79,1%
    T10 66,8% 73,3% 66,8% 81,3% 23,3% 33,0% 85,6% 81,9% 96,6% 88,6%
    T12 67,5% 71,4% 71,2% 82,1% 38,5% 49,1% 70,8% 61,1% 99,9% 75,4%
    T20 64,0% 64,5% 75,3% 95,1% 35,5% 47,0% 91,9% 90,3% 94,9% 92,3%
    T21 58,4% 64,8% 71,6% 86,6% 43,1% 49,3% 94,6% 94,6% 94,7% 94,3%
    MITTELW ERT 62,6% 65,5% 71,5% 88,5% 36,9% 46,6% 85,1% 80,6% 95,3% 86,2%
  • Der zweite im Experiment verwendete Datensatz ist der Lagerdatensatz, der im Motorlagerexperiment vom Elektrotechniklabor von Case Western Reserve University in den Vereinigten Staaten erhalten werden. Dieser Datensatz wird bei einem gewöhnlichen Motor unter 4 verschiedenen Lasten (0 PS, 1 PS, 2 PS und 3 PS) erfasst, wobei 0, 1, 2, 3 für die Nummer der erfassten Datensätze unter verschiedenen Lasten stehen, für eine Fehlerdiagnose unter konstanten Arbeitsbedingungen können vier Diagnoseaufgaben gebildet werden: C0, C1, C2, C3, z,B, steht C0 dafür, dass die Trainingsdaten und die Testdaten jeweils bei einer Last von 0 PS erfasst werden; für eine Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen können 12 Diagnoseaufgaben gebildet werden: C01, C02, C03, C10, C12, C13, C20, C21, C23, C30, C31,C32, z,B, steht C01 dafür, dass die Quelldomänendaten bei einer Last von 0 PS und die Zieldomänendaten bei einer Last von 1 PS erfasst werden. Der Datensatz umfasst 4 Fehlertypen: normaler Lagerzustand. Außenringfehler, Innenringfehler und Wälzkörperfehler, und jeder Fehlertyp hat 3 Fehlerstufen, einschließlich Schadensdurchmesser von 7 mil, 14 mil und 21 mil, also werden insgesamt 10 Zustände erhalten, wie in Tabelle 8 dargestellt. Das Schwingungssignal wird durch den Beschleunigungssensor, der oberhalb des Lagersitzes des Antriebsendes des Motors angeordnet ist, erfasst, wobei die Abtastfrequenz 12 KHz beträgt, und wobei alle 1024 Punkte im Schwingungssignal als ein Muster verwendet werden. Tabelle 8
    Kategorienkennzeichen Fehlertyp Fehlergröße
    1 Normal 0 mils
    2 Innenring 7 mils
    3 14 mils
    4 21 mils
    5 Außenring 7 mils
    6 14 mils
    7 21 mils
    8 Wälzkörper 7 mils
    9 14 mils
    10 21 mils
  • Hinsichtlich der Fehlerdiagnoseaufgabe offener Menge sind die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Trainingskennzeichensatz und Testkennzeichensatz wie in Tabelle 9 dargestellt, und die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Quelldomänenkennzeichensatz und Zieldomänenkennzeichensatz sind wie in Tabelle 10 dargestellt. Tabelle 9
    Aufgabe Last Trainingskennzeichensatz Testkennzeichensatz
    C0 0 PS 0,1,2,3,4,5,6 0,1,2,3,4,7,8,9
    C1 1 PS 0,1,2,3,4,5 0,1,2,3,4,7,8
    C2 2 PS 0,1,2,3,4,5 0,1,6,7
    C3 3 PS 0,1,3,5,7,9 0,1,2,3,4,5
    Tabelle 10
    Aufgabe Quelldomäne - >Zieldomäne (Last) Quelldomänenkennzeichensatz Zieldomänenkennzeichensatz
    C01 0->1 PS 0,1,2,3,4,5,6 0,1,2,3,4,7,8,9
    C02 0->2 PS
    C03 0->3 PS 0,1,2,3,4,5 0,1,2,3,4,7,8
    C10 1->0 PS
    C12 1->2 PS 0,1,2,3,4,5 0,1,6,7
    C13 1->3 PS
    C20 2->0 PS 0,1,3,5,7,9 0,1,2,3,4,5
    C21 2->1 PS
    C23 2->3 PS 0,1,3,5,7 0,1,2,3,4
    C30 3->0 PS
    C31 3->1 PS 0,2,4,6,8 0,2,5
    C32 3->2 PS
  • Die spezifischen Daten der jeweiligen Fehlerinformationen in Tabelle 8 bei einer Last von 1 PS sind wie in Tabelle 11 dargestellt: Tabelle 11
    Kennzeichen Daten
    1 0,0461040000000000
    -0,0371335384615385
    -0,0894960000000000
    -0,0849064615384615
    -0,0385938461538462
    0,0254510769230769
    0,0406800000000000
    0,0425575384615385
    0,0381766153846154
    0,0440178461538462
    ......
    2 -0,277601636726547
    -0,0443447904191617
    0,117603033932136
    -0,145054570858283
    -0,111430499001996
    0,130922714570858
    0,0328118962075848
    -0,197033812375250
    -0,0748825948103793
    0,00958367265469062
    ......
    3 -0,0404463473053892
    0,00373600798403194
    0,0201419560878244
    -0,0750450299401198
    0,0201419560878244
    0,0682227544910180
    -0,0329743313373254
    -0,0142942914171657
    0,0448320958083832
    -0,118415209580838
    ......
    4 0,171369061876248
    0,117765469061876
    -0,0970549900199601
    0,00974610778443114
    0,0609131736526946
    -0,0726897205588822
    -0,0560401197604790
    0,0990854291417166
    0,138475948103792
    -0,00893393213572854
    ......
    5 -0,0774563636363636
    0,455287272727273
    -0,214083636363636
    -0,0984127272727273
    -0,0283527272727273
    0,110945454545455
    0,0283527272727273
    -0,459396363636364
    -0,104576363636364
    -0,0630745454545455
    ......
    6 0,146236886227545
    -0,0844049101796407
    0,0142501796407186
    0,00909413173652695
    -0,101943592814371
    -0,00198934131736527
    -0,0395432335329341
    -0,128657604790419
    -0,0999948502994012
    0,0649986826347305
    ......
    7 -0,0259896207584830
    -0,0272078842315369
    -0,0479183632734531
    0,0377661676646707
    -0,0438574850299401
    -0,0682227544910180
    -0,00852784431137725
    -0,0223348303393214
    -0,00365479041916168
    -0,0215226546906188
    ......
    8 -0,0721211976047904
    0,303103952095808
    0,0331367664670659
    -0,207267225548902
    0,0969737724550898
    0,174455329341317
    -0,0869027944111777
    -0,0550655089820359
    0,130922714570858
    0,00438574850299401
    ......
    9 0,00552279441117765
    -0,103796047904192
    -0,0454818363273453
    0,125237485029940
    0,0618877844311377
    -0,0959991616766467
    0,0506797604790419
    0,155612854291417
    -0,00828419161676647
    -0,0383346906187625
    ......
    10 0,230008143712575
    0,188587185628743
    -0,426229780439122
    -0,0882022754491018
    0,384321516966068
    -0,146191616766467
    -0,235206067864271
    0,204668263473054
    0,188099880239521
    -0,402839121756487
    ......
  • Um die Gerechtigkeit des Experiments zu gewährleisten, werden die Hyperparametereinstellungen aller Methoden gleich eingestellt, die Diagnoseergebnisse jeder Methode unter gleichen Arbeitsbedingungen sind in Tabelle 12 dargestellt, und es ist ersichtlich, dass das ALL, ALL*, UNK und H-score der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben besser als diese von anderen Vergleichsmethoden sind; die Diagnoseergebnisse jeder Methode unter unterschiedlichen Arbeitsbedingungen sind in Tabelle 13 dargestellt, und es ist ersichtlich, dass das ALL und H-score der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben und das UNK bei meisten Diagnoseaufgaben besser als diese von anderen Vergleichsmethoden sind. Die obigen Ergebnisse verifizieren die Wirksamkeit der vorgeschlagenen Methode. Tabelle 12
    Aufgabe 1DCNN ResNet18 1DCNN+KNN Vorgeschlagene Methode
    ALL ALL ALL ALL* UNK H-score ALL ALL* UNK H-score
    C0 65,9% 64,7% 74,0% 82,1% 58,2% 68,1% 95,0% 96,9% 91,4% 94,0%
    C1 79,4% 79,0% 87,1% 92,3% 66,6% 77,4% 97,7% 97,7% 98,1% 97,8%
    C2 71,2% 71,2% 78,5% 96,0% 35,3% 51,6% 90,4% 98,9% 69,4% 80,7%
    C3 76,8% 76,8% 80,4% 87,7% 55,5% 67,9% 91,3% 95,0% 78,5% 85,8%
    MITTELWERT 73,3% 72,9% 80,0% 89,5% 53,9% 66,2% 93,6% 97,1% 84,3% 89,6%
    Tabelle 13
    Aufgabe DANN BWAN DANN+EVT Vorgeschlagene Methode
    ALL ALL ALL ALL* UNK H-score ALL ALL* UNK H-score
    C01 69,4% 70,2% 71,5% 92,0% 16,9% 26,5% 79,3% 78,0% 82,8% 79,2%
    C02 66,8% 69,9% 72,6% 90,5% 24,6% 33,5% 73,7% 73,8% 73,4% 71,6%
    C03 73,8% 70,1% 76,1% 89,7% 21,9% 32,9% 65,9% 64,4% 71,7% 66,9%
    C10 72,5% 73,7% 71,3% 90,5% 13,8% 22,9% 84,1% 85,8% 79,0% 80,6%
    C12 68,2% 71,3% 77,6% 94,5% 35,3% 48,9% 97,8% 98,9% 95,0% 96,6%
    C13 65,7% 69,8% 72,1% 91,3% 24,4% 37,2% 94,2% 92,2% 99,2% 95,5%
    C20 65,3% 69,7% 68,5% 87,8% 19,9% 32,2% 82,6% 82,6% 82,8% 82,4%
    C21 74,2% 70,1% 77,1% 91,6% 26,5% 40,3% 87,2% 84,8% 95,3% 89,7%
    C23 74,6% 74,6% 78,4% 83,9% 62,1% 70,2% 85,2% 83,8% 89,6% 86,5%
    C30 56,4% 50,4% 60,0% 80,2% 19,3% 30,2% 76,1% 71,9% 84,6% 77,8%
    C31 76,3% 83,2% 85,8% 90,4% 63,1% 71,9% 96,9% 96,5% 98,8% 97,6%
    C32 75,9% 83,2% 86,1% 90,3% 64,9% 72,2% 97,6% 97,9% 96,3% 97,1%
    MITTELWERT 69,9% 71,3% 74,8% 89,4% 32,7% 43,3% 85,1% 84,2% 87,4% 85,1%
  • Die Netzwerkstruktur des Merkmalsextraktors ist wie in Tabelle 14 dargestellt:
    Bezeichnung der Schicht Parameter
    Konvolutionelle Schicht Größe des konvolutionellen Kerns beträgt 11 × 1 und der Ausgangskanal ist 64
    Größte Pooling-Schicht Größe des konvolutionellen Kerns beträgt 3 × 1
    Konvolutionelle Schicht Größe des konvolutionellen Kerns beträgt 5 × 1 und der Ausgangskanal ist 192
    Größte Pooling-Schicht Größe des konvolutionellen Kerns beträgt 3 × 1
    Konvolutionelle Schicht Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 384
    Konvolutionelle Schicht Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 256
    Konvolutionelle Schicht Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 256
    Adaptive Durchschnitts-Pooling-Schicht Ausgabegröße beträgt 6 × 1
    Vollständig verbundene Schicht Anzahl der Neuronen beträgt 512
  • Die Netzwerkstruktur des Kennzeichenprädiktors ist wie in Tabelle 15 dargestellt:
    Bezeichnung der Schicht Parameter
    Vollständig verbundene Schicht Anzahl der Neuronen beträgt 512
    Lineare Gleichrichtungsfunktion Keine
    Vollständig verbundene Schicht Anzahl der Neuronen entspricht der Anzahl der Kategorien des Trainings- oder Quelldomänendatensatzes
  • Die Netzwerkstruktur des Domänenklassifikators und des Hilfsdomänenklassifikators ist wie in Tabelle 16 dargestellt:
    Bezeichnung der Schicht Parameter
    Vollständig verbundene Schicht Anzahl der Neuronen beträgt 2048
    Lineare Gleichrichtungsfunktion Keine
    Vollständig verbundene Schicht Anzahl der Neuronen beträgt 2048
    Lineare Gleichrichtungsfunktion Keine
    Vollständig verbundene Schicht Anzahl der Neuronen beträgt 1
    Sigmoid-Funktion Keine
  • Die Netzwerkstruktur in Tabellen 14, 15 und 16 ist beispielhaft wie in 4, 5 und 6 dargestellt, wobei in den Figuren ReLU für die lineare Gleichrichtungsfunktion steht.
  • Für die Fehlerdiagnose unter konstanten Arbeitsbedingungen kann die vorliegende Veröffentlichung die Diagnosegenauigkeit des Modells bei den Testdaten wirksam verbessern und gleichzeitig die Muster bekannter Kategorien korrekt klassifizieren und die Muster unbekannter Kategorien wirksam erkennen. Für die Fehlerdiagnose unter sich ändernden Arbeitsbedingungen kann die vorliegende Veröffentlichung die Diagnosegenauigkeit des Modells bei den Zieldomänendaten wirksam verbessern, den Verteilungsunterschied zwischen der gemeinsam genutzten Kategorie der Quelldomäne und der Zieldomäne verringern und die Muster unbekannter Kategorie von anderen Mustern trennen, darüber hinaus kann die vorliegende Veröffentlichung die Muster bekannter Kategorien korrekt klassifizieren und die Muster unbekannter Kategorien wirksam erkennen.
  • Obwohl die Ausführungsformen der vorliegenden Veröffentlichung oben unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden, sind die technischen Lösungen der vorliegenden Veröffentlichung nicht auf zwei Arbeitsbedingungenen mit unterschiedlichen Drehzahlen und unterschiedlichen Lasten beschränkt und umfassen auch andere Arten von Arbeitsbedingungenen. Die oben erwähnten spezifischen Ausführungsformen sind lediglich veranschaulichend, instruktiv und nicht einschränkend. Unter der Inspiration dieser Beschreibung und ohne Abweichung vom Schutzumfang der Ansprüche der vorliegenden Veröffentlichung kann der Durchschnittsfachmann auf diesem Gebiet auch viele Formen erstellen, die alle durch die vorliegende Veröffentlichung geschützt sind.

Claims (10)

  1. Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager, umfassend folgende Schritte: S100: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor; S200: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen betrieben wird, wird das Schwingungssignal in gekennzeichnete Trainingsdaten, gekennzeichnete Verifizierungsdaten und nicht gekennzeichnete Testdaten unterteilt, wobei der Kennzeichensatz der Testdaten so eingestellt wird, dass er ein Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält, wenn der Hochgeschwindigkeits-EMU unter sich ändernden Arbeitsbedingungen betrieben wird, wird das Schwingungssignal des Betriebs unter einer der Arbeitsbedingungen in gekennzeichnete Quelldomänendaten und gekennzeichnete Verifizierungsdaten unterteilt, wobei das Schwingungssignal des Betriebs unter einer anderen Arbeitsbedingung als Zieldomänendaten verwendet wird, die nicht gekennzeichnet sind, und wobei der Kennzeichensatz der Zieldomänendaten so eingestellt wird, dass er ein Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält, und wobei die unter der Einstellung durchgeführte Fehlerdiagnoseaufgabe eine Fehlerdiagnose offener Menge ist; S300: Einrichten eines eindimensionalen konvolutionellen neuronalen Netzwerks mit einem Merkmalsextraktor F und einem Kennzeichenprädiktor G für eine Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen; Einrichten eines bilateralen gewichteten Konfrontationsnetzwerks mit einem Merkmalsextraktor F, einem Kennzeichenprädiktor G, einem Domänenklassifikator Ds und Hilfsdomänenklassifikator Dω für eine Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen; S400: Eingeben der gekennzeichneten Trainingsdaten hinsichtlich der Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten hinsichtlich der Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen; S500: Verwenden der Trainingsdaten oder Quelldomänendaten nach Abschluss des Trainings, um ein theoretisches Extremwertmodell einzurichten und somit unbekannte Fehlertypen in der Testphase zu erkennen; S600: Eingeben der Testdaten ins trainierte eindimensionale konvolutionelle neuronale Netzwerk für die Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte eindimensionale konvolutionelle neuronale Netzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; Eingeben der Zieldomänendaten ins trainierte bilaterale gewichtete Konfrontationsnetzwerk für die Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte bilaterale gewichtete Konfrontationsnetzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; S700: Eingeben der Merkmale der Verifizierungsdaten in das theoretische Extremwertmodell, um den Schwellenwert zu bestimmen; S800: Eingeben der Merkmale des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell, Ausgeben der Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Fehlertyp gehört, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Testmuster oder das Zieldomänenmuster zum unbekannten Fehlertyp, sonst gehört es zum bekannten Fehlertyp, Feststellen der Kategorie des Testmusters oder des Zieldomänenmusters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.
  2. Methode nach Anspruch 1, wobei in Schritt S200 die Trainingsdaten oder die Quelldomänendaten wie folgt ausgedrückt sind: D s = { ( x l s , y l s ) , , ( x n s s , y n s s ) }
    Figure DE102021124047A1_0113
    und wobei x i s
    Figure DE102021124047A1_0114
    für das i -te Trainingsmuster oder Quelldomänenmuster, y i s
    Figure DE102021124047A1_0115
    für das Fehlerkategoriekennzeichen, das dem Trainingsmuster oder dem Quelldomänenmuster entspricht, und ns für die Anzahl der Trainingsmuster oder der Quelldomänenmuster steht, und wobei die Testdaten oder die Zieldomänendaten wie folgt ausgedrückt sind: D t = { x 1 t , , x n t t }
    Figure DE102021124047A1_0116
    und wobei x i t
    Figure DE102021124047A1_0117
    für das i -te Testmuster oder Zieldomänenmuster und nt für die Anzahl der Testmuster oder der Zieldomänenmuster steht.
  3. Methode nach Anspruch 1, wobei in Schritt S300 der Merkmalsextraktor durch eine konvolutionelle Schicht und eine vollständig verbundene Schicht gebildet ist, um Merkmale aus Eingabedaten zu extrahieren; und wobei der Kennzeichenprädiktor durch eine vollständig verbundene Schicht gebildet ist, um Eingabemerkmale zu klassifizieren; und wobei der Domänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um zu unterscheiden, ob die Eingabemerkmale aus der Quelldomäne oder der Zieldomäne stammen, und wobei der Hilfsdomänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um einen Ähnlichkeitsindex des Quelldomänenmusters und des Zieldomänenmusters mit der Quelldomäne bereitzustellen.
  4. Methode nach Anspruch 1, wobei in Schritt S400 das Training für das eindimensionale konvolutionelle neuronale Netzwerk die folgenden Unterschritte umfasst: S401: Eingeben der gekennzeichneten Trainingsdaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, Extrahieren der Merkmale der Trainingsdaten und Aufzeichnen als ƒ=F(x), wobei f für das Merkmal, F für den Merkmalsextraktor und x für die Trainingsdaten steht; S402: Eingeben des extrahierten Merkmals der Trainingsdaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen, wodurch ein Kategoriekennzeichen-Vorhersagewert erhalten und als g=G(ƒ) aufgezeichnet wird; Berechnen der Verlustfunktion des Kennzeichenprädiktors in Übereinstimmung mit dem Kategoriekennzeichen-Vorhersagewert und Verwenden dieser als die Zielfunktion des Trainings des eindimensionalen konvolutionellen neuronalen Netzwerks, um eine Rückwärtsausbreitung durchzuführen; S403: Wiederholen der Schritte S401 bis S402, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des eindimensionalen konvolutionellen neuronalen Netzwerks abgeschlossen.
  5. Methode nach Anspruch 1, wobei in Schritt S400 das Training für das bilaterale gewichtete Konfrontationsnetzwerk die folgenden Unterschritte umfasst: S401: gleichzeitiges Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, auf die Weise wird das Merkmal der Quelldomänendaten und der Zieldomänendaten extrahiert und als ƒ=F(x) aufgezeichnet; S402: Eingeben des extrahierten Merkmals der Quelldomänendaten und der Zieldomänendaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen und einen Kategoriekennzeichen-Vorhersagewert zu erhalten, der als g=G(ƒ) aufgezeichnet wird; S403: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Hilfsdomänenklassifikator vorwärts ausgebreitet, wobei die Ausgabe des Hilfsdomänenklassifikators zum Konstruieren eines Domänenähnlichkeitsindexes des Musters verwendet wird; S404: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Domänenklassifikator vorwärts ausgebreitet, um einen Domänenkennzeichen-Vorhersagewert zu erhalten; S405: Gewichten des Quelldomänen- und Zieldomänenmusters gemäß dem Kategoriekennzeichen-Vorhersagewert und dem Domänenkennzeichen-Vorhersagewert und mittels des Domänenähnlichkeitsindexes, um die Verlustfunktion des Kennzeichenprädiktors, des Domänenklassifikators und des Hilfsdomänenklassifikators zu ermitteln und somit die Zielfunktion zu konstruieren, wobei nach dem Konstruieren der Zielfunktion wird eine Rückwärtsausbreitung durchgeführt; S406: Wiederholen der Schritte S401 bis S405, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des bilateralen gewichteten Konfrontationsnetzwerks abgeschlossen.
  6. Methode nach Anspruch 4, wobei in Schritt S402 nach dem Erhalten des Kategoriekennzeichen-Vorhersagewerts der Trainingsdaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Trainingsdaten ermittelt wird, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x j s , y i s ) D s c = 1 K 1 [ y i s = c ] log [ G c ( ƒ i s ) ] ,
    Figure DE102021124047A1_0118
    und wobei E für die Erwartung, x i s
    Figure DE102021124047A1_0119
    für das i -te Trainingsmuster, y i s
    Figure DE102021124047A1_0120
    für das dem Trainingsmuster entsprechende Fehlerkategoriekennzeichen, Ds für alle Trainingsmuster und Fehlerkategoriekennzeichen, K für die Anzahl der Kategorien, Gc für den Kennzeichenprädiktor, G c ( ƒ i s )
    Figure DE102021124047A1_0121
    für die Wahrscheinlichkeit, dass das i -te Trainigungsmerkmal als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0122
    für das Merkmal des i -ten Trainingsmusters steht, und wobei die Zielfunktion des Trainingsnetzwerks als min F , G L g
    Figure DE102021124047A1_0123
    ausgedrückt wird.
  7. Methode nach Anspruch 5, wobei in Schritt S403 die Entropie des Vorhersagewerts des Musters berechnet wird, um einen Domänenähnlichkeitsindex des Musters zu konstruieren, wobei die Entropie des Kennzeichen-Vorhersagewerts des i -ten Quelldomänenmusters berechnet wird: H ( g i s ) = k = 1 K g i , k t log  g i , k s ,
    Figure DE102021124047A1_0124
    und wobei g i s
    Figure DE102021124047A1_0125
    für den Kennzeichen-Vorhersagewert des i -ten Quelldomänenmusters, g i , k s
    Figure DE102021124047A1_0126
    für die Wahrscheinlichkeit, dass das i-te Quelldomänenmuster als die Kategorie k vorhergesagt wird, und K für die Anzahl der Quelldomänenkategorien steht, und wobei der Domänenähnlichkeitsindex des i -ten Quelldomänenmusters ist: ω s ( ƒ i s ) = H ( g i s ) log  K D ω ( ƒ i s ) ,
    Figure DE102021124047A1_0127
    und wobei D ω ( ƒ i s )
    Figure DE102021124047A1_0128
    der Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das i-te Quelldomänenmuster ist; und wobei die Entropie des Kennzeichen-Vorhersagewerts des j -ten Zieldomänenmusters berechnet wird: H ( g j t ) = k = 1 K g j , k t log  g j , k t ,
    Figure DE102021124047A1_0129
    und wobei g j t
    Figure DE102021124047A1_0130
    für den Kennzeichen-Vorhersagewert des j -ten Zieldomänenmusters, g j t
    Figure DE102021124047A1_0131
    für die Wahrscheinlichkeit, dass das j -te Zieldomänenmuster als die Kategorie k vorhergesagt wird, und wobei der Domänenähnlichkeitsindex des j -ten Zieldomänenmusters ist: ω s ( ƒ j t ) = D ω ( ƒ j t ) H ( g i s ) log  K ,
    Figure DE102021124047A1_0132
    und wobei D ω ( ƒ j t )
    Figure DE102021124047A1_0133
    der Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das j -te Zieldomänenmuster ist,
  8. Methode nach Anspruch 5, wobei in Schritt S405 nach dem Erhalten des Kategoriekennzeichen-Vorhersagewerts der Quelldomänendaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Quelldomänendaten ermittelt wird, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: L g = E ( x i s , y i s ) D s c = 1 K 1 [ y i s = c ] log [ G c ( ƒ i s ) ] ,
    Figure DE102021124047A1_0134
    und wobei E für die Erwartung, X i s
    Figure DE102021124047A1_0135
    für das i -te Quelldomänenmuster, y i s
    Figure DE102021124047A1_0136
    für das dem Quelldomänenmuster entsprechende Fehlerkategoriekennzeichen, Ds für alle Quelldomänenmuster und Fehlerkategoriekennzeichen, K für die Anzahl der Kategorien, Gc für den Kennzeichenprädiktor, G c ( ƒ i s )
    Figure DE102021124047A1_0137
    für die Wahrscheinlichkeit, dass das i-te Quelldomänenmerkmals als die Kategorie c vorhergesagt wird, und ƒ i s
    Figure DE102021124047A1_0138
    für das Merkmal des i -ten Quelldomänenmusters steht, und wobei der Verlust des Hilfsdomänenklassifikators gemäß dem wahren Domänenkennzeichen ermittelt wird, und wobei der Verlust des Hilfsdomänenklassifikators als L d ω = E x i s D s log [ D ω ( ƒ i s ) ] E x j t D t log [ 1 D ω ( ƒ j t ) ]
    Figure DE102021124047A1_0139
    ausgedrückt wird, und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0140
    für alle Quelldomänenmuster, x j t D t
    Figure DE102021124047A1_0141
    für alle Zieldomänenmuster, D ω ( ƒ i s )
    Figure DE102021124047A1_0142
    für den Domänenkennzeichen-Vorhersagewert des i -ten Quelldomänenmusters und D ω ( ƒ j s )
    Figure DE102021124047A1_0143
    für den Domänenkennzeichen-Vorhersagewert des j -ten Zieldomänenmusters steht; und wobei im Berechnungsprozess des Verlusts des Domänenklassifikators jedes Muster mittels des Domänenähnlichkeitsindexes gewichtet wird, nachdem der Domänenkennzeichen-Vorhersagewert des Domänenklassifikators erhalten war, wird der endgültige Verlust des Domänenklassifikators gemäß dem wahren Domänenkennzeichen wie folgt ausgedrückt: L d = E x i s D s ω s ( ƒ i s ) log [ D ( ƒ i s ) ] E x j t D t ω t log [ 1 D ( ƒ j t ) ]
    Figure DE102021124047A1_0144
    und wobei E für die Erwartung, x i s D s
    Figure DE102021124047A1_0145
    für alle Quelldomänenmuster, x j t D t
    Figure DE102021124047A1_0146
    für alle Zieldomänenmuster, D ( ƒ i s )
    Figure DE102021124047A1_0147
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das i -te Quelldomänenmuster und D ( ƒ j t )
    Figure DE102021124047A1_0148
    für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das j -te Zieldomänenmuster steht; und wobei die Zielfunktion des Trainingsnetzwerks wie folgt ausgedrückt wird: max F , G L g + λ L d
    Figure DE102021124047A1_0149
    min D L d
    Figure DE102021124047A1_0150
    min D ω L d ω
    Figure DE102021124047A1_0151
    und wobei λ für den Kompromisskoeffizienten steht.
  9. Methode nach Anspruch 1, wobei in Schritt S500 ein theoretisches Extremwertmodell mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten eingerichtet wird, und wobei ƒ i s
    Figure DE102021124047A1_0152
    für das Merkmal des i -ten Trainingsmusters oder Quelldomänenmusters und S i , c = ƒ i , c s
    Figure DE102021124047A1_0153
    für das Merkmal des -ten korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters, das der Kategorie c gehört, steht, und wobei die durchschnittlichen Merkmale jeder Kategorie durch mc ausgedrückt wird, und wobei mc dadurch erhalten wird, dass die Merkmale aller korrekt klassifizierten Trainingsmuster oder Quelldomänenmuster, die der Kategorie c gehören, gemittelt werden: mc = mean (Si,c), und wobei in der Kategorie c der Abstand jeden korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters zu dem entsprechenden m c d i , c s = S i , c m c
    Figure DE102021124047A1_0154
    ist, und wobei die Schwanzverteilung von d i , c s
    Figure DE102021124047A1_0155
    von jedem Typ dazu verwendet wird, die Weibull-Verteilung anzupassen, um die Positionsparameter τc, Formparameter κc und Skalenparameter λc jedes Typs der Weibull-Verteilung zu erhalten, auf die Weise wird das theoretische Extremwertmodell jedes Typs erhalten.
  10. Methode nach Anspruch 1, wobei in Schritt S700 die Verifizierungsdaten als D v = { ( x 1 v , y 1 v ) , , ( x n v v , y n v v ) }
    Figure DE102021124047A1_0156
    ausgedrückt werden, und wobei x k v
    Figure DE102021124047A1_0157
    für das k-te Verifizierungsdatenmuster, y k v
    Figure DE102021124047A1_0158
    für das dem Verifizierungsdatenmuster entsprechende Fehlerkategoriekennzeichen und nv für die Anzahl der Verifizierungsdatenmuster steht, und wobei das Merkmal des Verifizierungsdatenmusters ins theoretische Extremwertmodell eingegeben wird, und wobei in der Kategorie C der Abstand jeden Verifizierungsdatenmusters zum entsprechenden mc d k , c v = m c ƒ k , c v
    Figure DE102021124047A1_0159
    ist, wobei ƒ k , c v
    Figure DE102021124047A1_0160
    das Merkmal des k-ten Verifizierungsdatenmusters, das der Kategorie c gehört, steht, und wobei d k , c v
    Figure DE102021124047A1_0161
    zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet wird: ω c ( d k , c v ) = 1 exp ( d k , c v τ c λ c ) K C
    Figure DE102021124047A1_0162
    und wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Verifizierungsdatenmuster zum unbekannten Typ gehört, wenn ω c ( d k , c v )
    Figure DE102021124047A1_0163
    größer als der Schwellenwert Ω ist, wird das Muster als unbekannten Fehlertyp angesehen, und wobei der Schwellenwert Ω als ein Wert eingestellt wird, so dass 95 % der Verifizierungsdaten nicht als unbekannten Fehlertyp angesehen werden.
DE102021124047.6A 2021-06-08 2021-09-16 Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager Pending DE102021124047A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2021106402342 2021-06-08
CN202110640234.2A CN113375941B (zh) 2021-06-08 2021-06-08 高速动车组轴承的开集故障诊断方法

Publications (1)

Publication Number Publication Date
DE102021124047A1 true DE102021124047A1 (de) 2022-12-08

Family

ID=77572910

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021124047.6A Pending DE102021124047A1 (de) 2021-06-08 2021-09-16 Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager

Country Status (2)

Country Link
CN (1) CN113375941B (de)
DE (1) DE102021124047A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117330315A (zh) * 2023-12-01 2024-01-02 智能制造龙城实验室 一种基于在线迁移学习的旋转机械故障监测方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114136565B (zh) * 2021-10-22 2022-08-09 中南大学 一种多振源系统的故障诊断系统及方法
CN114358125B (zh) * 2021-12-03 2024-03-22 华南理工大学 一种基于多源信息深度融合的旋转机械故障自动识别方法
CN114358124B (zh) * 2021-12-03 2024-03-15 华南理工大学 基于深度对抗卷积神经网络的旋转机械新故障诊断方法
CN114626406A (zh) * 2022-02-15 2022-06-14 苏州大学 基于类边界特征检测的轴承故障诊断方法及系统
CN114994451B (zh) * 2022-08-08 2022-10-11 山东交通职业学院 一种船舶电气设备故障探测方法及系统
CN115358280B (zh) * 2022-10-19 2023-03-24 深圳市信润富联数字科技有限公司 轴承信号故障诊断方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190095781A1 (en) 2017-09-23 2019-03-28 Nanoprecise Sci Corp. System and method for automated fault diagnosis and prognosis for rotating equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7882394B2 (en) * 2005-07-11 2011-02-01 Brooks Automation, Inc. Intelligent condition-monitoring and fault diagnostic system for predictive maintenance
CN111504644B (zh) * 2020-04-01 2021-04-09 西安交通大学 基于嵌入区分性的条件对抗域自适应的轴承故障诊断方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190095781A1 (en) 2017-09-23 2019-03-28 Nanoprecise Sci Corp. System and method for automated fault diagnosis and prognosis for rotating equipment

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENG, Chao [et al.]: A review of intelligent fault diagnosis for high-speed trains: Qualitative approaches. Entropy, 2021, 23. Jg., Nr. 1, S. 1
GONG, Wenfeng [et al.]: A novel deep learning method for intelligent fault diagnosis of rotating machinery based on improved CNN-SVM and multichannel data fusion. Sen-sors, 2019, 19. Jg., Nr. 7, S. 1693

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117330315A (zh) * 2023-12-01 2024-01-02 智能制造龙城实验室 一种基于在线迁移学习的旋转机械故障监测方法
CN117330315B (zh) * 2023-12-01 2024-02-23 智能制造龙城实验室 一种基于在线迁移学习的旋转机械故障监测方法

Also Published As

Publication number Publication date
CN113375941A (zh) 2021-09-10
CN113375941B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
DE102021124047A1 (de) Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager
DE102019209565A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes
DE112017005651T5 (de) Vorrichtung zur Klassifizierung von Daten
DE102022201761A1 (de) Verfahren, System und Speichermedium zur automatischen Diagnose vonVorrichtungen
CN110110768B (zh) 基于并行特征学习和多分类器的滚动轴承故障诊断方法
DE102021210349A1 (de) Verfahren und System zum Durchführen einer Fehlerdiagnose durch Lagergeräuschdetektion
DE102006048430A1 (de) Verfahren zur Wartungsvorhersage einer Maschine
DE102015208895A1 (de) Diagnostische-Daten-Extraktionsvorrichtung und Fahrzeugdiagnostikvorrichtung
DE102019209462A1 (de) Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes
DE102020207537A1 (de) Zustandsdiagnosevorrichtung und Verfahren eines beweglichen Systembauteils
DE102020205456A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erzeugen von Qualitätsinformation über ein Beschichtungsprofil, Verfahren, Vorrichtung und Computerprogramm zum Erzeugen einer Datenbank, Überwachungsgerät
DE102019209566A1 (de) Verfahren und Vorrichtung zum Trainieren eines maschinellen Lernsystems
DE4434197C2 (de) Diagnosetechnik für den Betrieb eines Abgassauerstoffsensors
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102019206859A1 (de) Produkttestverfahren, Produkttestvorrichtung und Produkttestsystem zum Test elektronischer Baugruppen
DE102019103257A1 (de) Vorhersagesystem und -verfahren für anlagenanomalien
CN109214089A (zh) 一种桥梁结构健康监测指标的隶属度评估方法
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
WO2004017252A1 (de) Verfahren zur signalauswertung eines elektronischen bildsensors bei der mustererkennung von bildinhalten eines prüfkörpers
DE102018217310A1 (de) Verfahren zum Auswerten von Zeitseriensignalen
DE102019003679A1 (de) Motoranalysesystem zum Bestimmen einer Motoranomalie sowie Verfahren zum Bestimmen einer Motoranomalie
DE19702774C2 (de) Verfahren zur Ermittlung von Daten für eine Wissensbank und ihre Verwendung bei der Analyse von Gleichgewichtssituationen der in Wechselwirkung befindlichen Mineralien und Spurenelemente in Körperflüssigkeiten
DE102019206233A1 (de) Verfahren zur Bereitstellung von Trainingsdaten für adaptierbare Situationserkennungsalgorithmen sowie Verfahren zur automatisierten Situationserkennung von Betriebssituationen eines Fahrzeugs zur öffentlichen Personenbeförderung
WO2020108748A1 (de) System und verfahren zum auffinden von optimierten kombinationen von berechnungsfunktionen
DE102022204406B4 (de) Verfahren zum Klassifizieren und/oder zur Regression von Eingangssignalen unter Zuhilfenahme einer Gram-Matrix-Variante

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication