-
TECHNISCHES GEBIET
-
Die vorliegende Veröffentlichung betrifft das Gebiet der mechanischen Fehlerdiagnose, insbesondere eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager.
-
STAND DER TECHNIK
-
Da das Deep-Learning in der Lage ist, nützliche Merkmale automatisch zu extrahieren, wird das Deep-Learning weit verbreitet bei vielen mechanischen Fehlerdiagnoseaufgaben verwendet. Die bestehenden Deep-Learning-basierten Fehlerdiagnosemethoden haben jedoch zwei Probleme: zum einen wird es angenommen, dass die für das Training verwendeten gekennzeichneten Daten und die für das Testen verwendeten nicht gekennzeichneten Daten den gleichen Kennzeichensatz aufweisen, in praktischen Anwendungen kann die Annahme sehr schwer erfüllt werden, der Typ des Fehlers in der Testphase ist unvorhersehbar, d,h, kann der Kennzeichensatz der Testdaten möglicherweise nur einen Teil der bekannten Fehlerkategorien enthalten und kann unbekannte Fehler enthalten. Andererseits ist die Voraussetzung für die gute Leistung von Deep-Learning, dass die Trainings- und Testmuster die gleiche Verteilung haben. Die Arbeitsbedingungen von Hochgeschwindigkeits-EMUs werden sich jedoch ändern, so dass die Verteilung von Trainings- und Testmustern unterschiedlich ist, was zu einem starken Rückgang der Diagnoseleistung führt.
-
Die oben erwähnten Informationen, die im Abschnitt vom Stand der Technik offenbart sind, dienen nur dazu, das Verständnis des Hintergrunds der vorliegenden Erfindung zu verbessern, und können daher Informationen enthalten, die nicht den Stand der Technik bilden, der einem Durchschnittsfachmann auf diesem Gebiet in diesem Land bekannt ist.
-
INHALT DER VORLIEGENDEN ERFINDUNG
-
Hinsichtlich der Mängel aus dem Stand der Technik zielt die vorliegende Veröffentlichung darauf ab, eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager zur Verfügung zu stellen. Zuerst wird das Problem der Fehlerdiagnose offener Menge definiert: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, enthält der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlerkategorien und unbekannte Fehler; wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, enthält der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlerkategorien und unbekannte Fehler. In der Trainingsphase werden für die Hochgeschwindigkeits-EMUs, die unter den konstanten Arbeitsbedingungen und unter den unterschiedlichen Arbeitsbedingungen arbeiten, jeweils ein eindimensionales konvolutionelles neuronales Netzwerk und ein bilaterales gewichtetes Konfrontationsnetzwerk verwendet, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren, dann werden die durch die Trainingsdaten oder die Quelldomänendaten gelernten Merkmale verwendet, um ein theoretisches Extremwertmodell einzurichten. In der Testphase wird das gelernte Netzwerk zum Vorhersagen des Kennzeichens und das theoretische Extremwertmodell zum Erkennen der unbekannten Kategorien verwendet.
-
Um das obige Ziel zu erreichen, verwendet die vorliegende Veröffentlichung die folgende technische Lösung:
- eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager, umfassend folgende Schritte:
- S100: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor;
- S200: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, wird das Schwingungssignal in Trainingsdaten, Verifizierungsdaten und Testdaten unterteilt, wobei die Trainingsdaten und die Verifizierungsdaten gekennzeichnet und die Testdaten nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, wird das Schwingungssignal des Betriebs unter einer der Arbeitsbedingungen in Quelldomänendaten und Verifizierungsdaten unterteilt, wobei die Quelldomänendaten und die Verifizierungsdaten gekennzeichnet sind, und wobei das Schwingungssignal des Betriebs unter einer anderen Arbeitsbedingung als Zieldomänendaten verwendet wird, die nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Die unter der obigen Annahme durchgeführte Fehlerdiagnoseaufgabe wird als Fehlerdiagnose offener Menge definiert;
- S300: Einrichten eines eindimensionalen konvolutionellen neuronalen Netzwerks mit einem Merkmalsextraktor F und einem Kennzeichenprädiktor G hinsichtlich einer Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen; Einrichten eines bilateralen gewichteten Konfrontationsnetzwerks mit einem Merkmalsextraktor F, einem Kennzeichenprädiktor G, einem Domänenklassifikator D und Hilfsdomänenklassifikator Dω für eine Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen;
- S400: Eingeben der gekennzeichneten Trainingsdaten hinsichtlich einer Fehlerdiagnoseszene offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten hinsichtlich der Fehlerdiagnoseszene offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen;
- S500: Verwenden der Trainingsdaten oder Quelldomänendaten nach Abschluss des Trainings, um ein theoretisches Extremwertmodell einzurichten und somit unbekannte Fehlertypen in der Testphase zu erkennen;
- S600: Eingeben der nicht gekennzeichneten Testdaten ins trainierte eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich die Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte eindimensionale konvolutionelle neuronale Netzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; Eingeben der nicht gekennzeichneten Zieldomänendaten ins trainierte bilaterale gewichtete Konfrontationsnetzwerk hinsichtlich der Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte bilaterale gewichtete Konfrontationsnetzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt;
- S700: Eingeben der Merkmale des Verifizierungsdatenmusters in das theoretische Extremwertmodell, um den Schwellenwert zu bestimmen;
- S800: Eingeben der Merkmale des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell, Ausgeben der Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster möglicherweise zum unbekannten Typ gehört, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Muster zum unbekannten Typ, sonst gehört es zum bekannten Typ, Feststellen der Kategorie des Musters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.
-
Bevorzugt sind in Schritt S200 die Trainingsdaten oder die Quelldomänendaten wie folgt ausgedrückt:
und wobei
für das i -te Trainingsmuster oder Quelldomänenmuster,
für das Fehlerkategorienkennzeichen, das dem Trainingsmuster oder dem Quelldomänenmuster entspricht, und n
s für die Anzahl der Trainingsmuster oder der Quelldomänenmuster steht,
-
Bevorzugt sind in Schritt S200 die Testdaten oder die Zieldomänendaten wie folgt ausgedrückt:
wobei
für das i-te Testmuster oder Zieldomänenmuster und n
t für die Anzahl der Testmuster oder der Zieldomänenmuster steht,
-
Bevorzugt ist in Schritt S300 der Merkmalsextraktor durch eine konvolutionelle Schicht und eine vollständig verbundene Schicht gebildet, um Merkmale aus Eingabedaten zu extrahieren; wobei der Kennzeichenprädiktor durch eine vollständig verbundene Schicht gebildet ist, um Eingabemerkmale zu klassifizieren; und wobei der Domänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um zu unterscheiden, ob die Eingabemerkmale aus der Quelldomäne oder der Zieldomäne stammen. Der Hilfsdomänenklassifikator ist durch eine vollständig verbundene Schicht gebildet, um einen Ähnlichkeitsindex des Quelldomänenmusters und des Zieldomänenmusters mit der Quelldomäne bereitzustellen.
-
Bevorzugt umfasst in Schritt S400 das Training für das eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich der Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die folgenden Unterschritte umfasst:
- S401: Eingeben der gekennzeichneten Trainingsdaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, Extrahieren der Merkmale der Trainingsdaten und Aufzeichnen als ƒ = F(x);
- S402: Eingeben des extrahierten Merkmals der Trainingsdaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen, wodurch ein Kategoriekennzeichen-vorhersagewert erhalten und als g = G(ƒ) aufgezeichnet wird; Berechnen der Verlustfunktion des Kennzeichenprädiktors in Übereinstimmung mit dem Kategoriekennzeichen-vorhersagewert und Verwenden dieser als die Zielfunktion des Trainings des eindimensionalen konvolutionellen neuronalen Netzwerks, um eine Rückwärtsausbreitung durchzuführen;
- S403: Wiederholen der Schritte S401 bis S402, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des eindimensionalen konvolutionellen neuronalen Netzwerks abgeschlossen, Bevorzugt umfasst in Schritt S400 das Training für das bilaterale gewichtete Konfrontationsnetzwerk die folgenden Unterschritte:
- S401: gleichzeitiges Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, auf die Weise wird das Merkmal der Quelldomänendaten und der Zieldomänendaten extrahiert und als ƒ = F' (x) aufgezeichnet;
- S402: Eingeben des extrahierten Merkmals der Quelldomänendaten und der Zieldomänendaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen und einen Kategoriekennzeichen-vorhersagewert zu erhalten, der als g=G(ƒ) aufgezeichnet wird;
- S403: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten werden durch den Hilfsdomänenklassifikator vorwärts ausgebreitet, wobei die Ausgabe des Hilfsdomänenklassifikators zum Konstruieren eines Domänenähnlichkeitsindexes des Musters verwendet wird;
- S404: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Domänenklassifikator vorwärts ausgebreitet, um einen Domänenkennzeichen-Vorhersagewert zu erhalten;
- S405: Gewichten des Quelldomänen- und Zieldomänenmusters gemäß dem Kategoriekennzeichen-vorhersagewert und dem Domänenkennzeichen-Vorhersagewert und mittels des Domänenähnlichkeitsindexes, um die Verlustfunktion des Kennzeichenprädiktors, des Domänenklassifikators und des Hilfsdomänenklassifikators zu ermitteln und somit die Zielfunktion zu konstruieren, wobei nach dem Konstruieren der Zielfunktion eine Rückwärtsausbreitung durchgeführt wird;
- S406: Wiederholen der Schritte S401 bis S405, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des bilateralen gewichteten Konfrontationsnetzwerks abgeschlossen,
-
Bevorzugt wird in Schritt S402 nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Trainingsdaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Trainingsdaten ermittelt, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird:
und wobei E für die Erwartung,
für das i -te Trainingsmuster,
für das dem Trainingsmuster entsprechende Fehlerkategorienkennzeichen, D
s für alle Trainingsmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien,
für die Wahrscheinlichkeit, dass das i-te Trainingsmerkmal als die Kategorie c vorhergesagt wird, und
für das Merkmal des i-ten Trainingsmusters steht.
-
Die Zielfunktion des Trainingsnetzwerks wird als
ausgedrückt.
-
Bevorzugt soll in Schritt S403 die Entropie des Vorhersagewerts des Musters zum Konstruieren des Domänenähnlichkeitsindexes des Musters berechnet werden.
-
Die Entropie des Kennzeichen-Vorhersagewerts des i -ten Quelldomänenmusters wird berechnet:
wobei
für den Kennzeichen-Vorhersagewert des i -ten Quelldomänenmusters,
für die Wahrscheinlichkeit, dass das i-te Quelldomänenmuster als die Kategorie k vorhergesagt wird, und K für die Anzahl der Quelldomänenkategorien steht.
-
Der Domänenähnlichkeitsindex des i -ten Quelldomänenmusters ist:
wobei
für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das i -te Quelldomänenmusters steht. Die Entropie des Kennzeichen-Vorhersagewerts des j -ten Zieldomänenmusters wird berechnet:
wobei
für den Kennzeichen-Vorhersagewert des j -ten Zieldomänenmusters und
für die Wahrscheinlichkeit steht, dass das j -te Zieldomänenmuster als die Kategorie k vorhergesagt wird.
-
Der Domänenähnlichkeitsindex des j -ten Zieldomänenmusters ist:
wobei
für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das j -te Zieldomänenmusters steht. Bevorzugt kann in Schritt S405 nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Quelldomänendaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Quelldomänendaten ermittelt werden, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird:
und wobei E für die Erwartung,
für das i -te Quelldomänenmuster,
für das dem Quelldomänenmuster entsprechende Fehlerkategorienkennzeichen, D
s für alle Quelldomänenmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien,
für die Wahrscheinlichkeit, dass das i-te Quelldomänenmerkmals als die Kategorie c vorhergesagt wird, und
für das Merkmal des i -ten Quelldomänenmusters steht.
-
Der Verlust des Hilfsdomänenklassifikators kann gemäß dem wahren Domänenkennzeichen ermittelt werden, wobei der Verlust des Hilfsdomänenklassifikators als
ausgedrückt wird, und wobei E für die Erwartung,
für alle Quelldomänenmuster,
für alle Zieldomänenmuster,
für den Domänenkennzeichen-Vorhersagewert des i -ten Quelldomänenmusters und
für den Domänenkennzeichen-Vorhersagewert des j -ten Zieldomänenmusters steht.
-
Im Berechnungsprozess des Verlusts des Domänenklassifikators wird jedes Muster mittels des Domänenähnlichkeitsindexes nach Anspruch 8 gewichtet, nachdem der Domänenkennzeichen-Vorhersagewert des Domänenklassifikators erhalten war, wird der endgültige Verlust des Domänenklassifikators gemäß dem wahren Domänenkennzeichen wie folgt ausgedrückt:
und wobei E für die Erwartung,
für alle Quelldomänenmuster,
für alle Zieldomänenmuster,
für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das i -te Quelldomänenmusters und
für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das j -te Zieldomänenmusters steht.
-
Die Zielfunktion des Trainingsnetzwerks wie folgt ausgedrückt wird:
und wobei A für den Kompromisskoeffizienten steht.
-
Bevorzugt wird in Schritt S500 ein theoretisches Extremwertmodell mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten eingerichtet,
steht für das Merkmal des i -ten Trainingsmusters oder Quelldomänenmusters und
für das Merkmal des i -ten korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters, das der Kategorie c gehört. Die durchschnittlichen Merkmale jeder Kategorie wird durch m
c ausgedrückt, wobei m
c dadurch erhalten wird, dass die Merkmale aller korrekt klassifizierten Trainingsmuster oder Quelldomänenmuster, die der Kategorie c gehören, gemittelt werden:
-
In der Kategorie c ist der Abstand jeden korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters zu dem entsprechenden m
c:
um das theoretische Extremwertmodell jedes Typs zu erhalten, wird die Schwanzverteilung von
von jedem Typ dazu verwendet, die Weibull-Verteilung anzupassen, um die Positionsparameter τ
c, Formparameter κ
c und Skalenparameter λ
c jedes Typs der Weibull-Verteilung zu erhalten.
-
Bevorzugt werden in Schritt S700 die Verifizierungsdaten wie folgt ausgedrückt:
wobei
für das k-te Verifizierungsdatenmuster,
für das dem Verifizierungsdatenmuster entsprechende Fehlerkategorienkennzeichen und n
v für die Anzahl der Verifizierungsdatenmuster steht.
-
Das Merkmal des Verifizierungsdatenmusters wird ins theoretische Extremwertmodell eingegeben, wobei in der Kategorie c der Abstand jeden Verifizierungsdatenmusters zum entsprechenden m
c beträgt:
wobei
für das Merkmal des k -ten Verifizierungsdatenmusters, das der Kategorie c gehört, steht. Dann wird
zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet:
wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Verifizierungsdatenmuster zum unbekannten Typ gehört. Wenn
größer als der Schwellenwert Ω ist, wird das Muster als unbekannten Typ angesehen.
-
Wenn der Schwellenwert Ω auf 95% eingestellt wird, werden die Verifizierungsdaten nicht als Wert von unbekanntem Typ unterteilt.
-
Bevorzugt wird in Schritt S800 das Merkmal des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, wobei die Muster in Übereinstimmung mit dem Kennzeichen-Vorhersagewert klassifiziert werden. In der Kategorie c ist der Abstand jeden Trainingsmusters oder Zieldomänenmusters zu dem entsprechenden m
c:
wobei
für das Merkmal des j -ten Testmusters oder Zieldomänenmusters, das der Kategorie c gehört, steht. Dann wird
zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet:
wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Typ gehört.
-
Wenn die Wahrscheinlichkeit den Schwellenwert Ω überschreitet, wird das Muster so angesehen, dass es zu einem unbekannten Typ gehört, sonst gehört es zum bekannten Typ, wobei in Übereinstimmung mit dem Kennzeichen-Vorhersagewert die Kategorie des Musters bestimmt wird.
-
Im Vergleich zu dem Stand der Technik hat die vorliegende Veröffentlichung die folgenden vorteilhaften Wirkungen: für die Fehlerdiagnoseaufgabe offener Menge eines Hochgeschwindigkeits-EMUs, der unter konstanten Arbeitsbedingungen arbeitet, kann die Deep-Learning-basierte Fehlerdiagnosemethode gemäß der vorliegenden Erfindung, wenn der Kennzeichensatz der Testdaten einen Teil der bekannten Typen und unbekannte Typen enthält, eine genaue Diagnose für die Muster bekannter Typen und eine wirksame Erkennung für die Muster unbekannter Typen durchführen;
für die Fehlerdiagnoseaufgabe offener Menge eines Hochgeschwindigkeits-EMUs, der unter unterschiedlichen Arbeitsbedingungen arbeitet, kann die Deep-Learning-basierte Fehlerdiagnosemethode gemäß der vorliegenden Erfindung, wenn der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Typen und unbekannte Typen enthält, den Verteilungsunterschied zwischen den bekannten Typen der Quelldomäne und der Zieldomäne verringern sowie die unbekannten Typen und die bekannten Typen voneinander trennen, am Ende werden eine genaue Diagnose für die Muster bekannter Typen und eine wirksame Erkennung für die Muster unbekannter Typen realisiert.
-
Figurenliste
-
- 1 zeigt ein Ablaufdiagramm einer Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
- 2 zeigt ein schematisches Diagramm des Modellrahmens einer Fehlerdiagnosemethode offener Menge des Tiefenmodells und der Extremwerttheorie unter konstanten Arbeitsbedingungen in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
- 3 zeigt ein schematisches Diagramm des Modellrahmens einer Fehlerdiagnosemethode offener Menge des Tiefenmodells und der Extremwerttheorie unter unterschiedlichen Arbeitsbedingungen in einem Ausführungsbeispiel der vorliegenden Veröffentlichung.
- 4 bis 6 zeigen schematische Diagramme von Netzwerkstrukturen entsprechender Ausführungsbeispiele der vorliegenden Veröffentlichung.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Im Zusammenhang mit 1 bis 6 werden die bevorzugten Ausführungsbeispiele der vorliegenden Veröffentlichung im Folgenden näher erläutert. Obwohl in Figuren die ausführlichen Ausführungsbeispiele der vorliegenden Veröffentlichung offenbart sind, versteht es sich, dass die vorliegende Veröffentlichung in verschiedenen Formen realisiert werden kann, ohne von den hier erläuterten Ausführungsbeispielen beschränkt zu werden. Im Gegensatz dazu werden diese Ausführungsbeispiele dazu verwendet, die vorliegende Veröffentlichung gründlicher zu verstehen und den Umfang der vorliegenden Veröffentlichung vollständig an die Fachleute auf diesem Gebiet zu übertragen.
-
Es sollte darauf hingewiesen werden, dass in der Beschreibung und den Ansprüchen bestimmte Wortschätze verwendet werden, um bestimmte Komponenten zu bezeichnen. Der Fachmann auf diesem Gebiet sollte verstehen, dass der Fachmann verschiedenen Begriffe zum Bezeichnen derselben Komponente verwenden kann. Die Beschreibung und Ansprüche verwenden keine Unterschiede in Begriffen als Mittel zur Unterscheidung von Komponenten, sondern verwenden Unterschiede in Funktionen von Komponenten als Unterscheidungskriterium, Z,B, ist „einschließen“ oder „einschließen“ in der gesamten Beschreibung und den Ansprüchen ein offener Begriff, der als „einschließen, aber nicht beschränkt auf“ interpretiert werden soll. Die folgende Erläuterung der Beschreibung ist eine bevorzugte Ausführungsform zum Implementieren der vorliegenden Erfindung, aber die Erläuterung basiert auf den allgemeinen Prinzipien der Beschreibung und sollte den Umfang der vorliegenden Erfindung nicht beschränken. Der Schutzumfang der vorliegenden Veröffentlichung sollte durch die Ansprüche definiert werden.
-
Um das Verstehen der Ausführungsbeispiele der vorliegenden Veröffentlichung zu erleichtern, werden sie im Zusammenhang mit Figuren und ausführlichen Ausführungsbeispielen im Folgenden näher erläutert, wobei die jeweiligen Figuren keine Beschränkung für die Ausführungsbeispiele der vorliegenden Veröffentlichung bilden. Wie in
1 dargestellt, umfasst eine Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager in einem Ausführungsbeispiel folgende Schritte: S100: Erfassen eines Schwingungssignals des Hochgeschwindigkeits-EMU-Lagers in Betrieb durch einen Beschleunigungssensor,
S200: wenn der Hochgeschwindigkeits-EMU unter konstanten Arbeitsbedingungen arbeitet, wird das Schwingungssignal in Trainingsdaten, Verifizierungsdaten und Testdaten unterteilt, wobei die Trainingsdaten und die Verifizierungsdaten gekennzeichnet und die Testdaten nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Testdaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Wenn der Hochgeschwindigkeits-EMU unter unterschiedlichen Arbeitsbedingungen arbeitet, wird das Schwingungssignal des Betriebs unter einer der Arbeitsbedingungen in Quelldomänendaten und Verifizierungsdaten unterteilt, wobei die Quelldomänendaten und die Verifizierungsdaten gekennzeichnet sind, und wobei das Schwingungssignal des Betriebs unter einer anderen Arbeitsbedingung als Zieldomänendaten verwendet wird, die nicht gekennzeichnet sind, und wobei es angenommen wird, dass der Kennzeichensatz der Zieldomänendaten einen Teil der bekannten Fehlertypen und unbekannten Fehlertypen enthält. Die unter der obigen Annahme durchgeführte Fehlerdiagnoseaufgabe wird als Fehlerdiagnose offener Menge definiert,
wobei in diesem Schritt die Trainingsdaten oder die Quelldomänendaten wie folgt ausgedrückt sind:
wobei die Testdaten oder die Zieldomänendaten wie folgt ausgedrückt sind:
und wobei
für das i -te Trainingsmuster oder Quelldomänenmuster,
für das Fehlerkategorienkennzeichen, das dem Trainingsmuster oder dem Quelldomänenmuster entspricht und n
s für die Anzahl der Trainingsmuster oder der Quelldomänenmuster steht,
steht für das i -te Testmuster oder Zieldomänenmuster und n
t für die Anzahl der Testmuster oder der Zieldomänenmuster.
-
Es versteht sich, dass vor dem Erfassen der Schwingungssignale Fehler verschiedener Typen und verschiedener Grade für unterschiedliche Lager an dem Hochgeschwindigkeits-EMU vorgefertigt werden sollen. Dabei entspricht hoch- und untengestelltes s der Quelldomäne und hoch- und untengestelltes t der Zieldomäne.
-
Beispielhaft können das erste Schwingungssignal und das zweite Schwingungssignal ein zeitlich veränderliches Schwingungsbeschleunigungssignal an dem Lager des Hochgeschwindigkeits-EMUs sein, wobei das Schwingungsbeschleunigungssignal den Informationen des Fehlertyps und der Fehlerstufe des Lagers entsprechen kann.
-
Darüber hinaus sind für den Fachmann auf diesem Gebiet die Quelldomäne und die Zieldomäne zwei grundlegende Begriffe im Transferlernen. Im Allgemeinen wird das vorhandene Wissen als Quelldomäne bezeichnet, und das zu lernende neue Wissen wird als Zieldomäne bezeichnet, dabei kann durch das Transferlernen das Wissen der Quelldomäne an die Zieldomäne überführt werden. Insbesondere in diesem Ausführungsbeispiel können die Quelldomänendaten die unter einer Arbeitsbedingung erfassten Daten mit dem Kennzeichen sein und die Fehlerinformationen des Lagers enthalten, und die Zieldomäne kann die unter einer anderen Arbeitsbedingung erfassten Daten ohne Kennzeichen sein. Mit der Methode in dem vorliegenden Ausführungsbeispiel können die in den Quelldomänendaten enthaltenen Fehlerinformationen unter einer Arbeitsbedingung in die Zieldomänendaten überführt werden, um die Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers unter einer anderen Arbeitsbedingung zu vervollständigen,
- S300: Einrichten eines eindimensionalen konvolutionellen neuronalen Netzwerks mit einem Merkmalsextraktor F und einem Kennzeichenprädiktor G hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen; Einrichten eines bilateralen gewichteten Konfrontationsnetzwerks mit einem Merkmalsextraktor F, einem Kennzeichenprädiktor G, einem Domänenklassifikator D und Hilfsdomänenklassifikator Dω hinsichtlich einer Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen;
in diesem Schritt ist der Merkmalsextraktor durch eine konvolutionelle Schicht und eine vollständig verbundene Schicht gebildet, um Merkmale aus Eingabedaten zu extrahieren;
wobei der Kennzeichenprädiktor durch eine vollständig verbundene Schicht gebildet ist, um Eingabemerkmale zu klassifizieren; und wobei der Domänenklassifikator durch eine vollständig verbundene Schicht gebildet ist, um zu unterscheiden, ob die Eingabemerkmale aus der Quelldomäne oder der Zieldomäne stammen. Der Hilfsdomänenklassifikator ist durch eine vollständig verbundene Schicht gebildet, um einen Ähnlichkeitsindex des Quelldomänenmusters und des Zieldomänenmusters mit der Quelldomäne bereitzustellen, - S400: Eingeben der gekennzeichneten Trainingsdaten hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um ein Training für das eindimensionale konvolutionelle neuronale Netzwerk durchzuführen; Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten hinsichtlich einer Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um ein Training für das bilaterale gewichtete Konfrontationsnetzwerk durchzuführen; S500: Verwenden der Trainingsdaten oder Quelldomänendaten nach Abschluss des Trainings, um ein theoretisches Extremwertmodell einzurichten und somit unbekannte Fehlertypen in der Testphase zu erkennen;
- S600: Eingeben der nicht gekennzeichneten Testdaten ins trainierte eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich die Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte eindimensionale konvolutionelle neuronale Netzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt; Eingeben der nicht gekennzeichneten Zieldomänendaten ins trainierte bilaterale gewichtete Konfrontationsnetzwerk hinsichtlich der Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen, um eine Vorwärtsausbreitung durchzuführen, wobei das trainierte bilaterale gewichtete Konfrontationsnetzwerk Merkmale und Kennzeichen-Vorhersagewerte ausgibt;
- S700: Eingeben der Merkmale des Verifizierungsdatenmusters in das theoretische Extremwertmodell, um den Schwellenwert zu bestimmen,
- S800: Eingeben der Merkmale des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell, Ausgeben der Wahrscheinlichkeit, dass das Testmuster oder das Zieldomänenmuster möglicherweise zum unbekannten Typ gehört, wenn die Wahrscheinlichkeit größer als der Schwellenwert ist, gehört das Muster zum unbekannten Typ, sonst gehört es zum bekannten Typ, Feststellen der Kategorie des Musters gemäß den Kennzeichen-Vorhersagewerten, um eine Fehlerdiagnose des Hochgeschwindigkeits-EMU-Lagers zu realisieren.
-
In dem vorliegenden Ausführungsbeispiel wird das Problem der Fehlerdiagnose offener Menge definiert und eine Fehlerdiagnosemethode offener Menge des Hochgeschwindigkeits-EMU-Lagers im Betrieb unter konstanten Arbeitsbedingungen und unterschiedlichen Arbeitsbedingungen zur Verfügung gestellt. In der Trainingsphase werden hinsichtlich einer Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die Trainingsdaten in das eindimensionale konvolutionelle neuronale Netzwerk eingegeben, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren; hinsichtlich einer Fehlerdiagnose offener Menge unter unterschiedlichen Arbeitsbedingungen werden die Quelldomänendaten und die Zieldomänendaten gleichzeitig ins bilaterale gewichtete Konfrontationsnetzwerk eingegeben, um die Unterscheidungsmerkmale zu lernen und die Fehlertypen zu identifizieren, den Verteilungsunterschied der gemeinsam genutzten Kategorie der Quelldomäne und der Zieldomäne zu verringern sowie die Muster unbekannter Typen von anderen Mustern zu trennen. Nach dem Training wird mittels der gelernten Merkmale ein theoretisches Extremwertmodell eingerichtet. In der Testphase wird das gelernte Modell zum Vorhersagen des Kennzeichens und das theoretische Extremwertmodell zum Erkennen der unbekannten Typen verwendet. Gleichzeitig wird ein korrektes Kategorisieren für die Muster bekannter Typen und ein wirksames Erkennen für die Muster unbekannter Typen realisiert.
-
In einem anderen Ausführungsbeispiel umfasst in Schritt S400 das Training für das eindimensionale konvolutionelle neuronale Netzwerk hinsichtlich der Fehlerdiagnose offener Menge unter konstanten Arbeitsbedingungen die folgenden Unterschritte: S401: Eingeben der gekennzeichneten Trainingsdaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, Extrahieren der Merkmale der Trainingsdaten und Aufzeichnen als ƒ = F(x);
- S402: Eingeben des extrahierten Merkmals der Trainingsdaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen, wodurch ein Kategoriekennzeichen-vorhersagewert erhalten und als g=G(ƒ) aufgezeichnet wird; Berechnen der Verlustfunktion des Kennzeichenprädiktors in Übereinstimmung mit dem Kategoriekennzeichen-vorhersagewert und Verwenden dieser als die Zielfunktion des Trainings des eindimensionalen konvolutionellen neuronalen Netzwerks, um eine Rückwärtsausbreitung durchzuführen;
wobei in diesem Schritt nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Trainingsdaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Trainingsdaten ermittelt wird, und wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird: und wobei E für die Erwartung, für das i -te Trainingsmuster, für das dem Trainingsmuster entsprechende Fehlerkategorienkennzeichen, Ds für alle Trainingsmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien, für die Wahrscheinlichkeit, dass das i-te Trainingsmerkmal als die Kategorie c vorhergesagt wird, und für das Merkmal des i -ten Trainingsmusters steht.
-
Die Zielfunktion des Trainingsnetzwerks wird als
ausgedrückt.
- S403: Wiederholen der Schritte S401 bis S402, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des eindimensionalen konvolutionellen neuronalen Netzwerks abgeschlossen.
-
Für eine Fehlerdiagnose offener Menge unter sich ändernden Arbeitsbedingungen wird die Methode nach Anspruch 1 verwendet, wobei in Schritt S400 das Training für das bilaterale gewichtete Konfrontationsnetzwerk die folgenden Schritte umfasst:
- S401: gleichzeitiges Eingeben der gekennzeichneten Quelldomänendaten und der nicht gekennzeichneten Zieldomänendaten in den Merkmalsextraktor, um eine Vorwärtsausbreitung durchzuführen, auf die Weise wird das Merkmal der Quelldomänendaten und der Zieldomänendaten extrahiert und als ƒ=F(x) aufgezeichnet;
- S402: Eingeben des extrahierten Merkmals der Quelldomänendaten und der Zieldomänendaten in den Kennzeichenprädiktor, um eine Vorwärtsausbreitung durchzuführen und einen Kategoriekennzeichen-vorhersagewert zu erhalten, der als g = G(f) aufgezeichnet wird;
- S403: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten werden durch den Hilfsdomänenklassifikator vorwärts ausgebreitet, wobei die Ausgabe des Hilfsdomänenklassifikators zum Konstruieren eines Domänenähnlichkeitsindexes des Musters verwendet wird.
-
In diesem Schritt soll die Entropie des Vorhersagewerts des Musters zum Konstruieren des Domänenähnlichkeitsindexes des Musters berechnet werden.
-
Die Entropie des Kennzeichen-Vorhersagewerts des i -ten Quelldomänenmusters wird berechnet:
und wobei
für den Kennzeichen-Vorhersagewert des i -ten Quelldomänenmusters,
für die Wahrscheinlichkeit, dass das i-te Quelldomänenmuster als die Kategorie k vorhergesagt wird, und K für die Anzahl der Quelldomänenkategorien steht.
-
Der Domänenähnlichkeitsindex des i -ten Quelldomänenmusters ist:
wobei
für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das i -te Quelldomänenmusters steht. Die Entropie des Kennzeichen-Vorhersagewerts des j -ten Zieldomänenmusters wird berechnet:
wobei
für den Kennzeichen-Vorhersagewert des j -ten Zieldomänenmusters und
für die Wahrscheinlichkeit steht, dass das j -te Zieldomänenmuster als die Kategorie k vorhergesagt wird.
-
Der Domänenähnlichkeitsindex des j -ten Zieldomänenmusters ist:
wobei
für den Domänenkennzeichen-Vorhersagewert des Hilfsdomänenklassifikators für das j -te Zieldomänenmusters steht,
- S404: das extrahierte Merkmal der Quelldomänendaten und der Zieldomänendaten wird durch den Domänenklassifikator vorwärts ausgebreitet, um einen Domänenkennzeichen-Vorhersagewert zu erhalten;
- S405: Gewichten des Quelldomänen- und Zieldomänenmusters gemäß dem Kategoriekennzeichen-vorhersagewert und dem Domänenkennzeichen-Vorhersagewert und mittels des Domänenähnlichkeitsindexes, um die Verlustfunktion des Kennzeichenprädiktors, des Domänenklassifikators und des Hilfsdomänenklassifikators zu ermitteln und somit die Zielfunktion zu konstruieren, wobei nach dem Konstruieren der Zielfunktion eine Rückwärtsausbreitung durchgeführt wird.
-
In diesem Schritt kann nach dem Erhalten des Kategoriekennzeichen-vorhersagewerts der Quelldomänendaten der Verlust des Kennzeichenprädiktors gemäß dem wahren Kennzeichen der Quelldomänendaten ermittelt werden, wobei der Verlust des Kennzeichenprädiktors wie folgt ausgedrückt wird:
und wobei E für die Erwartung,
für das i -te Quelldomänenmuster,
für das dem Quelldomänenmuster entsprechende Fehlerkategorienkennzeichen, D
s für alle Quelldomänenmuster und Fehlerkategorienkennzeichen, K für die Anzahl der Kategorien,
für die Wahrscheinlichkeit, dass das i -te Quelldomänenmerkmals als die Kategorie c vorhergesagt wird, und
für das Merkmal des i -ten Quelldomänenmusters steht.
-
Der Verlust des Hilfsdomänenklassifikators kann gemäß dem wahren Domänenkennzeichen ermittelt werden, wobei der Verlust des Hilfsdomänenklassifikators wie folgt ausgedrückt wird:
und wobei E für die Erwartung,
für alle Quelldomänenmuster,
für alle Zieldomänenmuster,
für den Domänenkennzeichen-Vorhersagewert des i -ten Quelldomänenmusters und
für den Domänenkennzeichen-Vorhersagewert des j -ten Zieldomänenmusters steht.
-
Im Berechnungsprozess des Verlusts des Domänenklassifikators wird jedes Muster mittels des Domänenähnlichkeitsindexes nach Anspruch 8 gewichtet, nachdem der Domänenkennzeichen-Vorhersagewert des Domänenklassifikators erhalten war, wird der endgültige Verlust des Domänenklassifikators gemäß dem wahren Domänenkennzeichen wie folgt ausgedrückt:
und wobei E für die Erwartung,
für alle Quelldomänenmuster,
für alle Zieldomänenmuster,
für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das i -te Quelldomänenmusters und
für den Domänenkennzeichen-Vorhersagewert des Domänenklassifikators für das j -te Zieldomänenmusters steht.
-
Die Zielfunktion des Trainingsnetzwerks wird wie folgt ausgedrückt:
und wobei A für den Kompromisskoeffizienten steht.
- S406: Wiederholen der Schritte S401 bis S405, wenn die Anzahl von Iterationen die eingestellte maximale Anzahl von Iterationen erreicht, ist das Training des bilateralen gewichteten Konfrontationsnetzwerks abgeschlossen.
-
In einem anderen Ausführungsbeispiel wird in Schritt S500 ein theoretisches Extremwertmodell mittels des Merkmals der Trainingsdaten oder der Quelldomänendaten eingerichtet,
steht für das Merkmal des i -ten Trainingsmusters oder Quelldomänenmusters und
für das Merkmal des i -ten korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters, das der Kategorie c gehört, Die durchschnittlichen Merkmale jeder Kategorie wird durch m
c ausgedrückt, wobei m
c dadurch erhalten wird, dass die Merkmale aller korrekt klassifizierten Trainingsmuster oder Quelldomänenmuster, die der Kategorie c gehören, gemittelt werden:
-
In der Kategorie c ist der Abstand jeden korrekt klassifizierten Trainingsmusters oder Quelldomänenmusters zu dem entsprechenden m
c:
um das theoretische Extremwertmodell jedes Typs zu erhalten, wird die Schwanzverteilung von
von jedem Typ dazu verwendet, die Weibull-Verteilung anzupassen, um die Positionsparameter τ
c, Formparameter κ
c und Skalenparameter λ
c jedes Typs der Weibull-Verteilung zu erhalten.
-
In Schritt S700 werden die Verifizierungsdaten wie folgt ausgedrückt:
wobei
für das k -te Verifizierungsdatenmuster,
für das dem Verifizierungsdatenmuster entsprechende Fehlerkategorienkennzeichen und n
v für die Anzahl der Verifizierungsdatenmuster steht. Dabei entspricht hoch- und untengestelltes v der Verifizierungsdomäne.
-
Das Merkmal des Verifizierungsdatenmusters wird ins theoretische Extremwertmodell eingegeben, wobei in der Kategorie c der Abstand jeden Verifizierungsdatenmusters zum entsprechenden m
c beträgt:
wobei
für das Merkmal des k -ten Verifizierungsdatenmusters, das der Kategorie c gehört, steht. Dann wird
zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet:
wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Verifizierungsdatenmuster zum unbekannten Typ gehört. Wenn
größer als der Schwellenwert Ω ist, wird das Muster als unbekannten Typ angesehen.
-
Wenn der Schwellenwert Ω auf 95% eingestellt wird, werden die Verifizierungsdaten nicht als Wert von unbekanntem Typ unterteilt.
-
In Schritt S800 wird das Merkmal des Testmusters oder des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, wobei die Muster in Übereinstimmung mit dem Kennzeichen-Vorhersagewert klassifiziert werden, In der Kategorie c ist der Abstand jeden Trainingsmusters oder Zieldomänenmusters zu dem entsprechenden m
c:
wobei
für das Merkmal des j -ten Testmusters oder Zieldomänenmusters, das der Kategorie c gehört, steht. Dann wird
zum Berechnen der Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung verwendet:
wobei die Funktionswahrscheinlichkeit der kumulativen Weibull-Verteilung für die Wahrscheinlichkeit steht, dass das Testmuster oder das Zieldomänenmuster zum unbekannten Typ gehört.
-
Wenn die Wahrscheinlichkeit den Schwellenwert Ω überschreitet, wird das Muster so angesehen, dass es zu einem unbekannten Typ gehört, sonst gehört es zum bekannten Typ, wobei in Übereinstimmung mit dem Kennzeichen-Vorhersagewert die Kategorie des Musters bestimmt wird.
-
Mit der Methode in dem vorliegenden Ausführungsbeispiel kann eine Fehlerdiagnose offener Menge für die Hochgeschwindigkeits-EMUs im Betrieb unter konstanten Arbeitsbedingungen und unterschiedlichen Arbeitsbedingungen durchgeführt werden, dadurch können nicht nur die Muster bekannter Typen genau klassifiziert werden, sondern die Muster unbekannter Typen können auch wirksam erkannt werden.
-
2 und 3 zeigen schematische Diagramme der Modellstruktur einer Fehlerdiagnosemethode offener Menge für Hochgeschwindigkeits-EMU-Lager. Wie in 2 dargestellt, werden hinsichtlich einer Fehlerdiagnose unter gleichen Arbeitsbedingungen der Merkmalsextraktor und der Kennzeichenprädiktor trainiert, so dass das Netzwerk eine gute Merkmalsdarstellungsfähigkeit hat und ist der Lage ist, die bekannten Typen korrekt zu klassifizieren; nach dem Modelltraining wird ein theoretisches Extremwertmodell mittels der Merkmale des Trainingsmusters eingerichtet, und in der Testphase wird das Merkmal des Testmusters ins theoretische Extremwertmodell eingegeben, um in den Testmustern die Muster, die zu unbekannten Typen gehören, zu erkennen. Wie in 3 dargestellt, werden hinsichtlich einer Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen der Merkmalsextraktor und der Kennzeichenprädiktor trainiert, so dass das Netzwerk eine gute Merkmalsdarstellungsfähigkeit hat und ist der Lage ist, die bekannten Typen korrekt zu klassifizieren; wobei der Hilfsdomänenklassifikator trainiert wird, um einen Domänenähnlichkeitsindex zu erhalten, auf die Weise werden im Adaptationsprozess der Domäne die Quelldomänenmuster und die Zieldomänenmuster gewichtet; und wobei die Adaptation der Domäne durch ein Konfrontationslernen realisiert wird, einerseits wird der Merkmalsextraktor trainiert, um ein Merkmal zu generieren, wobei der Domänenklassifikator nicht unterscheiden kann, ob es aus der Quelldomäne oder der Zieldomäne stammt; andererseits wird der Domänenklassifikator trainiert, so dass er möglichst unterscheidet, ob das Merkmal aus der Quelldomäne oder der Zieldomäne stammt; unter dem Einfluss des Domänenähnlichkeitsindexes werden die Muster, die zu der gemeinsam genutzten Kategorie gehören, in dem Adaptationsprozess der Domäne stärker gewichtet, und die Muster, die zu den unbekannten Typen gehören, werden in dem Adaptationsprozess der Domäne geringer gewichtet, um die Merkmale der gemeinsam genutzten Kategorie, deren Domäne unveränderlich ist, zu erhalten und die Merkmale der Muster, die zu ausschließlichen Typen gehören, zu trennen. Nach dem Modelltraining wird ein theoretisches Extremwertmodell mittels der Merkmale des Quelldomänenmusters eingerichtet, und in der Testphase wird das Merkmal des Zieldomänenmusters ins theoretische Extremwertmodell eingegeben, um in den Zieldomänenmustern die Muster, die zu unbekannten Typen gehören, zu erkennen. Nachfolgend für die Fehlerdiagnose unter konstanten Arbeitsbedingungen ein Vergleichsexperiment mit dem eindimensionalen konvolutionellen neuronalen Netzwerk (1DCNN), ResNet18 und 1DCNN in Kombination mit dem Nearest-Neighbour-Algorithmus (1DCNN+KNN) durchgeführt; für die Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen wird ein Vergleichsexperiment mit dem Domain-Adversarial-Neural-Network (DANN), dem Bilateral-Weighted-Adversarial-Network (BWAN) und DANN in Kombination mit der Extremwerttheorie durchgeführt, um die technische Lösung der vorliegenden Veröffentlichung weiter zu erläutern.
-
Insbesondere sind die für das Vergleichsexperiment verwendeten wichtigsten Bewertungsindikatoren die Genauigkeitsrate (ALL) der Kategorie K+1, die Genauigkeitsrate der gemeinsam genutzten Kategorie (ALL*), die Genauigkeitsrate der unbekannten Kategorie (UNK) und der harmonische Mittelwert (H-Score) von ALL* und UNK. Dabei wird ALL definiert als: ALL = (die Anzahl der korrekt vorhergesagten Muster der gemeinsam genutzten Kategorie + die Anzahl der korrekt vorhergesagten Muster der unbekannten Kategorie) /die Gesamtzahl der Muster. ALL* wird definiert als: ALL* = die Anzahl der korrekt vorhergesagten Muster der gemeinsam genutzten Kategorie/die Anzahl der Muster der gemeinsam genutzten Kategorie, H-Score ist definiert als: H-Score= 2 · ALL* · UNK / (ALL* + UNK), H-Score ist nur hoch, wenn ALL* und UNK beide hoch sind.
-
Der erste Datensatz, der im Experiment verwendet wird, ist die Lagerdaten des Fahrmotors, die unter 3 verschiedenen Arbeitsbedingungen erfasst werden. Wie in Tabelle 1 dargestellt, stehen 0, 1, 2 für die Nummer der Datensätze dar, die bei verschiedenen Drehzahlen erfasst werden, für die Fehlerdiagnose unter konstanten Arbeitsbedingungen können drei Diagnoseaufgaben gebildet werden: T
0, T
1, T
2, z,B, steht T
0 dafür, dass die Trainingsdaten und die Testdaten jeweils bei einer Drehzahl von 800 U/min und einer Radiallast von 5,4KN erfasst werden; für die Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen können 6 Diagnoseaufgaben gebildet werden: T
01, T
02, T
10, T
12,T
20,T
21 z,B, steht T
01 dafür, dass die Quelldomänendaten bei einer Drehzahl von 800 U/min und einer Radiallast von 5,4KN und die Zieldomänendaten bei einer Drehzahl von 2800 U/min und einer Radiallast von 5,4KN erfasst werden. Bei den Lagern bestehen 3 Fehlertypen (Innenringfehler, Außenringfehler und Wälzkörperfehler). Jeder Fehlertyp hat zwei Fehlerstufen: leicht und mittel. Es gibt insgesamt 6 Fehlerzustände, wie in Tabelle 2 dargestellt. Das Schwingungssignal wird durch den Beschleunigungssensor an der Lagerhülse des Fahrmotors erfasst, wobei die Abtastfrequenz 25600 Hz beträgt, und wobei alle 1024 Punkte im Schwingungssignal als ein Muster verwendet werden. Tabelle 1
Nummer der Arbeitsbedingung | Drehzahl | Radiallast |
0 | 800 U/min | 5,4KN |
1 | 2800 U/min | 5,4KN |
2 | 800 U/min | 6KN |
Tabelle 2
Kategorienkennzeichen | Fehlerposition | Fehlerstufe |
0 | Innenring | Leicht |
1 | Mittel |
2 | Außenring | Leicht |
3 | Mittel |
4 | Wälzkörper | Mittel |
5 | Leicht |
-
Hinsichtlich der Fehlerdiagnoseaufgabe offener Menge sind die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Trainingskennzeichensatz und Testkennzeichensatz wie in Tabelle 3 dargestellt, und die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Quelldomänenkennzeichensatz und Zieldomänenkennzeichensatz sind wie in Tabelle 4 dargestellt. Tabelle 3
Aufgabe | Last | Drehzahl | Trainingskennzeichensatz | Testkennzeichensatz |
T0 | 5,4kN | 800 U/min | 0,2,4,5 | 0,1,2,3,4 |
T1 | 5,4kN | 2800 U/min | 0,2,3,4,5 | 0,1,2,3 |
T2 | 6kN | 800 U/min | 0,1,2,4 | 0,2,3 |
Tabelle 4
Aufgabe | Quelldomäne - >Zieldomäne (Radiallast) | Quelldomäne - >Zieldomäne (Drehzahl) | Quelldomänenkennzeichensatz | Zieldomänenkennzeichensatz |
T01 | 5,4->5,4kN | 800->2800 U/min | 0,2,4,5 | 0,1,2,3,4 |
T02 | 5,4->6kN | 800->800 U/min |
T10 | 5,4->5,4kN | 2800->800 U/min | 0,2,3,4,5 | 0,1,2,3 |
T12 | 5,4->6kN | 2800->800 |
| | U/min | | |
T20 | 6->5,4kN | 800->800 U/min | 0,1,2,4 | 0,2,3 |
T21 | 6->5,4kN | 800->2800 U/min |
-
Bei einer Drehzahl von 800 (U/min) und einer Radiallast von 5,4 KN sind die spezifischen Daten der jeweiligen Fehlerinformationen in Tabelle 2 wie in Tabelle 5 dargestellt: Tabelle 5
Kennzeichen | Daten |
0 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
|
1 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
...... |
2 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
...... |
3 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
...... |
4 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
...... |
5 | 3,9062499E-005 |
7,8124998E-005 |
1,1718750E-004 |
1,5625000E-004 |
1,9531250E-004 |
2,3437499E-004 |
2,7343750E-004 |
3,1249999E-004 |
3,5156251E-004 |
3,9062501E-004 |
...... |
-
Um die Gerechtigkeit des Experiments zu gewährleisten, werden die Hyperparametereinstellungen aller Methoden gleich eingestellt. Die Diagnoseergebnisse jeder Methode unter gleichen Arbeitsbedingungen sind in Tabelle 6 dargestellt. Es ist ersichtlich, dass das ALL der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben am höchsten ist, was darauf hinweist, dass die vorgeschlagene Methode die beste Diagnoseleistung für alle Muster aufweist; das ALL* und UNK der in der vorliegenden Erfindung vorgeschlagenen Methode sind bei allen Diagnoseaufgaben am höchsten, und das H-Score hat die höchste Genauigkeit bei den meisten Diagnoseaufgaben, was darauf hinweist, dass die vorgeschlagene Methode sowohl die Muster bekannter Kategorie klassifizieren als auch die Muster unbekannter Kategorie wirksam erkennen kann, was die Wirksamkeit des theoretischen Extremwertmodells verifiziert. Die Diagnoseergebnisse jeder Methode unter unterschiedlichen Arbeitsbedingungen sind in Tabelle 7 dargestellt. Es ist ersichtlich, dass das ALL* der in der vorliegenden Erfindung vorgeschlagenen Methode eine durchschnittliche Genauigkeit bei allen Diagnoseaufgaben von 80,6% aufweist, was darauf hinweist, dass die vorgeschlagene Methode den Unterschied zwischen den Domänen wirksam verringern kann; das UNK und das H-score der in der vorliegenden Erfindung vorgeschlagenen Methode sind bei allen Diagnoseaufgaben am höchsten, was verifiziert, dass die vorgeschlagene Methode die Fähigkeit aufweist, unter unterschiedlichen Arbeitsbedingungen gleichzeitig die bekannten Kategorien genau zu klassifizieren und die unbekannten Kategorien zu erkennen, was die Überlegenheit der vorgeschlagenen Methode im Umgang mit dem Problem der Fehlerdiagnose offener Menge anzeigt. Tabelle 6
Aufgabe | 1DCNN | ResNet18 | 1DCNN+KNN | Vorgeschlagene Methode |
ALL | ALL | ALL | ALL* | UNK | H-score | ALL | ALL* | UNK | H-score |
T0 | 59,8% | 58,8% | 86,9% | 93,5% | 76,9% | 84,4% | 98,1% | 97,0% | 99,7% | 98,3% |
T1 | 76,2% | 76,2% | 86,8% | 96,5% | 55,9% | 70,7% | 92,7% | 98,5% | 74,3% | 84,7% |
T2 | 66,1% | 62,9% | 89,7% | 85,9% | 97,2% | 91,2% | 96,4% | 94,8% | 99,7% | 97,2% |
MITTELWERT | 67,4% | 66,0% | 87,8% | 92,0% | 76,6% | 82,1% | 95,7% | 96,8% | 91,2% | 93,9% |
Tabelle 7
Aufgabe | DANN | BWAN | DANN+EVT | Vorgeschlagene Methode |
ALL | ALL | ALL | ALL* | UNK | H-score | ALL | ALL* | UNK | H-score |
T01 | 60,2% | 60,4% | 77,8% | 91,8% | 56,5% | 65,0% | 88,2% | 89,5% | 86,2% | 87,5% |
T02 | 58,6% | 58,3% | 66,3% | 94,1% | 24,6% | 36,5% | 79,2% | 65,9% | 99,2% | 79,1% |
T10 | 66,8% | 73,3% | 66,8% | 81,3% | 23,3% | 33,0% | 85,6% | 81,9% | 96,6% | 88,6% |
T12 | 67,5% | 71,4% | 71,2% | 82,1% | 38,5% | 49,1% | 70,8% | 61,1% | 99,9% | 75,4% |
T20 | 64,0% | 64,5% | 75,3% | 95,1% | 35,5% | 47,0% | 91,9% | 90,3% | 94,9% | 92,3% |
T21 | 58,4% | 64,8% | 71,6% | 86,6% | 43,1% | 49,3% | 94,6% | 94,6% | 94,7% | 94,3% |
MITTELW ERT | 62,6% | 65,5% | 71,5% | 88,5% | 36,9% | 46,6% | 85,1% | 80,6% | 95,3% | 86,2% |
-
Der zweite im Experiment verwendete Datensatz ist der Lagerdatensatz, der im Motorlagerexperiment vom Elektrotechniklabor von Case Western Reserve University in den Vereinigten Staaten erhalten werden. Dieser Datensatz wird bei einem gewöhnlichen Motor unter 4 verschiedenen Lasten (0 PS, 1 PS, 2 PS und 3 PS) erfasst, wobei 0, 1, 2, 3 für die Nummer der erfassten Datensätze unter verschiedenen Lasten stehen, für eine Fehlerdiagnose unter konstanten Arbeitsbedingungen können vier Diagnoseaufgaben gebildet werden: C
0, C
1, C
2, C
3, z,B, steht C
0 dafür, dass die Trainingsdaten und die Testdaten jeweils bei einer Last von 0 PS erfasst werden; für eine Fehlerdiagnose unter unterschiedlichen Arbeitsbedingungen können 12 Diagnoseaufgaben gebildet werden: C
01, C
02, C
03, C
10, C
12, C
13, C
20, C
21, C
23, C
30, C
31,C
32, z,B, steht C
01 dafür, dass die Quelldomänendaten bei einer Last von 0 PS und die Zieldomänendaten bei einer Last von 1 PS erfasst werden. Der Datensatz umfasst 4 Fehlertypen: normaler Lagerzustand. Außenringfehler, Innenringfehler und Wälzkörperfehler, und jeder Fehlertyp hat 3 Fehlerstufen, einschließlich Schadensdurchmesser von 7 mil, 14 mil und 21 mil, also werden insgesamt 10 Zustände erhalten, wie in Tabelle 8 dargestellt. Das Schwingungssignal wird durch den Beschleunigungssensor, der oberhalb des Lagersitzes des Antriebsendes des Motors angeordnet ist, erfasst, wobei die Abtastfrequenz 12 KHz beträgt, und wobei alle 1024 Punkte im Schwingungssignal als ein Muster verwendet werden. Tabelle 8
Kategorienkennzeichen | Fehlertyp | Fehlergröße |
1 | Normal | 0 mils |
2 | Innenring | 7 mils |
3 | 14 mils |
4 | 21 mils |
5 | Außenring | 7 mils |
6 | 14 mils |
7 | 21 mils |
8 | Wälzkörper | 7 mils |
9 | 14 mils |
10 | 21 mils |
-
Hinsichtlich der Fehlerdiagnoseaufgabe offener Menge sind die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Trainingskennzeichensatz und Testkennzeichensatz wie in Tabelle 9 dargestellt, und die jeweiligen Diagnoseaufgaben unter konstanten Arbeitsbedingungen und der entsprechende Quelldomänenkennzeichensatz und Zieldomänenkennzeichensatz sind wie in Tabelle 10 dargestellt. Tabelle 9
Aufgabe | Last | Trainingskennzeichensatz | Testkennzeichensatz |
| | | |
C0 | 0 PS | 0,1,2,3,4,5,6 | 0,1,2,3,4,7,8,9 |
C1 | 1 PS | 0,1,2,3,4,5 | 0,1,2,3,4,7,8 |
C2 | 2 PS | 0,1,2,3,4,5 | 0,1,6,7 |
C3 | 3 PS | 0,1,3,5,7,9 | 0,1,2,3,4,5 |
Tabelle 10
Aufgabe | Quelldomäne - >Zieldomäne (Last) | Quelldomänenkennzeichensatz | Zieldomänenkennzeichensatz |
C01 | 0->1 PS | 0,1,2,3,4,5,6 | 0,1,2,3,4,7,8,9 |
C02 | 0->2 PS |
C03 | 0->3 PS | 0,1,2,3,4,5 | 0,1,2,3,4,7,8 |
C10 | 1->0 PS |
C12 | 1->2 PS | 0,1,2,3,4,5 | 0,1,6,7 |
C13 | 1->3 PS |
C20 | 2->0 PS | 0,1,3,5,7,9 | 0,1,2,3,4,5 |
C21 | 2->1 PS |
C23 | 2->3 PS | 0,1,3,5,7 | 0,1,2,3,4 |
C30 | 3->0 PS |
C31 | 3->1 PS | 0,2,4,6,8 | 0,2,5 |
C32 | 3->2 PS |
-
Die spezifischen Daten der jeweiligen Fehlerinformationen in Tabelle 8 bei einer Last von 1 PS sind wie in Tabelle 11 dargestellt: Tabelle 11
Kennzeichen | Daten |
1 | 0,0461040000000000 |
-0,0371335384615385 |
-0,0894960000000000 |
-0,0849064615384615 |
-0,0385938461538462 |
0,0254510769230769 |
0,0406800000000000 |
0,0425575384615385 |
0,0381766153846154 |
0,0440178461538462 |
...... |
2 | -0,277601636726547 |
-0,0443447904191617 |
0,117603033932136 |
-0,145054570858283 |
-0,111430499001996 |
0,130922714570858 |
0,0328118962075848 |
-0,197033812375250 |
-0,0748825948103793 |
0,00958367265469062 |
...... |
3 | -0,0404463473053892 |
0,00373600798403194 |
0,0201419560878244 |
-0,0750450299401198 |
0,0201419560878244 |
0,0682227544910180 |
-0,0329743313373254 |
-0,0142942914171657 |
0,0448320958083832 |
-0,118415209580838 |
...... |
4 | 0,171369061876248 |
0,117765469061876 |
-0,0970549900199601 |
0,00974610778443114 |
0,0609131736526946 |
-0,0726897205588822 |
-0,0560401197604790 |
0,0990854291417166 |
0,138475948103792 |
-0,00893393213572854 |
...... |
5 | -0,0774563636363636 |
0,455287272727273 |
-0,214083636363636 |
-0,0984127272727273 |
-0,0283527272727273 |
0,110945454545455 |
0,0283527272727273 |
-0,459396363636364 |
-0,104576363636364 |
-0,0630745454545455 |
...... |
6 | 0,146236886227545 |
-0,0844049101796407 |
0,0142501796407186 |
0,00909413173652695 |
-0,101943592814371 |
-0,00198934131736527 |
-0,0395432335329341 |
-0,128657604790419 |
-0,0999948502994012 |
0,0649986826347305 |
...... |
7 | -0,0259896207584830 |
-0,0272078842315369 |
-0,0479183632734531 |
0,0377661676646707 |
-0,0438574850299401 |
-0,0682227544910180 |
-0,00852784431137725 |
-0,0223348303393214 |
-0,00365479041916168 |
-0,0215226546906188 |
...... |
8 | -0,0721211976047904 |
0,303103952095808 |
0,0331367664670659 |
-0,207267225548902 |
0,0969737724550898 |
0,174455329341317 |
-0,0869027944111777 |
-0,0550655089820359 |
0,130922714570858 |
0,00438574850299401 |
...... |
9 | 0,00552279441117765 |
-0,103796047904192 |
-0,0454818363273453 |
0,125237485029940 |
0,0618877844311377 |
-0,0959991616766467 |
0,0506797604790419 |
0,155612854291417 |
-0,00828419161676647 |
-0,0383346906187625 |
...... |
10 | 0,230008143712575 |
0,188587185628743 |
-0,426229780439122 |
-0,0882022754491018 |
0,384321516966068 |
-0,146191616766467 |
-0,235206067864271 |
0,204668263473054 |
0,188099880239521 |
-0,402839121756487 |
...... |
-
Um die Gerechtigkeit des Experiments zu gewährleisten, werden die Hyperparametereinstellungen aller Methoden gleich eingestellt, die Diagnoseergebnisse jeder Methode unter gleichen Arbeitsbedingungen sind in Tabelle 12 dargestellt, und es ist ersichtlich, dass das ALL, ALL*, UNK und H-score der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben besser als diese von anderen Vergleichsmethoden sind; die Diagnoseergebnisse jeder Methode unter unterschiedlichen Arbeitsbedingungen sind in Tabelle 13 dargestellt, und es ist ersichtlich, dass das ALL und H-score der in der vorliegenden Erfindung vorgeschlagenen Methode bei allen Diagnoseaufgaben und das UNK bei meisten Diagnoseaufgaben besser als diese von anderen Vergleichsmethoden sind. Die obigen Ergebnisse verifizieren die Wirksamkeit der vorgeschlagenen Methode. Tabelle 12
Aufgabe | 1DCNN | ResNet18 | 1DCNN+KNN | Vorgeschlagene Methode |
ALL | ALL | ALL | ALL* | UNK | H-score | ALL | ALL* | UNK | H-score |
C0 | 65,9% | 64,7% | 74,0% | 82,1% | 58,2% | 68,1% | 95,0% | 96,9% | 91,4% | 94,0% |
C1 | 79,4% | 79,0% | 87,1% | 92,3% | 66,6% | 77,4% | 97,7% | 97,7% | 98,1% | 97,8% |
C2 | 71,2% | 71,2% | 78,5% | 96,0% | 35,3% | 51,6% | 90,4% | 98,9% | 69,4% | 80,7% |
C3 | 76,8% | 76,8% | 80,4% | 87,7% | 55,5% | 67,9% | 91,3% | 95,0% | 78,5% | 85,8% |
MITTELWERT | 73,3% | 72,9% | 80,0% | 89,5% | 53,9% | 66,2% | 93,6% | 97,1% | 84,3% | 89,6% |
Tabelle 13
Aufgabe | DANN | BWAN | DANN+EVT | Vorgeschlagene Methode |
ALL | ALL | ALL | ALL* | UNK | H-score | ALL | ALL* | UNK | H-score |
C01 | 69,4% | 70,2% | 71,5% | 92,0% | 16,9% | 26,5% | 79,3% | 78,0% | 82,8% | 79,2% |
C02 | 66,8% | 69,9% | 72,6% | 90,5% | 24,6% | 33,5% | 73,7% | 73,8% | 73,4% | 71,6% |
C03 | 73,8% | 70,1% | 76,1% | 89,7% | 21,9% | 32,9% | 65,9% | 64,4% | 71,7% | 66,9% |
C10 | 72,5% | 73,7% | 71,3% | 90,5% | 13,8% | 22,9% | 84,1% | 85,8% | 79,0% | 80,6% |
C12 | 68,2% | 71,3% | 77,6% | 94,5% | 35,3% | 48,9% | 97,8% | 98,9% | 95,0% | 96,6% |
C13 | 65,7% | 69,8% | 72,1% | 91,3% | 24,4% | 37,2% | 94,2% | 92,2% | 99,2% | 95,5% |
C20 | 65,3% | 69,7% | 68,5% | 87,8% | 19,9% | 32,2% | 82,6% | 82,6% | 82,8% | 82,4% |
C21 | 74,2% | 70,1% | 77,1% | 91,6% | 26,5% | 40,3% | 87,2% | 84,8% | 95,3% | 89,7% |
C23 | 74,6% | 74,6% | 78,4% | 83,9% | 62,1% | 70,2% | 85,2% | 83,8% | 89,6% | 86,5% |
C30 | 56,4% | 50,4% | 60,0% | 80,2% | 19,3% | 30,2% | 76,1% | 71,9% | 84,6% | 77,8% |
C31 | 76,3% | 83,2% | 85,8% | 90,4% | 63,1% | 71,9% | 96,9% | 96,5% | 98,8% | 97,6% |
C32 | 75,9% | 83,2% | 86,1% | 90,3% | 64,9% | 72,2% | 97,6% | 97,9% | 96,3% | 97,1% |
MITTELWERT | 69,9% | 71,3% | 74,8% | 89,4% | 32,7% | 43,3% | 85,1% | 84,2% | 87,4% | 85,1% |
-
Die Netzwerkstruktur des Merkmalsextraktors ist wie in Tabelle 14 dargestellt:
Bezeichnung der Schicht | Parameter |
Konvolutionelle Schicht | Größe des konvolutionellen Kerns beträgt 11 × 1 und der Ausgangskanal ist 64 |
Größte Pooling-Schicht | Größe des konvolutionellen Kerns beträgt 3 × 1 |
Konvolutionelle Schicht | Größe des konvolutionellen Kerns beträgt 5 × 1 und der Ausgangskanal ist 192 |
Größte Pooling-Schicht | Größe des konvolutionellen Kerns beträgt 3 × 1 |
Konvolutionelle Schicht | Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 384 |
Konvolutionelle Schicht | Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 256 |
Konvolutionelle Schicht | Größe des konvolutionellen Kerns beträgt 3 × 1 und der Ausgangskanal ist 256 |
Adaptive Durchschnitts-Pooling-Schicht | Ausgabegröße beträgt 6 × 1 |
Vollständig verbundene Schicht | Anzahl der Neuronen beträgt 512 |
-
Die Netzwerkstruktur des Kennzeichenprädiktors ist wie in Tabelle 15 dargestellt:
Bezeichnung der Schicht | Parameter |
Vollständig verbundene Schicht | Anzahl der Neuronen beträgt 512 |
Lineare Gleichrichtungsfunktion | Keine |
Vollständig verbundene Schicht | Anzahl der Neuronen entspricht der Anzahl der Kategorien des Trainings- oder Quelldomänendatensatzes |
-
Die Netzwerkstruktur des Domänenklassifikators und des Hilfsdomänenklassifikators ist wie in Tabelle 16 dargestellt:
Bezeichnung der Schicht | Parameter |
Vollständig verbundene Schicht | Anzahl der Neuronen beträgt 2048 |
Lineare Gleichrichtungsfunktion | Keine |
Vollständig verbundene Schicht | Anzahl der Neuronen beträgt 2048 |
Lineare Gleichrichtungsfunktion | Keine |
Vollständig verbundene Schicht | Anzahl der Neuronen beträgt 1 |
Sigmoid-Funktion | Keine |
-
Die Netzwerkstruktur in Tabellen 14, 15 und 16 ist beispielhaft wie in 4, 5 und 6 dargestellt, wobei in den Figuren ReLU für die lineare Gleichrichtungsfunktion steht.
-
Für die Fehlerdiagnose unter konstanten Arbeitsbedingungen kann die vorliegende Veröffentlichung die Diagnosegenauigkeit des Modells bei den Testdaten wirksam verbessern und gleichzeitig die Muster bekannter Kategorien korrekt klassifizieren und die Muster unbekannter Kategorien wirksam erkennen. Für die Fehlerdiagnose unter sich ändernden Arbeitsbedingungen kann die vorliegende Veröffentlichung die Diagnosegenauigkeit des Modells bei den Zieldomänendaten wirksam verbessern, den Verteilungsunterschied zwischen der gemeinsam genutzten Kategorie der Quelldomäne und der Zieldomäne verringern und die Muster unbekannter Kategorie von anderen Mustern trennen, darüber hinaus kann die vorliegende Veröffentlichung die Muster bekannter Kategorien korrekt klassifizieren und die Muster unbekannter Kategorien wirksam erkennen.
-
Obwohl die Ausführungsformen der vorliegenden Veröffentlichung oben unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden, sind die technischen Lösungen der vorliegenden Veröffentlichung nicht auf zwei Arbeitsbedingungenen mit unterschiedlichen Drehzahlen und unterschiedlichen Lasten beschränkt und umfassen auch andere Arten von Arbeitsbedingungenen. Die oben erwähnten spezifischen Ausführungsformen sind lediglich veranschaulichend, instruktiv und nicht einschränkend. Unter der Inspiration dieser Beschreibung und ohne Abweichung vom Schutzumfang der Ansprüche der vorliegenden Veröffentlichung kann der Durchschnittsfachmann auf diesem Gebiet auch viele Formen erstellen, die alle durch die vorliegende Veröffentlichung geschützt sind.