DE112020005257T5 - Fehler-ursachen-analyse unter verwendung einer granger-kausalität - Google Patents

Fehler-ursachen-analyse unter verwendung einer granger-kausalität Download PDF

Info

Publication number
DE112020005257T5
DE112020005257T5 DE112020005257.5T DE112020005257T DE112020005257T5 DE 112020005257 T5 DE112020005257 T5 DE 112020005257T5 DE 112020005257 T DE112020005257 T DE 112020005257T DE 112020005257 T5 DE112020005257 T5 DE 112020005257T5
Authority
DE
Germany
Prior art keywords
computer
series data
cluster
group
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020005257.5T
Other languages
English (en)
Inventor
Ajil Jalal
Karthikeyan Mugam
Bhanukiran VINZAMURI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112020005257T5 publication Critical patent/DE112020005257T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • G01M99/005Testing of complete machines, e.g. washing-machines or mobile phones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure
    • G05B23/0281Quantitative, e.g. mathematical distance; Clustering; Neural networks; Statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C3/00Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
    • H04L41/065Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis involving logical or physical relationship, e.g. grouping and hierarchies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Operations Research (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)
  • Tests Of Electronic Circuits (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

Es werden Techniken für Fehler-Ursachen-Analysen auf der Grundlage von Zeitreihendaten bereitgestellt. Zum Beispiel können eine oder mehrere hier beschriebene Ausführungsformen ein System aufweisen, das einen Speicher enthält, in dem durch einen Computer ausführbare Komponenten gespeichert werden können. Das System kann auch einen Prozessor aufweisen, der funktionsmäßig mit dem Speicher verbunden ist und der die im Speicher gespeicherten, durch einen Computer ausführbaren Komponenten ausführen kann. Die durch einen Computer ausführbaren Komponenten können eine Wartungskomponente aufweisen, die eine Ursache eines Ausfalls in einem mechanischen System erkennen kann, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine oder mehrere Fehler-Ursachen-Analysen, bei denen eine Granger-Kausalität zwischen Zeitreihen-Datenvariablen zugrunde gelegt werden kann, und insbesondere auf ein Ermitteln der Ursache und/oder des Beginns eines oder mehrerer Ausfälle eines mechanischen Systems auf der Grundlage einer oder mehrerer Granger-Kausalitäten zwischen Zeitreihen-Datenvariablen.
  • HINTERGRUND
  • Mechanische Ausfälle in großindustriellen Systemen können zu erheblichen finanziellen Verlusten führen. In vielen Fällen kann ein einzelnes Teil oder ein Satz von Teilen im System eine Fehlfunktion aufweisen, die sich dann auf andere Teile und/oder Abschnitte des Systems ausbreitet. Die Ausbreitung der Fehlfunktion kann zu einem kollektiven Ausfall des gesamten Systems führen. Das eine oder mehrere Teile, die zu Beginn eine Fehlfunktion aufweisen, werden im Allgemeinen als Fehlerursache (root cause) für den Systemausfall bezeichnet. Oftmals liegt zwischen dem Fehler-Ursachen-Ereignis und dem kollektiven Systemausfall eine gewisse Zeitspanne. Zum Beispiel kann sich die Fehlfunktion von der Fehlerursache bis zum Systemausfall über einen bestimmten Zeitraum (z.B. Tage, Wochen und/oder Monate) ausbreiten. Bei herkömmlichen Analysen von Systemausfällen wird ein Fachmann hinzugezogen, der das System nach dem Ausfallereignis wieder instand setzen kann. In einigen Fällen kann der Experte die Fehlerursache des Systemausfalls identifizieren, aber es ist dem Experten oft nicht möglich, den Zeitpunkt des Auslösens der Fehlerursache genau zu bestimmen (z.B. den Beginn des Systemausfalls). In der Technik besteht folglich ein Bedarf, das oben genannte Problem zu lösen.
  • KURZDARSTELLUNG
  • Im Folgenden wird eine Kurzdarstellung vorgelegt, die ein grundlegendes Verständnis einer oder mehrerer Ausführungsformen der Erfindung bereitstellt. Es ist nicht beabsichtigt, mit dieser Kurzdarstellung wesentliche oder kritische Elemente zu kennzeichnen oder den Umfang der einzelnen Ausführungsformen oder den Umfang der Ansprüche abzugrenzen. Sie dient lediglich dazu, Konzepte in einer vereinfachten Form vorzustellen, um die folgende, ausführlichere Beschreibung einzuleiten. In einer oder mehreren hier beschriebenen Ausführungsformen werden Systeme, auf einem Computer implementierte Verfahren, Vorrichtungen und/oder Computerprogrammprodukte beschrieben, die eine Fehler-Ursachen-Analyse auf der Grundlage von einer oder mehreren Granger-Kausalitäten zwischen Zeitreihen-Datenvariablen durchführen können.
  • Von einem ersten Aspekt aus betrachtet, stellt die vorliegende Erfindung ein System bereit, das aufweist: einen Speicher, der durch einen Computer ausführbare Komponenten speichert; und einen Prozessor, der funktionsmäßig mit dem Speicher verbunden ist und der die durch einen Computer ausführbaren Komponenten ausführt, die im Speicher gespeichert sind, wobei die durch einen Computer ausführbaren Komponenten aufweisen: eine Wartungskomponente, die eine Ursache eines Ausfalls in einem mechanischen System erkennt, indem sie einen Greedy-Bergsteiger-Prozess (gierig, hill climbing) einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein System bereit, das aufweist: einen Speicher, der durch einen Computer ausführbare Komponenten speichert; und einen Prozessor, der funktionsmäßig mit dem Speicher verbunden ist und der die durch einen Computer ausführbaren Komponenten ausführt, die im Speicher gespeichert sind, wobei die durch einen Computer ausführbaren Komponenten aufweisen: eine Wartungskomponente, die einen Beginn eines Ausfalls in einem mechanischen System erkennt, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein auf einem Computer implementiertes Verfahren bereit, das aufweist: Erkennen einer Ursache eines Ausfalls in einem mechanischen System durch ein System, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein auf einem Computer implementiertes Verfahren bereit, das aufweist: Erkennen eines Beginns eines Ausfalls in einem mechanischen System durch ein System, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein Computerprogrammprodukt zum Identifizieren von Informationen über Ausfälle eines mechanischen Systems bereit, wobei das Computerprogrammprodukt aufweist: Ein durch einen Computer lesbares Speichermedium, das durch einen Verarbeitungsschaltkreis lesbar ist und Anweisungen zum Ausführen durch den Verarbeitungsschaltkreis speichert, um ein Verfahren zum Durchführen der Schritte der Erfindung durchzuführen.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein Computerprogramm bereit, das auf einem durch einen Computer lesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers geladen werden kann, und das Softwarecode-Abschnitte aufweist, wenn das Programm auf einem Computer ausgeführt wird, um die Schritte der Erfindung durchzuführen.
  • Von einem weiteren Aspekt aus betrachtet, stellt die vorliegende Erfindung ein Computerprogrammprodukt zum Analysieren eines Ausfalls eines mechanischen Systems bereit, wobei das Computerprogrammprodukt ein durch einen Computer lesbares Speichermedium aufweist, in dem Programmanweisungen verkörpert sind, wobei die Programmanweisungen durch einen Prozessor ausführbar sind, um den Prozessor zu veranlassen, dass der Prozessor einen Beginn eines Ausfalls in einem mechanischen System erkennt, indem er einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  • Gemäß einer Ausführungsform wird ein System bereitgestellt. Das System kann einen Speicher aufweisen, der durch einen Computer ausführbare Komponenten speichern kann. Das System kann auch einen Prozessor aufweisen, der funktionsmäßig mit dem Speicher verbunden ist und der die im Speicher gespeicherten, durch einen Computer ausführbaren Komponenten ausführen kann. Die durch einen Computer ausführbaren Komponenten können eine Wartungskomponente aufweisen, die eine Ursache eines Ausfalls in einem mechanischen System erkennen kann, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Ein Vorteil eines solchen Systems kann eine erhöhte Effizienz beim Ausführen eines Kausalerkennungs-Algorithmus sein, da nur eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit statt einer exponentiellen Anzahl von Tests verwendet wird.
  • Gemäß einer anderen Ausführungsform wird ein System bereitgestellt. Das System kann einen Speicher aufweisen, der durch einen Computer ausführbare Komponenten speichern kann. Das System kann auch einen Prozessor aufweisen, der funktionsmäßig mit dem Speicher verbunden ist und der die im Speicher gespeicherten, durch einen Computer ausführbaren Komponenten ausführen kann. Die durch einen Computer ausführbaren Komponenten können eine Wartungskomponente aufweisen, die einen Beginn eines Ausfalls in einem mechanischen System erkennt, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Ein Vorteil eines solchen Systems kann das Ermitteln des Zeitpunkts sein, zu dem eine Fehlerursache erstmals eine Beeinträchtigung des Betriebs des mechanischen Systems ausgelöst hat.
  • Gemäß einer Ausführungsform wird ein auf einem Computer implementiertes Verfahren bereitgestellt. Das auf einem Computer implementierte Verfahren kann ein Erkennen einer Ursache eines Ausfalls in einem mechanischen System durch ein System aufweisen, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Ein Vorteil eines solchen auf einem Computer implementierten Verfahrens kann das Verwenden von maschinellem Lernen sein, um den Bedarf an menschlicher Interaktion zum Identifizieren der Fehlerursache zu verringern.
  • Gemäß einer weiteren Ausführungsform wird ein auf einem Computer implementiertes Verfahren bereitgestellt. Das auf einem Computer implementierte Verfahren kann ein Erkennen eines Beginns eines Ausfalls in einem mechanischen System durch ein System aufweisen, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Ein Vorteil eines solchen auf einem Computer implementierten Verfahrens kann eine Verringerung der Laufzeit eines Kausalerkennungs-Algorithmus sein, der verwendet wird, um den Greedy-Bergsteiger-Prozess auszuführen, da eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit verwendet wird.
  • Gemäß einer Ausführungsform wird ein Computerprogrammprodukt zum Analysieren eines Ausfalls eines mechanischen Systems bereitgestellt. Das Computerprogrammprodukt kann ein durch einen Computer lesbares Speichermedium mit darin verkörperten Programmanweisungen aufweisen. Die Programmanweisungen können von einem Prozessor ausführbar sein, um den Prozessor zu veranlassen, dass der Prozessor einen Beginn eines Ausfalls in einem mechanischen System erkennt, indem er einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Ein Vorteil eines solchen Computerprogrammprodukts kann eine Verringerung der Falscherkennungsrate eines Kausalerkennungs-Algorithmus sein, der zum Ausführen des Greedy Bergsteiger-Prozesses verwendet wird.
  • Figurenliste
  • Die Patent- oder Anmeldungsdatei enthält mindestens eine in Farbe ausgeführte Zeichnung. Kopien dieser Patent- oder Patentanmeldungsveröffentlichung mit Farbzeichnung(en) werden vom Amt auf Antrag und gegen Entrichtung der erforderlichen Gebühr bereitgestellt.
    • 1 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das die Fehlerursache eines Ausfalls eines mechanischen Systems und/oder den Beginn eines Ausfalls eines mechanischen Systems ermitteln kann, um eine vorbeugende Wartung gemäß einer oder mehreren der hier beschriebenen Ausführungsformen zu ermöglichen.
    • 2 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das eine oder mehrere Granger-Kausalitäts-Beziehungsstrukturen in Bezug auf Zeitreihendaten erstellen kann, um eine Fehler-Ursachen-Analyse gemäß einer oder mehreren der hier beschriebenen Ausführungsformen zu ermöglichen.
    • 3 zeigt eine Darstellung eines beispielhaften, nicht einschränkenden Kausalerkennungs-Algorithmus, der eingesetzt werden kann, um eine oder mehrere Granger-Kausalitäten zwischen Variablen von Zeitreihendaten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen zu ermitteln.
    • 4 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das eine oder mehrere Adjazenzmatrizen in Bezug auf Zeitreihendaten erzeugen kann, um eine Fehler-Ursachen-Analyse gemäß einer oder mehreren der hier beschriebenen Ausführungsformen zu ermöglichen.
    • 5 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das eine oder mehrere Adjazenzmatrizen in zwei verschiedene Clustergruppen clustern kann, um eine Fehler-Ursachen-Analyse gemäß einer oder mehreren der hier beschriebenen Ausführungsformen zu ermöglichen.
    • 6 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das einen Beginn eines Systemausfalls auf der Grundlage geclusterter Adjazenzmatrizen identifizieren kann, die Granger-Kausalitäten zwischen Variablen von Zeitreihendaten kennzeichnen, gemäß einer oder mehreren der hier beschriebenen Ausführungsformen.
    • 7 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems, das eine oder mehrere Fehlerursachen für einen Systemausfall und/oder den Beginn eines Systemausfalls auf der Grundlage von Zeitreihendaten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermittelt.
    • 8 zeigt eine Darstellung von beispielhaften, nicht einschränkenden Diagrammen, die die Wirksamkeit einer oder mehrerer autonomer Fehler-Ursachen-Analysen auf der Grundlage von einer oder mehreren in Zeitreihendaten gefundenen Granger-Kausalitäten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen veranschaulichen können.
    • 9A zeigt eine Darstellung eines beispielhaften, nicht einschränkenden Diagramms, das die Wirksamkeit einer oder mehrerer autonomer Fehler-Ursachen-Analysen auf der Grundlage von einer oder mehreren in Zeitreihendaten gefundenen Granger-Kausalitäten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen veranschaulichen kann.
    • 9B zeigt eine Darstellung eines beispielhaften, nicht einschränkenden Diagramms, das die Wirksamkeit einer oder mehrerer autonomer Fehler-Ursachen-Analysen auf der Grundlage von einer oder mehreren in Zeitreihendaten gefundenen Granger-Kausalitäten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen veranschaulichen kann.
    • 9C zeigt eine Darstellung eines beispielhaften, nicht einschränkenden Diagramms, das die Wirksamkeit einer oder mehrerer autonomer Fehler-Ursachen-Analysen auf der Grundlage von einer oder mehreren in Zeitreihendaten gefundenen Granger-Kausalitäten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen veranschaulichen kann.
    • 10 zeigt eine Darstellung eines beispielhaften, nicht einschränkenden Diagramms, das die Wirksamkeit einer oder mehrerer autonomer Fehler-Ursachen-Analysen auf der Grundlage von einer oder mehreren in Zeitreihendaten gefundenen Granger-Kausalitäten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen veranschaulichen kann.
    • 11 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens, das eine oder mehrere Fehler-Ursachen-Analysen ermöglichen kann, die einen Beginn eines oder mehrerer Ausfälle eines mechanischen Systems gemäß einer oder mehreren der hier beschriebenen Ausführungsformen identifizieren können.
    • 12 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens, das eine oder mehrere Fehler-Ursachen-Analysen von einem oder mehreren Computersystem-Ausfällen gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermöglichen kann.
    • 13 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens, das eine oder mehrere Fehler-Ursachen-Analysen von einem oder mehreren Computersystem-Ausfällen gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermöglichen kann.
    • 14 zeigt eine Cloud-Computing-Umgebung gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen.
    • 15 zeigt Abstraktionsmodellschichten gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen.
    • 16 zeigt ein Blockschaubild einer beispielhaften, nicht einschränkenden Betriebsumgebung, in der eine oder mehrere der hier beschriebenen Ausführungsformen eingesetzt werden können.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende detaillierte Beschreibung dient lediglich der Veranschaulichung und soll die Ausführungsformen und/oder die Anwendung oder die Verwendungsmöglichkeiten der Ausführungsformen nicht einschränken. Darüber hinaus ist nicht beabsichtigt, durch ausdrückliche oder angedeutete Informationen gebunden zu sein, die in den vorangehenden Abschnitten „Hintergrund“ oder „Kurzdarstellung“ oder im Abschnitt „Ausführliche Beschreibung“ vorgelegt werden.
  • Eine oder mehrere Ausführungsformen werden nun unter Bezugnahme auf die Zeichnungen beschrieben, wobei gleiche Ziffern verwendet werden, um auf gleiche Elemente zu verweisen. In der folgenden Beschreibung werden zu Erklärungszwecken zahlreiche spezifische Details aufgeführt, um ein besseres Verständnis der einen oder mehreren Ausführungsformen bereitzustellen. In verschiedenen Fällen ist es jedoch offensichtlich, dass die eine oder mehreren Ausführungsformen auch ohne diese spezifischen Details ausgeführt werden können.
  • In Anbetracht der Probleme mit anderen Implementierungen einer Fehler-Ursachen-Analyse bei mechanischen Systemen kann die vorliegende Offenbarung implementiert werden, um eine Lösung für eines oder mehrere dieser Probleme zu erzielen, indem eine autonome Fehler-Ursachen-Analyse auf der Grundlage von Granger-Kausalitäten integriert wird, die in Zeitreihendaten gefunden wurden, die eine oder mehrere Fehlerursachen und/oder Anfänge von Systemausfällen ermitteln kann. Von Vorteil ist, dass eine oder mehrere hier beschriebene Ausführungsformen es ermöglichen, den Zeitpunkt einer Fehlerursache eines Ausfalls eines mechanischen Systems zu identifizieren. Darüber hinaus können verschiedene hier beschriebene Ausführungsformen den Beginn eines Systemausfalls identifizieren, um eine vorbeugende Wartung zu ermöglichen. Dabei kann die Fehler-Ursachen-Analyse, die in verschiedenen Ausführungsformen hierin beschrieben wird, den Beginn und/oder die Fehlerursachen eines Systemausfalls identifizieren, um vorbeugende Wartungsmaßnahmen zu veranlassen, die einen Systemausfall und die einem Systemausfall zugehörigen Kosten verhindern können.
  • Verschiedene Ausführungsformen der vorliegenden Erfindung können sich auf Computerverarbeitungssysteme, auf einen Computer implementierte Verfahren, Vorrichtungen und/oder Computerprogrammprodukte beziehen, die die effiziente, effektive und autonome (z.B. ohne direkte menschliche Anleitung) Fehler-Ursachen-Analyse eines Ausfalls eines mechanischen Systems ermöglichen. Zum Beispiel können in einer oder mehreren hier beschriebenen Ausführungsformen ein oder mehrere Greedy-Bergsteiger-Prozesse eingesetzt werden, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine oder mehrere Granger-Kausalitäten zwischen Variablen aus Zeitreihendaten eines mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Eine oder mehrere hier beschriebene Ausführungsformen können den Beginn eines Systemausfalls auf der Grundlage einer Analyse der Granger-Kausalitäten identifizieren. Darüber hinaus können verschiedene hier beschriebene Ausführungsformen auf der Grundlage einer Analyse der Granger-Kausalitäten eine oder mehrere Fehlerursachen für den Ausfall eines mechanischen Systems identifizieren und/oder identifizieren, wann die eine oder mehreren Fehlerursachen aufgetreten sind.
  • Die Computerverarbeitungssysteme, die auf einem Computer implementierten Verfahren, Vorrichtungen und/oder Computerprogrammprodukte verwenden Hardware und/oder Software zur Lösung von Problemen, die in hohem Maße technischer Natur sind (z.B. Fehler-Ursachen-Analyse eines Ausfalls eines mechanischen Systems), die nicht abstrakt sind und nicht als ein Satz von mentalen Schritten von einem Menschen ausgeführt werden können. Zum Beispiel kann eine Einzelperson oder eine Mehrzahl von Personen die Zeitreihendaten nicht ohne weiteres verfolgen und/oder analysieren, um die Granger-Kausalität mit der Genauigkeit und Effizienz der verschiedenen hier beschriebenen Ausführungsformen zu ermitteln. Eine oder mehrere hier beschriebene Ausführungsformen können eine technische Verbesserung gegenüber herkömmlichen Techniken zum Erkennen von Granger-Kausalbeziehungen zwischen Zeitreihendaten darstellen, indem sie die Anzahl der Tests auf bedingte Unabhängigkeit von einer exponentiellen Anzahl auf eine polynomiale Anzahl reduzieren. Durch ein Verringern der Anzahl Tests auf bedingte Unabhängigkeit, die von einem Granger-Kausalerkennungs-Algorithmus benötigt werden, können die eine oder mehreren hier beschriebenen Ausführungsformen Granger-Kausalitäten mit einem geringeren statistischen Kostenaufwand ermitteln, als dies bei herkömmlichen Techniken der Fall ist. Des Weiteren können verschiedene hier beschriebene Ausführungsformen eine praktische Anwendung eines Greedy-Bergsteiger-Prozesses vorsehen, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit zur Ermittlung von Granger-Kausalitäten zwischen Zeitreihendaten durchzuführen, denen ein Bedingungen setzender Satz gegeben ist, um den Beginn und/oder die Fehlerursache eines Ausfalls eines mechanischen Systems zu ermitteln.
  • 1 zeigt ein Blockschaubild eines beispielhaften, nicht einschränkenden Systems 100, das eine oder mehrere Fehler-Ursachen-Analysen durchführen kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Aspekte von Systemen (z.B. System 100 und dergleichen), Vorrichtungen oder Prozessen in verschiedenen Ausführungsformen der vorliegenden Erfindung können eine oder mehrere von Maschinen ausführbare Komponenten darstellen, die in einer oder mehreren Maschinen verkörpert sind, z.B. in einem oder mehreren durch einen Computer lesbaren Medien verkörpert sind, die einer oder mehreren Maschinen zugehörig sind. Solche Komponenten können, wenn sie von einer oder mehreren Maschinen, zum Beispiel Computern, Datenverarbeitungseinheiten, virtuellen Maschinen usw., ausgeführt werden, die Maschinen veranlassen, die beschriebenen Operationen durchzuführen.
  • Wie in 1 dargestellt, kann das System 100 einen oder mehrere Server 102, ein oder mehrere Netzwerke 104 und/oder Eingabeeinheiten 106 aufweisen. Der Server 102 kann eine Wartungskomponente 108 aufweisen. Die Wartungskomponente 108 kann ferner eine Datenübertragungskomponente 110 und/oder eine Partitionskomponente 112 aufweisen. Außerdem kann der Server 102 mindestens einen Speicher 116 aufweisen oder ihm auf andere Weise zugehörig sein. Der Server 102 kann ferner einen Systembus 118 aufweisen, der mit verschiedenen Komponenten verbunden werden kann, zum Beispiel mit der Wartungskomponente 108 und zugehörigen Komponenten, einem Speicher 116 und/oder einem Prozessor 120, ohne auf diese beschränkt zu sein. In 1 ist zwar ein Server 102 dargestellt, aber in anderen Ausführungsformen können mehrere Einheiten verschiedener Arten den in 1 dargestellten Funktionen zugehörig sein oder diese aufweisen. Ferner kann der Server 102 mit einer oder mehreren Cloud-Computing-Umgebungen Daten austauschen.
  • Das eine oder mehrere Netzwerke 104 können drahtgebundene und drahtlose Netzwerke aufweisen, darunter ein Mobilfunknetz, ein Weitverkehrsnetz (WAN) (z.B. das Internet) oder ein lokales Netzwerk (LAN), ohne auf diese beschränkt zu sein. Zum Beispiel kann der Server 102 mit einer oder mehreren Eingabeeinheiten 106 Daten austauschen (und umgekehrt) unter Verwendung praktisch jeder gewünschten drahtgebundenen oder drahtlosen Technologie, darunter zum Beispiel: Mobilfunk, WAN, Wireless Fidelity (Wi-Fi, WLAN), Wi-Max, WLAN, Bluetooth-Technologie, eine Kombination davon und/oder dergleichen, ohne auf diese beschränkt zu sein. Ferner kann die Wartungskomponente 108 in der dargestellten Ausführungsform zwar auf einem oder mehreren Servern 102 bereitgestellt werden, es sollte jedoch berücksichtigt werden, dass die Architektur des Systems 100 nicht in dieser Art eingeschränkt ist. Zum Beispiel kann sich die Wartungskomponente 108 oder eine oder mehrere Komponenten der Wartungskomponente 108 auf einer anderen Computereinheit befinden, zum Beispiel auf einer anderen Servereinheit, einer Client-Einheit usw.
  • Die eine oder mehreren Eingabeeinheiten 106 können eine oder mehrere computergestützte Einheiten aufweisen, die die folgenden umfassen können, ohne auf diese beschränkt zu sein: Personal Computer, Desktop-Computer, Laptop-Computer, Mobiltelefone (z.B. Smartphones), computergestützte Tablets (z.B. mit einem Prozessor), Smartwatches, Tastaturen, Berührungsbildschirme, Mäuse, eine Kombination davon und/oder dergleichen. Die eine oder mehreren Eingabeeinheiten 106 können verwendet werden, um Zeitreihendaten eines mechanischen Systems in das System 100 einzugeben, wobei diese Daten mit dem Server 102 ausgetauscht werden (z.B. über eine direkte Verbindung und/oder über das eine oder mehrere Netzwerke 104). Zum Beispiel können die eine oder mehreren Eingabeeinheiten 106 Daten an die Datenübertragungskomponente110 senden (z.B. über eine direkte Verbindung und/oder über das eine oder mehrere Netzwerke 104). Darüber hinaus können die eine oder mehreren Eingabeeinheiten 106 eine oder mehrere Anzeigen aufweisen, die einem Benutzer eine oder mehrere vom System 100 erzeugte Ausgaben anzeigen können. Zum Beispiel können die eine oder mehreren Anzeigen die folgenden umfassen, ohne auf diese beschränkt zu sein: Kathodenröhrenanzeige (CRT), Leuchtdiodenanzeige (LED), Elektrolumineszenzanzeige (ELD), Plasmabildschirm (PDP), Flüssigkristallanzeige (LCD), organische Leuchtdiodenanzeige (OLED), eine Kombination davon und/oder dergleichen.
  • In verschiedenen Ausführungsformen können die eine oder mehreren Eingabeeinheiten 106 und/oder das eine oder mehrere Netzwerke 104 verwendet werden, um eine oder mehrere Einstellungen und/oder Befehle in das System 100 einzugeben. Zum Beispiel können in den verschiedenen hier beschriebenen Ausführungsformen die eine oder mehreren Eingabeeinheiten 106 verwendet werden, um den Server 102 und/oder zugehörige Komponenten zu bedienen und/oder zu steuern. Darüber hinaus können die eine oder mehreren Eingabeeinheiten 106 verwendet werden, um eine oder mehrere Ausgaben (z.B. Anzeigen, Daten, Visualisierungen und/oder dergleichen) anzuzeigen, die von dem Server 102 und/oder zugehörigen Komponenten erzeugt werden. Außerdem können in einer oder mehreren Ausführungsformen die eine oder mehreren Eingabeeinheiten 106 in einer Cloud-Computing-Umgebung enthalten sein und/oder funktionsmäßig mit einer Cloud-Computing-Umgebung verbunden sein.
  • In verschiedenen Ausführungsformen können die eine oder mehreren Eingabeeinheiten 106 einen oder mehrere Sensoren und/oder Detektoren aufweisen, die in einem mechanischen System enthalten sind, wobei die eine oder mehreren Eingabeeinheiten 106 die Zeitreihendaten erfassen und/oder messen können. Beispielhafte Sensoren, die in der einen oder mehreren Eingabeeinheiten 106 vorhanden sein können, können die folgenden umfassen, ohne auf diese beschränkt zu sein: Temperatursensoren, Drucksensoren (z.B. Aneroid-Barometer-Sensoren, Manometer-Sensoren, Rohrfeder-Drucksensoren, Vakuum-Drucksensoren, eine Kombination davon und/oder dergleichen), Schwingungssensoren (z.B. Beschleunigungssensoren, Dehnungsmessstreifen, kapazitive Abstandssensoren, eine Kombination davon und/oder dergleichen), Ultraschallsensoren, Berührungssensoren, Näherungssensoren, Füllstandsensoren, Rauchsensoren, Gassensoren, Ventilmesssensoren, Gehäusedruck-Messsensoren, eine Kombination davon und/oder dergleichen.
  • In einer oder mehreren Ausführungsformen können die eine oder mehreren Eingabeeinheiten 106 verwendet werden, um Zeitreihendaten in das System 100 einzugeben (z.B. durch manuelle Operation, autonome Erfassung, autonome Erkennung und/oder autonome Messung). Die Zeitreihendaten können den Betrieb von einem oder mehreren Teilen betreffen, die in einem mechanischen System enthalten sind. Zum Beispiel kann das mechanische System im Internet der Dinge (IdD; Internet of Things, loT) enthalten sein, wobei die eine oder mehreren Eingabeeinheiten 106 einen oder mehrere Sensoren und/oder Detektoren aufweisen können, die den Betrieb von einem oder mehreren Teilen des mechanischen Systems überwachen. Die Zeitreihendaten können Daten aufweisen, die von der einen oder mehreren Eingabeeinheiten 106 erfasst, erkannt und/oder gemessen wurden. Die Zeitreihendaten können zum Beispiel Datenpunkte umfassen, die ein Maß an Schwingung, eine Temperatur und/oder ein Maß an Druck beschreiben, dem/der ein oder mehrere Teile des mechanischen Systems während des Betriebs ausgesetzt waren, zusammen mit dem Zeitpunkt, zu dem das eine oder mehrere Teile die Datenpunkte aufgewiesen haben.
  • Zum Beispiel können die Betriebsmerkmale der verschiedenen Teile des mechanischen Systems durch einen oder mehrere Datenpunkte dargestellt werden, die in zeitlicher Reihenfolge indexiert werden können (z.B. können sie in einer Sequenz indexiert werden, die zu aufeinanderfolgenden Zeitpunkten aufgenommen wird), um die Zeitreihendaten zu erstellen. Zum Beispiel können die eine oder mehreren Eingabeeinheiten 106 den Betriebszustand der verschiedenen Teile in bestimmten Zeitintervallen erfassen, erkennen und/oder messen, wobei die in jedem Zeitintervall erfassten, erkannten und/oder gemessenen Daten mit einem Zeitstempel versehen und zu den in den vorangegangenen Zeitintervallen erfassten, erkannten und/oder gemessenen Daten hinzugefügt werden können, um die Zeitreihendaten zu erstellen. Dabei können die Zeitreihendaten manuell (z.B. über einen oder mehrere Benutzer) oder autonom (z.B. über einen oder mehrere Sensoren und/oder Detektoren) über die eine oder mehreren Eingabeeinheiten 106 eingegeben werden und/oder den Betriebszustand der verschiedenen Teile des mechanischen Systems im Zeitverlauf kennzeichnen.
  • In verschiedenen Ausführungsformen können die eine oder mehreren Eingabeeinheiten 106 die Zeitreihendaten mit der Wartungskomponente 108 über die Datenübertragungskomponente 110 und/oder ein oder mehrere Netzwerke 104 teilen. Die Datenübertragungskomponente 110 kann die Zeitreihendaten empfangen und die Zeitreihendaten mit einer oder mehreren der hier beschriebenen, der Wartungskomponente 108 zugehörigen Komponenten teilen (z.B. über den Systembus 118). In einer oder mehreren Ausführungsformen kann die Datenübertragungskomponente 110 die Zeitreihendaten empfangen und die Zeitreihendaten in einem oder mehreren Speichern 116 zur Verarbeitung durch die Wartungskomponente 108 speichern.
  • Die Partitionskomponente 112 kann die Zeitreihendaten auf der Grundlage eines definierten Zeitintervalls in eine Mehrzahl von Gruppen unterteilen. Die Zeitintervalle können zum Beispiel Stunden, Tage, Wochen, Monate, Jahre, eine Kombination davon und/oder dergleichen umfassen, ohne auf diese beschränkt zu sein. In verschiedenen Ausführungsformen können die eine oder mehreren Eingabeeinheiten 106 verwendet werden, um das Zeitintervall zu definieren. Darüber hinaus kann die Partitionskomponente 112 die Mehrzahl von Datengruppen, die aus den Zeitreihendaten extrahiert wurden, in dem einen oder mehreren Speichern 116 speichern. Wenn das Zeitintervall zum Beispiel eine Woche beträgt, kann die Partitionskomponente 112 die Zeitreihendaten in eine Mehrzahl von Gruppen unterteilen, wobei jede Gruppe Zeitreihendaten aufweist, die einer bestimmten Woche zugehörig sind. Wenn das Zeitintervall zum Beispiel eine Woche beträgt, können Zeitreihendaten, die den Betriebszustand eines oder mehrerer Teile innerhalb eines mechanischen Systems während der ersten Septemberwoche kennzeichnen, in eine erste Gruppe eingegliedert werden, während Zeitreihendaten, die den Betriebszustand des einen oder mehrerer Teile während der zweiten Septemberwoche kennzeichnen, in eine zweite Gruppe eingegliedert werden können.
  • 2 zeigt eine Darstellung des beispielhaften, nicht einschränkenden Systems 100, das ferner eine Strukturkomponente 202 gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen aufweist. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. In verschiedenen Ausführungsformen kann die Strukturkomponente einen oder mehrere Kausalerkennungs-Algorithmen für jede der definierten Zeitreihen-Datengruppen verwenden, um eine abgeleitete Kausalbeziehungs-Struktur für die Mehrzahl der Gruppen zu erzeugen.
  • In einer oder mehreren Ausführungsformen kann die Strukturkomponente 202 einen oder mehrere parametrische oder nichtparametrische Tester auf bedingte Unabhängigkeit verwenden, um die kausale Struktur zwischen Variablen abzuleiten, die in den Zeitreihen-Datengruppen enthalten sind. Zum Beispiel kann die Strukturkomponente 202 maschinelles Lernen einsetzen, um einen oder mehrere Kausalerkennungs-Algorithmen auszuführen, die ein oder mehrere Bayes'sche Netze (z.B. gerichtete Diagramme, die Beziehungen zwischen Variablen in den Zeitreihendaten darstellen) unter Verwendung eines oder mehrerer Tester auf bedingte Unabhängigkeit erzeugen können, um Tests durchzuführen, die das Vorhandensein und/oder Fehlen einer Kante ermitteln. Zu Beispielen für Tester auf bedingte Unabhängigkeit gehören, ohne auf diese beschränkt zu sein: ParCorr, CCIT und/oder RCOT.
  • Die Strukturkomponente 202 kann den einen oder mehrere Tester auf bedingte Unabhängigkeit verwenden, um einen oder mehrere p-Werte zu ermitteln, die der Wahrscheinlichkeit entsprechen können, dass eine hypothetische Beziehung zwischen Variablen, die in Zeitreihendaten enthalten sind, unabhängig ist. Zum Beispiel kann der p-Wert die Wahrscheinlichkeit darstellen, dass eine erste Zeitreihen-Datenvariable unabhängig von einer zweiten Zeitreihen-Datenvariable ist, wenn eine dritte Zeitreihen-Datenvariable gegeben ist. Beispielsweise kann der p-Wert der Wahrscheinlichkeit des Ereignisses I(Xi → Xj ||XA) = 0 für ein beliebiges A ⊂ [1 : m] unter Berücksichtigung der Zeitreihendaten entsprechen; wobei „i“ der ersten Zeitreihen-Datenvariablen entsprechen kann, „j“ der zweiten Zeitreihen-Datenvariablen entsprechen kann, „A“ der dritten Zeitreihen-Datenvariablen entsprechen kann und/oder „m“ der Anzahl der Funktionen (z.B. der Dimensionalität des Funktionsraums) entsprechen kann. In verschiedenen Ausführungsformen kann ein hoher p-Wert ein Indikator für eine Unabhängigkeit zwischen der ersten und der zweiten Zeitreihen-Datenvariablen in Bezug auf die dritte Zeitreihen-Datenvariable sein, während ein niedriger p-Wert ein Indikator für eine Abhängigkeit zwischen der ersten und der zweiten Zeitreihen-Datenvariablen in Bezug auf die dritte Zeitreihen-Datenvariable sein kann.
  • In einer oder mehreren Ausführungsformen können der eine oder mehrere Tester auf bedingte Unabhängigkeit von der Strukturkomponente 202 verwendet werden, um ein Zugehörigkeitsmaß zu ermitteln, das die wahrscheinliche Abhängigkeit zwischen Zeitreihendaten gemäß der nachstehenden Gleichung 1 kennzeichnet. A s s o c α ( i j ; A ) = α m i n ( α , D I ( i , j , A ) )
    Figure DE112020005257T5_0001
  • Wobei „DI“ einer gerichteten Information entsprechen kann und „α“ einem definierten p-Wert-Schwellenwert entsprechen kann. Die p-Werte, die größer als der p-Wert-Schwellenwert a sind, können auf den p-Wert-Schwellenwert α reduziert werden. Dabei kann der p-Wert-Schwellenwert a einer maximalen Zugehörigkeit zwischen den gegebenen Zeitreihen-Datenvariablen entsprechen. So kann die Strukturkomponente 202 den einen oder mehrere Tester auf bedingte Unabhängigkeit verwenden, um p-Werte zu ermitteln, die dann gemäß Gleichung 1 mit Zugehörigkeitsmessungen korrelieren können.
  • Ferner kann die Strukturkomponente 202 die Zugehörigkeitsmessungen verwenden, um einen Kausalerkennungs-Algorithmus für die Mehrzahl von Zeitreihen-Datengruppen auszuführen. In einer ersten Phase des Kausalerkennungs-Algorithmus kann ein Kausaldiagramm (z.B. ein Bayes'sches Netz) auf der Grundlage von p-Werten und/oder Zugehörigkeitsmessungen erstellt werden, die durch den einen oder mehrere Tester auf bedingte Unabhängigkeit ermöglicht werden. Darüber hinaus kann sich die Strukturkomponente 202 auf das Kausaldiagramm beziehen, um Zeitreihen-Datenvariablen zu identifizieren, die eine hohe Zugehörigkeit zu einer Ziel-Zeitreihen-Datenvariable aufweisen (z.B. einen über die eine oder mehreren Eingabeeinheiten 106 festgelegten Schwellenwert überschreiten), und die identifizierten Zeitreihen-Datenvariablen in einen übergeordneten Satz von Kandidaten aufnehmen. Zeitreihen-Datenvariablen können wiederholt zum übergeordneten Satz von Kandidaten hinzugefügt werden, bis keine weiteren Zugehörigkeiten mehr vorhanden sind. Zum Beispiel können bei dem einen oder mehreren Testern auf bedingte Unabhängigkeit eine polynomiale Anzahl von Tests durchgeführt werden, um eine Variable mit maximaler Zugehörigkeit zur Zielvariablen zu finden. Während einer zweiten Phase des Kausalerkennungs-Algorithmus kann die Strukturkomponente 202 den übergeordneten Kandidatensatz bereinigen, um eine oder mehrere irrelevante Variablen zu entfernen (z.B. durch Entfernen falscher Kanten, die dem Kausaldiagramm während der ersten Phase hinzugefügt wurden). Darüber hinaus kann die Strukturkomponente 202 eine oder mehrere Kontrollmechanismen der Falscherkennungsrate in den Kausalerkennungs-Algorithmus einbeziehen.
  • 3 zeigt eine Darstellung eines beispielhaften, nicht einschränkenden MMPC-p-Reduced-Algorithmus 300 (MMPC-p-Reduziert), der als Beispiel für den einen oder mehrere Kausalerkennungs-Algorithmen dienen kann, die von der Strukturkomponente 202 gemäß einer oder mehreren hier beschriebenen Ausführungsformen ausgeführt werden können. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Wie in 3 dargestellt, kann es sich bei dem MMPC-p-Reduced-Algorithmus 300 um einen Greedy-Bergsteiger-Algorithmus auf der Grundlage eines Bayes'schen Netzes mit Testern auf bedingte Unabhängigkeit handeln, um das Kausaldiagramm über einen Satz von Variablen aus den Zeitreihendaten zu identifizieren.
  • Wie in 3 dargestellt, kann der MMPC-p-Reduced-Algorithmus 300 mit der Analyse der übergeordneten Kandidaten (candidate parents, CP) einer Zeitreihen-Datenvariablen j beginnen, die mit ∅ initialisiert wurde. Ferner kann der MMPC-p-Reduced-Algorithmus 300 auf der Grundlage von einem K-Wert einen Bedingungen setzenden Satz der übergeordneten Kandidaten bilden, wobei der Bedingungen setzende Satz den übergeordneten Kandidaten minus dem K-Wert entsprechen kann. In verschiedenen Ausführungsformen kann der K-Wert über die eine oder mehrere Eingabeeinheiten 106 gesetzt werden und/oder der K-Wert kann größer oder gleich Null sein. Wenn es zum Beispiel 5 übergeordnete Kandidaten gibt und K den Wert 1 hat, kann der Bedingungen setzende Satz 4 Kandidaten entsprechen. Darüber hinaus kann es sich bei der Anzahl der Tests auf bedingte Unabhängigkeit, die in der ersten Phase des MMPC-p-Reduced-Algorithmus 300 durchgeführt werden, um eine Polynomialzahl des K-Werts handeln. Zum Beispiel kann die Anzahl n der Tests auf bedingte Unabhängigkeit, die während der ersten Phase des MMPC-p-Reduced-Algorithmus 300 durchgeführt werden, gleich nK+1 sein. Durch eine Variation des K-Wertes kann die Größe des Bedingungen setzenden Satzes mit der Anzahl der durchgeführten Tests auf bedingte Unabhängigkeit abgeglichen werden. Zum Beispiel kann ein kleiner K-Wert zu einem größeren Bedingungen setzenden Satz führen, während ein großer K-Wert dazu führen kann, dass mehr Tests auf bedingte Unabhängigkeit durchgeführt werden.
  • Unter den Kandidaten des Bedingungen setzenden Satzes kann der MMPC-p-Reduced-Algorithmus 300 dann die minimale Zugehörigkeit zwischen den beiden gegebenen Zeitreihen-Datenvariablen i und j finden (z.B. durch den einen oder mehrere Tester auf bedingte Unabhängigkeit und/oder die durch Gleichung 1 definierten Zugehörigkeitsmessungen). Anschließend analysiert der MMPC-p-Reduced-Algorithmus 300 die übergeordneten Kandidaten der Zeitreihen-Datenvariablen i, die nicht bereits im übergeordneten Kandidatensatz der Zeitreihen-Datenvariablen j enthalten sind, so dass das Zugehörigkeitsmaß maximiert wird (z.B. bedingt durch den aktuellen übergeordneten Kandidatensatz von j). Befindet sich ein übergeordneter Kandidat von i bereits im übergeordneten Kandidatensatz von j, ist das Zugehörigkeitsmaß gleich Null und entspricht damit nicht der maximalen Zugehörigkeit. Wenn ein übergeordneter Kandidat von i ein maximales Zugehörigkeitsmaß aufweist (z.B. einen Wert größer als Null), wird der übergeordnete Kandidat von i zum übergeordneten Kandidatensatz von j hinzugefügt. Dadurch können übergeordnete Kandidaten außerhalb des ursprünglichen übergeordneten Kandidatensatzes von j analysiert werden, um Zugehörigkeiten zu identifizieren, mit denen sie in den übergeordneten Kandidatensatz von j aufgenommen werden könnten (z.B. gekennzeichnet durch ein Zugehörigkeitsmaß größer als 0).
  • Sobald der übergeordnete Kandidatensatz von j durch die erste Phase des MMPC-p-Reduced-Algorithmus 300 festgelegt ist (z.B. wie oben beschrieben und in den Zeilen 1-7 von 3 dargestellt), kann die zweite Phase des MMPC-p-Reduced-Algorithmus 300 den übergeordneten Kandidatensatz bereinigen (z.B. wie in den Zeilen 8-20 von 3 dargestellt). Für jedes Mitglied Y im übergeordneten Kandidatensatz kann der MMPC-p-Reduced-Algorithmus 300 die Zugehörigkeit (z.B. durch den einen oder mehrere Tester auf bedingte Unabhängigkeit und/oder die durch Gleichung 1 gekennzeichnete Zugehörigkeitsmessung) zwischen Y und j bedingt durch die restlichen Mitglieder des übergeordneten Kandidatensatzes ermitteln, um das Mitglied mit der geringsten Zugehörigkeit zu identifizieren. Wenn die minimale Zugehörigkeit gleich Null ist, kann das betreffende Mitglied aus dem übergeordneten Kandidatensatz entfernt werden. Wenn die minimale Zugehörigkeit größer als Null ist, kann das betreffende Mitglied beibehalten werden. Auf diese Weise kann der MMPC-p-Reduced-Algorithmus 300 die Zusammensetzung des übergeordneten Kandidatensatzes bereinigen.
  • In einer oder mehreren Ausführungsformen kann die zweite Phase des MMPC-p-Reduced-Algorithmus 300 auch ermitteln, bei welchem p-Wert ein bestimmter übergeordneter Kandidat zum übergeordneten Kandidatensatz hinzugefügt wurde, dargestellt durch „P“ in den Zeilen 1, 19, 21 und/oder 22 von 3. Zum Beispiel kann das
    Figure DE112020005257T5_0002
    dazu verwendet werden, eine oder mehrere statistische Garantien in Bezug auf die Kanten des Kausaldiagramms zu ermitteln. Darüber hinaus kann die Strukturkomponente 202 in einer oder mehreren Ausführungsformen die Kausalbeziehungs-Struktur erzeugen (z.B. durch Ausführen eines Kausalerkennungs-Algorithmus, wie des MMPC-p-Reduced-Algorithmus 300) für jede der Zeitreihen-Datengruppen.
  • 4 zeigt eine Darstellung des beispielhaften, nicht einschränkenden Systems 100, das ferner eine Matrixkomponente 402 gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen aufweist. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. In verschiedenen Ausführungsformen kann die Matrixkomponente 402 eine Mehrzahl von Adjazenzmatrizen für jede der Zeitreihen-Datengruppen auf der Grundlage der einen oder mehreren von der Strukturkomponente 202 abgeleiteten Kausalbeziehungs-Strukturen erstellen.
  • Zum Beispiel kann die Matrixkomponente 402 eine Adjazenzmatrix für jedes der von der Strukturkomponente 202 erstellten Kausalbeziehungs-Diagramme erstellen. Die Adjazenzmatrizen können die übergeordneten Variablen jeder Zeitreihen-Datenvariablen in der jeweiligen Gruppe auf der Grundlage der Ermittlungen des Kausalerkennungs-Algorithmus (z.B. des MMPC-p-Reduced-Algorithmus 300) darstellen. So können die Adjazenzmatrizen zum Beispiel in einem booleschen Format aufgebaut sein (z.B. kann jede Zeile die verschiedenen Variablen innerhalb der Gruppe indizieren; jede Spalte kann die möglichen übergeordneten Kandidaten indizieren; übergeordnete Kandidaten können, wie durch den Kausalerkennungs-Algorithmus ermittelt, einem Wert von 1 innerhalb der Matrix entsprechen; und nicht übergeordnete Kandidaten können, wie durch den Kausalerkennungs-Algorithmus ermittelt, einem Wert von 0 innerhalb der Matrix entsprechen).
  • 5 zeigt eine Darstellung des beispielhaften, nicht einschränkenden Systems 100, das ferner eine Clusterkomponente 502 gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen aufweist. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. In verschiedenen Ausführungsformen kann die Clusterkomponente 502 maschinelles Lernen einsetzen, um eine oder mehrere K-Means-Clustering-Techniken durchzuführen, um die Mehrzahl von Adjazenzmatrizen in verschiedene Clustergruppen zu clustern.
  • Zum Beispiel kann eine erste Clustergruppe Adjazenzmatrizen aufweisen, die einen standardmäßigen Betrieb des mechanischen Systems kennzeichnen. So kann die erste Clustergruppe zum Beispiel Adjazenzmatrizen aufweisen, die die Granger-Kausalbeziehung zwischen Zeitreihendaten während eines Zeitintervalls aufweisen, in dem bei dem mechanischen System keine Fehlfunktion aufgetreten ist (z.B. arbeiten alle Teile, die von den Sensoren der einen oder mehreren Eingabeeinheiten 106 überwacht werden, in einer standardmäßigen Weise, z.B. innerhalb erwarteter Toleranzen). Ein zweiter Cluster kann Adjazenzmatrizen aufweisen, die einen nicht standardmäßigen Betrieb des mechanischen Systems kennzeichnen. So kann die zweite Clustergruppe zum Beispiel Adjazenzmatrizen aufweisen, die die Granger-Kausalbeziehungen zwischen Zeitreihendaten während eines Zeitintervalls aufweisen, in dem bei dem mechanischen System eine Fehlfunktion aufgetreten ist (z.B. arbeiten eines oder mehrere der Teile, die von den Sensoren der einen oder mehreren Eingabeeinheiten 106 überwacht werden, in einer nicht standardmäßigen Weise, zum Beispiel außerhalb erwarteter Toleranzen).
  • In einer oder mehreren Ausführungsformen kann die Datentopologie der Adjazenzmatrizen in Bezug auf Zeitreihendaten variieren, die den Betrieb eines bestimmten Teils des mechanischen Systems beschreiben, abhängig davon, ob bei dem betreffenden Teil eine Fehlfunktion aufgetreten ist. Dabei kann die Clusterkomponente 502 die Adjazenzmatrizen auf der Grundlage der datentopologischen Abweichungen in separate Clustergruppen clustern: Adjazenzmatrizen, die einem standardmäßigen Betrieb des mechanischen Systems zugehörig sind, in die erste Clustergruppe, und Adjazenzmatrizen, die einem nicht standardmäßigen Betrieb (z.B. Fehlfunktionen) des mechanischen Systems zugehörig sind, in die zweite Clustergruppe.
  • 6 zeigt eine Darstellung des beispielhaften, nicht einschränkenden Systems 100, das ferner eine Beginnkomponente 602 gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen aufweist. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. In verschiedenen Ausführungsformen kann die Beginnkomponente 602 die geclusterten Adjazenzmatrizen analysieren, um den Beginn einer Fehlerursache eines Ausfalls des mechanischen Systems zu identifizieren.
  • Zum Beispiel kann die Beginnkomponente 602 eine oder mehrere Adjazenzmatrizen identifizieren, die innerhalb der zeitlichen Sequenz der Zeitreihendaten an eine oder mehrere andere Adjazenzmatrizen einer anderen Clustergruppe angrenzen. Zum Beispiel kann ein Übergang zwischen Clustergruppen über Adjazenzmatrizen hinweg, die in der zeitlichen Sequenz angeordnet sind, einen Übergang zwischen standardmäßigem Betrieb und nicht standardmäßigem Betrieb des mechanischen Systems bedeuten, was ein Indikator für eine Fehlfunktion sein kann, die bei einem oder mehreren der durch die Zeitreihendaten gekennzeichneten Teile aufgetreten ist. Die Beginnkomponente 602 kann zum Beispiel die geclusterten Adjazenzmatrizen auf der Grundlage des Zeitintervalls, das der durch die gegebene Adjazenzmatrix gekennzeichneten Zeitreihen-Datengruppe zugehörig ist, in die zeitliche Sequenz der Zeitreihendaten einordnen. Die Beginnkomponente 602 kann den Beginn einer Fehlerursache ermitteln, indem sie Instanzen entlang der zeitlichen Sequenz identifiziert, bei denen eine Adjazenzmatrix der ersten Clustergruppe neben einer Adjazenzmatrix der zweiten Clustergruppe angeordnet ist. Auf diese Weise kann die Beginnkomponente 602 auf der Grundlage einer Datentopologieabweichung in den Granger-Kausalbeziehungen der Zeitreihendaten ermitteln, wann eine Fehlerursache aufgetreten ist, und/oder den Beginn einer Fehlerursache ermitteln, wie durch den Übergang von Adjazenzmatrizen einer ersten Clustergruppe zu Adjazenzmatrizen einer zweiten Clustergruppe entlang der zeitlichen Sequenz dargestellt.
  • 7 zeigt eine Darstellung des beispielhaften, nicht einschränkenden Systems 100, das ferner eine Ursachenkomponente 702 gemäß einer oder mehrerer der hier beschriebenen Ausführungsformen aufweist. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. In verschiedenen Ausführungsformen kann die Ursachenkomponente 702 die identifizierten Adjazenzmatrizen des Clustergruppen-Übergangs (z.B. wie von der Beginnkomponente 602 identifiziert) analysieren, um eine oder mehrere Zeitreihen-Datenvariablen zu identifizieren, die den größten Abweichungen zwischen den identifizierten Adjazenzmatrizen entsprechen. In einer oder mehreren Ausführungsformen können die Variablen, die der größten Abweichung zwischen den identifizierten Adjazenzmatrizen zugehörig sind, ein Indikator für die Fehlerursache für den Ausfall des mechanischen Systems oder die Fehlerursache für den möglichen Ausfall des mechanischen Systems sein.
  • Zum Beispiel kann die Ursachenkomponente 702 den Hamming-Abstand zwischen den Zeitreihen-Datenvariablen der von der Beginnkomponente 602 identifizierten Adjazenzmatrizen ermitteln (z.B. die Adjazenzmatrizen, die einen Clustergruppen-Übergang definieren). Die Ursachenkomponente 702 kann zum Beispiel den Hamming-Abstand zwischen Variablen ermitteln, die in einer ersten Adjazenzmatrix und einer zweiten Adjazenzmatrix enthalten sind, wobei die erste Adjazenzmatrix einer ersten Clustergruppe zugehörig sein kann und neben der zweiten Adjazenzmatrix angeordnet sein kann, die einer zweiten Clustergruppe zugehörig sein kann. Auf der Grundlage der Hamming-Abstände kann die Ursachenkomponente 702 eine festgelegte Anzahl von Variablen (z.B. fünf Variablen) identifizieren, die der größten Abweichung zwischen den beiden Adjazenzmatrizen zugehörig sind. In einer oder mehreren Ausführungsformen kann die festgelegte Anzahl von Variablen über die eine oder mehrere Eingabeeinheiten 106 gesetzt werden. Bei dem einen oder den mehreren Teilen des mechanischen Systems, die durch die identifizierten Variablen gekennzeichnet sind, kann es sich um die Fehlerursache eines vergangenen Ausfalls oder um die Fehlerursache eines möglichen Ausfalls handeln. Darüber hinaus kann es sich bei dem Zeitpunkt, zu dem die Adjazenzmatrizen von einer Clustergruppe in eine andere übergehen, um den Zeitpunkt handeln, zu dem bei den identifizierten Teilen (z.B. wie durch die identifizierten Variablen beschrieben) eine Fehlfunktion aufgetreten ist (z.B. kann es sich um den Zeitpunkt handeln, zu dem der Beginn der Fehlerursache erfolgte).
  • 8 zeigt eine Darstellung von beispielhaften, nicht einschränkenden Diagrammen 800 und 802, die die Wirksamkeit des MMPC-p-Reduced-Algorithmus 300 unter Verwendung verschiedener Tester auf bedingte Unabhängigkeiten gemäß einer oder mehreren hier beschriebenen Ausführungsformen veranschaulichen können. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Die Diagramme 800 und 802 können ein Ausführen des Kausalerkennungs-Algorithmus für einen synthetischen Datensatz mit 10 Zeitreihenvariablen betrachten, die von einem Kuramoto-Oszillator erzeugt wurden.
  • Wie in Diagramm 800 dargestellt, kann die Linie 804 einem herkömmlichen Kausalerkennungs-Algorithmus entsprechen, der eine exponentielle Anzahl von Tests auf bedingte Unabhängigkeit verwenden kann, um das Granger-Kausaldiagramm zu erstellen. Zum Beispiel kann die Linie 804 dem Ausführen eines MMPC-Algorithmus auf den Zeitreihendaten entsprechen, unter Verwendung eines CCIT-Testers auf bedingte Unabhängigkeit und einem α-Wert von 0,1. Die Linien 806 und 808 können ein Ausführen der hier beschriebenen Greedy-Bergsteiger-Kausalerkennungs-Algorithmen auf der Grundlage eines Bayes'schen Netzes betrachten, die eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit verwenden können, um das Granger-Kausaldiagramm zu erstellen. Zum Beispiel kann die Linie 806 dem Ausführen eines MMPC-p-Reduced-Algorithmus 300 entsprechen, unter Verwendung des CCIT-Testers auf bedingte Unabhängigkeit und einem α-Wert von 0,1. Des Weiteren kann die Linie 808 dem Ausführen eines MMPC-p-Reduced-Algorithmus 300 entsprechen, unter Verwendung eines ParCorr-Testers auf bedingte Unabhängigkeit und einem α-Wert von 0,1. Wie in den Diagrammen 800 und/oder 802 dargestellt, kann ein Ausführen der hier beschriebenen Greedy-Bergsteiger-Kausalerkennungs-Algorithmen auf der Grundlage eines Bayes'schen Netzes (z.B. MMPC-p-Reduced-Algorithmus 300) verbesserte Falsch-Positiv-Raten und/oder Falsch-Negativ-Raten im Vergleich zu herkömmlichen Techniken erzielen.
  • 9A, 9B und/oder 9C zeigen beispielhafte, nicht einschränkende Diagramme 900, 902 und/oder 904, die die Wirksamkeit der Fehler-Ursachen-Analyse veranschaulichen können, die von der Wartungskomponente 108 gemäß den verschiedenen hier beschriebenen Ausführungsformen durchgeführt werden kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Die Diagramme 900, 902 und/oder 904 können Zeitreihendaten betrachten, die Sensormesswerte von einer Dampfturbine aufweisen. Der einzigartige Betrieb der Dampfturbine kann zu einer oder mehreren Eigenschaften der Zeitreihendaten führen, die eine kausale Erkennung erschweren können. Zum Beispiel können die Zeitreihendaten veränderliche Eigenschaften in Abhängigkeit vom Zeitverlauf aufweisen. So ist die Dampfturbine zum Beispiel in den meisten Nächten nicht in Betrieb. Außerdem kann die Dampfturbine tagsüber verschiedene Betriebsarten haben, die die Beziehungen zwischen den Variablen verändern können. In einem anderen Beispiel können die Zeitreihendaten verzögerte Abhängigkeiten und äußerst häufige Änderungen kennzeichnen. Das Verhalten der Variablen kann sich schnell ändern, aber die Auswirkung einer Variablenänderung auf andere Variablen kann mit Verzögerung eintreten. So können sich zum Beispiel die Schwingungen eines Rotors innerhalb von Sekunden ändern, aber die Auswirkungen auf die Leistungsabgabe der Dampfturbine können erst nach Minuten zu beobachten sein.
  • Um die Probleme der Kausalerkennung zu lösen, kann die Wartungskomponente 108 bei der Ableitung der in den Diagrammen 900, 902 und/oder 904 vorliegenden Analyse die folgenden Heuristiken anwenden. Zunächst kann die Strukturkomponente 202 den Kausalerkennungs-Algorithmus (z.B. den MMPC-p-Reduced-Algorithmus 300) auf fünf Bootstraps des Zeitreihen-Datensatzes ausführen und ein gewichtetes Kausaldiagramm erstellen. Das Gewicht auf einer Kante des Kausaldiagramms kann die Anzahl der Bootstraps bezeichnen, in denen sie entdeckt wurde. Zweitens kann die Strukturkomponente 202 Teilstichproben der Zeitreihendaten in Intervallen von zwei Minuten entnehmen, so dass der Kausalerkennungs-Algorithmus (z. B. der MMPC-p-Reduced-Algorithmus 300) trotz der oben beschriebenen Verzögerung Beziehungen erkennen kann.
  • Diagramm 900 zeigt die Granger-Kausalbeziehungen der entlang der zeitlichen Sequenz aufgezeichneten Zeitreihendaten in Bezug auf die Schubschwingung (z.B. gemessen von einem oder mehreren Sensoren der Eingabeeinheiten 106) von sieben Lagern innerhalb der Dampfturbine. Wie in 9A dargestellt, kann die Partitionskomponente 112 die Zeitreihendaten in eine Mehrzahl von Gruppen einordnen (z.B. die in 9A dargestellten Gruppen 0-7). Das Diagramm 902 zeigt einen vergrößerten Ausschnitt des Diagramms 900 vom 15. September bis 29. September. Wie in 9B dargestellt, kann die Clusterkomponente 502 die Adjazenzmatrizen der Mehrzahl der Gruppen in zwei Clustergruppen clustern (z.B. Clustergruppe 1 und Clustergruppe 2, dargestellt in 9B). Zum Beispiel können die Zeitreihen-Datengruppen 0, 1 und 2 eine ähnliche Datentopologie aufweisen und in die Clustergruppe 1 geclustert werden, während die Zeitreihen-Datengruppe 3 eine andere Datentopologie aufweisen kann als die Zeitreihen-Datengruppen 0, 1 und 2 und in die Clustergruppe 2 geclustert werden kann. Dadurch kann die Beginnkomponente 602 einen Clustergruppen-Übergang zwischen den Adjazenzmatrizen identifizieren, die den Zeitreihen-Datengruppen 2 und 3 zugehörig sind, um den Beginn einer Fehlerursache zu ermitteln.
  • Außerdem kann die Ursachenkomponente 702 die Hamming-Abstände zwischen den Variablen der Adjazenzmatrix, die der Zeitreihen-Datengruppe 2 zugehörig ist, und der Adjazenzmatrix, die der Zeitreihen-Datengruppe 3 zugehörig ist, ermitteln. Wie in 9B dargestellt, können die Variablen, die den Lagern 1, 4, 6 und 2 zugehörig sind, als diejenigen mit den größten Hamming-Abständen identifiziert werden (z.B. durch die Ursachenkomponente 702). Das Diagramm 904 zeigt einen vergrößerten Ausschnitt des Diagramms 900 vom 7. Oktober bis 19. Oktober. Wie in 9C dargestellt, können die Lager 1, 4, 6 und 2 eine beginnende kausale Wirkung auf Variablen ausüben, die sie zuvor nicht ausgelöst haben, aufgrund des zwischen den Zeitreihengruppen 2 und 3 identifizierten Beginns (z.B. des Beginns am 22. September). Außerdem zeigt sich, dass die kausale Wirkung das funktionsmäßige Verhalten in der Zeitreihen-Datengruppe 5 visuell verändert. Auf diese Weise kann die Wartungskomponente 108 den Beginn einer Fehlerursache ermitteln, die in der Zeitreihen-Datengruppe 2 aufgetreten ist und sich in der Zeitreihen-Datengruppe 5 als erhebliche Betriebsbeeinträchtigung gezeigt hat, und sie kann feststellen, dass die für die Fehlerursache verantwortlichen Variablen wahrscheinlich dem Betrieb der Lager 1, 4, 6 und 2 zugehörig sind.
  • 10 zeigt ein beispielhaftes, nicht einschränkendes Diagramm 1000, das die Wirksamkeit der Fehler-Ursachen-Analyse weiter veranschaulichen kann, die von der Wartungskomponente 108 gemäß den verschiedenen hier beschriebenen Ausführungsformen durchgeführt werden kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Das Diagramm 1000 kann die in 9A, 9B und/oder 9C analysierten Zeitreihendaten der Dampfturbine näher betrachten. Bei der Dampfturbine kam es am 6. Juli zu einem zweiten Systemausfall, und das Diagramm 1000 kann den Beginn der Fehlerursache darstellen, wie sie von der Wartungskomponente 108 gemäß den verschiedenen hier beschriebenen Ausführungsformen ermittelt wurde. Wie in Diagramm 1000 dargestellt, können die der Zeitreihen-Datengruppe 7 zugehörige Adjazenzmatrix und die der Zeitreihen-Datengruppe 8 zugehörige Adjazenzmatrix in verschiedene Clustergruppen geclustert werden, wodurch der Beginn einer Fehlerursache angezeigt wird. Wie ebenfalls in Diagramm 1000 dargestellt, nehmen einige der den Druck- und/oder Steuerwerten zugehörigen Messwerte im Laufe der Zeit ab, wobei eine Fehlfunktion bei einem oder mehreren Druck- und/oder Steuerwerten am Clustergruppen-Übergang dem Beginn der Fehlerursache entsprechen kann.
  • 11 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens 1100, das eine oder mehrere Fehler-Ursachen-Analysen auf der Grundlage von Zeitreihendaten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermöglichen kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt.
  • Bei 1102 kann das auf einem Computer implementierte Verfahren 1100 ein Empfangen (z.B. über die Datenübertragungskomponente 110 und/oder Eingabeeinheiten 106) von Zeitreihendaten bezüglich eines mechanischen Systems durch ein System 100 aufweisen, das funktionsmäßig mit einem Prozessor 120 verbunden ist. Zum Beispiel können die Zeitreihendaten den Betriebszustand von einem oder mehreren Teilen betreffen, die in dem mechanischen System enthalten sind. In verschiedenen Ausführungsformen können die Zeitreihendaten von einem oder mehreren Sensoren und/oder Detektoren, die den Betrieb des mechanischen Systems überwachen, erfasst, ermittelt und/oder gemessen werden. In einer oder mehreren Ausführungsformen können die Zeitreihendaten auch über ein oder mehrere Netzwerke 104 empfangen werden (z.B. unter Verwendung einer oder mehrerer Cloud-Computing-Umgebungen).
  • Bei 1104 kann das auf einem Computer implementierte Verfahren 1100 ein Erkennen (z.B. über die Wartungskomponente 108) einer Ursache eines Ausfalls in dem mechanischen System durch das System 100 aufweisen, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus den Zeitreihendaten zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Zum Beispiel kann das Erkennen bei 1104 ein Identifizieren (z.B. über die Beginnkomponente 602) eines Clustergruppen-Übergangs zwischen Adjazenzmatrizen aufweisen, die die Granger-Kausalitätsbeziehungen kennzeichnen, gemäß den verschiedenen hier beschriebenen Ausführungsformen. Ferner kann das Erkennen bei 1104 ein Ermitteln (z.B. über die Ursachenkomponente 702) des Hamming-Abstands zwischen Variablen der Adjazenzmatrizen aufweisen, die den Clustergruppen-Übergang definieren, gemäß den verschiedenen hier beschriebenen Ausführungsformen. In einer oder mehreren Ausführungsformen können die Variablen mit dem größten Hamming-Abstand als der Fehlerursache des Ausfalls zugehörig identifiziert werden.
  • 12 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens 1200, das eine oder mehrere Fehler-Ursachen-Analysen auf der Grundlage von Zeitreihendaten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermöglichen kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt.
  • Bei 1202 kann das auf einem Computer implementierte Verfahren 1200 ein Empfangen (z.B. über die Datenübertragungskomponente 110 und/oder Eingabeeinheiten 106) von Zeitreihendaten bezüglich eines mechanischen Systems durch ein System 100 aufweisen, das funktionsmäßig mit einem Prozessor 120 verbunden ist. Zum Beispiel können die Zeitreihendaten den Betriebszustand von einem oder mehreren Teilen betreffen, die in dem mechanischen System enthalten sind. In verschiedenen Ausführungsformen können die Zeitreihendaten von einem oder mehreren Sensoren und/oder Detektoren, die den Betrieb des mechanischen Systems überwachen, erfasst, ermittelt und/oder gemessen werden. In einer oder mehreren Ausführungsformen können die Zeitreihendaten auch über ein oder mehrere Netzwerke 104 empfangen werden (z.B. unter Verwendung einer oder mehrerer Cloud-Computing-Umgebungen).
  • Bei 1204 kann das auf einem Computer implementierte Verfahren 1200 ein Erkennen (z.B. über die Wartungskomponente 108) eines Beginns eines Ausfalls in einem mechanischen System durch das System 100 aufweisen, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus den Zeitreihendaten zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist. Zum Beispiel kann das Erkennen bei 1204 ein Identifizieren (z.B. über die Beginnkomponente 602) eines Clustergruppen-Übergangs zwischen Adjazenzmatrizen aufweisen, die die Granger-Kausalitätsbeziehungen kennzeichnen, gemäß den verschiedenen hier beschriebenen Ausführungsformen. Der Clustergruppen-Übergang kann eine deutliche Veränderung in der Datentopologie der Granger-Kausalitätsbeziehungen definieren und/oder anzeigen, wann eine Fehlfunktion innerhalb des mechanischen Systems ursprünglich aufgetreten ist. In einer oder mehreren Ausführungsformen kann das auf einem Computer implementierte Verfahren 1200 den Beginn eines Ausfalls in Bezug auf einen eingetretenen Ausfall eines mechanischen Systems erkennen, um die Reparatur zu erleichtern. In einer oder mehreren Ausführungsformen kann das auf einem Computer implementierte Verfahren 1200 den Beginn eines Ausfalls in Bezug auf einen möglichen Systemausfall erkennen, um die vorbeugende Wartung zu erleichtern.
  • 13 zeigt einen Ablaufplan eines beispielhaften, nicht einschränkenden, auf einem Computer implementierten Verfahrens 1300, das eine oder mehrere Fehler-Ursachen-Analysen auf der Grundlage von Zeitreihendaten gemäß einer oder mehreren der hier beschriebenen Ausführungsformen ermöglichen kann. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt.
  • Bei 1302 kann das auf einem Computer implementierte Verfahren 1300 ein Empfangen (z.B. über die Datenübertragungskomponente 110 und/oder Eingabeeinheiten 106) von Zeitreihendaten bezüglich eines mechanischen Systems durch ein System 100 aufweisen, das funktionsmäßig mit einem Prozessor 120 verbunden ist. Zum Beispiel können die Zeitreihendaten den Betriebszustand von einem oder mehreren Teilen betreffen, die in dem mechanischen System enthalten sind. In verschiedenen Ausführungsformen können die Zeitreihendaten von einem oder mehreren Sensoren und/oder Detektoren, die den Betrieb des mechanischen Systems überwachen, erfasst, ermittelt und/oder gemessen werden. In einer oder mehreren Ausführungsformen können die Zeitreihendaten auch über ein oder mehrere Netzwerke 104 empfangen werden (z.B. unter Verwendung einer oder mehrerer Cloud-Computing-Umgebungen).
  • Bei 1304 kann das auf einem Computer implementierte Verfahren 1300 ein Unterteilen (z.B. über die Partitionskomponente 112) der Zeitreihendaten durch das System 100 in Gruppen mit festgelegter Länge aufweisen. Zum Beispiel kann die festgelegte Länge auf einem definierten Zeitintervall beruhen, gemäß den verschiedenen hier beschriebenen Ausführungsformen. Bei 1306 kann das auf einem Computer implementierte Verfahren 1300 ein Ausführen (z.B. über die Strukturkomponente 202) eines oder mehrerer Kausalerkennungs-Algorithmen für jede Gruppe durch das System 100 aufweisen, um einen oder mehrere Granger-Kausaldiagramme zu erstellen, die die Granger-Kausalbeziehungen in den Zeitreihendaten kennzeichnen. Zum Beispiel handelt es sich bei dem einen oder den mehreren Kausalerkennungs-Algorithmen um Greedy-Bergsteiger-Algorithmen auf der Grundlage eines Bayes'schen Netzes mit Testern auf bedingte Unabhängigkeit, um das Granger-Kausaldiagramm über den Zeitreihendaten zu identifizieren, wie zum Beispiel der MMPC-p-Reduced-Algorithmus 300, gemäß verschiedenen hier beschriebenen Ausführungsformen.
  • Bei 1308 kann das auf einem Computer implementierte Verfahren 1300 ein Erstellen (z.B. über die Matrixkomponente 402) von einer oder mehreren Adjazenzmatrizen durch das System 100 auf der Grundlage der Granger-Kausaldiagramme aufweisen. Zum Beispiel können die eine oder mehreren Adjazenzmatrizen die übergeordneten Kandidaten umfassen, die in Bezug auf jede Variable der Zeitreihendaten indiziert sind, gemäß den verschiedenen hier beschriebenen Ausführungsformen. Bei 1310 kann das auf einem Computer implementierte Verfahren 1300 ein Clustern (z.B. über die Clusterkomponente 502) der einen oder mehreren Adjazenzmatrizen durch das System 100 in zwei Clustergruppen unter Verwendung von K-Means-Clustering aufweisen. Zum Beispiel kann eine erste Clustergruppe einem oder mehreren standardmäßigen Betriebszuständen des mechanischen Systems zugehörig sein, und/oder eine zweite Clustergruppe kann einem oder mehreren nicht standardmäßigen Betriebszuständen des mechanischen Systems zugehörig sein (z.B. Operationen, die eine oder mehrere Fehlfunktionen aufweisen), gemäß den verschiedenen hier beschriebenen Ausführungsformen.
  • Bei 1312 kann das auf einem Computer implementierte Verfahren 1300 ein Identifizieren (z.B. durch die Beginnkomponente 602) von Adjazenzmatrizen durch das System 100 aufweisen, die entlang der zeitlichen Sequenz nebeneinander angeordnet sind und zu verschiedenen Clustergruppen gehören. Zum Beispiel können die identifizierten Adjazenzmatrizen einen Clustergruppen-Übergang entlang der zeitlichen Sequenz definieren, gemäß den verschiedenen hier beschriebenen Ausführungsformen. Darüber hinaus kann der Clustergruppen-Übergang ein Indikator für den Beginn einer Fehlerursache und/oder einen möglichen Ausfall des mechanischen Systems sein. Bei 1314 kann das auf einem Computer implementierte Verfahren 1300 ein Ermitteln (z.B. über die Ursachenkomponente 702) des Hamming-Abstandes zwischen Variablen der identifizierten Adjazenzmatrizen durch das System 100 aufweisen. Zum Beispiel können Variablen mit dem größten Hamming-Abstand zwischen den Adjazenzmatrizen, die den Clustergruppen-Übergang definieren, der Fehlerursache des Ausfalls oder dem möglichen Ausfall des mechanischen Systems zugehörig sein.
  • Es sei von vornherein klargestellt, dass das Umsetzen der hierin angeführten Lehren nicht auf eine Cloud-Computing-Umgebung beschränkt ist, obwohl diese Offenbarung eine ausführliche Beschreibung von Cloud-Computing umfasst. Stattdessen können Ausführungsformen der vorliegenden Erfindung gemeinsam mit jeder beliebigen Art von jetzt bekannter oder später erfundener Datenverarbeitungsumgebung umgesetzt werden.
  • Cloud-Computing ist ein Servicebereitstellungsmodell zum Ermöglichen eines problemlosen bedarfsgesteuerten Netzwerkzugriffs auf einen gemeinsam genutzten Pool von konfigurierbaren Datenverarbeitungsressourcen (z.B. Netzwerke, Netzwerkbandbreite, Server, Verarbeitung, Hauptspeicher, Speicher, Anwendungen, virtuelle Maschinen und Dienste), die mit minimalem Verwaltungsaufwand bzw. minimaler Interaktion mit einem Anbieter des Service schnell bereitgestellt und freigegeben werden können. Dieses Cloud-Modell kann mindestens fünf Eigenschaften umfassen, mindestens drei Dienstmodelle und mindestens vier Implementierungsmodelle.
  • Bei den Eigenschaften handelt es sich um die folgenden:
    • On-Demand Self-Service: Ein Cloud-Nutzer kann einseitig automatisch nach Bedarf für Datenverarbeitungsfunktionen wie Serverzeit und Netzwerkspeicher sorgen, ohne dass eine menschliche Interaktion mit dem Anbieter der Dienste erforderlich ist.
    • Broad Network Access: Es sind Funktionen über ein Netzwerk verfügbar, auf die durch Standardmechanismen zugegriffen wird, welche die Verwendung durch heterogene Thin- oder Thick-Client-Plattformen (z.B. Mobiltelefone, Laptops und PDAs) unterstützen.
    • Resource-Pooling: Die Datenverarbeitungsressourcen des Anbieters werden zusammengeschlossen, um mehreren Nutzern unter Verwendung eines Multi-Tenant-Modells zu dienen, wobei verschiedene physische und virtuelle Ressourcen dynamisch nach Bedarf zugewiesen und neu zugewiesen werden. Es gibt eine gefühlte Standortunabhängigkeit, da der Nutzer allgemein keine Kontrolle bzw. Kenntnis über den genauen Standort der bereitgestellten Ressourcen hat, aber in der Lage sein kann, einen Standort auf einer höheren Abstraktionsebene festzulegen (z.B. Land, Staat oder Rechenzentrum).
    • Rapid Elasticity: Funktionen können für eine schnelle horizontale Skalierung (scale out) schnell und elastisch bereitgestellt werden, in einigen Fällen auch automatisch, und für ein schnelles Scale-in schnell freigegeben werden. Für den Nutzer erscheinen die für das Bereitstellen verfügbaren Funktionen häufig unbegrenzt und sie können jederzeit in jeder beliebigen Menge gekauft werden.
    • Measured Service: Cloud-Systeme steuern und optimieren die Verwendung von Ressourcen automatisch, indem sie eine Messfunktion auf einer gewissen Abstraktionsebene nutzen, die für die Art von Dienst geeignet ist (z.B. Speicher, Verarbeitung, Bandbreite sowie aktive Benutzerkonten). Die Nutzung von Ressourcen kann überwacht, gesteuert und gemeldet werden, wodurch sowohl für den Anbieter als auch für den Nutzer des verwendeten Dienstes Transparenz geschaffen wird.
  • Bei den Dienstmodellen handelt es sich um die folgenden:
    • Software as a Service (SaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, die in einer Cloud-Infrastruktur laufenden Anwendungen des Anbieters zu verwenden. Die Anwendungen sind über eine Thin-Client-Schnittstelle wie einen Web-Browser (z.B. auf dem Web beruhende E-Mail) von verschiedenen Client-Einheiten her zugänglich. Der Benutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter das Netzwerk, Server, Betriebssysteme, Speicher bzw. sogar einzelne Anwendungsfunktionen, mit der möglichen Ausnahme von eingeschränkten benutzerspezifischen Anwendungskonfigurationseinstellungen.
    • Platform as a Service (PaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, durch einen Nutzer erstellte bzw. erhaltene Anwendungen, die unter Verwendung von durch den Anbieter unterstützten Programmiersprachen und Tools erstellt wurden, in der Cloud-Infrastruktur einzusetzen. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter Netzwerke, Server, Betriebssysteme bzw. Speicher, hat aber die Kontrolle über die eingesetzten Anwendungen und möglicherweise über Konfigurationen der Application Hosting Environment.
    • Infrastructure as a Service (laaS): Die dem Nutzer bereitgestellte Funktion besteht darin, das Verarbeiten, Speicher, Netzwerke und andere grundlegende Datenverarbeitungsressourcen bereitzustellen, wobei der Nutzer in der Lage ist, beliebige Software einzusetzen und auszuführen, zu der Betriebssysteme und Anwendungen gehören können. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, hat aber die Kontrolle über Betriebssysteme, Speicher, eingesetzte Anwendungen und möglicherweise eine eingeschränkte Kontrolle über ausgewählte Netzwerkkomponenten (z.B. Host-Firewalls).
  • Bei den Einsatzmodellen handelt es sich um die folgenden:
    • Private Cloud: Die Cloud-Infrastruktur wird einzig und allein für eine Organisation betrieben. Sie kann durch die Organisation oder einen Dritten verwaltet werden und kann sich in den eigenen Räumen oder in fremden Räumen befinden.
    • Community Cloud: Die Cloud-Infrastruktur wird von mehreren Organisationen gemeinsam genutzt und unterstützt eine spezielle Benutzergemeinschaft, die gemeinsame Angelegenheiten hat (z.B. Mission, Sicherheitsanforderungen, Richtlinien sowie Überlegungen bezüglich der Einhaltung von Vorschriften). Sie kann durch die Organisationen oder einen Dritten verwaltet werden und kann in den eigenen Räumen oder fremden Räumen stehen.
    • Public Cloud: Die Cloud-Infrastruktur wird der allgemeinen Öffentlichkeit oder einer großen Industriegruppe zur Verfügung gestellt und sie gehört einer Cloud-Dienste verkaufenden Organisation.
    • Hybrid Cloud: Die Cloud-Infrastruktur ist eine Zusammensetzung aus zwei oder mehreren Clouds (privat, Benutzergemeinschaft oder öffentlich), die zwar einzelne Einheiten bleiben, aber durch eine standardisierte oder proprietäre Technologie miteinander verbunden sind, die Daten- und Anwendungsportierbarkeit ermöglicht (z.B. Cloud-Zielgruppenverteilung für den Lastenausgleich zwischen Clouds)
  • Eine Cloud-Computing-Umgebung ist dienstorientiert mit Fokus auf Statusunabhängigkeit, geringer Kopplung, Modularität und semantischer Interoperabilität. Im Herzen von Cloud-Computing liegt eine Infrastruktur, die ein Netzwerk aus zusammengeschalteten Knoten aufweist.
  • Unter Bezugnahme auf 14 ist die veranschaulichende Cloud-Computing-Umgebung 1400 abgebildet. Wie gezeigt ist, weist die Cloud-Computing-Umgebung 1400 einen oder mehrere Cloud-Computing-Knoten 1402 auf, mit denen von Cloud-Nutzern verwendete lokale Datenverarbeitungseinheiten wie der elektronische Assistent (PDA, personal digital assistant) oder das Mobiltelefon 1404, der Desktop-Computer 1406, der Laptop-Computer 1408 und/oder das Automobil-Computer-System 1410 Daten austauschen können. Die Knoten 1402 können miteinander Daten austauschen. Sie können physisch oder virtuell in ein oder mehrere Netzwerke wie Private, Community, Public oder Hybrid Clouds gruppiert werden (nicht dargestellt), wie vorstehend beschrieben wurde, oder in eine Kombination daraus. Dies ermöglicht es der Cloud-Computing-Umgebung 1400, Infrastruktur, Plattformen und/oder Software als Dienst anzubieten, für die ein Cloud-Nutzer keine Ressourcen auf einer lokalen Datenverarbeitungseinheit vorhalten muss. Es sei darauf hingewiesen, dass die Arten von in 14 gezeigten Datenverarbeitungseinheiten 1404 bis 1410 lediglich veranschaulichend sein sollen und dass die Datenverarbeitungsknoten 1402 und die Cloud-Computing-Umgebung 1400 über eine beliebige Art Netzwerk und/oder über eine beliebige Art von über ein Netzwerk aufrufbarer Verbindung (z.B. unter Verwendung eines Web-Browsers) mit einer beliebigen Art von computergestützter Einheit Daten austauschen können.
  • Unter Bezugnahme auf 15, wird ein Satz von funktionalen Abstraktionsschichten gezeigt, die durch die Cloud-Computing-Umgebung 1400 (14) bereitgestellt werden. Eine Beschreibung der gleichen Elemente, die in anderen hier beschriebenen Ausführungsformen verwendet werden, wird der Kürze halber nicht wiederholt. Es sollte von vornherein klar sein, dass die in 15 gezeigten Komponenten, Schichten und Funktionen lediglich veranschaulichend sein sollen und Ausführungsformen der Erfindung nicht darauf beschränkt sind. Wie abgebildet ist, werden die folgenden Schichten und entsprechenden Funktionen bereitgestellt.
  • Eine Hardware- und Software-Schicht 1502 umfasst Hardware- und Software-Komponenten. Zu Beispielen für Hardware-Komponenten gehören: Mainframe-Computer 1504; auf der RISC- (Reduced Instruction Set Computer) Architektur beruhende Server 1506; Server 1508; Blade-Server 1510; Speichereinheiten 1512; und Netzwerke sowie Netzwerkkomponenten 1514. In einigen Ausführungsformen umfassen Software-Komponenten eine Netzwerk-Anwendungsserver-Software 1516 und eine Datenbank-Software 1518.
  • Die Virtualisierungsschicht 1520 stellt eine Abstraktionsschicht bereit, aus der die folgenden Beispiele für virtuelle Einheiten bereitgestellt werden können: virtuelle Server 1522; virtueller Speicher 1524; virtuelle Netzwerke 1526, darunter virtuelle private Netzwerke, virtuelle Anwendungen und Betriebssysteme 1528; und virtuelle Clients 1530.
  • In einem Beispiel kann die Verwaltungsschicht 1532 die nachfolgend beschriebenen Funktionen bereitstellen. Eine Ressourcen-Bereitstellung 1534 stellt die dynamische Beschaffung von Datenverarbeitungsressourcen sowie anderen Ressourcen bereit, die zum Durchführen von Aufgaben innerhalb der Cloud-Computing-Umgebung verwendet werden. Ein Messen und eine Preisfindung 1536 stellen die Kostenverfolgung beim Verwenden von Ressourcen innerhalb der Cloud-Computing-Umgebung sowie die Abrechnung oder Rechnungsstellung für die Inanspruchnahme dieser Ressourcen bereit. In einem Beispiel können diese Ressourcen Anwendungs-Software-Lizenzen aufweisen. Die Sicherheit stellt die Identitätsüberprüfung für Cloud-Nutzer und Aufgaben sowie Schutz für Daten und andere Ressourcen bereit. Ein Benutzerportal 1538 stellt Nutzern und Systemadministratoren den Zugang zu der Cloud-Computing-Umgebung bereit. Eine Verwaltung des Dienstumfangs 1540 stellt die Zuordnung und Verwaltung von Cloud-Computing-Ressourcen bereit, so dass die benötigten Dienstziele erreicht werden. Ein Planen und Erfüllen von Vereinbarungen zum Dienstumfang (SLA, Service Level Agreement) 1542 stellt die Anordnung vorab und die Beschaffung von Cloud-Computing-Ressourcen, für die eine zukünftige Anforderung vorausgesehen wird, gemäß einem SLA bereit.
  • Eine Arbeitslastschicht 1544 stellt Beispiele für die Funktionalität bereit, für welche die Cloud-Computing-Umgebung verwendet werden kann. Zu Beispielen für Arbeitslasten und Funktionen, die von dieser Schicht bereitgestellt werden können, gehören: Abbildung und Navigation 1546; Software-Entwicklung und Lebenszyklusverwaltung 1548; Bereitstellung von Ausbildung in virtuellen Klassenzimmern 1550; Datenanalytikverarbeitung 1552; Transaktionsverarbeitung 1554; und Fehler-Ursachen-Analyse 1556. Verschiedene Ausführungsformen der vorliegenden Erfindung können die unter Bezugnahme auf 14 und 15 beschriebene Cloud-Computing-Umgebung nutzen, um Zeitreihendaten in Bezug auf ein oder mehrere mechanische Systeme zu erfassen und/oder eine oder mehrere Fehler-Ursachen-Analysen auf der Grundlage der Zeitreihendaten durchzuführen.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt auf jeder möglichen technischen Detailstufe der Integration handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) umfassen, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert ist/sind, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen. Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch codierte Einheit wie zum Beispiel Lochkarten oder erhabene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. ein Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten, Konfigurationsdaten für integrierte Schaltungen oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernt angeordneten Computer oder vollständig auf dem entfernt angeordneten Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Flussdiagramm-Darstellungen und/oder der Blockschaubilder sowie Kombinationen von Blöcken in den Flussdiagramm-Darstellungen und/oder den Blockschaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaubilder angegebenen Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken des Flussdiagramms und/oder des Blockschaubilds festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) aufweisen. In einigen alternativen Ausführungen können die in den Blöcken angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Um einen zusätzlichen Zusammenhang für verschiedene hier beschriebene Ausführungsformen bereitzustellen, sollen 16 und die folgende Erläuterung eine allgemeine Beschreibung einer geeigneten Computerumgebung 1600 bereitstellen, in der die verschiedenen Ausführungsformen der hier beschriebenen Ausführungsform implementiert werden können. Die Ausführungsformen wurden zwar vorstehend im allgemeinen Zusammenhang mit durch einen Computer ausführbaren Anweisungen beschrieben, die auf einem oder mehreren Computern ausgeführt werden können, aber der Fachmann wird erkennen, dass die Ausführungsformen auch in Kombination mit anderen Programmmodulen und/oder als Kombination von Hardware und Software implementiert werden können.
  • Im Allgemeinen umfassen Programmmodule Routinen, Programme, Komponenten, Datenstrukturen usw., die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren. Darüber hinaus wird der Fachmann verstehen, dass die erfindungsgemäßen Verfahren mit anderen Computersystem-Konfigurationen durchgeführt werden können, zum Beispiel Einprozessor- oder Multiprozessor-Computersysteme, Mini-Computer, Großrechner, Internet-der-Dinge-Einheiten (IdD; Internet of Things, loT), verteilte mechanische Systeme sowie Personal Computer, Handheld-Datenverarbeitungseinheiten, auf Mikroprozessoren beruhende oder programmierbare Unterhaltungselektronik und dergleichen, die jeweils funktionsmäßig mit einer oder mehreren zugehörigen Einheiten verbunden sein können.
  • Die veranschaulichten Ausführungsformen der vorliegenden Ausführungsformen können auch in verteilten Datenverarbeitungsumgebungen eingesetzt werden, in denen bestimmte Aufgaben von entfernt angeordneten Verarbeitungseinheiten durchgeführt werden, die über ein Verkehrsnetz miteinander verbunden sind. In einer verteilten Datenverarbeitungsumgebung können sich Programmmodule sowohl in lokalen als auch in entfernt angeordneten Hauptspeicher- und Speichereinheiten befinden. Zum Beispiel können in einer oder mehreren Ausführungsformen auf einem Computer ausführbare Komponenten von einem Speicher ausgeführt werden, der eine oder mehrere verteilte Speichereinheiten umfassen kann oder aus solchen bestehen kann. Wie hier verwendet, sind die Begriffe „Speicher“ und „Speichereinheit“ austauschbar. Darüber hinaus können eine oder mehrere hier beschriebene Ausführungsformen Code der auf einem Computer ausführbaren Komponenten auf verteilte Weise ausführen, zum Beispiel, indem mehrere Prozessoren verknüpft werden oder zusammenarbeiten, um Code von einer oder mehreren verteilten Speichereinheiten auszuführen. Wie hierin verwendet, kann sich der Begriff „Speicher“ auf einen einzelnen Speicher oder eine Speichereinheit an einem Ort oder mehrere Speicher oder Speichereinheiten an einem oder mehreren Orten beziehen.
  • Datenverarbeitungseinheiten umfassen in der Regel eine Vielfalt von Medien, die durch einen Computer lesbare Speichermedien, maschinenlesbare Speichermedien und/oder Datenübertragungsmedien umfassen können, wobei diese beiden Begriffe hier wie folgt unterschiedlich verwendet werden. Bei durch einen Computer lesbaren Speichermedien oder maschinenlesbaren Speichermedien kann es sich um alle verfügbaren Speichermedien handeln, auf die der Computer zugreifen kann, und sie umfassen sowohl flüchtige als auch nichtflüchtige Medien, wechselbare und nicht wechselbare Medien. Durch einen Computer lesbare Speichermedien oder maschinenlesbare Speichermedien können zum Beispiel, aber nicht darauf beschränkt, in Verbindung mit einem beliebigen Verfahren oder einer beliebigen Technologie zum Speichern von Informationen wie zum Beispiel durch einen Computer lesbare oder maschinenlesbare Anweisungen, Programmmodule, strukturierte Daten oder unstrukturierte Daten implementiert werden.
  • Durch einen Computer lesbare Speichermedien können die folgenden umfassen, ohne auf diese beschränkt zu sein: Direktzugriffsspeicher (RAM), Nur-Lese-Speicher (ROM), elektronisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), Flash-Speicher oder andere Speichertechnologien, Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), DVD (digital versatile disc), Blu-ray Disc (BD) oder andere optische Plattenspeicher, Magnetkassetten, Magnetbänder, Magnetplattenspeicher oder andere magnetische Speichereinheiten, Halbleiterdatenträger oder andere Halbleiter-Speichereinheiten oder andere physische und/oder nichtflüchtige Medien, die zum Speichern von gewünschten Informationen verwendet werden können. In dieser Hinsicht sind die Begriffe „physisch“ oder „nichtflüchtig“, wie sie hier für Speicher, Hauptspeicher oder durch einen Computer lesbare Medien angewendet werden, so zu verstehen, dass durch sie lediglich sich fortpflanzende flüchtige Signale an sich als Modifikatoren ausgeschlossen werden, und dass dadurch nicht die Rechte an allen Arten von standardmäßigem Speicher, Hauptspeicher oder durch einen Computer lesbaren Medien aufgegeben werden, die nicht nur sich fortpflanzende flüchtige Signale an sich darstellen.
  • Auf durch einen Computer lesbare Speichermedien kann durch eine oder mehrere lokale oder entfernte Datenverarbeitungseinheiten zugegriffen werden, zum Beispiel über Zugriffsanfragen, Suchanfragen oder andere Datenabrufprotokolle, um eine Vielzahl von Operationen in Bezug auf die auf dem Medium gespeicherten Informationen durchzuführen.
  • Datenübertragungsmedien verkörpern in der Regel durch einen Computer lesbare Anweisungen, Datenstrukturen, Programmmodule oder andere strukturierte oder unstrukturierte Daten in einem Datensignal wie einem modulierten Datensignal, zum Beispiel einer Trägerwelle oder einem anderen Transportmechanismus, und umfassen alle Informationsübertragungs- oder Transportmedien. Der Begriff „moduliertes Datensignal“ oder Signale bezieht sich auf ein Signal, bei dem eines oder mehrere seiner Merkmale so eingestellt sind oder verändert werden, dass Informationen in einem oder mehreren Signalen codiert werden. Datenübertragungsmedien umfassen zum Beispiel, ohne auf diese beschränkt zu sein, drahtgebundene Medien wie ein drahtgebundenes Netzwerk oder eine drahtgebundene Direktverbindung und drahtlose Medien wie akustische, HF-, Infrarot- und andere drahtlose Medien.
  • Wiederum unter Bezugnahme auf 16 umfasst die beispielhafte Umgebung 1600 zum Implementieren verschiedener Ausführungsformen der hier beschriebenen Aspekte einen Computer 1602, wobei der Computer 1602 eine Verarbeitungseinheit 1604, einen Systemspeicher 1606 und einen Systembus 1608 umfasst. Der Systembus 1608 verbindet Systemkomponenten, einschließlich des Systemspeichers 1606, ohne darauf beschränkt zu sein, mit der Verarbeitungseinheit 1604. Bei der Verarbeitungseinheit 1604 kann es sich um einen der verschiedenen im Handel erhältlichen Prozessoren handeln. Als Verarbeitungseinheit 1604 können auch Doppelmikroprozessoren und andere Multiprozessor-Architekturen eingesetzt werden.
  • Bei dem Systembus 1608 kann es sich um eine beliebige von mehreren Arten von Busstrukturen handeln, die unter Verwendung einer von einer Vielfalt von im Handel erhältlichen Busarchitekturen mit einem Speicherbus (mit oder ohne Speichersteuerung), einem Peripheriebus und einem lokalen Bus verbunden werden können. Der Systemspeicher 1606 umfasst einen ROM 1610 und einen RAM 1612. Ein Basis-Eingabe-/Ausgabe-System (BIOS) kann in einem nichtflüchtigen Speicher wie einem ROM, einem löschbaren programmierbaren Nur-Lese-Speicher (EPROM) oder einem EEPROM gespeichert werden, wobei das BIOS die grundlegenden Routinen enthält, die zum Übertragen von Informationen zwischen Elementen innerhalb des Computers 1602 beitragen, zum Beispiel beim Hochfahren. Der RAM 1612 kann auch einen Hochgeschwindigkeits-RAM umfassen, zum Beispiel einen statischen RAM zum Zwischenspeichern von Daten.
  • Der Computer 1602 umfasst ferner ein internes Festplattenlaufwerk 1614 (z.B. EIDE, SATA), eine oder mehrere externe Speichereinheiten 1616 (z.B. ein magnetisches Diskettenlaufwerk 1616 (floppy disk drive, FDD), einen Speicher-Stick- oder Flash-Speicher-Leser, einen Speicherkartenleser usw.) und ein optisches Laufwerk 1620 (das z.B. eine CD-ROM, eine DVD, eine BD usw. lesen oder beschreiben kann). Die interne Festplatte 1614 ist zwar so dargestellt, dass sie sich innerhalb des Computers 1602 befindet, die interne Festplatte 1614 kann aber auch zur externen Verwendung in einem geeigneten Gehäuse (nicht dargestellt) konfiguriert werden. Darüber hinaus könnte ein Halbleiterdatenträger (SSD), der in der Umgebung 1600 nicht dargestellt ist, zusätzlich zu oder anstelle eines Festplattenlaufwerks 1614 verwendet werden. Das Festplattenlaufwerk 1614, die externe(n) Speichereinheit(en) 1616 und das optische Laufwerk 1620 können jeweils über eine Festplattenschnittstelle 1624, eine Schnittstelle für externen Speicher 1626 bzw. eine Schnittstelle für ein optisches Laufwerk 1628 mit dem Systembus 1608 verbunden werden. Die Schnittstelle 1624 für externe Laufwerksimplementierungen kann mindestens eine oder mehrere Schnittstellen der Schnittstellentechnologien Universal Serial Bus (USB) und Institute of Electrical and Electronics Engineers (IEEE) 1394 umfassen. In den hier beschriebenen Ausführungsformen sind auch andere Technologien für den Anschluss externer Laufwerke denkbar.
  • Die Laufwerke und die ihnen zugehörigen durch einen Computer lesbaren Speichermedien stellen einen nichtflüchtigen Speicher für Daten, Datenstrukturen, durch einen Computer ausführbare Anweisungen und dergleichen bereit. Für den Computer 1602 ermöglichen die Laufwerke und Speichermedien das Speichern von beliebigen Daten in einem geeigneten digitalen Format. Die obige Beschreibung der durch einen Computer lesbaren Speichermedien bezieht sich zwar auf entsprechende Arten von Speichereinheiten, doch sollte der Fachmann verstehen, dass auch andere Arten von Speichermedien, die durch einen Computer lesbar sind, in der beispielhaften Betriebsumgebung verwendet werden können, unabhängig davon, ob sie gegenwärtig vorliegen oder in Zukunft entwickelt werden, und dass ferner alle derartigen Speichermedien durch einen Computer ausführbare Anweisungen zum Durchführen der hier beschriebenen Verfahren enthalten können.
  • In den Datenträgern und im RAM 1612 können eine Anzahl von Programmmodulen gespeichert werden, darunter ein Betriebssystem 1630, ein oder mehrere Anwendungsprogramme 1632, weitere Programmmodule 1634 und Programmdaten 1636. Das Betriebssystem, Anwendungen, Module und/oder Daten können auch vollständig oder teilweise im Cache des RAM 1612 gespeichert werden. Die hier beschriebenen Systeme und Verfahren können unter Verwendung verschiedener im Handel erhältlichen Betriebssysteme oder Kombinationen von Betriebssystemen implementiert werden.
  • Der Computer 1602 kann optional Emulationstechnologien aufweisen. Zum Beispiel kann ein Hypervisor (nicht dargestellt) oder ein anderer Vermittler eine Hardwareumgebung für das Betriebssystem 1630 emulieren, und die emulierte Hardware kann sich optional von der in 16 gezeigten Hardware unterscheiden. In einer solchen Ausführungsform kann das Betriebssystem 1630 eine virtuelle Maschine (VM) von mehreren auf dem Computer 1602 gehosteten VMs aufweisen. Darüber hinaus kann das Betriebssystem 1630 Laufzeitumgebungen wie zum Beispiel die Java-Laufzeitumgebung oder das .NET-Framework für Anwendungen 1632 bereitstellen. Bei Laufzeitumgebungen handelt es sich um konsistente Ausführungsumgebungen, in denen Anwendungen 1632 auf jedem Betriebssystem ausgeführt werden können, das die Laufzeitumgebung umfasst. In ähnlicher Weise kann das Betriebssystem 1630 Container unterstützen, und Anwendungen 1632 können in Form von Containern vorliegen, bei denen es sich um schlanke, eigenständige, ausführbare Softwarepakete handelt, die zum Beispiel Code, Laufzeit, Systemwerkzeuge, Systembibliotheken und Einstellungen für eine Anwendung umfassen.
  • Des Weiteren kann der Computer 1602 mit einem Sicherheitsmodul, zum Beispiel einem vertrauenswürdigen Verarbeitungsmodul (trusted processing module, TPM), ausgestattet sein. Zum Beispiel wandeln bei einem TPM die Boot-Komponenten die zeitlich nächsten Boot-Komponenten in einen Hashwert um und warten auf eine Übereinstimmung der Ergebnisse mit gesicherten Werten, bevor sie eine nächste Boot-Komponente laden. Dieser Prozess kann in jeder Schicht des Code-Ausführungsstapels des Computers 1602 stattfinden, zum Beispiel kann er auf der Ebene der Anwendungsausführung oder auf der Kernel-Ebene des Betriebssystems (OS) durchgeführt werden, wodurch Sicherheit auf jeder Ebene der Code-Ausführung ermöglicht wird.
  • Ein Benutzer kann Befehle und Informationen über eine oder mehrere drahtgebundene/drahtlose Eingabeeinheiten in den Computer 1602 eingeben, zum Beispiel über eine Tastatur 1638, einen Berührungsbildschirm 1640 und eine Zeigeeinheit wie zum Beispiel eine Maus 1642. Andere Eingabeeinheiten (nicht dargestellt) können ein Mikrofon, eine Infrarot-Fernbedienung (IR), eine Hochfrequenz-Fernbedienung (HF) oder eine andere Fernbedienung, einen Joystick, eine Virtuelle-Realität-Steuerung und/oder ein Virtuelle-Realität-Headset, eine Spielsteuerung (gamepad), einen Eingabestift, eine Bildeingabeeinheit, zum Beispiel Kamera(s), eine Gestensensoren-Eingabeeinheit, eine Sichtbewegungssensoren-Eingabeeinheit, eine Emotions- oder Gesichtserkennungseinheit, eine biometrische Eingabeeinheit, zum Beispiel Fingerabdruck- oder Iris-Scanner, oder Ähnliches umfassen. Diese und andere Eingabeeinheiten sind häufig über eine Eingabeeinheit-Schnittstelle 1644 mit der Verarbeitungseinheit 1604 verbunden, die mit dem Systembus 1608 verbunden sein kann, aber auch über andere Schnittstellen angeschlossen werden kann, zum Beispiel einen parallelen Anschluss, einen seriellen IEEE-1394-Anschluss, einen Spieleanschluss, einen USB-Anschluss, eine IR-Schnittstelle, eine BLUETOOTH®-Schnittstelle usw.
  • Ein Monitor 1646 oder eine andere Art von Anzeigeeinheit kann auch über eine Schnittstelle, zum Beispiel ein Videoadapter 1648, an den Systembus 1608 angeschlossen werden. Außer dem Monitor 1646 umfasst ein Computer in der Regel noch andere periphere Ausgabeeinheiten (nicht dargestellt), wie zum Beispiel Lautsprecher, Drucker usw.
  • Der Computer 1602 kann in einer Netzwerkumgebung unter Verwendung logischer Verbindungen über eine drahtgebundene und/oder drahtlose Datenübertragung mit einem oder mehreren entfernten Computern betrieben werden, zum Beispiel mit einem oder mehreren entfernten Computern 1650. Bei dem/den entfernten Computer(n) 1650 kann es sich um eine Workstation, einen Server-Computer, einen Router, einen Personal Computer, einen tragbaren Computer, eine mikroprozessorgestütztes Unterhaltungseinheit, eine Peer-Einheit oder einen anderen gängigen Netzwerkknoten handeln, und er umfasst in der Regel viele oder sämtliche der Elemente, die in Bezug auf den Computer 1602 beschrieben wurden, obwohl der Kürze halber nur eine Hauptspeicher-/Speichereinheit 1652 gezeigt wird. Die dargestellten logischen Verbindungen umfassen eine drahtgebundene/drahtlose Anbindung an ein lokales Netzwerk (LAN) 1654 und/oder größere Netzwerke, zum Beispiel ein Weitverkehrsnetz (WAN) 1656. Solche LAN- und WAN-Netzwerkumgebungen sind in Büros und Unternehmen allgemein üblich und ermöglichen unternehmensweite Computernetzwerke, wie zum Beispiel Intranets, die alle mit einem globalen Datenübertragungsnetz, zum Beispiel dem Internet, verbunden werden können.
  • Wird der Computer 1602 in einer LAN-Netzwerkumgebung verwendet, kann er über eine drahtgebundene und/oder drahtlose Datenübertragungs-Netzwerkschnittstelle oder einen Adapter 1658 mit dem lokalen Netzwerk 1654 verbunden werden. Der Adapter 1658 kann eine drahtgebundene oder drahtlose Datenübertragung zu dem LAN 1654 ermöglichen, das auch einen daran angeordneten drahtlosen Zugangspunkt (access point, AP) umfassen kann, um mit dem Adapter 1658 in einer drahtlosen Form Daten auszutauschen.
  • Wird der Computer 1602 in einer WAN-Netzwerkumgebung verwendet, kann er ein Modem 1660 umfassen oder über andere Mittel mit einem Datenübertragungsserver im WAN 1656 verbunden sein, um eine Datenübertragung über das WAN 1656 herzustellen, wie zum Beispiel über das Internet. Das Modem 1660, bei dem es sich um eine interne oder externe und eine drahtgebundene oder drahtlose Einheit handeln kann, kann über die Eingabeeinheit-Schnittstelle 1644 mit dem Systembus 1608 verbunden werden. In einer Netzwerkumgebung können Programmmodule, die in Bezug auf den Computer 1602 oder Teile davon dargestellt sind, in der entfernten Hauptspeicher-/Speichereinheit 1652 gespeichert werden. Es ist zu berücksichtigen, dass die dargestellten Netzwerkverbindungen nur ein Beispiel sind und auch andere Mittel zum Aufbau einer Datenübertragungsverbindung zwischen den Computern verwendet werden können.
  • Wird der Computer 1602 in einer LAN- oder WAN-Netzwerkumgebung verwendet, kann er auf Cloud-Speichersysteme oder andere auf Netzwerken beruhende Speichersysteme zugreifen, und zwar zusätzlich zu oder anstelle von externen Speichereinheiten 1616, wie oben beschrieben. Im Allgemeinen kann eine Verbindung zwischen dem Computer 1602 und einem Cloud-Speichersystem über ein LAN 1654 oder WAN 1656 zum Beispiel mittels des Adapters 1658 bzw. des Modems 1660 hergestellt werden. Wenn der Computer 1602 mit einem zugehörigen Cloud-Speichersystem verbunden ist, kann die Schnittstelle für externen Speicher 1626 mit Hilfe des Adapters 1658 und/oder des Modems 1660 den vom Cloud-Speichersystem bereitgestellten Speicher genauso verwalten wie andere Arten von externem Speicher. Zum Beispiel kann die Schnittstelle für externen Speicher 1626 so konfiguriert werden, dass sie den Zugriff auf Cloud-Speicherquellen bereitstellt, als wären diese Quellen physisch mit dem Computer 1602 verbunden.
  • Der Computer 1602 kann so betrieben werden, dass er Daten mit allen drahtlosen Einheiten oder Einrichtungen austauscht, die sich funktionsmäßig in drahtloser Datenübertragung befinden, zum Beispiel Drucker, Scanner, Desktop- und/oder tragbare Computer, tragbare Datenassistenten, Fernmeldesatelliten, alle Geräte oder Orte, die einer drahtlos erkennbaren Kennung zugehörig sind (z.B. Kiosk, Zeitungskiosk, Ladenregal usw.), und Telefone. Dies kann die drahtlosen Technologien Wireless Fidelity (Wi-Fi, WLAN) und BLUETOOTH® umfassen. Somit kann es sich bei der Datenübertragung um eine vordefinierte Struktur wie bei einem herkömmlichen Netzwerk oder einfach um eine spontane Datenübertragung zwischen mindestens zwei Einheiten handeln.
  • Das oben Beschriebene umfasst lediglich Beispiele für Systeme, Computerprogrammprodukte und auf einem Computer implementierte Verfahren. Es ist natürlich nicht möglich, jede denkbare Kombination von Komponenten, Produkten und/oder auf einem Computer implementierten Verfahren zum Zwecke der Beschreibung dieser Offenbarung zu beschreiben, aber ein Fachmann kann erkennen, dass viele weitere Kombinationen und Umsetzungen dieser Offenbarung möglich sind. Des Weiteren sind die Begriffe „umfasst“, „hat“, „besitzt“ und dergleichen, soweit sie in der ausführlichen Beschreibung, den Ansprüchen, Anhängen und Zeichnungen verwendet werden, in ähnlicher Weise umfassend zu verstehen wie der Begriff „aufweist“, wenn „aufweist“ als Überleitungswort in einem Anspruch verwendet wird. Die Beschreibungen der verschiedenen Ausführungsformen wurden zur Veranschaulichung vorgelegt, aber sollen weder erschöpfend noch auf die offenbarten Ausführungsformen beschränkt sein. Für den Fachmann sind viele Modifikationen und Variationen erkennbar, ohne vom Umfang der beschriebenen Ausführungsformen abzuweichen. Die hier verwendete Terminologie wurde gewählt, um die Prinzipien der Ausführungsformen, die praktische Anwendung oder die technische Verbesserung gegenüber den auf dem Markt befindlichen Technologien bestmöglich zu erklären oder um es dem Fachmann zu ermöglichen, die hier offenbarten Ausführungsformen zu verstehen.

Claims (21)

  1. System, das aufweist: Speicher, der durch einen Computer ausführbare Komponenten speichert; und Prozessor, der funktionsmäßig mit dem Speicher verbunden ist und der die durch einen Computer ausführbaren Komponenten ausführt, die im Speicher gespeichert sind, wobei die durch einen Computer ausführbaren Komponenten aufweisen: Wartungskomponente, die eine Ursache eines Ausfalls in einem mechanischen System erkennen kann, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  2. System nach Anspruch 1, das ferner aufweist: Partitionskomponente, die die Zeitreihendaten auf der Grundlage eines definierten Zeitintervalls in eine Mehrzahl von Gruppen unterteilt.
  3. System nach Anspruch 2, das ferner aufweist: Strukturkomponente, die eine Mehrzahl von Beziehungsstrukturen für die Mehrzahl von Gruppen auf der Grundlage eines durch den Tester auf bedingte Unabhängigkeit definierten Zugehörigkeitsmaßes erzeugt.
  4. System nach Anspruch 3, das ferner aufweist: Matrixkomponente, die eine Mehrzahl von Adjazenzmatrizen für die Mehrzahl von Beziehungsstrukturen erzeugt, wobei die Mehrzahl von Adjazenzmatrizen eine Beziehung zwischen den Variablen kennzeichnet.
  5. System nach Anspruch 4, das ferner aufweist: Clusterkomponente, die die Mehrzahl von Adjazenzmatrizen unter Verwendung von K-Means-Clustering in zwei Clustergruppen clustert.
  6. System nach Anspruch 5, das ferner aufweist: Beginnkomponente, die eine erste Gruppe aus der Mehrzahl von Gruppen identifiziert, die ein Mitglied einer ersten Clustergruppe aus den zwei Clustergruppen ist und an eine zweite Gruppe angrenzt, die ein Mitglied einer zweiten Clustergruppe aus den zwei Clustergruppen ist.
  7. System nach Anspruch 6, das ferner aufweist: Ursachenkomponente, die eine Variable identifiziert, die einen Hamming-Abstand zwischen einer ersten Adjazenzmatrix und einer zweiten Adjazenzmatrix aufweist, der größer als ein definierter Schwellenwert ist, wobei die erste Adjazenzmatrix aus der Mehrzahl von Adjazenzmatrizen stammt und die erste Gruppe kennzeichnet, und wobei die zweite Adjazenzmatrix aus der Mehrzahl von Adjazenzmatrizen stammt und die zweite Gruppe kennzeichnet.
  8. System, das aufweist: Speicher, der durch einen Computer ausführbare Komponenten speichert; und Prozessor, der funktionsmäßig mit dem Speicher verbunden ist und der die durch einen Computer ausführbaren Komponenten ausführt, die im Speicher gespeichert sind, wobei die durch einen Computer ausführbaren Komponenten aufweisen: Wartungskomponente, die einen Beginn eines Ausfalls in einem mechanischen System erkennen kann, indem sie einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  9. System nach Anspruch 8, das ferner aufweist: Partitionskomponente, die die Zeitreihendaten auf der Grundlage eines definierten Zeitintervalls in eine Mehrzahl von Gruppen unterteilt.
  10. System nach Anspruch 9, das ferner aufweist: Strukturkomponente, die eine Mehrzahl von Beziehungsstrukturen für die Mehrzahl von Gruppen auf der Grundlage eines durch den Tester auf bedingte Unabhängigkeit definierten Zugehörigkeitsmaßes erzeugt; und Matrixkomponente, die eine Mehrzahl von Adjazenzmatrizen für die Mehrzahl von Beziehungsstrukturen erzeugt, wobei die Mehrzahl von Adjazenzmatrizen eine Beziehung zwischen den Variablen kennzeichnet.
  11. System nach Anspruch 10, das ferner aufweist: Clusterkomponente, die die Mehrzahl von Adjazenzmatrizen unter Verwendung von K-Means-Clustering in zwei Clustergruppen clustert; und Beginnkomponente, die eine erste Gruppe aus der Mehrzahl von Gruppen identifiziert, die ein Mitglied einer ersten Clustergruppe aus den zwei Clustergruppen ist und an eine zweite Gruppe angrenzt, die ein Mitglied einer zweiten Clustergruppe aus den zwei Clustergruppen ist.
  12. Auf einem Computer implementiertes Verfahren, das aufweist: Erkennen einer Ursache eines Ausfalls in einem mechanischen System durch ein System, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  13. Auf einem Computer implementiertes Verfahren nach Anspruch 12, das ferner aufweist: Unterteilen der Zeitreihendaten in eine Mehrzahl von Gruppen durch das System auf der Grundlage eines definierten Zeitintervalls.
  14. Auf einem Computer implementiertes Verfahren nach Anspruch 13, das ferner aufweist: Erzeugen einer Mehrzahl von Beziehungsstrukturen für die Mehrzahl von Gruppen durch das System auf der Grundlage eines Zugehörigkeitsmaßes, das durch den Tester auf bedingte Unabhängigkeit definiert ist; und Erzeugen einer Mehrzahl von Adjazenzmatrizen für die Mehrzahl von Beziehungsstrukturen durch das System, wobei die Mehrzahl von Adjazenzmatrizen eine Beziehung zwischen den Variablen kennzeichnet.
  15. Auf einem Computer implementiertes Verfahren nach Anspruch 14, das ferner aufweist: Clustern der Mehrzahl von Adjazenzmatrizen in zwei Clustergruppen durch das System unter Verwendung von maschinellem K-Means-Lernen; Identifizieren einer ersten Gruppe aus der Mehrzahl von Gruppen durch das System, die ein Mitglied einer ersten Clustergruppe aus den zwei Clustergruppen ist und an eine zweite Gruppe angrenzt, die ein Mitglied einer zweiten Clustergruppe aus den zwei Clustergruppen ist; und Identifizieren einer Variable durch das System, die einen Hamming-Abstand zwischen einer ersten Adjazenzmatrix und einer zweiten Adjazenzmatrix aufweist, der größer als ein definierter Schwellenwert ist, wobei die erste Adjazenzmatrix aus der Mehrzahl von Adjazenzmatrizen stammt und die erste Gruppe kennzeichnet und wobei die zweite Adjazenzmatrix aus der Mehrzahl von Adjazenzmatrizen stammt und die zweite Gruppe kennzeichnet.
  16. Auf einem Computer implementiertes Verfahren, das aufweist: Erkennen eines Beginns eines Ausfalls in einem mechanischen System durch ein System, das funktionsmäßig mit einem Prozessor verbunden ist, indem es einen Greedy-Bergsteiger-Prozess einsetzt, um eine polynomiale Anzahl von Tests auf bedingte Unabhängigkeit durchzuführen, um eine Granger-Kausalität zwischen Variablen aus Zeitreihendaten des mechanischen Systems zu ermitteln, denen ein Bedingungen setzender Satz gegeben ist.
  17. Auf einem Computer implementiertes Verfahren nach Anspruch 16, das ferner aufweist: Unterteilen der Zeitreihendaten durch das System in eine Mehrzahl von Gruppen auf der Grundlage eines definierten Zeitintervalls.
  18. Auf einem Computer implementiertes Verfahren nach Anspruch 17, das ferner aufweist: Erzeugen einer Mehrzahl von Beziehungsstrukturen für die Mehrzahl von Gruppen durch das System auf der Grundlage eines Zugehörigkeitsmaßes, das durch den Tester auf bedingte Unabhängigkeit definiert ist; und Erzeugen einer Mehrzahl von Adjazenzmatrizen für die Mehrzahl von Beziehungsstrukturen durch das System, wobei die Mehrzahl von Adjazenzmatrizen eine Beziehung zwischen den Variablen kennzeichnet.
  19. Auf einem Computer implementiertes Verfahren nach Anspruch 18, das ferner aufweist: Clustern der Mehrzahl von Adjazenzmatrizen in zwei Clustergruppen durch das System unter Verwendung von maschinellem K-Means-Lernen; und Identifizieren einer ersten Gruppe aus der Mehrzahl von Gruppen durch das System, die ein Mitglied einer ersten Clustergruppe aus den zwei Clustergruppen ist und an eine zweite Gruppe angrenzt, die ein Mitglied einer zweiten Clustergruppe aus den zwei Clustergruppen ist.
  20. Computerprogrammprodukt zum Identifizieren von Informationen über Ausfälle eines mechanischen Systems, wobei das Computerprogrammprodukt aufweist: Durch einen Computer lesbares Speichermedium, das durch einen Verarbeitungsschaltkreis lesbar ist und Anweisungen zum Ausführen durch den Verarbeitungsschaltkreis speichert, um ein Verfahren gemäß einem der Ansprüche 12 bis 19 durchzuführen.
  21. Computerprogramm, das auf einem durch einen Computer lesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers geladen werden kann und das Softwarecode-Abschnitte aufweist, wenn das Programm auf einem Computer ausgeführt wird, um das Verfahren nach einem der Ansprüche 12 bis 19 durchzuführen.
DE112020005257.5T 2019-12-11 2020-12-04 Fehler-ursachen-analyse unter verwendung einer granger-kausalität Pending DE112020005257T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/710,893 US11238129B2 (en) 2019-12-11 2019-12-11 Root cause analysis using Granger causality
US16/710,893 2019-12-11
PCT/IB2020/061478 WO2021116857A1 (en) 2019-12-11 2020-12-04 Root cause analysis using granger causality

Publications (1)

Publication Number Publication Date
DE112020005257T5 true DE112020005257T5 (de) 2022-07-21

Family

ID=76318030

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020005257.5T Pending DE112020005257T5 (de) 2019-12-11 2020-12-04 Fehler-ursachen-analyse unter verwendung einer granger-kausalität

Country Status (6)

Country Link
US (3) US11238129B2 (de)
JP (1) JP7486584B2 (de)
CN (1) CN114846449A (de)
DE (1) DE112020005257T5 (de)
GB (1) GB2606918A (de)
WO (1) WO2021116857A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131002A1 (ja) * 2019-12-26 2021-07-01 日本電信電話株式会社 ネットワーク管理装置、方法およびプログラム
CN113676360B (zh) * 2021-09-26 2022-10-21 平安科技(深圳)有限公司 基于格兰杰因果关系检验与图相似技术的链路图修复方法
CN114563016B (zh) * 2021-12-31 2023-09-29 北京航天自动控制研究所 一种基于格兰杰因果分析的冗余惯组故障检测方法
US11722358B1 (en) * 2022-03-03 2023-08-08 Arista Networks, Inc. Root cause analysis for operational issues using a rules mining algorithm
CN116107847B (zh) * 2023-04-13 2023-06-27 平安科技(深圳)有限公司 多元时间序列数据异常检测方法、装置、设备及存储介质

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509229B1 (en) * 2002-07-23 2009-03-24 Opnet Technologies, Inc. Bayesian approach to correlating network traffic congestion to performance metrics
US20050234973A1 (en) * 2004-04-15 2005-10-20 Microsoft Corporation Mining service requests for product support
JP5268656B2 (ja) * 2006-02-17 2013-08-21 メンター グラフィックス コーポレイション マルチステージ・テスト応答コンパクタ
US20080092093A1 (en) 2006-10-12 2008-04-17 Nec Laboratories America, Inc. Register Transfer Level (RTL) Test Point Insertion Method to Reduce Delay Test Volume
US8010589B2 (en) * 2007-02-20 2011-08-30 Xerox Corporation Semi-automatic system with an iterative learning method for uncovering the leading indicators in business processes
US20090093893A1 (en) * 2007-10-05 2009-04-09 Fisher-Rosemount Systems, Inc. System and method for recognizing and compensating for invalid regression model applied to abnormal situation prevention
US8489530B2 (en) * 2007-12-03 2013-07-16 Infosys Limited System and method for root cause analysis of the failure of a manufactured product
US8140454B2 (en) * 2007-12-28 2012-03-20 Software Ag Systems and/or methods for prediction and/or root cause analysis of events based on business activity monitoring related data
US8285414B2 (en) * 2009-03-31 2012-10-09 International Business Machines Corporation Method and system for evaluating a machine tool operating characteristics
JP5468837B2 (ja) 2009-07-30 2014-04-09 株式会社日立製作所 異常検出方法、装置、及びプログラム
US8255346B2 (en) 2009-11-11 2012-08-28 International Business Machines Corporation Methods and systems for variable group selection and temporal causal modeling
US8855959B2 (en) * 2010-08-30 2014-10-07 International Business Machines Corporation Integrated cross-tester analysis and real-time adaptive test
US8751423B2 (en) * 2010-11-30 2014-06-10 General Electric Company Turbine performance diagnostic system and methods
IN2013CH03925A (de) * 2013-09-02 2015-09-11 Appnomic Systems Private Ltd
CN104537418A (zh) 2014-12-11 2015-04-22 广东工业大学 一种自底向上的高维数据因果网络学习方法
US9710258B2 (en) * 2015-05-27 2017-07-18 International Business Machines Corporation Identifying cause of incidents in the DevOps environment automatically
EP3278213A4 (de) 2015-06-05 2019-01-30 C3 IoT, Inc. Systeme, verfahren und vorrichtungen für eine anwendungsentwicklungsplattform eines internets der dinge eines unternehmens
US9665420B2 (en) * 2015-07-31 2017-05-30 Ca, Inc. Causal engine and correlation engine based log analyzer
CN108351858A (zh) * 2015-08-30 2018-07-31 塞林特交通解决方案有限公司 用于基于蜂窝数据来识别交通拥堵根本原因以及建议可能的缓解措施的方法和系统
CN106570513B (zh) * 2015-10-13 2019-09-13 华为技术有限公司 大数据网络系统的故障诊断方法和装置
CN105867345B (zh) 2016-03-24 2018-04-27 浙江科技学院 一种多变量化工过程的故障源和故障传播路径定位方法
US11774944B2 (en) * 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
US10725098B2 (en) * 2016-10-11 2020-07-28 Esd It2 Llc. System and method for efficient electrostatic discharge testing and analysis
US10955818B2 (en) * 2017-03-20 2021-03-23 University Of Southern California System and method for extracting principal time series data
US10467132B1 (en) * 2017-05-16 2019-11-05 Intuit, Inc. Variability system and analytics for continuous reliability in cloud-based workflows
CN107301119B (zh) 2017-06-28 2020-07-14 北京优特捷信息技术有限公司 利用时序相关性进行it故障根因分析的方法及装置
JP6833642B2 (ja) 2017-08-10 2021-02-24 株式会社東芝 要因分析装置、要因分析方法、およびプログラム
US10616043B2 (en) * 2017-11-27 2020-04-07 Google Llc Real-time probabilistic root cause correlation of network failures
TWI662424B (zh) 2017-12-25 2019-06-11 帆宣系統科技股份有限公司 領先輔助參數的選擇方法以及結合關鍵參數及領先輔助參數進行設備維護預診斷的方法
US10496468B2 (en) * 2018-01-21 2019-12-03 EMC IP Holding Company LLC Root cause analysis for protection storage devices using causal graphs
US11449047B2 (en) * 2018-09-28 2022-09-20 Rockwell Automation Technologies, Inc. Systems and methods for retraining a model a target variable in a tiered framework
US10795347B2 (en) * 2018-09-28 2020-10-06 Rockwell Automation Technologies, Inc. Systems and methods for controlling industrial devices based on modeled target variables
US20200287923A1 (en) * 2019-03-08 2020-09-10 International Business Machines Corporation Unsupervised learning to simplify distributed systems management
US11354184B2 (en) * 2019-06-21 2022-06-07 Palo Alto Research Center Incorporated Method and system for performing automated root cause analysis of anomaly events in high-dimensional sensor data
US11061393B2 (en) * 2019-08-28 2021-07-13 International Business Machines Corporation Consolidating anomaly root causes and alarms using graphical granger models
US11415975B2 (en) * 2019-09-09 2022-08-16 General Electric Company Deep causality learning for event diagnosis on industrial time-series data
US11640465B2 (en) * 2019-11-13 2023-05-02 Vmware, Inc. Methods and systems for troubleshooting applications using streaming anomaly detection

Also Published As

Publication number Publication date
US20210182358A1 (en) 2021-06-17
GB2606918A (en) 2022-11-23
CN114846449A (zh) 2022-08-02
US20220100817A1 (en) 2022-03-31
US11816178B2 (en) 2023-11-14
US11238129B2 (en) 2022-02-01
JP2023505344A (ja) 2023-02-08
GB202209962D0 (en) 2022-08-24
JP7486584B2 (ja) 2024-05-17
US20240160694A1 (en) 2024-05-16
WO2021116857A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
DE112020005257T5 (de) Fehler-ursachen-analyse unter verwendung einer granger-kausalität
DE112018002984T5 (de) Konformitätsbewusste Laufzeiterzeugung auf Grundlage von Anwendungsmustern und Risikobeurteilung
DE112021000189T5 (de) Mikrodienst-Aufspaltungsstrategie von monolithischen Anwendungen
US10552292B2 (en) System, method and computer product for management of proof-of-concept software pilots, including neural network-based KPI prediction
DE112021001566T5 (de) Ermitteln von abhängigkeiten multivariater zeitreihendaten
DE112012004238T5 (de) Auf Erkennung beruhende Identifizierung und Migration von leicht in eine Cloud verlagerbaren Anwendungen
DE112018005011T5 (de) Ausführen eines kognitiven lern-workflows
DE112021002820T5 (de) Dynamische automatisierung einer auswahl von pipeline-artefakten
DE112010004420T5 (de) Verfahren und System zur Verbesserung der Ausführungszeit von Software durch Optimierung elnes Leistungsmodells
DE112020005323T5 (de) Elastische ausführung von machine-learning-arbeitslasten unter verwendung einer anwendungsbasierten profilierung
DE112018004660T5 (de) Verwenden von kommentaren zum bereitstellen von optimierungen
US20160188431A1 (en) Predicting performance of a software application over a target system
DE112020005306T5 (de) Implementierung von arbeitslasten in einer multi-cloud-umgebung
Mostaeen et al. Clonecognition: machine learning based code clone validation tool
DE102021123285A1 (de) Sensor-agnostische gestenerkennung
Varghese et al. DocLite: A docker-based lightweight cloud benchmarking tool
US20210263718A1 (en) Generating predictive metrics for virtualized deployments
DE112021001974T5 (de) Proaktives durchführen von aufgaben auf der grundlage eines schätzens vonhardwarerekonfigurationszeiten
DE112021003657T5 (de) Fehlerlokalisierung für cloud-native anwendungen
JP6775082B2 (ja) 時系列データの分析制御方法および分析制御装置
Sauvanaud et al. Data stream clustering for online anomaly detection in cloud applications
DE112020004688T5 (de) Debuggen und erstellen von profilen von maschinenlernmodelltraining
US20150120921A1 (en) Techniques for workload toxic mapping
DE112019001493T5 (de) Ermitteln der abfrageerkennungsresilienz in virtuellen agentensystemen
DE102021124270A1 (de) Verfahren und system zum ermitteln und priorisieren von refactoring, um mikrodienste besser zu ermitteln

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence