WO2019239542A1 - 異常検知装置、異常検知方法及び異常検知プログラム - Google Patents

異常検知装置、異常検知方法及び異常検知プログラム Download PDF

Info

Publication number
WO2019239542A1
WO2019239542A1 PCT/JP2018/022709 JP2018022709W WO2019239542A1 WO 2019239542 A1 WO2019239542 A1 WO 2019239542A1 JP 2018022709 W JP2018022709 W JP 2018022709W WO 2019239542 A1 WO2019239542 A1 WO 2019239542A1
Authority
WO
WIPO (PCT)
Prior art keywords
outlier
abnormality
data
detection
sensitivity
Prior art date
Application number
PCT/JP2018/022709
Other languages
English (en)
French (fr)
Inventor
智晴 竹内
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018555298A priority Critical patent/JP6456580B1/ja
Priority to PCT/JP2018/022709 priority patent/WO2019239542A1/ja
Priority to EP18922746.5A priority patent/EP3795975B1/en
Priority to CN201880094472.4A priority patent/CN112272763B/zh
Publication of WO2019239542A1 publication Critical patent/WO2019239542A1/ja
Priority to US17/078,371 priority patent/US11657121B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • G01M99/008Subject matter not provided for in other groups of this subclass by doing functionality tests
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/0227Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
    • G05B23/0237Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions based on parallel systems, e.g. comparing signals produced at the same time by same type systems and detect faulty ones by noticing differences among their responses
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure
    • G05B23/0281Quantitative, e.g. mathematical distance; Clustering; Neural networks; Statistical analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0283Predictive maintenance, e.g. involving the monitoring of a system and, based on the monitoring results, taking decisions on the maintenance schedule of the monitored system; Estimating remaining useful life [RUL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • G06F18/15Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks

Definitions

  • This invention relates to a technique for detecting an abnormality of a target device based on data obtained from the target device.
  • Patent Document 1 In the technique described in Patent Document 1, an abnormality is detected and a factor is presented using a plurality of abnormality diagnosis models in process monitoring in a plant.
  • an abnormality diagnosis model using principal component analysis or discrete wavelet transform is constructed in advance, and the abnormality diagnosis model is applied to online abnormality detection in process monitoring.
  • it is necessary to analyze data characteristics at normal time and abnormal time and grasp a statistical feature quantity that can be used to estimate the device state.
  • many long-life devices such as generators and elevators are maintained before failure, there are cases where none of the manufacturer, maintenance operator, and device introducer (user) has failure data. Many. For this reason, it is difficult to take a method of detecting anomalies by learning in advance the device state and measurement data at the time of failure.
  • the outlier detection technique is a technique for extracting data out of the entire data based on binary determination of normal and abnormal.
  • various outlier detection techniques such as a statistical technique, a machine learning system technique, and a deep learning system technique.
  • an optimal method is selected based on the characteristics of the device sensing data from among the many outlier detection methods, and the device operation data collected sequentially is normal.
  • abnormality is determined.
  • the abnormality detection based on the outlier detection technique can be detected as an abnormality when the evaluation data deviates from the normal time. Therefore, if there is normal data, an abnormality can be detected. That is, even when there is little or no failure data, anomaly detection is possible theoretically. From this, it can be said that it is an effective method for detection and prediction for an unknown failure.
  • Abnormality detection based on the outlier detection technique is a method that can determine normality and abnormality if there is normal data.
  • the abnormality detection based on the outlier detection technology does not know more than normal and abnormal binary information only by applying the conventional technique. for that reason. It is necessary to determine the failure and elucidate the cause of the abnormality by checking the engineers.
  • various abnormal patterns occur in the target device. By simply applying an outlier detection method according to a certain algorithm, anomalies that do not comply with the algorithm may not be detected. Since outlier detection technology has different detection algorithms for each method, it is considered that abnormal patterns that are missed are also different for each method, and it is difficult to select the optimum method.
  • An object of the present invention is to make it possible to appropriately detect an abnormality and to easily identify what kind of abnormality has occurred.
  • the abnormality detection device is: Identifying data out of other data among the target data, and using evaluation data obtained from the target device by each of multiple outlier detection methods that calculate outlier scores that indicate the degree of outliers in the identified data
  • An outlier calculation unit that calculates outliers and calculates outlier information from the calculated outliers;
  • the outlier sensitivity information indicating the sensitivity for each of the plurality of abnormal patterns for each of the plurality of outlier detection methods, and the similarity between the outlier tendency information calculated by the outlier tendency calculator is calculated for each abnormal pattern,
  • An abnormality detection unit that detects an abnormality of the target device.
  • the similarity between the detachment sensitivity information and the detachment tendency information is calculated for each abnormal pattern. Therefore, it is possible to appropriately detect an abnormality and to easily identify what kind of abnormality has occurred.
  • FIG. 1 is a hardware configuration diagram of an abnormality detection system 1 according to Embodiment 1.
  • FIG. FIG. 3 is a functional configuration diagram of the target device 100 according to the first embodiment.
  • FIG. 3 is a functional configuration diagram of the abnormality detection apparatus 200 according to the first embodiment.
  • 2 is a functional configuration diagram of a state monitoring apparatus 300 according to Embodiment 1.
  • FIG. 5 is a flowchart of abnormality detection processing according to the first embodiment. Explanatory drawing of the operation data acquisition process which concerns on Embodiment 1.
  • FIG. 5 is a flowchart of a detachment tendency calculation process according to the first embodiment. 5 is a flowchart of abnormality specifying processing according to the first embodiment.
  • FIG. 6 is a diagram showing a method 1 of out-of-range sensitivity information according to the first embodiment.
  • FIG. 5 is a diagram showing a method 2 of out-of-range sensitivity information according to the first embodiment.
  • FIG. 5 is a diagram showing a method 3 of out-of-range sensitivity information according to the first embodiment.
  • FIG. 6 is a diagram showing a method 4 of out-of-range sensitivity information according to the first embodiment.
  • 5 is a flowchart of learning processing according to the first embodiment.
  • 5 is a flowchart of outlier sensitivity information generation processing according to the first embodiment.
  • the hardware block diagram of the abnormality detection system 1 which concerns on the modification 1.
  • FIG. FIG. 3 is a hardware configuration diagram of an abnormality detection system 1 according to a second embodiment.
  • FIG. 4 is a functional configuration diagram of a detection device 500, a learning device 600, and a database device 700 according to Embodiment 2.
  • FIG. 6 is a hardware configuration diagram of an abnormality detection system 1 according to a third embodiment.
  • FIG. 4 is a functional configuration diagram of a target device 100 according to a second embodiment.
  • the abnormality detection system 1 includes a target device 100, an abnormality detection device 200, and a state monitoring device 300.
  • the target device 100, the abnormality detection device 200, and the state monitoring device 300 are connected via a network 400 such as a LAN (Local Area Network).
  • the abnormality detection device 200 and the state monitoring device 300 may be a substantial server or may be configured by a cloud.
  • the network 400 may be a virtual network.
  • the target device 100 is a device that is a target of abnormality detection.
  • the target device 100 includes hardware of an operation device 101, a control device 102, a sensor 103, a calculation device 104, a main storage device 105, and a communication device 106.
  • the operating device 101 is a part that is an object of abnormality detection.
  • the operating device 101 is, for example, a device such as a generator or an elevator.
  • the control device 102 controls the operating device 101.
  • the control device 102 is a microcomputer.
  • the sensor 103 senses the operating status of the operating device 101.
  • the sensor 103 is a temperature sensor, a pressure sensor, or an optical sensor.
  • the computing device 104 is an IC (Integrated Circuit) that performs processing, and executes processing for transmitting operation data obtained by sensing by the sensor 103 to the abnormality detection device 200.
  • the arithmetic device 104 may transmit the control information of the control device 102 included in the operation data.
  • the arithmetic unit 104 is, as a specific example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
  • the main storage device 105 temporarily stores control information and operation data.
  • the main storage device 105 is an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory).
  • the communication device 106 transmits control information and operation data to the abnormality detection device 200 in accordance with the processing of the arithmetic device 104.
  • the communication device 106 is an Ethernet (registered trademark) or USB (Universal Serial Bus) board.
  • the abnormality detection device 200 is a device that detects an abnormality of the target device 100.
  • the abnormality detection device 200 includes a communication device 201, a calculation device 202, a main storage device 203, and an external storage device 204.
  • the communication device 201 receives control information and operation data from the target device 100. In addition, the communication device 201 transmits the result of abnormality detection to the state monitoring device 300.
  • the communication device 201 is an Ethernet (registered trademark) or a USB board.
  • the computing device 202 executes processing related to abnormality detection.
  • the arithmetic device 202 is a CPU, a DSP, or a GPU.
  • the main storage device 203 temporarily stores the processing result of the processing executed by the arithmetic device 202.
  • the main storage device 203 is an SRAM or a DRAM.
  • the external storage device 204 stores various data.
  • the external storage device 204 is, as a specific example, an HDD (Hard Disk Drive).
  • the external storage device 204 includes an SD (registered trademark, Secure Digital) memory card, CF (CompactFlash, registered trademark), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk). ) May be a portable recording medium.
  • the state monitoring device 300 is a device that outputs data indicating an abnormality detected by the abnormality detection device 200.
  • the state monitoring device 300 is, as a specific example, a device such as a monitoring device in a monitoring center and a PC (Personal Computer) owned by a user.
  • the state monitoring device 300 includes a communication device 301, an arithmetic device 302, a main storage device 303, and a display device 304.
  • the communication device 301 receives the abnormality detection result from the abnormality detection device 200.
  • the communication device 301 is an Ethernet (registered trademark) or a USB board.
  • the computing device 302 executes a result output process.
  • the arithmetic unit 302 is a CPU, a DSP, or a GPU.
  • the main storage device 303 temporarily stores the processing result of the processing executed by the arithmetic device 302.
  • the main storage device 303 is an SRAM or a DRAM.
  • the display device 304 outputs the result.
  • a specific example is an LCD (Liquid Crystal Display).
  • the target device 100 includes an operation data collection unit 11 and an operation data transmission unit 12 as functional components.
  • the functions of the operation data collection unit 11 and the operation data transmission unit 12 are realized by software.
  • the function is realized by a program that realizes the functions of the operation data collection unit 11 and the operation data transmission unit 12 being read and executed by the arithmetic device 104.
  • the abnormality detection device 200 includes, as functional components, an operation data acquisition unit 21, a detachment tendency calculation unit 22, an abnormality detection unit 23, a parameter learning unit 24, a detachment sensitivity information generation unit 25, and a storage unit 26. Prepare.
  • the functions of the operation data acquisition unit 21, the detachment tendency calculation unit 22, the abnormality detection unit 23, the parameter learning unit 24, and the detachment sensitivity information generation unit 25 are realized by software.
  • a program that realizes the functions of the operation data acquisition unit 21, the detachment tendency calculation unit 22, the abnormality detection unit 23, the parameter learning unit 24, and the detachment sensitivity information generation unit 25 is read and executed by the arithmetic device 202. Thus, the function is realized.
  • a program for realizing the functions of the functional components of the target device 100 is stored in the external storage device 204.
  • the function of the storage unit 26 is realized by the external storage device 204.
  • the operation data acquisition unit 21 includes an operation data reception unit 211 and an operation data storage unit 212.
  • the deviation tendency calculation unit 22 includes a past data acquisition unit 221, a data integration unit 222, a detection processing unit 223, and a trend information generation unit 224.
  • the detection processing unit 223 has a processing block for each detachment detection method. In FIG. 1, the detection processing unit 223 includes processing blocks corresponding to N methods from method 1 to method N.
  • the abnormality detection unit 23 includes a detachment sensitivity information acquisition unit 231, a similarity calculation unit 232, a similarity score calculation unit 233, and a pattern determination unit 234.
  • the parameter learning unit 24 includes a past data acquisition unit 241 and a learning unit 242.
  • the learning unit 242 has a processing block for each detachment detection method.
  • the learning unit 242 has processing blocks corresponding to N methods from Method 1 to Method N, as with the detection processing unit 223.
  • the detachment sensitivity information generation unit 25 includes an information generation unit 251 and an information storage unit 252.
  • the storage unit 26 includes a past data storage unit 261, a detection algorithm storage unit 262, and a detachment sensitivity information storage unit 263.
  • the state monitoring apparatus 300 includes a result receiving unit 31 and a result output unit 32 as functional components.
  • the functions of the result receiving unit 31 and the result output unit 32 are realized by software.
  • a function is realized by the computer 302 reading and executing a program that realizes the functions of the result receiving unit 31 and the result output unit 32.
  • the operation of the abnormality detection system 1 according to the first embodiment corresponds to the abnormality detection method according to the first embodiment.
  • the operation of the abnormality detection system 1 according to the first embodiment corresponds to the process of the abnormality detection program according to the first embodiment.
  • the abnormality detection process is a process for detecting an abnormality of the target device 100.
  • the abnormality detection process is executed by the target device 100, the operation data acquisition unit 21, the detachment tendency calculation unit 22, the abnormality detection unit 23, and the state monitoring device 300 of the abnormality detection device 200.
  • the abnormality detection process may be executed at an arbitrary timing or may be executed periodically.
  • Step S101 Operation data acquisition process
  • operation data is acquired by the sensor 103 while the operation device 101 is operating based on the control of the control device 102.
  • the operation data collection unit 11 collects the acquired operation data and writes it in the main storage device 105.
  • the operation data transmission unit 12 transmits operation data for a predetermined time collected by the operation data collection unit 11 to the abnormality detection device 200 via the communication device 106.
  • the operation data acquisition unit 21 of the abnormality detection device 200 acquires the operation data transmitted by the operation data transmission unit 12 via the communication device 201.
  • the operation data acquisition unit 21 writes the acquired operation data in the main storage device 203.
  • Step S102 Outlier tendency calculation processing
  • the deviation tendency calculation unit 22 of the abnormality detection apparatus 200 calculates deviation tendency information for the operation data acquired in step S101. Specifically, the outlier tendency calculation unit 22 identifies data out of other data among the target data, and uses each of a plurality of outlier detection methods to calculate an outlier score indicating the degree of outlier of the specified data. The outlier score is calculated using the evaluation data obtained from the target device 100 as input. The detachment tendency calculation unit 22 generates detachment tendency information from the calculated detachment score. The detachment tendency calculation unit 22 writes the calculated detachment tendency information in the main storage device 203.
  • Step S103 Abnormality identification process
  • the abnormality detection unit 23 of the abnormality detection apparatus 200 determines whether there is an abnormality and identifies an estimated abnormality pattern if there is an abnormality based on the off-trend information calculated in step S102. Specifically, the abnormality detection unit 23 calculates the similarity between the outlier sensitivity information indicating the sensitivity to each of the plurality of abnormal patterns for each of the plurality of outlier detection methods and the outlier tendency information calculated in step S102. It calculates for every and detects the abnormality of the object apparatus 100.
  • the abnormality detection unit 23 transmits the detection result to the state monitoring device 300 via the communication device 201.
  • the result reception unit 31 of the state monitoring device 300 receives the detection result transmitted by the abnormality detection unit 23 via the communication device 301.
  • the result output unit 32 outputs the detection result received by the result receiving unit 31 to the display device 304.
  • the operation data acquisition process (step S101 in FIG. 5) according to the first embodiment will be described.
  • the operation data reception unit 211 receives the operation data transmitted by the operation data transmission unit 12. Then, the operation data receiving unit 211 performs data processing for calculating outlier tendency information on the received operation data. Thereafter, the operation data storage unit 212 stores the processed operation data in the past data storage unit 261.
  • the number of operating data variables at time t is k.
  • the number of variables is the number of data columns determined by the number of sensors and the like. Therefore, the operation data transmitted at a time t can be handled as L ⁇ k matrix data in which data measurement times are arranged in the row direction and data of each variable are arranged in the column direction. Therefore, the operation data reception unit 211 processes the received operation data into L ⁇ k matrix data.
  • the operation data of the target device is time-series data with one variable
  • the data cut by the time length m is rearranged into the L ⁇ k matrix data and handled in the same manner as in the case of multivariate data. It is possible to handle.
  • the number of data points of the time series data of one variable of time length m is equal to L ⁇ k.
  • the data is separated by a certain length of time (for example, k), and the divided data is handled as k multivariate data, so that time series data and multivariate data are irrelevant. Can be handled simultaneously.
  • the time-series data is data having periodicity, the data for one cycle needs to match the delimiter time length (for example, k).
  • step S ⁇ b> 201 the past data acquisition unit 221 acquires past operation data accumulated in the past data storage unit 261.
  • the past data acquisition unit 221 writes the acquired past operation data in the main storage device 203.
  • step S202 the data integration unit 222 reads the operation data at the time t acquired in step S101 and the past operation data acquired in step S201 from the main storage device 203.
  • the data integration unit 222 integrates the operation data at time t and the past operation data to generate evaluation data.
  • the data integration unit 222 writes the generated evaluation data in the main storage device 203.
  • step S203 the detection processing unit 223 initializes the value of the counter i to 1.
  • step S ⁇ b> 204 the detection processing unit 223 reads out the algorithm of the i-th outlier detection method from the detection algorithm storage unit 262.
  • step S205 the detection processing unit 223 reads the evaluation data from the main storage device 203, performs outlier detection processing on the evaluation data using an algorithm of the i-th outlier detection method, and calculates an outlier score.
  • step S206 the detection processing unit 223 extracts only the outlier score for the operation data at time t, which is the evaluation time zone, from the outlier score calculated in step S205.
  • step S207 the detection processing unit 223 adds the outlier score extracted in step S206 to the outlier tendency information St (i).
  • step S208 the detection processing unit 223 adds 1 to the value of the counter i.
  • step S209 the detection processing unit 223 determines whether the value of the counter i is equal to or less than the number N of outlier detection methods. If the value of the counter i is equal to or less than the number N of outlier detection methods, the detection processing unit 223 returns the process to step S204 and calculates an outlier score by the next outlier detection method. On the other hand, when the value of the counter i is larger than the number N of outlier detection methods, the detection processing unit 223 advances the process to step S210.
  • step S210 the trend information generation unit 224 writes the outlier tendency information St set with the outlier score in step S206 in the main storage device 203 as the outlier tendency information of the operation data at time t.
  • the outlier score calculated in step S206 and the outlier tendency information determined in step S210 will be described.
  • the operation data at time t is L ⁇ k matrix data
  • the outlier score is calculated for the number L of rows.
  • the score for each row is normal or abnormal binary information.
  • the abnormality determination rate for each row is used as operation data at time t. Specifically, if the number of abnormal scores is f, the outlier score St (i) is f / L.
  • the outlier tendency information of the operation data at time t determined in step S210 is column vector data St composed of N elements in which outlier scores St (i) are integrated by the number N of outlier detection methods.
  • Outlier tendency information is column vector data St in which outlier scores St (i) are arranged in the order of outlier detection methods (comparison order).
  • step S205 an algorithm is executed by a processing block corresponding to each outlier detection method.
  • the corresponding processing block processes the evaluation data in a form corresponding to the outlier detection method, and then performs outlier detection on the evaluation data and calculates an outlier score. Only the processing of data and the execution part of the detection algorithm are configured for each method, so that the processes up to the generation of evaluation data can be made common.
  • step S ⁇ b> 301 the detachment sensitivity information acquisition unit 231 reads out detachment sensitivity information from the detachment sensitivity information storage unit 263.
  • the detachment sensitivity information acquisition unit 231 writes the read detachment sensitivity information in the main storage device 203.
  • step S302 the similarity calculation process is repeatedly executed by the number M of the abnormal patterns to be evaluated.
  • step S302 the similarity calculation unit 232 initializes the value of the counter j to 1.
  • step S ⁇ b> 303 the similarity calculation unit 232 reads out the detachment tendency information St calculated in step S ⁇ b> 102 and the detachment sensitivity information read out in step S ⁇ b> 301 from the main storage device 203.
  • the similarity calculation unit 232 calculates the similarity between the deviation tendency information St and the abnormal pattern (j) that is the j-th abnormal pattern of the deviation sensitivity information.
  • step S304 the similarity score calculation unit 233 adds the similarity calculated in step S303 to the similarity vector SVt (j).
  • step S305 the similarity calculation unit 232 adds 1 to the value of the counter j.
  • step S306 the similarity calculation unit 232 determines whether the value of the counter j is equal to or less than the number M of abnormal patterns. If the value of the counter j is equal to or less than the number M of abnormal patterns, the similarity calculation unit 232 returns the process to step S303 and calculates the similarity for the next abnormal pattern. On the other hand, when the value of the counter j is larger than the number M of abnormal patterns, the similarity calculation unit 232 advances the process to step S307.
  • step S307 the pattern determination unit 234 performs abnormality detection based on the similarity vector SVt in which the similarity is set in step S304. Then, the pattern determination unit 234 transmits the detection result to the state monitoring device 300. Specifically, the pattern determination unit 234 detects all abnormal patterns having similarities that exceed a certain threshold for each element of the similarity vector SVt as possible abnormal patterns. According to this detection method, it is possible to detect only when there is a possibility of occurrence of an abnormality of a certain level or more, so that an effect of reducing false detection can be expected as compared with the conventional method.
  • the pattern determination unit 234 detects only an abnormal pattern having the maximum similarity among the abnormal patterns having a similarity exceeding a certain threshold for each element of the similarity vector SVt as an abnormal pattern that may occur. May be. According to this detection method, it is possible to estimate the most likely abnormal pattern from among abnormal patterns that are likely to have a certain degree of abnormality. Therefore, it is possible to detect the cause of the abnormality.
  • the pattern determination unit 234 identifies an abnormal pattern having a high degree of similarity, that is, a possibility of occurrence, with respect to the operation status calculated from the operation data at time t by any one of these detection methods. And the pattern determination part 234 transmits to the state monitoring apparatus 300 as a detection result whether there was an abnormal pattern whose similarity is more than a threshold value, and the specified abnormal pattern.
  • Outlier sensitivity information is information that systematizes the sensitivity to each abnormal pattern of various outlier detection methods.
  • N the number of outlier detection methods used
  • M the number of abnormal patterns
  • outlier sensitivity information is held as N ⁇ M matrix data.
  • the data of n rows and m columns of the outlier sensitivity information represents the sensitivity of the nth outlier detection method algorithm (outlier detection method (n)) to the mth abnormal pattern (abnormal pattern (m)). It shows that the abnormality detection capability with respect to the abnormality pattern (m) using the outlier detection method (n) is higher as the sensitivity value is higher.
  • High abnormality detection capability means that abnormality detection is easy.
  • Outlier sensitivity information is stored as N ⁇ M matrix data. Therefore, the abnormal pattern (j) that is the j-th abnormal pattern of the outlier sensitivity information in the process of step S303 in FIG. 8 is the j-th column data of the outlier sensitivity information. Therefore, the abnormal pattern (j) is column vector data composed of N elements, which is the number of outlier detection methods. The sensitivity of the abnormal pattern (j) is arranged in the order of outlier detection methods (comparison order) that is the same as the outlier tendency information.
  • the abnormal pattern may be a way of losing data based on a physical phenomenon, or may be a way of losing that can be generated simply as numeric string data.
  • the former is noise superposition due to degradation of the signal transmission path, and the latter is an increase in amplitude of time-series data. If it is clear what kind of failure occurs as a physical phenomenon and what kind of characteristic it appears in the data, the information is removed and arranged into sensitivity information, and the abnormality actually occurs Therefore, the cause of the abnormality can be easily estimated. On the other hand, even when the physical phenomenon is not grasped, the abnormal pattern can be estimated, so that it is possible to easily narrow down the cause of the abnormality or failure and analyze the cause.
  • the user can arbitrarily select the outlier detection method to be selected and the information holding method of the abnormal pattern to be detected.
  • the off sensitivity information Stored in the off sensitivity information.
  • the sensitivity of a specific abnormal pattern for a specific outlier detection method the actual value of detection accuracy (true positive rate or relevance rate, etc.) when a specific outlier detection method is applied to past data is adopted. It may be set arbitrarily by the user.
  • the minimum necessary amount will be determined from the combination of all abnormality patterns prepared in advance and all outlier detection methods. Only the combinations may be extracted and the outlier detection table may be reorganized. Thereby, abnormality detection can be performed efficiently.
  • some abnormality occurs in the target device 100, it is not necessarily a single abnormality derived from a single cause at a single location. Rather, in many cases, a plurality of abnormalities overlap and often appear as one abnormal pattern. Therefore, variations of the abnormal pattern are assumed for all combinations of a single abnormal pattern derived from a single cause. That is, when the number of single abnormal patterns is assumed to be P patterns, it is necessary to assume an abnormality of 2 P patterns at the maximum.
  • FIG. 9 to 12 show examples of information holding methods for out-of-range sensitivity information.
  • the sensitivity expression for the outlier detection method (n) and the abnormal pattern abnormality pattern (m) is expressed by a binary expression method (method 1) in which the sensitivity is expressed in binary.
  • a level expression method in which the level of sensitivity is expressed as a real number of [0, 1].
  • the level expression method is a method 2 in which each data of the N ⁇ M matrix is expressed by a real number of [0, 1], and an abnormal pattern (N ⁇ Method 3 standardized so that the total value becomes 1 in the column direction of the M matrix) and the total value becomes 1 for each outlier detection method (in the row direction of the N ⁇ M matrix) as shown in FIG.
  • N ⁇ Method 3 standardized so that the total value becomes 1 in the column direction of the M matrix
  • method 2 is a format in which the sensitivity to the outlier detection method (n) and the abnormal pattern abnormal pattern (m) is independently maintained.
  • Method 3 is a method expressing the superiority or insensitivity of each outlier detection method for each abnormal pattern.
  • Method 5 is a method expressing the superiority or insensitivity of each abnormal pattern for each outlier detection method.
  • the user can arbitrarily select which method to select.
  • the level is expressed by a real number of [0, 1], but the range of values that the real number can take is not limited to [0, 1], but may be a certain reference range.
  • the reference range is [0, reference value]
  • the methods 3 and 4 may be standardized so that the total value becomes the reference value.
  • the learning process is a process that performs at least one of model learning and parameter optimization of each outlier detection method.
  • the learning process is executed irregularly at long-term intervals such as every year.
  • step S401 the past data acquisition unit 241 acquires past operation data accumulated in the past data storage unit 261 as learning data.
  • the past data acquisition unit 241 writes the acquired learning data in the main storage device 203.
  • step S402 the learning unit 242 initializes the counter i to 1.
  • step S403 the learning unit 242 extracts at least one of the current model and the current parameter of the outlier detection method (i).
  • step S404 the learning unit 242 reads the learning data from the main storage device 203, and performs at least one of model learning and parameter optimization based on the learning data.
  • step S405 when the learning unit 242 performs model learning in step S404, the learning unit 242 updates the model in the detection algorithm storage unit 262 with the learned model.
  • the learning unit 242 updates the parameter of the detection algorithm storage unit 262 with the optimized parameter.
  • the learning unit 242 adds 1 to the value of the counter i.
  • the learning unit 242 determines whether or not the value of the counter i is equal to or less than the number N of outlier detection methods. If the value of the counter i is equal to or less than the number N of outlier detection methods, the learning unit 242 returns the process to step S403 and performs processing for the next outlier detection method. On the other hand, when the value of the counter i is larger than the number N of outlier detection methods, the detection processing unit 223 ends the process.
  • the frequency of execution of the learning process also affects the abnormality detection accuracy. If the abnormality detection accuracy that satisfies the user is reached, the learning process need not be executed. Therefore, for example, the model update is performed with a certain frequency at an early stage of the introduction of the abnormality detection apparatus 200, but the update may be stopped after the update is performed to some extent and the accuracy is improved. Also, the necessity of model learning and the necessity of parameter optimization often differ for each selected outlier detection method. Therefore, there is a case where it is not necessary to perform model learning and parameter optimization all at once for all outlier detection methods. In this case, the learning process may be executed only for a specific outlier detection method.
  • the outlier sensitivity information generation processing is processing for generating outlier sensitivity information used in the abnormality identification processing (step S103 in FIG. 5).
  • the detachment sensitivity information generation process needs to be executed at least once before the abnormality identification process is executed.
  • the outlier sensitivity information generation process is executed irregularly at long-term intervals, for example, every year, as in the learning process.
  • step S501 the information generation unit 251 selects a target outlier detection method.
  • step S502 the information generation unit 251 selects a target abnormal pattern.
  • step S503 the information generation unit 251 sets data in the column corresponding to the detection method selected in step S501 and the abnormal pattern selected in step S502 in the outlier sensitivity information, and sets new outlier sensitivity information. Generate.
  • step S504 the information storage unit 252 updates the outlier sensitivity information stored in the outlier sensitivity information storage unit 263 with the outlier sensitivity information generated in step S503.
  • the combination of the outlier detection method to be used and the assumed abnormal pattern can be arbitrarily changed even while the abnormality detection device 200 is in use. However, when changing the outlier sensitivity information, it is necessary to execute the outlier sensitivity information generation processing and the learning processing again.
  • the abnormality detection apparatus 200 calculates the similarity between the detachment sensitivity information and the detachment tendency information for each abnormality pattern. Thereby, it is possible to appropriately detect an abnormality and to easily identify what kind of abnormality has occurred.
  • the abnormality detection apparatus 200 realizes abnormality detection and abnormality pattern estimation by utilizing outlier sensitivity information, which is a relational table that systematizes the sensitivity to each abnormality pattern of various outlier detection methods. .
  • outlier sensitivity information which is a relational table that systematizes the sensitivity to each abnormality pattern of various outlier detection methods.
  • the abnormality detection apparatus 200 can reduce detection omissions for all abnormalities by covering every abnormality pattern in advance with the sensitivity information.
  • the abnormality detection apparatus 200 according to Embodiment 1 can be applied without customizing the model for each target device 100 in advance. For this reason, the effect of anomaly detection can be expected even for complicated devices whose physical models cannot be clarified and other devices that are black boxes.
  • the operation data collection unit 11, the operation data transmission unit 12, the operation data acquisition unit 21, the detachment tendency calculation unit 22, the abnormality detection unit 23, the parameter learning unit 24, and detachment sensitivity information generation The functions of the unit 25, the result receiving unit 31, and the result output unit 32 are realized by software. However, as a first modification, the functions of the above-described units may be realized by hardware. The first modification will be described with respect to differences from the first embodiment.
  • the target device 100 includes an electronic circuit 107 instead of the arithmetic device 104 and the main storage device 105.
  • the abnormality detection device 200 includes an electronic circuit 205 instead of the arithmetic device 202 and the main storage device 203.
  • the state monitoring device 300 includes an electronic circuit 305 instead of the arithmetic device 302 and the main storage device 303.
  • the electronic circuit 107 is a dedicated circuit that realizes the functions of the operation data collection unit 11 and the operation data transmission unit 12 and the function of the main storage device 105.
  • the electronic circuit 205 is dedicated for realizing the functions of the operation data acquisition unit 21, the detachment tendency calculation unit 22, the abnormality detection unit 23, the parameter learning unit 24, the detachment sensitivity information generation unit 25, and the function of the main storage device 203. Circuit.
  • the electronic circuit 305 is a dedicated circuit for realizing the functions of the result receiving unit 31 and the result output unit 32 and the function of the main storage device 303.
  • the electronic circuits 107, 205, and 305 include a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) is assumed.
  • the functions of the respective units may be realized by one electronic circuit 107, 205, 305, or the functions of the respective units may be realized by being distributed to a plurality of electronic circuits 107, 205, 305.
  • ⁇ Modification 2> As a second modification, some functional components may be realized by hardware, and other functional components may be realized by software.
  • the arithmetic devices 104, 202, and 302, the main storage devices 105, 203, and 303, and the electronic circuits 107, 205, and 305 are referred to as processing circuits. That is, the functions of the above units are realized by the processing circuit.
  • Embodiment 2 is different from the first embodiment in that the abnormality detection device 200 is divided into three devices. In the second embodiment, this different point will be described, and the description of the same point will be omitted.
  • the abnormality detection system 1 is different from the abnormality detection system 1 shown in FIG. 1 in that it includes a detection device 500, a learning device 600, and a database device 700 in place of the abnormality detection device 200.
  • the detection device 500, the learning device 600, and the database device 700 may be substantial servers or may be configured by a cloud.
  • the detection device 500 includes a communication device 501, an arithmetic device 502, and a main storage device 503.
  • the learning device 600 includes a communication device 601, an arithmetic device 602, and a main storage device 603.
  • the database device 700 includes a communication device 701, a computing device 702, a main storage device 703, and an external storage device 704.
  • the detection apparatus 500 includes an operation data acquisition unit 21, a detachment tendency calculation unit 22, and an abnormality detection unit 23 as functional components.
  • the learning device 600 includes a parameter learning unit 24 and a detachment sensitivity information generation unit 25 as functional components.
  • the database device 700 includes a storage unit 26 as a functional component. That is, in the second embodiment, the abnormality detection device 200 shown in FIG. 3 includes a detection device 500 that executes abnormality detection processing, a learning device 600 that executes learning processing and outlier sensitivity information generation processing, and a database that stores data.
  • the apparatus 700 is divided.
  • the abnormality detection process, the learning process, and the outlier sensitivity information generation process can be executed independently. Therefore, it is easy to secure the execution speed of the abnormality detection process executed in the online process.
  • Embodiment 3 is different from the first and second embodiments in that a function for performing an abnormality detection process is provided in the target device 100.
  • this different point will be described, and the description of the same point will be omitted.
  • the abnormality detection system 1 is different from the abnormality detection system 1 shown in FIG. 16 in that the abnormality detection system 1 is not provided.
  • the target device 100 is different from the target device 100 shown in FIG. 2 in that the target device 100 includes, as functional components, an operation data acquisition unit 21, a detachment tendency calculation unit 22, and an abnormality detection unit 23 that are included in the detection device 500. That is, in the third embodiment, the target device 100 is configured to execute the abnormality detection process.
  • the abnormality detection process can be processed by edge computing.
  • edge computing it is not necessary to constantly transmit and receive data such as operation data for the purpose of continuous monitoring, and continuous communication can be limited to only transmission of abnormality determination results and abnormality pattern estimation results. Therefore, it is possible to reduce the communication amount of the network 400.
  • the configuration obtained by modifying the configuration of the abnormality detection system 1 according to the second embodiment has been described.
  • the configuration of the abnormality detection system 1 according to Embodiment 1 can be modified.

Abstract

外れ傾向計算部(22)は、対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器から得られた評価データを入力として外れスコアを計算して、計算された外れスコアから外れ傾向情報を計算する。異常検知部(23)は、複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、計算された外れ傾向情報との類似度を異常パターン毎に計算して、対象機器の異常を検知する。

Description

異常検知装置、異常検知方法及び異常検知プログラム
 この発明は、対象機器から得られたデータに基づき対象機器の異常を検知する技術に関する。
 予防保全及び機器メンテナンスの分野において、メンテナンス実施及び予備品管理を無駄なく必要最小限に行うため、機器の劣化及び故障の兆候を検知又は予測する技術開発が行われている。センサネットワーク及びビッグデータ解析に注目が集まる中、機器稼働状況をセンシングし、物理的解析又は統計予測に基づき異常検知又は故障予測する技術が開発されつつある。
 機器の異常検知に対しては、機器の稼働データを収集し、正常時及び異常時のデータの特徴を把握した上で異常検知モデルを構築するアプローチをとる場合が多い。
 特許文献1に記載された手法では、プラントでのプロセス監視において、複数の異常診断モデルを用いて異常の検知及び要因の提示を行う。特許文献1では、主成分分析又は離散ウェーブレット変換を活用した異常診断モデルを事前に構築しておき、異常診断モデルをプロセス監視におけるオンラインでの異常検知に適用している。
 ここで、異常診断モデルを構築するためには、正常時及び異常時のデータ特徴を解析し、機器状態の推定が可能な統計的な特徴量を把握する必要がある。しかし、例えば発電機及び昇降機といった長寿命機器の多くは、故障前にメンテナンスされることから、製造業者とメンテナンス事業者と機器導入者(ユーザ)とのいずれも故障データを保有していない場合が多い。そのため、故障時の機器状態及び計測データの変動を事前学習して異常検知を行う方式をとることが困難である。
 外れ値検知技術は、正常及び異常の二値判定を基本とし、データ全体の中から外れているデータを抽出する技術である。外れ値検知技術には、統計的手法と機械学習系手法と深層学習系手法といった様々な手法が存在する。外れ値検知手法を機器の異常検知に適用する場合、数ある外れ値検知手法の中から機器センシングデータの特徴を元に最適な手法が選択され、逐次収集される機器の稼働データに対して正常及び異常が判定される。
 外れ値検知技術に基づく異常検知は、評価データが正常時から外れる場合に、異常として検知することが可能である。そのため、正常データさえあれば異常検知が可能となる。つまり、故障データが少ない、あるいは全く存在しない場合においても理論上異常検知が可能である。このことから、未知の故障に対する検知及び予測に対して有効な手法であると言える。
特開2012-155361号公報
 外れ値検知技術に基づく異常検知は、正常データがあれば正常及び異常を判定できる手法である。しかし、外れ値検知技術に基づく異常検知は、従来的な適用をするだけでは正常及び異常の二値情報以上のことが分からない。そのため。どのような異常が発生しているかはエンジニアらの点検による故障判定及び原因解明が必要となる。
 また、対象機器には様々な異常パターンが発生する。あるアルゴリズムに則った外れ値検知手法を適用するだけでは、アルゴリズムに則らない異常は検知できない場合がある。外れ値検知技術は手法毎に検知アルゴリズムが異なることから、検知漏れする異常パターンも手法毎に異なると考えられ、最適手法を選択するのは難しい。
 この発明は、適切に異常を検知可能にするとともに、どのような異常が発生しているかの特定を容易にすることを目的とする。
 この発明に係る異常検知装置は、
 対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器から得られた評価データを入力として外れスコアを計算して、計算された前記外れスコアから外れ傾向情報を計算する外れ傾向計算部と、
 前記複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、前記外れ傾向計算部によって計算された前記外れ傾向情報との類似度を異常パターン毎に計算して、前記対象機器の異常を検知する異常検知部と
を備える。
 この発明では、外れ感度情報と外れ傾向情報との類似度を異常パターン毎に計算する。これにより、適切に異常を検知可能にするとともに、どのような異常が発生しているかの特定を容易にすることが可能である。
実施の形態1に係る異常検知システム1のハードウェア構成図。 実施の形態1に係る対象機器100の機能構成図。 実施の形態1に係る異常検知装置200の機能構成図。 実施の形態1に係る状態監視装置300の機能構成図。 実施の形態1に係る異常検知処理のフローチャート。 実施の形態1に係る稼働データ取得処理の説明図。 実施の形態1に係る外れ傾向計算処理のフローチャート。 実施の形態1に係る異常特定処理のフローチャート。 実施の形態1に係る外れ感度情報の方式1を示す図。 実施の形態1に係る外れ感度情報の方式2を示す図。 実施の形態1に係る外れ感度情報の方式3を示す図。 実施の形態1に係る外れ感度情報の方式4を示す図。 実施の形態1に係る学習処理のフローチャート。 実施の形態1に係る外れ感度情報生成処理のフローチャート。 変形例1に係る異常検知システム1のハードウェア構成図。 実施の形態2に係る異常検知システム1のハードウェア構成図。 実施の形態2に係る検知装置500と、学習装置600と、データベース装置700との機能構成図。 実施の形態3に係る異常検知システム1のハードウェア構成図。 実施の形態2に係る対象機器100の機能構成図。
 実施の形態1.
 ***構成の説明***
 図1を参照して、実施の形態1に係る異常検知システム1のハードウェア構成を説明する。
 異常検知システム1は、対象機器100と、異常検知装置200と、状態監視装置300とを備える。対象機器100と、異常検知装置200と、状態監視装置300とは、LAN(Local Area Network)といったネットワーク400を介して接続される。異常検知装置200と状態監視装置300とは、実体のあるサーバでもよいし、クラウドにより構成されてもよい。ネットワーク400は、仮想ネットワークでもよい。
 対象機器100は、異常検知の対象となる装置である。
 対象機器100は、稼働機器101と、制御装置102と、センサ103と、演算装置104と、主記憶装置105と、通信装置106とのハードウェアを備える。
 稼働機器101は、異常検知の対象となる部分である。稼働機器101は、具体例としては、発電機、昇降機といった機器である。
 制御装置102は、稼働機器101を制御する。制御装置102は、具体例としては、マイクロコンピュータである。
 センサ103は、稼働機器101の稼働状況をセンシングする。センサ103は、具体例としては、温度センサ、圧力センサ、又は、光センサである。
 演算装置104は、プロセッシングを行うIC(Integrated Circuit)であり、センサ103のセンシングにより得られた稼働データを異常検知装置200に送信するための処理を実行する。演算装置104は、制御装置102の制御情報を稼働データに含めて送信してもよい。演算装置104は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又は、GPU(Graphics Processing Unit)である。
 主記憶装置105は、制御情報と稼働データとを一時記憶する。主記憶装置105は、具体例としては、SRAM(Static Random Access Memory)、又は、DRAM(Dynamic Random Access Memory)である。
 通信装置106は、演算装置104の処理に従い、制御情報と稼働データとを異常検知装置200に送信する。通信装置106は、具体例としては、Ethernet(登録商標)、又は、USB(Universal Serial Bus)のボードである。
 異常検知装置200は、対象機器100の異常検知を行う装置である。
 異常検知装置200は、通信装置201と、演算装置202と、主記憶装置203と、外部記憶装置204とを備える。
 通信装置201は、制御情報と稼働データとを対象機器100から受信する。また、通信装置201は、異常検知の結果を状態監視装置300に送信する。通信装置201は、具体例としては、Ethernet(登録商標)、又は、USBのボードである。
 演算装置202は、異常検知に関する処理を実行する。演算装置202は、具体例としては、CPU、DSP、又は、GPUである。
 主記憶装置203は、演算装置202によって実行された処理の処理結果を一時記憶する。主記憶装置203は、具体例としては、SRAM、又は、DRAMである。
 外部記憶装置204は、各種データを保管する。外部記憶装置204は、具体例としては、HDD(Hard Disk Drive)である。また、外部記憶装置204は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
 状態監視装置300は、異常検知装置200によって検知された異常を示すデータを出力する装置である。状態監視装置300は、具体例としては、監視センターのモニタリング装置と使用者の所有するPC(Personal Computer)といった装置である。
 状態監視装置300は、通信装置301と、演算装置302と、主記憶装置303と、表示装置304とを備える。
 通信装置301は、異常検知の結果を異常検知装置200から受信する。通信装置301は、具体例としては、Ethernet(登録商標)、又は、USBのボードである。
 演算装置302は、結果出力の処理を実行する。演算装置302は、具体例としては、CPU、DSP、又は、GPUである。
 主記憶装置303は、演算装置302によって実行された処理の処理結果を一時記憶する。主記憶装置303は、具体例としては、SRAM、又は、DRAMである。
 表示装置304は、結果出力を行う。具体例としては、LCD(Liquid Crystal Display)である。
 図2を参照して、実施の形態1に係る対象機器100の機能構成を説明する。
 対象機器100は、機能構成要素として、稼働データ収集部11と、稼働データ送信部12とを備える。
 稼働データ収集部11と、稼働データ送信部12との機能は、ソフトウェアにより実現される。稼働データ収集部11と、稼働データ送信部12との機能を実現するプログラムが演算装置104により読み込まれ実行されることにより、機能が実現される。
 図3を参照して、実施の形態1に係る異常検知装置200の機能構成を実現する。
 異常検知装置200は、機能構成要素として、稼働データ取得部21と、外れ傾向計算部22と、異常検知部23と、パラメータ学習部24と、外れ感度情報生成部25と、記憶部26とを備える。
 稼働データ取得部21と、外れ傾向計算部22と、異常検知部23と、パラメータ学習部24と、外れ感度情報生成部25との機能は、ソフトウェアにより実現される。稼働データ取得部21と、外れ傾向計算部22と、異常検知部23と、パラメータ学習部24と、外れ感度情報生成部25との機能を実現するプログラムが演算装置202により読み込まれ実行されることにより、機能が実現される。対象機器100の機能構成要素の機能を実現するプログラムは、外部記憶装置204に記憶されている。
 記憶部26の機能は、外部記憶装置204により実現される。
 稼働データ取得部21は、稼働データ受信部211と、稼働データ蓄積部212とを備える。
 外れ傾向計算部22は、過去データ取得部221と、データ統合部222と、検知処理部223と、傾向情報生成部224とを備える。検知処理部223は、外れ検知手法毎に処理ブロックを有する。図1では、検知処理部223は、手法1から手法NまでのN個の手法に対応する処理ブロックを有する。
 異常検知部23は、外れ感度情報取得部231と、類似度計算部232と、類似スコア計算部233と、パターン判定部234とを備える。
 パラメータ学習部24は、過去データ取得部241と、学習部242とを備える。学習部242は、外れ検知手法毎に処理ブロックを有する。図1では、学習部242は、検知処理部223と同様に、手法1から手法NまでのN個の手法に対応する処理ブロックを有する。
 外れ感度情報生成部25は、情報生成部251と、情報蓄積部252とを備える。
 記憶部26は、過去データ記憶部261と、検知アルゴリズム記憶部262と、外れ感度情報記憶部263とを備える。
 図4を参照して、実施の形態1に係る状態監視装置300の機能構成を説明する。
 状態監視装置300は、機能構成要素として、結果受信部31と、結果出力部32とを備える。
 結果受信部31と、結果出力部32との機能は、ソフトウェアにより実現される。結果受信部31と、結果出力部32との機能を実現するプログラムが演算装置302により読み込まれ実行されることにより、機能が実現される。
 図5から図13を参照して、実施の形態1に係る異常検知システム1の動作を説明する。
 実施の形態1に係る異常検知システム1の動作は、実施の形態1に係る異常検知方法に相当する。また、実施の形態1に係る異常検知システム1の動作は、実施の形態1に係る異常検知プログラムの処理に相当する。
 図5を参照して、実施の形態1に係る異常検知処理を説明する。
 異常検知処理は、対象機器100の異常を検知する処理である。異常検知処理は、対象機器100と、異常検知装置200の稼働データ取得部21と外れ傾向計算部22と異常検知部23と、状態監視装置300とによって実行される。異常検知処理は、任意のタイミングで実行されてもよいし、定期的に実行されてもよい。
 (ステップS101:稼働データ取得処理)
 対象機器100では、制御装置102の制御に基づく稼働機器101の稼働中にセンサ103によって稼働データが取得される。稼働データ収集部11は、取得された稼働データを収集して主記憶装置105に書き込む。稼働データ送信部12は、稼働データ収集部11によって収集された一定時間分の稼働データを、通信装置106を介して異常検知装置200に送信する。
 異常検知装置200の稼働データ取得部21は、稼働データ送信部12によって送信された稼働データを、通信装置201を介して取得する。稼働データ取得部21は、取得された稼働データを主記憶装置203に書き込む。
 (ステップS102:外れ傾向計算処理)
 異常検知装置200の外れ傾向計算部22は、ステップS101で取得された稼働データに対する外れ傾向情報を計算する。
 具体的には、外れ傾向計算部22は、対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器100から得られた評価データを入力として外れスコアを計算する。外れ傾向計算部22は、計算された外れスコアから外れ傾向情報を生成する。外れ傾向計算部22は、計算された外れ傾向情報を主記憶装置203に書き込む。
 (ステップS103:異常特定処理)
 異常検知装置200の異常検知部23は、ステップS102で計算された外れ傾向情報に基づき、異常の有無の判定、及び、異常がある場合には推定される異常パターンの特定を行う。
 具体的には、異常検知部23は、複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、ステップS102で計算された外れ傾向情報との類似度を異常パターン毎に計算して、対象機器100の異常を検知する。異常検知部23は、通信装置201を介して、検知結果を状態監視装置300に送信する。
 状態監視装置300の結果受信部31は、異常検知部23によって送信された検知結果を、通信装置301を介して受信する。結果出力部32は、結果受信部31によって受信された検知結果を表示装置304に出力する。
 図6を参照して、実施の形態1に係る稼働データ取得処理(図5のステップS101)を説明する。
 稼働データ受信部211は、稼働データ送信部12によって送信された稼働データを受信する。すると、稼働データ受信部211は、受信された稼働データに対して、外れ傾向情報計算向けのデータ加工を行う。その後、稼働データ蓄積部212は、加工した稼働データを過去データ記憶部261に蓄積する。
 ここで、時刻tに一度に送信される稼働データは、時間長m(=時刻t-mから時刻tまで)で切り取ったデータであるとし、時刻tの稼働データと呼ばれる。時間長mでは、一定間隔でL回センシングが行われるとする。また、時刻tの稼働データの変数の数をkとする。変数の数とは、センサ数等によって決まるデータカラム数である。そのため、時刻tに一度に送信される稼働データは、行方向にデータ計測時刻、列方向に各変数のデータを並べたL×kの行列データとして取り扱うことができる。そこで、稼働データ受信部211は、受信された稼働データをL×kの行列データに加工する。
 なお、対象機器の稼働データが1変数の時系列データである場合には、時間長mで切り取ったデータをL×kの行列データに並び替えて取り扱うことにより、多変量データの場合と同様に取り扱うことが可能である。但し、時間長mの1変数の時系列データのデータ点数がL×kに等しいと仮定している。このように対象データに時系列データが含まれる場合はある時間長(例えばk)でデータを区切り、区切ったデータをk個の多変量データとして取り扱うことで、時系列データも多変量データも無関係に同時に取り扱うことが可能となる。但し、時系列データが周期性を有するデータの場合は、1周期分のデータが区切りの時間長(例えばk)と一致している必要がある。
 図7を参照して、実施の形態1に係る外れ傾向計算処理(図5のステップS102)を説明する。
 ステップS201では、過去データ取得部221は、過去データ記憶部261に蓄積された過去の稼働データを取得する。過去データ取得部221は、取得された過去の稼働データを主記憶装置203に書き込む。
 ステップS202では、データ統合部222は、ステップS101で取得された時刻tの稼働データと、ステップS201で取得された過去の稼働データとを主記憶装置203から読み出す。データ統合部222は、時刻tの稼働データと過去の稼働データとを統合して、評価データを生成する。データ統合部222は、生成された評価データを主記憶装置203に書き込む。
 続いて、ステップS203からステップS209において、外れ値検知手法の数Nだけ外れスコアの計算処理が繰り返し実行される。
 ステップS203では、検知処理部223は、カウンタiの値を1に初期化する。ステップS204では、検知処理部223は、i番目の外れ値検知手法のアルゴリズムを検知アルゴリズム記憶部262から読み出す。ステップS205では、検知処理部223は、評価データを主記憶装置203から読み出し、i番目の外れ値検知手法のアルゴリズムにより評価データに対する外れ値検知処理を実行して、外れスコアを計算する。ステップS206では、検知処理部223は、ステップS205で計算された外れスコアから、評価時間帯である時刻tの稼働データに対する外れスコアのみを抽出する。ステップS207では、検知処理部223は、ステップS206で抽出された外れスコアを、外れ傾向情報St(i)に追加する。ステップS208では、検知処理部223は、カウンタiの値に1加算する。ステップS209では、検知処理部223は、カウンタiの値が外れ値検知手法の数N以下であるか否かを判定する。
 検知処理部223は、カウンタiの値が外れ値検知手法の数N以下である場合には、処理をステップS204に戻して、次の外れ値検知手法により外れスコアを計算する。一方、検知処理部223は、カウンタiの値が外れ値検知手法の数Nより大きい場合には、処理をステップS210に進める。
 ステップS210では、傾向情報生成部224は、ステップS206で外れスコアが設定された外れ傾向情報Stを、時刻tにおける稼働データの外れ傾向情報として、主記憶装置203に書き込む。
 ステップS206で計算される外れスコアと、ステップS210で確定する外れ傾向情報とを説明する。
 時刻tにおける稼働データがL×kの行列データである場合、外れスコアは行数L分計算される。行毎のスコアは正常又は異常の二値情報である。外れ傾向情報として取り扱う場合には、行毎の異常判定率を時刻tにおける稼働データとして用いる。具体的には、異常スコアの数をfとすると、外れスコアSt(i)はf/Lとなる。
 そして、ステップS210で確定する時刻tにおける稼働データの外れ傾向情報は、外れスコアSt(i)が外れ値検知手法の数N分だけ統合されたN個の要素からなる列ベクトルデータStである。外れ傾向情報は、外れ値検知手法の順(比較順)に外れスコアSt(i)が並べられた列ベクトルデータStである。
 ここで、ステップS205では、外れ値検知手法毎に対応する処理ブロックによってアルゴリズムが実行される。具体的には、対応する処理ブロックが、外れ値検知手法に対応した形態に評価データを加工した上で、評価データに対する外れ値検知を行い、外れスコアを計算する。データの加工と検知アルゴリズムの実行部分のみ手法別の構成とすることにより、評価データの生成までの処理を共通化できる。
 図8を参照して、実施の形態1に係る異常特定処理(図5のステップS103)を説明する。
 ステップS301では、外れ感度情報取得部231は、外れ感度情報を外れ感度情報記憶部263から読み出す。外れ感度情報取得部231は、読み出された外れ感度情報を主記憶装置203に書き込む。
 続いて、ステップS302からステップS306において、評価対象の異常パターンの数Mだけ類似度の計算処理が繰り返し実行される。
 ステップS302では、類似度計算部232は、カウンタjの値を1に初期化する。ステップS303では、類似度計算部232は、ステップS102で計算された外れ傾向情報Stと、ステップS301で読み出された外れ感度情報とを主記憶装置203から読み出す。類似度計算部232は、外れ傾向情報Stと外れ感度情報のj番目の異常パターンである異常パターン(j)との類似度を計算する。類似度の計算方法としては、相関計算と、ノルム計算(距離計算)といった一般的な計算方法を使用することができる。ステップS304では、類似スコア計算部233は、ステップS303で計算された類似度を類似度ベクトルSVt(j)に追加する。ステップS305では、類似度計算部232は、カウンタjの値に1加算する。ステップS306では、類似度計算部232は、カウンタjの値が異常パターンの数M以下であるか否かを判定する。
 類似度計算部232は、カウンタjの値が異常パターンの数M以下である場合には、処理をステップS303に戻して、次の異常パターンについての類似度を計算する。一方、類似度計算部232は、カウンタjの値が異常パターンの数Mより大きい場合には、処理をステップS307に進める。
 ステップS307では、パターン判定部234は、ステップS304で類似度が設定された類似度ベクトルSVtに基づき、異常検知を行う。そして、パターン判定部234は、検知結果を状態監視装置300に送信する。
 具体的には、パターン判定部234は、類似度ベクトルSVtの各要素に対してある閾値を超えた類似度を持つ異常パターン全てを、発生可能性のある異常パターンとして検知する。この検知方法によれば、ある程度以上の異常発生可能性がある場合のみを検知できるため、従来方法と比較して誤検知が少なくなる効果が期待できる。
 また、パターン判定部234は、類似度ベクトルSVtの各要素に対してある閾値を超えた類似度を持つ異常パターンのうち、最大類似度を持つ異常パターンのみを発生可能性のある異常パターンとして検知してもよい。この検知方法によれば、ある程度以上の異常発生可能性がある異常パターンの中から可能性の最も高い異常パターンを推定できる。そのため、異常原因を絞り込んだ検知が可能となる。
 パターン判定部234は、これらいずれかの検知方法により、時刻tの稼働データから算出された稼働状況について類似度の高い、つまり発生可能性の高い異常パターンを特定する。そして、パターン判定部234は、類似度が閾値以上の異常パターンがあったか否かと、特定された異常パターンとを検知結果として状態監視装置300に送信する。
 図9から図12を参照して、実施の形態1に係る外れ感度情報を説明する。
 外れ感度情報とは、様々な外れ値検知手法の各異常パターンに対する感度を体系整理した情報である。使用する外れ値検知手法の数がN、異常パターンの数がMである場合、外れ感度情報はN×Mの行列データとして保持される。外れ感度情報のn行m列のデータは、n番目の外れ値検知手法アルゴリズム(外れ値検知手法(n))のm番目の異常パターン(異常パターン(m))に対する感度を表す。感度の値が高いほど、外れ値検知手法(n)を用いた異常パターン(m)に対する異常検知能力が高いことを示す。異常検知能力が高いとは、異常検知が容易であるという意味である。
 外れ感度情報はN×Mの行列データとして保持される。そのため、図8のステップS303の処理における外れ感度情報のj番目の異常パターンである異常パターン(j)とは、外れ感度情報のj列目データである。したがって、異常パターン(j)は、外れ値検知手法の数であるN個の要素からなる列ベクトルデータである。異常パターン(j)は、外れ傾向情報と同じ外れ値検知手法の順(比較順)に感度が並べられている。
 異常パターンは、物理現象に基づいたデータの外れ方であってもよいし、単純に数値列データとして発生し得る外れ方であってもよい。
 例えば、前者であれば、信号伝送経路の劣化に起因するノイズ重畳であり、後者であれば、時系列データの振幅増大変化である。物理現象としてどんな故障が発生し、それがデータにどのような特徴として発現するかが判明していれば、その情報を外れ感度情報に整理しておくことで、実際にその異常が発生した場合に容易に異常原因の推定が可能となる。一方、物理現象が掴めていない場合でも、異常パターンを推定可能であることから、異常あるいは故障の原因絞り込み及び原因分析を容易化することができる。
 また、選択する外れ値検知手法及び検知したい異常パターンの情報保持方法は、使用者が任意に選択することができる。一般的には、機器動作(物理現象)のセンシングデータに対して発生し得る全ての異常パターン、及び、発生し得る異常パターンの少なくとも1つを検知可能な全ての外れ値検知手法の組合せを、外れ感度情報に保持しておく。これにより、全ての異常パターンに対して異常検知できるとともに、異常パターンの推定も実行することが可能となる。ここで、特定の外れ値検知手法に対する特定の異常パターンの感度については、過去データに対する特定の外れ値検知手法を適用した際の検知精度の実績値(真陽性率又は適合率等)を採用してもよいし、使用者が任意に設定してもよい。
 また、対象機器の稼働データに対して事前にどんな異常パターンが発生するか判明している場合は、事前に用意した全ての異常パターンと全ての外れ値検知手法との組合せから、必要最小限な組合せのみを抽出して外れ感知表を再編成してもよい。これにより、効率的に異常検知を実行可能になる。
 また、対象機器100に何らかの異常が発生する場合、単箇所における単独原因に由来する単一の異常とは限らない。むしろ多くの場合が複数の異常が重なって1つの異常パターンとして発現する場合が多い。そのため、異常パターンのバリエーションは、単一の原因に由来する単一の異常パターンの全ての組合せ分想定する。つまり、単一の異常パターンの数がPパターン想定される場合、最大で2パターンの異常を想定する必要がある。
 図9から図12は、外れ感度情報の情報保持方法の例を示す。
 図9に示すように、外れ値検知手法(n)と異常パターン異常パターン(m)とに対する感度の表現は、感度の良し悪しが二値表現される二値表現方式(方式1)と、図10から図12に示すように、感度の良し悪しが[0,1]の実数でレベル表現されるレベル表現方式とがある。
 レベル表現方式は、図9に示すように、N×M行列の各データそれぞれが[0,1]の実数で表現されている方式2と、図10に示すように、異常パターン毎(N×M行列の列方向)に合計値が1になるよう標準化された方式3と、図11に示すように、外れ値検知手法毎(N×M行列の行方向)に合計値が1になるよう標準化された方式4とがある。言い換えれば、方式2は、外れ値検知手法(n)と異常パターン異常パターン(m)とに対する感度を独立に保持する形式である。方式3は、各異常パターンに対して各外れ値検知手法の感度優劣を表現した方式である。方式5は、各外れ値検知手法に対して各異常パターンの感度優劣を表現した方式である。いずれの方式を選択するかは使用者が任意に選択することができる。
 なお、ここでは、[0,1]の実数でレベル表現するとしたが、実数の取り得る値の範囲は[0,1]に限らず、ある基準範囲であればよい。基準範囲が[0,基準値]である場合には、方式3,4は合計値が基準値になるように標準化すればよい。
 図13を参照して、実施の形態1に係る学習処理を説明する。
 学習処理は、各外れ値検知手法のモデル学習とパラメータ最適化との少なくともいずれかを行う処理である。学習処理は、例えば1年毎といった長期的な間隔で、非定期に実行される。
 ステップS401では、過去データ取得部241は、過去データ記憶部261に蓄積された過去の稼働データを学習データとして取得する。過去データ取得部241は、取得された学習データを主記憶装置203に書き込む。
 続いて、ステップS402からステップS407において、外れ値検知手法の数Nだけモデル学習とパラメータ最適化との少なくともいずれかの処理が繰り返し実行される。
 ステップS402では、学習部242は、カウンタiを1に初期化する。ステップS403では、学習部242は、外れ値検知手法(i)の現在モデルと現在パラメータとの少なくともいずれかを抽出する。ステップS404では、学習部242は、学習データを主記憶装置203から読み出し、学習データによりモデル学習とパラメータ最適化との少なくともいずれかを行う。ステップS405では、学習部242は、ステップS404でモデル学習された場合には、学習されたモデルで検知アルゴリズム記憶部262のモデルを更新する。学習部242は、ステップS404でパラメータ最適化がされた場合には、最適化されたパラメータで検知アルゴリズム記憶部262のパラメータを更新する。ステップS406では、学習部242は、カウンタiの値に1加算する。ステップS407では、学習部242は、カウンタiの値が外れ値検知手法の数N以下であるか否かを判定する。
 学習部242は、カウンタiの値が外れ値検知手法の数N以下である場合には、処理をステップS403に戻して、次の外れ値検知手法についての処理を行う。一方、検知処理部223は、カウンタiの値が外れ値検知手法の数Nより大きい場合には、処理を終了する。
 学習処理の実行の頻度は、異常検知精度にも影響する。使用者が満足する異常検知精度に達していれば、学習処理を実行する必要はない。そこで、例えば、異常検知装置200の導入初期はある程度頻度高くモデル更新するが、ある程度更新して精度向上した後は更新をやめてもよい。
 また、モデル学習の要否及びパラメータ最適化の要否は、選択した外れ値検知手法毎に異なる場合が多い。そのため、全ての外れ値検知手法について、一括でモデル学習及びパラメータ最適化する必要が無い場合がある、その場合は、特定の外れ値検知手法のみ対象として学習処理を実行してもよい。
 図14を参照して、実施の形態1に係る外れ感度情報生成処理を説明する。
 外れ感度情報生成処理は、異常特定処理(図5のステップS103)で使用される外れ感度情報を生成する処理である。外れ感度情報生成処理は、異常特定処理の実行前に少なくとも1度実行されている必要がある。外れ感度情報生成処理は、学習処理と同様に、例えば1年毎といった長期的な間隔で、非定期に実行される。
 ステップS501では、情報生成部251は、対象とする外れ値検知手法を選択する。ステップS502では、情報生成部251は、対象とする異常パターンを選択する。ステップS503では、情報生成部251は、外れ感度情報における、ステップS501で選択された検知手法とステップS502で選択された異常パターンとに対応する欄にデータを設定して、新たな外れ感度情報を生成する。ステップS504では、情報蓄積部252は、ステップS503で生成された外れ感度情報により、外れ感度情報記憶部263に記憶された外れ感度情報を更新する。
 使用する外れ値検知手法及び想定する異常パターンの組合せは、異常検知装置200の使用途中であっても任意に変更が可能である。但し、外れ感度情報を変更する場合は、外れ感度情報生成処理、及び、学習処理を再度実行する必要がある。
 ***実施の形態1の効果***
 以上のように、実施の形態1に係る異常検知装置200は、外れ感度情報と外れ傾向情報との類似度を異常パターン毎に計算する。これにより、適切に異常を検知可能にするとともに、どのような異常が発生しているかの特定を容易にすることが可能である。
 実施の形態1に係る異常検知装置200は、様々な外れ値検知手法の各異常パターンに対する感度を体系整理した関係表である外れ感度情報を活用して、異常検知と異常パターン推定とを実現する。これにより、外れ値検知手法を用いた既存の異常検知のような正常又は異常の二値判定だけではなく、どんな異常が発生しているかの解析まで可能である。異常パターンが対象機器の故障パターンと一意に関係づけられていれば、故障箇所の特定も容易に実行できる。
 また、単純に外れ値検知手法を用いるだけでは、ある異常パターンについては検知できない可能性があった。これに対して、実施の形態1に係る異常検知装置200は、あらゆる異常パターンについて事前に外れ感度情報にて網羅しておくことで、あらゆる異常に対する検知漏れを低減させることが可能となる。
 また、実施の形態1に係る異常検知装置200は、対象機器100毎に事前にモデルをカスタマイズすることなく適用可能である。そのため、物理モデルを解明できない複雑な機器とブラックボックスである他社機器とに対しても異常検知の効果が期待できる。
 ***他の構成***
 <変形例1>
 実施の形態1では、稼働データ収集部11と、稼働データ送信部12と、稼働データ取得部21と、外れ傾向計算部22と、異常検知部23と、パラメータ学習部24と、外れ感度情報生成部25と、結果受信部31と、結果出力部32との各部の機能がソフトウェアで実現された。しかし、変形例1として、上記各部の機能はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
 図15を参照して、変形例1に係る異常検知システム1のハードウェア構成を説明する。
 上記各部の機能がハードウェアで実現される場合には、対象機器100は、演算装置104と主記憶装置105とに代えて、電子回路107を備える。また、異常検知装置200は、演算装置202と主記憶装置203とに代えて、電子回路205を備える。状態監視装置300は、演算装置302と主記憶装置303とに代えて、電子回路305を備える。
 電子回路107は、稼働データ収集部11と稼働データ送信部12との機能と、主記憶装置105の機能とを実現する専用の回路である。電子回路205は、稼働データ取得部21と外れ傾向計算部22と異常検知部23とパラメータ学習部24と外れ感度情報生成部25との機能と、主記憶装置203との機能とを実現する専用の回路である。電子回路305は、結果受信部31と結果出力部32との機能と、主記憶装置303の機能とを実現する専用の回路である。
 電子回路107,205,305としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 上記各部の機能を1つの電子回路107,205,305で実現してもよいし、上記各部の機能を複数の電子回路107,205,305に分散させて実現してもよい。
 <変形例2>
 変形例2として、一部の機能構成要素がハードウェアで実現され、他の機能構成要素がソフトウェアで実現されてもよい。
 演算装置104,202,302と、主記憶装置105,203,303と、電子回路107,205,305とを処理回路という。つまり、上記各部の機能は、処理回路により実現される。
 実施の形態2.
 実施の形態2は、異常検知装置200が3つの装置に分かれている点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 図16を参照して、実施の形態2に係る異常検知システム1のハードウェア構成を説明する。なお、図16では、対象機器100及び状態監視装置300の構成については省略している。
 異常検知システム1は、異常検知装置200に代えて、検知装置500と、学習装置600と、データベース装置700とを備える点が図1に示す異常検知システム1と異なる。検知装置500と、学習装置600と、データベース装置700とは、実体のあるサーバでもよいし、クラウドにより構成されてもよい。
 検知装置500は、通信装置501と、演算装置502と、主記憶装置503とを備える。学習装置600は、通信装置601と、演算装置602と、主記憶装置603とを備える。データベース装置700は、通信装置701と、演算装置702と、主記憶装置703と、外部記憶装置704とを備える。
 図17を参照して、実施の形態2に係る検知装置500と、学習装置600と、データベース装置700との機能構成を説明する。
 検知装置500は、機能構成要素として、稼働データ取得部21と、外れ傾向計算部22と、異常検知部23とを備える。学習装置600は、機能構成要素として、パラメータ学習部24と、外れ感度情報生成部25とを備える。データベース装置700は、機能構成要素として、記憶部26を備える。
 つまり、実施の形態2では、図3に示す異常検知装置200が、異常検知処理を実行する検知装置500と、学習処理及び外れ感度情報生成処理を実行する学習装置600と、データを蓄積するデータベース装置700とに分けられている。
 実施の形態2に係る構成にすることにより、異常検知処理と、学習処理及び外れ感度情報生成処理とを独立して実行させることが可能になる。そのため、オンライン処理で実行される異常検知処理の実行速度の担保が容易になる。
 実施の形態3.
 実施の形態3は、異常検知処理を行う機能が対象機器100に設けられた点が実施の形態1,2と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
 図18を参照して、実施の形態3に係る異常検知システム1のハードウェア構成を説明する。
 異常検知システム1は、検知装置500を備えていない点が図16に示す異常検知システム1と異なる。
 図19を参照して、実施の形態2に係る対象機器100の機能構成を説明する。
 対象機器100は、機能構成要素として、検知装置500が備えていた稼働データ取得部21と、外れ傾向計算部22と、異常検知部23とを備える点が図2に示す対象機器100と異なる。
 つまり、実施の形態3では、対象機器100が異常検知処理を実行する構成になっている。
 実施の形態3に係る構成にすることにより、異常検知処理をエッジコンピューティングにより処理することが可能になる。これにより、常時監視等を目的に常に稼働データといったデータの送受信を絶えず実行する必要はなく、常時通信を異常判定結果と異常パターン推定結果の送信のみに絞ることが可能になる。そのため、ネットワーク400の通信量を節減することが可能である。
 なお、実施の形態3では、実施の形態2に係る異常検知システム1の構成を変形した構成を説明した。しかし、実施の形態1に係る異常検知システム1の構成を変形することも可能である。
 1 異常検知システム、100 対象機器、101 稼働機器、102 制御装置、103 センサ、104 演算装置、105 主記憶装置、106 通信装置、11 稼働データ収集部、12 稼働データ送信部、200 異常検知装置、201 通信装置、202 演算装置、203 主記憶装置、204 外部記憶装置、21 稼働データ取得部、211 稼働データ受信部、212 稼働データ蓄積部、22 外れ傾向計算部、221 過去データ取得部、222 データ統合部、223 検知処理部、224 傾向情報生成部、23 異常検知部、231 外れ感度情報取得部、232 類似度計算部、233 類似スコア計算部、234 パターン判定部、24 パラメータ学習部、241 過去データ取得部、242 学習部、25 外れ感度情報生成部、251 情報生成部、252 情報蓄積部、26 記憶部、261 過去データ記憶部、262 検知アルゴリズム記憶部、263 外れ感度情報記憶部、300 状態監視装置、301 通信装置、302 演算装置、303 主記憶装置、304 表示装置、31 結果受信部、32 結果出力部、400 ネットワーク、500 検知装置、501 通信装置、502 演算装置、503 主記憶装置、600 学習装置、601 通信装置、602 演算装置、603 主記憶装置、700 データベース装置、701 通信装置、702 演算装置、703 主記憶装置、704 外部記憶装置。

Claims (12)

  1.  対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器から得られた評価データを入力として外れスコアを計算して、計算された前記外れスコアから外れ傾向情報を計算する外れ傾向計算部と、
     前記複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、前記外れ傾向計算部によって計算された前記外れ傾向情報との類似度を異常パターン毎に計算して、前記対象機器の異常を検知する異常検知部と
    を備える異常検知装置。
  2.  前記外れ傾向計算部は、前記複数の外れ値検知手法それぞれにより計算された前記外れスコアを比較順に並べたベクトル情報を前記外れ傾向情報として生成し、
     前記異常検知部は、異常パターン毎に前記複数の外れ値検知手法それぞれについての感度を前記比較順に並べた前記外れ感度情報と、前記外れ傾向情報との類似度を異常パターン毎に計算する
    請求項1に記載の異常検知装置。
  3.  前記評価データは、前記対象機器から得られた時系列データであり、
     前記外れスコアは、前記時系列データのうちの評価時間帯に得られたデータの外れ度合いを示す
    請求項1又は2に記載の異常検知装置。
  4.  前記外れスコアは、前記評価時間帯におけるL回のタイミングで取得されたデータのうち、他のデータから外れていると判定されたデータの数fの割合である
    請求項3に記載の異常検知装置。
  5.  前記外れ感度情報は、過去の評価データを入力として、前記複数の外れ値検知手法それぞれにより、前記複数の異常パターンそれぞれを検知した場合における実績値を前記感度として示す
    請求項1から4までのいずれか1項に記載の異常検知装置。
  6.  前記外れ感度情報は、前記感度が二値で表された二値表現方式と、前記感度が基準範囲における実数で表されたレベル表現方式とのいずれかの方式で表される
    請求項5に記載の異常検知装置。
  7.  前記外れ感度情報は、前記レベル表現方式で表される場合には、前記複数の外れ値検知手法それぞれについての前記複数の異常パターンそれぞれに対する感度が前記基準範囲における実数で表された方式と、異常パターン毎に合計値が基準値になるように標準化された実数で表された方式と、外れ値検知手法毎に合計値が前記基準値になるように標準化された実数で表された方式とのいずれかの方式で表される
    請求項6に記載の異常検知装置。
  8.  前記異常パターンは、対象機器に発生する可能性があるパターンであり、
     前記外れ値検知手法は、前記複数の異常パターンのうち少なくとも1つの異常パターンを検出可能な手法である
    請求項1から7までのいずれか1項に記載の異常検知装置。
  9.  前記異常検知部は、少なくとも1つの異常パターンについて計算された前記類似度が閾値よりも高い場合には、異常が検知されたと判定する
    請求項1から8までのいずれか1項に記載の異常検知装置。
  10.  前記異常検知部は、前記類似度が閾値よりも高い異常パターンが示す異常が発生した、又は、前記類似度が最も高い異常パターンが示す異常が発生したと判定する
    請求項1から9までのいずれか1項に記載の異常検知装置。
  11.  外れ傾向計算部が、対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器から得られた評価データを入力として外れスコアを計算して、計算された前記外れスコアから外れ傾向情報を計算し、
     異常検知部が、前記複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、計算された前記外れ傾向情報との類似度を異常パターン毎に計算して、前記対象機器の異常を検知する異常検知方法。
  12.  対象データのうち他のデータから外れているデータを特定し、特定されたデータの外れ度合いを示す外れスコアを計算する複数の外れ値検知手法それぞれにより、対象機器から得られた評価データを入力として外れスコアを計算して、計算された前記外れスコアから外れ傾向情報を計算する外れ傾向計算処理と、
     前記複数の外れ値検知手法それぞれについての複数の異常パターンそれぞれに対する感度を示す外れ感度情報と、前記外れ傾向計算処理によって計算された前記外れ傾向情報との類似度を異常パターン毎に計算して、前記対象機器の異常を検知する異常検知処理と
    をコンピュータに実行させる異常検知プログラム。
PCT/JP2018/022709 2018-06-14 2018-06-14 異常検知装置、異常検知方法及び異常検知プログラム WO2019239542A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018555298A JP6456580B1 (ja) 2018-06-14 2018-06-14 異常検知装置、異常検知方法及び異常検知プログラム
PCT/JP2018/022709 WO2019239542A1 (ja) 2018-06-14 2018-06-14 異常検知装置、異常検知方法及び異常検知プログラム
EP18922746.5A EP3795975B1 (en) 2018-06-14 2018-06-14 Abnormality sensing apparatus, abnormality sensing method, and abnormality sensing program
CN201880094472.4A CN112272763B (zh) 2018-06-14 2018-06-14 异常探测装置、异常探测方法以及计算机可读取的存储介质
US17/078,371 US11657121B2 (en) 2018-06-14 2020-10-23 Abnormality detection device, abnormality detection method and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/022709 WO2019239542A1 (ja) 2018-06-14 2018-06-14 異常検知装置、異常検知方法及び異常検知プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/078,371 Continuation US11657121B2 (en) 2018-06-14 2020-10-23 Abnormality detection device, abnormality detection method and computer readable medium

Publications (1)

Publication Number Publication Date
WO2019239542A1 true WO2019239542A1 (ja) 2019-12-19

Family

ID=65037116

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022709 WO2019239542A1 (ja) 2018-06-14 2018-06-14 異常検知装置、異常検知方法及び異常検知プログラム

Country Status (5)

Country Link
US (1) US11657121B2 (ja)
EP (1) EP3795975B1 (ja)
JP (1) JP6456580B1 (ja)
CN (1) CN112272763B (ja)
WO (1) WO2019239542A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112506908A (zh) * 2020-12-10 2021-03-16 云南电网有限责任公司玉溪供电局 一种电能计量数据清洗方法和系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022311A (ja) * 2019-07-30 2021-02-18 株式会社リコー 異常検知装置、異常検知システムおよびプログラム
US11341682B2 (en) * 2020-08-13 2022-05-24 Argo AI, LLC Testing and validation of a camera under electromagnetic interference
CN116879662B (zh) * 2023-09-06 2023-12-08 山东华尚电气有限公司 基于数据分析的变压器故障检测方法
CN116881635B (zh) * 2023-09-08 2023-12-05 北京日光旭升精细化工技术研究所 一种用于纺织品洗涤剂设备数据管理系统
CN116930595B (zh) * 2023-09-18 2023-11-24 法拉迪电气有限公司 一种用于新能源并网调压的精准数据计量方法
CN117407728B (zh) * 2023-12-15 2024-03-15 湖南南华生物技术有限公司 一种用于干细胞的存储环境实时监测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251925A (ja) * 2004-03-03 2005-09-15 Toshiba Corp 製造装置管理システム、製造装置管理方法及びプログラム
JP2009076056A (ja) * 2007-07-27 2009-04-09 General Electric Co <Ge> 異常集約方法
WO2011104760A1 (ja) * 2010-02-26 2011-09-01 株式会社 日立製作所 故障原因診断システムおよびその方法
JP2012155361A (ja) 2011-01-21 2012-08-16 Toshiba Corp プロセス監視装置
WO2017051575A1 (ja) * 2015-09-25 2017-03-30 三菱重工業株式会社 異常診断システム及び異常診断方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69000749T2 (de) * 1989-03-13 1993-04-29 Westinghouse Electric Corp Automatische orbitanalyse mit anwendung eines neuronnetzwerkes.
JPH04121622A (ja) 1990-09-13 1992-04-22 Hitachi Ltd プラント運転支援方法及びその装置並びにデータ表示方法
US6092029A (en) * 1998-02-19 2000-07-18 Bently Nevada Corporation Method and apparatus for diagnosing and controlling rotating stall and surge in rotating machinery
JP3068091B1 (ja) 1999-06-02 2000-07-24 核燃料サイクル開発機構 異常診断装置
US20160026915A1 (en) * 2001-01-05 2016-01-28 In-Depth Test Llc Methods and Apparatus for Data Analysis
JP2005345154A (ja) 2004-05-31 2005-12-15 Kyushu Electric Power Co Inc 異常予兆検出方法および装置
JP5048625B2 (ja) 2008-10-09 2012-10-17 株式会社日立製作所 異常検知方法及びシステム
JP5301310B2 (ja) 2009-02-17 2013-09-25 株式会社日立製作所 異常検知方法及び異常検知システム
JP5363927B2 (ja) 2009-09-07 2013-12-11 株式会社日立製作所 異常検知・診断方法、異常検知・診断システム、及び異常検知・診断プログラム
JP5461136B2 (ja) 2009-09-30 2014-04-02 三菱重工業株式会社 プラントの診断方法及び診断装置
JP2011145846A (ja) 2010-01-14 2011-07-28 Hitachi Ltd 異常検知方法、異常検知システム、及び異常検知プログラム
JP5439265B2 (ja) 2010-04-20 2014-03-12 株式会社日立製作所 異常検知・診断方法、異常検知・診断システム、及び異常検知・診断プログラム
JP5900334B2 (ja) * 2010-06-28 2016-04-06 日本電気株式会社 フィードバック情報を用いた医療情報からの異常イベント抽出装置、方法およびプログラム
JP5501903B2 (ja) 2010-09-07 2014-05-28 株式会社日立製作所 異常検知方法及びそのシステム
JP5132746B2 (ja) 2010-09-30 2013-01-30 中国電力株式会社 動作異常検出装置、動作異常検出方法
JP5868216B2 (ja) 2012-02-27 2016-02-24 三菱電機株式会社 クラスタリング装置及びクラスタリングプログラム
US9850422B2 (en) 2013-03-07 2017-12-26 Prostim Labs, Llc Hydrocarbon-based fracturing fluid composition, system, and method
US20160127402A1 (en) 2014-11-04 2016-05-05 Patternex, Inc. Method and apparatus for identifying and detecting threats to an enterprise or e-commerce system
US9904893B2 (en) 2013-04-02 2018-02-27 Patternex, Inc. Method and system for training a big data machine to defend
JP5530019B1 (ja) 2013-11-01 2014-06-25 株式会社日立パワーソリューションズ 異常予兆検知システム及び異常予兆検知方法
JP6216242B2 (ja) 2013-12-13 2017-10-18 株式会社日立ハイテクノロジーズ 異常検知方法およびその装置
JP6143667B2 (ja) 2013-12-27 2017-06-07 三菱重工業株式会社 予測システム、監視システム、運転支援システム、ガスタービン設備及び予測方法
CN104089774B (zh) * 2014-07-25 2016-05-25 北京工业大学 一种基于并行多字典正交匹配的齿轮故障诊断方法
US10271802B2 (en) 2014-08-12 2019-04-30 Carestream Health, Inc. Digital x-ray imaging apparatus and method
WO2016116961A1 (ja) * 2015-01-21 2016-07-28 三菱電機株式会社 情報処理装置および情報処理方法
US20160343180A1 (en) * 2015-05-19 2016-11-24 GM Global Technology Operations LLC Automobiles, diagnostic systems, and methods for generating diagnostic data for automobiles
JP6472327B2 (ja) 2015-05-26 2019-02-20 株式会社日立パワーソリューションズ 異常予兆診断装置及び異常予兆診断方法
JP6523815B2 (ja) 2015-06-22 2019-06-05 株式会社日立製作所 プラント診断装置及びプラント診断方法
JP6573838B2 (ja) * 2016-02-10 2019-09-11 株式会社神戸製鋼所 回転機の異常検知システム
JP6605357B2 (ja) 2016-02-29 2019-11-13 株式会社日立製作所 異常検知装置、異常検知システムおよびその方法
JP6890382B2 (ja) 2016-05-23 2021-06-18 ルネサスエレクトロニクス株式会社 生産システム
JP6772963B2 (ja) * 2017-06-05 2020-10-21 トヨタ自動車株式会社 異常診断装置及び異常診断方法
CN107644229A (zh) * 2017-08-31 2018-01-30 浙江工业大学 基于多传感器信息融合的室内异常行为检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251925A (ja) * 2004-03-03 2005-09-15 Toshiba Corp 製造装置管理システム、製造装置管理方法及びプログラム
JP2009076056A (ja) * 2007-07-27 2009-04-09 General Electric Co <Ge> 異常集約方法
WO2011104760A1 (ja) * 2010-02-26 2011-09-01 株式会社 日立製作所 故障原因診断システムおよびその方法
JP2012155361A (ja) 2011-01-21 2012-08-16 Toshiba Corp プロセス監視装置
WO2017051575A1 (ja) * 2015-09-25 2017-03-30 三菱重工業株式会社 異常診断システム及び異常診断方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP3795975A4
YOSHIZAWA, AYA ET AL.: "Outline and application trends of anomaly detection technology", INTEC TECHNICAL JOURNAL, vol. 17, 30 September 2016 (2016-09-30), pages 42 - 47, XP009524433 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112506908A (zh) * 2020-12-10 2021-03-16 云南电网有限责任公司玉溪供电局 一种电能计量数据清洗方法和系统

Also Published As

Publication number Publication date
US20210042585A1 (en) 2021-02-11
JPWO2019239542A1 (ja) 2020-06-25
US11657121B2 (en) 2023-05-23
EP3795975A1 (en) 2021-03-24
JP6456580B1 (ja) 2019-01-23
CN112272763A (zh) 2021-01-26
EP3795975A4 (en) 2021-09-15
EP3795975B1 (en) 2023-08-02
CN112272763B (zh) 2023-05-19

Similar Documents

Publication Publication Date Title
JP6456580B1 (ja) 異常検知装置、異常検知方法及び異常検知プログラム
Widodo et al. Machine health prognostics using survival probability and support vector machine
EP2797034B1 (en) Event analyzer and computer-readable storage medium
CN111459700A (zh) 设备故障的诊断方法、诊断装置、诊断设备及存储介质
JP6053487B2 (ja) 時系列データ処理装置、時系列データ処理方法及び時系列データ処理プログラム
US10810508B1 (en) Methods and apparatus for classifying and discovering historical and future operational states based on Boolean and numerical sensor data
US20070239629A1 (en) Cluster Trending Method for Abnormal Events Detection
JP7068246B2 (ja) 異常判定装置、および、異常判定方法
US11640459B2 (en) Abnormality detection device
US20160255109A1 (en) Detection method and apparatus
JP6521096B2 (ja) 表示方法、表示装置、および、プログラム
CN102265227A (zh) 用于在机器状况监视中创建状态估计模型的方法和设备
CN111666198A (zh) 日志异常监控方法、装置及电子设备
JP6489235B2 (ja) システム分析方法、システム分析装置、および、プログラム
JP2022007859A (ja) 運転支援装置、運転支援システム及び運転支援方法
JP6915693B2 (ja) システム分析方法、システム分析装置、および、プログラム
Szarek et al. Non-gaussian feature distribution forecasting based on ConvLSTM neural network and its application to robust machine condition prognosis
US11320813B2 (en) Industrial asset temporal anomaly detection with fault variable ranking
US10372719B2 (en) Episode mining device, method and non-transitory computer readable medium of the same
US20220382856A1 (en) Systems and methods for causality-based multivariate time series anomaly detection
CN113296990B (zh) 时序数据的异常识别方法及装置
Wang et al. Impact of mahalanobis space construction on effectiveness of Mahalanobis–Taguchi system
JP6973445B2 (ja) 表示方法、表示装置、および、プログラム
JP6910997B2 (ja) 情報処理装置、算出方法および算出プログラム
Mebratu et al. Online Server Fan failure prediction by Vibration Analysis augmented by Hardware and Software Telemetry

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018555298

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18922746

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018922746

Country of ref document: EP

Effective date: 20201218