WO2019049688A1 - 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム - Google Patents

異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム Download PDF

Info

Publication number
WO2019049688A1
WO2019049688A1 PCT/JP2018/031345 JP2018031345W WO2019049688A1 WO 2019049688 A1 WO2019049688 A1 WO 2019049688A1 JP 2018031345 W JP2018031345 W JP 2018031345W WO 2019049688 A1 WO2019049688 A1 WO 2019049688A1
Authority
WO
WIPO (PCT)
Prior art keywords
abnormal
data
abnormal sound
sound
model
Prior art date
Application number
PCT/JP2018/031345
Other languages
English (en)
French (fr)
Inventor
悠馬 小泉
祐太 河内
登 原田
翔一郎 齊藤
中川 朗
村田 伸
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US16/643,916 priority Critical patent/US11467570B2/en
Priority to JP2019540879A priority patent/JP6947219B2/ja
Priority to CN201880057321.1A priority patent/CN111108362B/zh
Priority to EP18854021.5A priority patent/EP3680639B1/en
Priority to ES18854021T priority patent/ES2970507T3/es
Publication of WO2019049688A1 publication Critical patent/WO2019049688A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • G05B23/0254Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model based on a quantitative model, e.g. mathematical relationships between inputs and outputs; functions: observer, Kalman filter, residual calculation, Neural Networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M7/00Vibration-testing of structures; Shock-testing of structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • G01M99/005Testing of complete machines, e.g. washing-machines or mobile phones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0213Modular or universal configuration of the monitoring system, e.g. monitoring system having modules that may be combined to build monitoring program; monitoring system that can be applied to legacy systems; adaptable monitoring system; using different communication protocols
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0283Predictive maintenance, e.g. involving the monitoring of a system and, based on the monitoring results, taking decisions on the maintenance schedule of the monitored system; Estimating remaining useful life [RUL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37337Noise, acoustic emission, sound

Definitions

  • the present invention relates to an abnormality detection technique for determining whether a monitoring target is in a normal state or an abnormal state.
  • abnormal sound detection a technology that uses sound to determine whether a monitoring target is in a normal state or an abnormal state is called abnormal sound detection.
  • abnormal sound detection based on a statistical method is known (see, for example, Non-Patent Document 1).
  • Abnormal sound detection based on statistical methods can be roughly classified into supervised abnormal sound detection and unsupervised abnormal sound detection.
  • supervised abnormal sound detection a large amount of learning data of normal sound and abnormal sound are collected, and a classifier is learned so as to maximize this discrimination rate.
  • unsupervised abnormal sound detection the probability distribution (normal model) of feature quantities of learning data of normal sound is learned, and if the newly collected sound is similar to the normal model (if the likelihood is high) If it is not similar (if the likelihood is low), it is judged as abnormal.
  • unsupervised abnormal sound detection is often employed because it is difficult to collect a large amount of abnormal sound learning data.
  • An object of the present invention is to improve the accuracy of unsupervised abnormal sound detection using a small number of obtained abnormal sound data in view of the above-described points.
  • an abnormal sound detection device stores a model memory that stores a normal model learned using normal sound data and an abnormal model learned using abnormal sound data.
  • an abnormality degree acquisition unit that calculates an abnormality degree using a normal model and an abnormality model for input target data, and a state where the target data is judged as normal or abnormal by comparing the abnormality degree with a predetermined threshold And a determination unit.
  • the abnormality model determines the minimum value of the degree of abnormality calculated for each of a plurality of abnormal sound data using at least a normal model as a learning threshold, and uses a plurality of normal sound data, abnormal sound data, and a learning threshold.
  • the weights are determined such that the probability that all the abnormal sound data is determined to be abnormal and the normal sound data is determined to be abnormal is minimized.
  • the abnormal model learning device uses a normal model learned using normal sound data and a plurality of abnormal sounds using an abnormal model expressing abnormal sound data. All abnormal sound data is determined to be abnormal using the threshold value determination unit that calculates the degree of abnormality for each piece of data and determines the minimum value as the threshold value, and a plurality of normal sound data, abnormal sound data, and a threshold And a weight update unit that updates the weight of the abnormal model such that the probability that the data is determined to be abnormal is minimized.
  • the abnormality detection device is a normal model learned using normal data that is time series data at normal time and abnormal data that is time series data at abnormal time
  • an abnormality degree acquisition unit that calculates the degree of abnormality using the normal model and the abnormality model for the input target data, and comparing the abnormality degree with a predetermined threshold value
  • a state determination unit that determines whether the target data is normal or abnormal.
  • the abnormality model determines the minimum value of the degree of abnormality calculated for each of the plurality of abnormal data using at least the normal model as the learning threshold, and uses the plurality of normal data, the abnormal data, and the learning threshold to determine the abnormal data. All are determined to be abnormal, and the weights are determined so as to minimize the probability that normal data is determined to be abnormal.
  • a first abnormal model which is a probability distribution obtained by modeling abnormal sound data prepared in advance, and abnormal sound data
  • a model storage unit for storing a second abnormal model that is a probability distribution modeling additional abnormal sounds that are different abnormal sounds; and a first abnormal model and a second abnormal model for the input target sound data
  • a state determination unit that determines whether the target sound data is a normal sound or an abnormal sound by comparing the abnormality degree with a predetermined threshold.
  • an abnormal sound generation device that generates a pseudo abnormal sound based on at least the obtained abnormal sound, and the obtained abnormality
  • An abnormal distribution acquisition unit that obtains an abnormal distribution that is a probability distribution followed by an abnormal sound from a value based on a sound or an abnormal sound obtained, and a probability distribution generated from an abnormal distribution with high probability, and generated from a probability distribution followed by a normal sound
  • an abnormal sound generation unit that generates a pseudo abnormal sound so as to reduce the probability of noise.
  • the abnormal data generation device is a abnormal data generation device that generates pseudo abnormal data based on at least the obtained abnormal data, and the obtained abnormal data
  • An abnormal distribution acquisition unit that obtains an abnormal distribution that is a probability distribution followed by abnormal data from data or a value based on obtained abnormal data, and a probability distribution generated from an abnormal distribution with high probability, and generated from a probability distribution followed by normal data
  • an abnormal data generation unit that generates pseudo abnormal data so as to reduce the probability of occurrence.
  • the abnormal model learning device obtains an abnormal distribution which is a probability distribution that the abnormal sound follows from the obtained abnormal sound or the value based on the obtained abnormal sound.
  • An abnormal distribution acquisition unit an abnormal sound generation unit generating a pseudo abnormal sound such that the probability of generation from the abnormal distribution is high and the probability of generation from the probability distribution followed by the normal sound is low, and from the pseudo abnormal sound Using a threshold value setting unit that sets a threshold value so that all the calculated degrees of abnormality are determined as abnormal, and a threshold value based on the obtained normal sound and the obtained abnormal sound or the obtained abnormal sound
  • a model updating unit for updating parameters of the abnormal model so as to reliably determine the abnormal sound as abnormal and minimize the probability of determining the normal sound as abnormal.
  • abnormal sound detection is performed using an abnormal model in which all the obtained small number of abnormal sound data become abnormal and the probability that a large number of normal sound data is erroneously determined to be abnormal is minimized. As a result, the accuracy of unsupervised abnormal sound detection is improved.
  • FIG. 1 is a diagram for explaining conventional unsupervised abnormal sound detection.
  • FIG. 2 is a diagram showing the concept of conventional unsupervised abnormal sound detection.
  • FIG. 3 is a diagram showing the concept of unsupervised abnormal sound detection according to the present invention.
  • FIG. 4 is a diagram illustrating updating of the anomaly model and changes in the anomaly degree.
  • FIG. 5 is a diagram illustrating a functional configuration of the abnormal model learning device.
  • FIG. 6 is a diagram illustrating a processing procedure of the abnormal model learning method.
  • FIG. 7 is a diagram illustrating the functional configuration of the abnormal sound detection device.
  • FIG. 8 is a diagram illustrating a processing procedure of the abnormal sound detection method.
  • FIG. 9A is a diagram for explaining the concept of AUC maximization.
  • FIG. 9A is a diagram for explaining the concept of AUC maximization.
  • FIG. 9B is a diagram for explaining the concept of the Naiman-Pearson standard.
  • FIG. 9C is a diagram for explaining the concept of conditional AUC maximization.
  • FIG. 10A is a diagram illustrating a distribution when an abnormal sample is generated without optimizing the dispersion.
  • FIG. 10B is a diagram illustrating the distribution when the variance is optimized to generate an abnormal sample.
  • FIG. 11 is a diagram illustrating a functional configuration of the abnormal model learning device.
  • FIG. 12 is a diagram illustrating a processing procedure of the abnormal model learning method.
  • FIG. 13 is a diagram illustrating the functional configuration of the abnormal sound detection device.
  • FIG. 14 is a diagram illustrating a processing procedure of the abnormal sound detection method.
  • an abnormal model (or penalty) is estimated from a small number of abnormal sound data, and the degree of abnormality is calculated while using it together. Kernel density estimation is used to estimate anomalous models.
  • an abnormality model is not estimated using a mixture weight equal to all abnormal sound data, but an abnormality is used using a weight that maximizes the accuracy of abnormal sound detection. Calculate the model In order to realize that, in the present invention, the probability (false positive rate) of erroneously determining normal sound data as abnormal is minimized under an abnormality determination threshold where all acquired abnormal sound data can be determined as abnormal. Implement an algorithm to optimize the weights.
  • the operation sound of the monitoring target device is recorded by a microphone to obtain an observation signal x.
  • the observation signal x may be a speech waveform, may be a spectrum obtained by fast Fourier transform (FFT) of the speech waveform, or may be a vector whose feature amount is extracted using a neural network or the like.
  • FFT fast Fourier transform
  • an abnormality degree A (x) is calculated from the observation signal x using a normal model, and when the abnormality degree A (x) is equal to or more than a predetermined threshold value ⁇ , the observation signal x is determined as an abnormal sound. .
  • the normal model and the abnormal model are respectively obtained from data (learning data) obtained by recording sounds emitted from the devices in the normal state and the abnormal state.
  • R is a set of whole real numbers
  • D is the number of dimensions of x
  • C is a positive constant.
  • the dashed circle in FIG. 2 is a normal model, which is a threshold for determining whether the circumference is normal or abnormal.
  • the observation signal indicated by ⁇ is determined to be normal because it is located in the normal model, and the observation signal indicated by x is determined to be abnormal because it is located outside the normal model.
  • ⁇ Principle of this embodiment> When operating an abnormal sound detection system, it may be possible to collect abnormal sound data on rare occasions.
  • the purpose of this embodiment is to improve the accuracy of abnormal sound detection using a small number of abnormal sound data obtained during operation.
  • a kernel density estimation method can be applied to a method of estimating an abnormal model using a small number of abnormal sound data.
  • x n ) is a probability distribution estimated from the n-th abnormal sound data x n .
  • the Gaussian distribution of Expression (6) can be used as the probability distribution p n (x
  • ⁇ (> 0) is a dispersion parameter.
  • Equation (7) can be used in addition to the Gaussian distribution of Equation (6).
  • T is the transpose of the vector
  • is the concentration parameter
  • Z ( Marie) is the normalization constant
  • the final purpose of the abnormal sound detection is to correctly determine whether the observation signal x is a normal sound or an abnormal sound, not to accurately estimate an abnormal model. In other words, it is only necessary to correctly determine whether the observation signal x is a normal sound or an abnormal sound, and it is not necessary to accurately obtain an abnormal model in the sense of a histogram as in the conventional kernel density estimation method.
  • the weight w n has the following properties.
  • the degree of abnormality A (x) can be calculated as in equations (12) and (13).
  • this weighting has the function of reducing the overall misjudgment rate by giving a large weight w n to the abnormal sound data x n which is likely to be misjudged as a normal sound.
  • the problem here is 1. What property does the optimal weight satisfy? Weights are two points: what kind of objective function should be used for optimization.
  • TPR True Positive Rate
  • FPR False Positive Rate
  • ⁇ [x] is a determination function that is 1 if x ⁇ 0 and 0 if x ⁇ 0. Since the abnormal sound detection system has higher true positive rate (TPR) and lower false positive rate (FPR), the performance is better, so the system that minimizes the following indexes is the best.
  • TPR true positive rate
  • FPR false positive rate
  • the true positive rate (TPR) obtained from N pieces of abnormal sound data may be set to 1.
  • the optimum abnormal sound detection system may satisfy the minimization of Equation (16) and the constraint of Equation (17) for preventing occurrence of missed recurrence at the same time.
  • the weight may be updated so as to minimize the false positive rate under a threshold that can determine all the acquired abnormal sound data as abnormal.
  • the optimization of the weight w n can be performed by solving the constrained optimization problem of Equations (18) to (20).
  • phi w is the threshold that satisfies the formula (17) under which a given w n.
  • Equation (18) can be performed using the proximity gradient method or the like.
  • the determination function is approximated by a sigmoid function which is a smooth function.
  • ⁇ (> 0) is the step size of the gradient method and ⁇ x represents the partial derivative with respect to x.
  • an abnormality model learning device 1 for estimating an abnormality model used for abnormal sound detection and an abnormality for determining whether the observed signal is normal or abnormal using the abnormality model learned by the abnormality model learning device 1 It comprises the sound judgment device 2.
  • the abnormality model learning device 1 includes the input unit 11, the initialization unit 12, the threshold determination unit 13, the weight update unit 14, the weight correction unit 15, the convergence determination unit 16, and The output unit 17 is included.
  • the abnormality model learning method of the first embodiment is realized by the abnormality model learning device 1 performing the processing of each step illustrated in FIG.
  • the abnormal model learning device 1 is configured by reading a special program into a known or dedicated computer having, for example, a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. It is a special device.
  • the abnormality model learning device 1 executes each process, for example, under the control of the central processing unit.
  • the data input to the abnormal model learning device 1 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Is used for other processing.
  • At least a part of each processing unit of the abnormal model learning device 1 may be configured by hardware such as an integrated circuit.
  • step S11 the input unit 11 calculates the normal model p (x
  • the uniform distribution constant C and the step size ⁇ of the gradient method are received as inputs.
  • z 0), but it is not always the same. It does not have to be a thing.
  • the threshold determination unit 13 outputs the obtained threshold ⁇ w to the weight update unit 14.
  • K ′ may be tuned in accordance with computational resources and desired determination accuracy, but may be set to 128 or 1024, for example.
  • step S16 the convergence determination unit 16 determines whether the end condition set in advance is satisfied.
  • the convergence determination unit 16 proceeds the process to step S17 if the end condition is satisfied, and returns the process to step S13 if the end condition is not satisfied.
  • the end condition may be set to, for example, that steps S13 to S15 have been repeated 100 times.
  • the abnormal sound detection device 2 of the first embodiment includes a model storage unit 20, an input unit 21, an abnormality degree acquisition unit 22, a state determination unit 23, and an output unit 24, as illustrated in FIG.
  • the abnormal sound detection method of the first embodiment is realized by the abnormal sound detection device 2 performing the process of each step illustrated in FIG. 8.
  • the abnormal sound detection device 2 is configured, for example, by reading a special program in a known or dedicated computer having a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. It is a special device.
  • the abnormal sound detection device 2 executes each process, for example, under the control of the central processing unit.
  • the data input to the abnormal sound detection device 2 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Is used for other processing.
  • At least a part of each processing unit of the abnormal sound detection device 2 may be configured by hardware such as an integrated circuit.
  • Each storage unit included in the abnormal sound detection device 2 is, for example, a main storage device such as a random access memory (RAM), an auxiliary storage device including a semiconductor memory element such as a hard disk, an optical disk, or a flash memory.
  • a main storage device such as a random access memory (RAM)
  • an auxiliary storage device including a semiconductor memory element such as a hard disk, an optical disk, or a flash memory.
  • middleware such as a relational database or key value store.
  • the model storage unit 20 stores a normal model p (x
  • z 0), an abnormal model p (x
  • z 1), and a threshold value ⁇ .
  • the threshold value ⁇ may be the threshold value ⁇ w determined by the threshold value determination unit 13 of the abnormal model learning device 1 or may be a threshold value manually given in advance.
  • step S21 the input unit 21 receives an observation signal x to be an object of abnormal sound detection as an input.
  • the input unit 21 outputs the observation signal x to the abnormality degree acquisition unit 22.
  • step S22 the abnormality degree acquiring unit 22 receives the observation signal x from the input unit 21, calculates Expression (13), and obtains the abnormality degree A (x).
  • the abnormality degree acquisition unit 22 outputs the acquired abnormality degree A (x) to the state determination unit 23.
  • step S23 the state determination unit 23 receives the degree of abnormality A (x) from the degree of abnormality acquisition unit 22, compares the degree of abnormality A (x) with the threshold value ⁇ , and determines whether the observed signal x is normal or abnormal. Do.
  • the state determination unit 23 outputs the determination result to the output unit 24.
  • step S24 the output unit 24 receives the determination result from the state determination unit 23, and sets the determination result as the output of the abnormal sound detection device 2.
  • abnormal sound detection for sound data has been described, but the present embodiment can be applied to other than sound data.
  • the present embodiment can also be applied to time-series data other than sound data and image data.
  • x may be made suitable for its application. If this is a vibration sensor or stock price data, it may be a collection of these time-series information or a Fourier transform of it, and if it is an image, an image feature amount or it is analyzed by a neural network or the like The result may be In this case, the abnormal sound detection device 2 determines whether the observation data is normal or abnormal using the normal model obtained by learning the normal data as data at the normal time and the abnormal model obtained by learning the abnormal data as data at the abnormal time. Function as an anomaly detection device.
  • the present embodiment although it has been described to minimize the false positive rate using a small number of abnormal sound data, it is also possible to configure so as to minimize the false negative rate using normal sound data. That is, the type of target data and the target index can be appropriately changed without departing from the spirit of the present embodiment.
  • the abnormal sound detection apparatus of the modification includes the input unit 11, the initialization unit 12, the threshold determination unit 13, the weight update unit 14, the weight correction unit 15, the convergence determination unit 16, the output unit 17, the model storage unit 20, and the input It includes a unit 21, an abnormality degree acquisition unit 22, a state determination unit 23, and an output unit 24.
  • the present embodiment provides a framework for improving the accuracy of unsupervised abnormal sound detection using a small number of obtained abnormal sound data.
  • an abnormal model or penalty
  • Anomaly models are defined as the similarity between a small number of anomalous sounds and the observed signal. That is, the observation signal similar to the abnormal sound obtained so far is given a penalty which makes it easy to determine that it is abnormal.
  • the false positive rate which is the probability of falsely determining a normal observation signal as an anomaly, is minimized under an anomaly determination threshold where all acquired anomaly data can be determined as anomaly. It provides an algorithm to optimize the weights.
  • Abnormal sound detection is a task to determine whether the status of the monitoring target that has generated the input x is normal or abnormal.
  • x for example, one obtained by arranging the logarithmic amplitude spectrum ln
  • f ⁇ 1, 2, ...
  • F ⁇ is an index of frequency
  • Q is the number of past and future frames to be considered at the input.
  • x may be a result of extracting the feature amount from the observation signal.
  • the abnormality degree A (x) is calculated from the input x as shown in the equation (30).
  • z 1) emits x when the monitoring target is in an abnormal state It is a probability distribution (abnormal model). Then, as shown in the equation (31), it is determined that the monitoring target is abnormal if the abnormality degree A (x) is larger than a previously defined threshold value ⁇ , and is normal if it is smaller.
  • ⁇ ( ⁇ ) is a step function that returns 1 if the argument is nonnegative and 0 if negative. If the identification result is 1, it determines that the observation signal is abnormal, and if it is 0, it determines that it is normal.
  • the normal model In order to calculate Equation (31), the normal model and the abnormal model must be known. However, since each model is unknown, it needs to be estimated from learning data.
  • the normal model can be designed, for example, by learning the following mixed Gaussian distribution (GMM: Gaussian Mixture Model) from operation sound data (normal data) in a normal state collected in advance.
  • GMM Gaussian Mixture Model
  • K is the number of mixtures
  • ⁇ , ⁇ ) is a Gaussian distribution of the sigma covariance matrix and mean vector mu parameter
  • w k is the weight of the k-th distribution
  • mu k is the k-th distribution
  • the mean vector of ⁇ k is the variance-covariance matrix of the k th distribution.
  • abnormal degree A (x) As shown in the equation (33).
  • ⁇ Principle of this embodiment> When operating an unsupervised abnormal sound detection system in a real environment, there are times when it is possible to collect abnormal data. For example, if the unsupervised abnormal sound detection system detects an abnormal state, abnormal data can be automatically obtained. In addition, even if the unsupervised abnormal sound detection system misses an abnormal state, if an abnormal state is detected in a subsequent examination of a human hand or the like, observation data up to that point can be used as abnormal data. Especially in the latter case, the system should be updated with the observed anomaly data, as continuing to overlook the anomaly leads to a serious accident.
  • the present invention is a technology for improving the accuracy of abnormal sound detection by learning an abnormal model using the abnormal data obtained during operation as described above.
  • ⁇ (x, y n ) is a function to calculate the similarity between x and y n
  • g n is the mixture weight of the nth abnormal data
  • ⁇ n is to calculate the similarity between x and y n Parameters for That is, the abnormality degree A (x) is calculated as Expression (35).
  • the abnormal model as a function for calculating the weighted sum of the similarities between the obtained abnormal data and the observed signal, the obtained abnormal data and the observed signal are similar to each other.
  • the unsupervised abnormal sound detection system is updated / corrected by using it as a penalty term that leads to the determination as abnormal.
  • the parameters to be determined are g n and ⁇ n .
  • an "objective function” that mathematically describes "what parameters are good parameters for the system”.
  • the horizontal axis is a false positive rate (FPR: False Positive Rate), which is the probability of erroneously determining a normal observation signal as an error
  • the vertical axis is an abnormal observation signal as an error.
  • an objective function is designed using Area Under the Receiver Operating Characteristic Curve (AUC), which is the lower area of a curve, based on the True Positive Rate (TPR), which is the probability of being able to.
  • AUC Area Under the Receiver Operating Characteristic Curve
  • TPR True Positive Rate
  • Formula (39) which minimizes a false positive rate (FPR) on the condition which this true positive rate (TPR) becomes 1.0 is made into the objective function of this embodiment.
  • the objective function of equation (39) will be referred to as “conditional AUC maximization”.
  • FIG. 9 shows the difference in concept between the conventional “AUC maximization” (FIG. 9A) and “Nayman-Pearson standard” (FIG. 9B) and the “conditional AUC maximization” (FIG. 9C) of this embodiment.
  • FIG. The dotted line in the figure is the Receiver Operating Characteristic (ROC) curve before learning, and the solid line is the ROC curve after learning.
  • AUC is the area of the region surrounded by the ROC curve and the x-axis, and AUC maximization learns to increase this area.
  • the Nayman-Pearson criterion maximizes AUC by improving TPR in a region where the false positive rate (FPR) is a specific value (left of the broken line, region of A1).
  • conditional AUC maximization is equivalent to directly maximizing the AUC of the region where the true positive rate (TPR) is 1.0 (right side from the broken line, the region of A2). That is, the constraint term is changed not to the false positive rate (FPR) but to the true positive rate (TPR). That is, in conditional AUC maximization, the objective function is to minimize the probability of erroneously determining normal data as abnormal under the condition where abnormal data can be reliably determined as abnormal.
  • Equation (39) can be written as equation (41) if
  • the difficulty in determining the true positive rate (TPR) in equation (38) is that the above integration can not be performed analytically. Therefore, in the present invention, the above integration is approximately performed by the sampling method.
  • is an operator that generates pseudorandom numbers from the probability distribution on the right side using a pseudorandom number generation method or the like. Even when p (x
  • is a positive constant.
  • is a step size.
  • is a step size.
  • the objective function may be changed as in equation (47).
  • the normal data is used as the constraint condition that the objective function can be determined as anomalous data by using the acquired abnormal data itself or an abnormal model obtained from the acquired abnormal data.
  • the anomaly model is learned as minimizing the probability of falsely determining that there is an anomaly.
  • g n is a parameter indicating how important the n-th abnormal data is for abnormality determination in comparison with other abnormal data.
  • ⁇ n, d is a parameter indicating how important the d-th dimension of the n-th abnormal data is to the abnormality determination. Note that if the anomalous model p (x
  • each parameter can be updated as follows. First, an abnormal sample is generated to obtain the threshold value ⁇ ⁇ .
  • an anomaly model is defined based on Equation (48), an anomaly sample can be generated, for example, as in Equations (49) and (50).
  • Categorical represents category distribution.
  • each parameter can be updated as shown in equations (51) and (52).
  • post-processing of ⁇ n, d may be performed as follows for regularization.
  • abnormal sound detection is performed to determine whether the observed signal is normal or abnormal using the abnormal model learning device 3 for learning the above-described abnormal model and the abnormal model learned by the abnormal model learning device 3 It comprises the device 4.
  • the abnormal model learning device 3 includes an input unit 31, an initialization unit 32, an abnormal distribution acquisition unit 33, an abnormal sound generation unit 34, a threshold determination unit 35, and a model update unit 36. , A convergence determination unit 37, and an output unit 38.
  • the abnormality model learning method of the second embodiment is realized by the abnormality model learning device 3 performing the processing of each step illustrated in FIG. 12.
  • the abnormal model learning device 3 is configured, for example, by reading a special program in a known or dedicated computer having a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. It is a special device.
  • the abnormality model learning device 3 executes each process, for example, under the control of the central processing unit.
  • the data input to the abnormal model learning device 3 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Is used for other processing.
  • At least a part of each processing unit of the abnormal model learning device 3 may be configured by hardware such as an integrated circuit.
  • the input unit 31 receives a normal model p (x
  • z 0), normal sound data, abnormal sound data, and parameters ⁇ , ⁇ , ⁇ , ⁇ necessary for learning as inputs.
  • the abnormal sound data is a small amount of sound data recording the sound emitted by the device in the abnormal state.
  • the input normal sound data is preferably the same as the normal sound data used to learn the normal model p (x
  • z 0), but may not necessarily be the same.
  • step S33 the abnormal distribution acquisition unit 33 receives the parameters ⁇ n, d and g n from the initialization unit 32, and generates the abnormal model p (x
  • Y) of (48) is generated.
  • the abnormal distribution acquisition unit 33 outputs the generated abnormal model p (x
  • step S34 the abnormal sound generation unit 34 receives the abnormal model p (x
  • the threshold determination unit 35 outputs the determined threshold ⁇ ⁇ to the model update unit 36.
  • step S36 the model updating unit 36 receives the threshold value ⁇ ⁇ ⁇ from the threshold value determining unit 35, and the parameters ⁇ n, d , g n of the abnormal model p (x
  • step S37 the convergence determination unit 37 determines whether the end condition set in advance is satisfied.
  • the convergence determination unit 37 advances the process to step S38 if the end condition is satisfied, and returns the process to step S33 if the end condition is not satisfied.
  • the termination condition may be set to, for example, that steps S33 to S36 have been repeated 500 times.
  • step S38 the output unit 38 outputs the learned parameters ⁇ n, d and g n .
  • the abnormal sound detection device 4 of the second embodiment includes a model storage unit 40, an input unit 41, an abnormality degree acquisition unit 42, a state determination unit 43, and an output unit 44, as illustrated in FIG.
  • the abnormal sound detection method of the second embodiment is realized by the abnormal sound detection device 4 performing the process of each step illustrated in FIG. 14.
  • the abnormal sound detection device 4 is configured by reading a special program into a known or dedicated computer having, for example, a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. It is a special device.
  • the abnormal sound detection device 4 executes each process, for example, under the control of the central processing unit.
  • the data input to the abnormal sound detection device 4 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Is used for other processing.
  • At least a part of each processing unit of the abnormal sound detection device 4 may be configured by hardware such as an integrated circuit.
  • Each storage unit included in the abnormal sound detection device 4 is, for example, a main storage device such as a random access memory (RAM), an auxiliary storage device configured by a semiconductor memory element such as a hard disk, an optical disk, or a flash memory. Alternatively, it can be configured by middleware such as a relational database or key value store.
  • RAM random access memory
  • middleware such as a relational database or key value store.
  • the model storage unit 40 stores a normal model p (x
  • z 0), an abnormal model p (x
  • z 1) and a threshold value ⁇ .
  • Threshold phi may be a threshold phi [rho determined by the threshold determination section 35 of the abnormality model learning unit 3, may be a threshold value given in advance manually.
  • step S41 the input unit 41 receives an observation signal x to be an object of abnormal sound detection as an input.
  • the input unit 41 outputs the observation signal x to the abnormality degree acquisition unit 42.
  • step S42 the abnormality degree acquisition unit 42 receives the observation signal x from the input unit 41, calculates equation (35), and obtains the abnormality degree A (x).
  • the abnormality degree acquisition unit 42 outputs the acquired abnormality degree A (x) to the state determination unit 43.
  • step S43 the state determination unit 43 receives the degree of abnormality A (x) from the degree of abnormality acquisition unit 42, calculates Expression (31), and determines whether the observed signal x is normal or abnormal.
  • the state determination unit 43 outputs, to the output unit 44, a determination result that is binary data indicating whether the observation signal x is normal or abnormal.
  • step S44 the output unit 44 receives the determination result from the state determination unit 43, and sets the determination result as the output of the abnormal sound detection device 4.
  • the abnormal model learning device 3 is configured to generate an abnormal sample in a pseudo manner to learn parameters of the abnormal model, it is also possible to configure an abnormal sound generation device having only a function to generate an abnormal sample in a pseudo manner. It is possible.
  • the abnormal sound generation device includes an abnormal distribution acquisition unit 33 and an abnormal sound generation unit 34 included in the abnormal model learning device 3 according to the second embodiment.
  • the abnormal sound generation apparatus receives, for example, normal data, a small amount of abnormal data, a normal model, and parameters necessary for learning, and the abnormal distribution acquisition unit 33 generates an abnormal distribution that is a probability distribution that the abnormal sound follows from the abnormal data.
  • the abnormal sound generation unit 34 generates an abnormal sample in a pseudo manner using the abnormal distribution, and sets the abnormal sample as an output of the abnormal sound generation device.
  • the abnormal model learning device 3 and the abnormal sound detection device 4 are configured as separate devices, but abnormal sound detection is performed using the function of learning an abnormal model and the learned abnormal model. It is also possible to constitute one abnormal sound detection device having a function. That is, the abnormal sound detection apparatus of the modification includes the input unit 31, the initialization unit 32, the abnormal distribution acquisition unit 33, the abnormal sound generation unit 34, the threshold determination unit 35, the model update unit 36, the convergence determination unit 37, and the model storage unit 40 includes an input unit 41, an abnormality degree acquisition unit 42, a state determination unit 43, and an output unit 44.
  • abnormal sound detection for sound data has been described, but the present embodiment can be applied to other than sound data.
  • the present embodiment can also be applied to time-series data other than sound data and image data.
  • x may be made suitable for its application. If this is a vibration sensor or stock price data, it may be a collection of these time-series information or a Fourier transform of it, and if it is an image, an image feature amount or it is analyzed by a neural network or the like The result may be In this case, the abnormal sound detection device 2 determines whether the observation data is normal or abnormal using the normal model obtained by learning the normal data as data at the normal time and the abnormal model obtained by learning the abnormal data as data at the abnormal time. Function as an anomaly detection device.
  • the program describing the processing content can be recorded in a computer readable recording medium.
  • a computer readable recording medium any medium such as a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, etc. may be used.
  • this program is carried out, for example, by selling, transferring, lending, etc. a portable recording medium such as a DVD, a CD-ROM, etc. in which the program is recorded.
  • this program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first temporarily stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, at the time of execution of the process, this computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer Each time, processing according to the received program may be executed sequentially.
  • ASP Application Service Provider
  • the program in the present embodiment includes information provided for processing by a computer that conforms to the program (such as data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • the present apparatus is configured by executing a predetermined program on a computer, at least a part of the processing contents may be realized as hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

少数の異常音データを用いて教師なし異常音検知の精度を向上する。閾値決定部(13)は、正常音データを用いて学習した正常モデルと異常音データを表現した異常モデルとを用いて複数の異常音データそれぞれについて異常度を算出し、その最小値を閾値として決定する。重み更新部(14)は、複数の正常音データと異常音データと閾値とを用いて、異常音データすべてが異常と判定され、正常音データが異常と判定される確率が最小となるように、異常モデルの重みを更新する。

Description

異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
 この発明は、監視対象が正常な状態か異常な状態かを判定する異常検知技術に関する。
 工場などに設置された大型の製造機や造型機などの業務用機器は、故障により稼働が停止するだけで業務に大きな支障をもたらす。そのため、その動作状況を日常的に監視し、異常が発生し次第ただちに対処を行う必要がある。解決案として、業務用機器の管理業者が、定期的に現場へ整備員を派遣し、パーツの摩耗などを確認する方法がある。しかし、多大な人件費や移動費、労力が掛かるため、すべての業務用機器や工場でこれを実施することは難しい。この解決手段として、業務用機器の内部にマイクロホンを設置し、その動作音を日常的に監視する方法がある。この方法では、マイクロホンで収音した動作音を解析し、異常と思われる音(以下、「異常音」と呼ぶ)が発生したら、それを検知し、アラートを上げることで、上記の問題を解決する。このように、音を利用して監視対象が正常な状態か異常な状態かを判定する技術は、異常音検知と呼ばれている。
 機器の種類や個体毎に異常音の種類と検出方法を設定するのではコストが掛かる。そのため、異常音を検知するルールを自動設計できることが望ましい。この解決方法として、統計的手法に基づく異常音検知が知られている(例えば、非特許文献1参照)。統計的手法に基づく異常音検知は、教師あり異常音検知と教師なし異常音検知とに大別できる。教師あり異常音検知では、正常音と異常音の学習データを大量に収集し、この識別率を最大化するように識別器を学習する。一方、教師なし異常音検知では、正常音の学習データの特徴量の確率分布(正常モデル)を学習し、新しく収集した音が正常モデルと類似していれば(尤度が高ければ)正常と判定し、類似していなければ(尤度が低ければ)異常と判定する。産業的応用では、異常音の学習データを大量に集めることが困難であるため、多くの場合、教師なし異常音検知が採用される。
井出剛、杉山将、"異常検知と変化検知"、講談社、pp. 6-7、2015年
 異常音検知システムを運用していると、稀に異常音を見逃してしまうことがある。見逃しを放置しておくと重大な事故につながる可能性があるため、ここで収集できた異常音を用いて、同じ異常音を二度と見逃さないように、異常音検知システムをアップデートする必要がある。しかしながら、得られる異常音のデータ量は、正常音のデータ量に比べて圧倒的に少なく、いまだ教師あり異常音検知を適用することは困難である。
 この発明の目的は、上記のような点に鑑みて、得られた少数の異常音データを用いて教師なし異常音検知の精度を向上することである。
 上記の課題を解決するために、この発明の第一の態様の異常音検知装置は、正常音データを用いて学習した正常モデルと異常音データを用いて学習した異常モデルとを記憶するモデル記憶部と、入力された対象データについて正常モデルと異常モデルとを用いて異常度を計算する異常度取得部と、異常度を所定の閾値と比較して対象データが正常か異常かを判定する状態判定部と、を含む。その異常モデルは、少なくとも正常モデルを用いて複数の異常音データそれぞれについて算出した異常度の最小値を学習時閾値として決定し、複数の正常音データと異常音データと学習時閾値とを用いて、異常音データすべてが異常と判定され、正常音データが異常と判定される確率が最小となるように重みを決定したものである。
 上記の課題を解決するために、この発明の第二の態様の異常モデル学習装置は、正常音データを用いて学習した正常モデルと異常音データを表現した異常モデルとを用いて複数の異常音データそれぞれについて異常度を算出し、その最小値を閾値として決定する閾値決定部と、複数の正常音データと異常音データと閾値とを用いて、異常音データすべてが異常と判定され、正常音データが異常と判定される確率が最小となるように、異常モデルの重みを更新する重み更新部と、を含む。
 上記の課題を解決するために、この発明の第三の態様の異常検知装置は、正常時の時系列データである正常データを用いて学習した正常モデルと異常時の時系列データである異常データを用いて学習した異常モデルとを記憶するモデル記憶部と、入力された対象データについて正常モデルと異常モデルとを用いて異常度を計算する異常度取得部と、異常度を所定の閾値と比較して対象データが正常か異常かを判定する状態判定部と、を含む。その異常モデルは、少なくとも正常モデルを用いて複数の異常データそれぞれについて算出した異常度の最小値を学習時閾値として決定し、複数の正常データと異常データと学習時閾値とを用いて、異常データすべてが異常と判定され、正常データが異常と判定される確率が最小となるように重みを決定したものである。
 上記の課題を解決するために、この発明の第四の態様の異常音検知装置は、予め用意された異常音データをモデル化した確率分布である第1の異常モデルと、異常音データとは異なる異常音である追加異常音をモデル化した確率分布である第2の異常モデルとを記憶するモデル記憶部と、入力された対象音データについて第1の異常モデルと第2の異常モデルとを組合せ異常度を計算する異常度取得部と、異常度を所定の閾値と比較し対象音データが正常音か異常音かを判定する状態判定部と、を含む。
 上記の課題を解決するために、この発明の第五の態様の異常音生成装置は、少なくとも得られた異常音に基づき、疑似異常音を生成する異常音生成装置であって、得られた異常音もしくは得られた異常音に基づく値から異常音が従う確率分布である異常分布を得る異常分布取得部と、異常分布から生成される確率が高く、かつ、正常音が従う確率分布から生成される確率が低くなるように疑似異常音を生成する異常音生成部と、を有する。
 上記の課題を解決するために、この発明の第六の態様の異常データ生成装置は、少なくとも得られた異常データに基づき、疑似異常データを生成する異常データ生成装置であって、得られた異常データもしくは得られた異常データに基づく値から異常データが従う確率分布である異常分布を得る異常分布取得部と、異常分布から生成される確率が高く、かつ、正常データが従う確率分布から生成される確率が低くなるように疑似異常データを生成する異常データ生成部と、を有する。
 上記の課題を解決するために、この発明の第七の態様の異常モデル学習装置は、得られた異常音もしくは得られた異常音に基づく値から異常音が従う確率分布である異常分布を得る異常分布取得部と、異常分布から生成される確率が高く、かつ、正常音が従う確率分布から生成される確率が低くなるように疑似異常音を生成する異常音生成部と、疑似異常音から算出される異常度すべてが異常と判定されるように閾値を設定する閾値設定部と、得られた正常音と得られた異常音もしくは得られた異常音に基づく値と閾値とを用いて、異常音を確実に異常と判定し、かつ、正常音を異常と判定する確率を最小化するように異常モデルのパラメータを更新するモデル更新部と、を有する。
 この発明の異常音検知技術によれば、得られた少数の異常音データがすべて異常となり、多数の正常音データが異常と誤判定される確率が最小となる異常モデルを用いて異常音検知を行うため、教師なし異常音検知の精度が向上する。
図1は、従来の教師なし異常音検知を説明するための図である。 図2は、従来の教師なし異常音検知の概念を示す図である。 図3は、本発明の教師なし異常音検知の概念を示す図である。 図4は、異常モデルの更新と異常度の変化を例示する図である。 図5は、異常モデル学習装置の機能構成を例示する図である。 図6は、異常モデル学習方法の処理手続きを例示する図である。 図7は、異常音検知装置の機能構成を例示する図である。 図8は、異常音検知方法の処理手続きを例示する図である。 図9Aは、AUC最大化の概念を説明するための図である。図9Bは、ネイマン・ピアソン基準の概念を説明するための図である。図9Cは、条件付きAUC最大化の概念を説明するための図である。 図10Aは、分散を最適化せずに異常サンプルを生成したときの分布を例示する図である。図10Bは、分散を最適化して異常サンプルを生成したときの分布を例示する図である。 図11は、異常モデル学習装置の機能構成を例示する図である。 図12は、異常モデル学習方法の処理手続きを例示する図である。 図13は、異常音検知装置の機能構成を例示する図である。 図14は、異常音検知方法の処理手続きを例示する図である。
 以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
 <第一実施形態>
 この実施形態では、少数の異常音データから異常モデル(もしくはペナルティ)を推定し、それを併用しながら異常度を計算する。異常モデルの推定にはカーネル密度推定法を利用する。この発明では、従来のカーネル密度推定法のようにすべての異常音データに等しい混合重みを用いて異常モデルを推定するのではなく、異常音検知の精度を最大化するような重みを用いて異常モデルを計算する。それを実現するために、この発明では、得られている異常音データをすべて異常と判定できる異常判定閾値の下で、正常音データを異常と誤判定する確率(偽陽性率)を最小化するように重みを最適化するアルゴリズムを実装する。
 <教師なし異常音検知>
 図1を参照して、従来の教師なし異常音検知技術について説明する。異常音検知では、まず、監視対象機器の稼働音をマイクロホンで収録して観測信号xを得る。ここで、観測信号xは、音声波形でもよいし、音声波形を高速フーリエ変換(FFT: Fast Fourier Transform)したスペクトルでもよいし、ニューラルネットワークなどを用いて特徴量抽出したベクトルでもよい。次いで、観測信号xから正常モデルを用いて異常度A(x)を計算し、その異常度A(x)が事前に定めた閾値φ以上であった場合、観測信号xを異常音と判定する。
 教師なし異常音検知では、異常度A(x)を式(1)(2)のように求めることが一般的である。
Figure JPOXMLDOC01-appb-M000004
ここで、p(x| z=0)は観測信号xが正常状態の機器が発した音である確率(正常モデル)であり、p(x| z=1)は観測信号xが異常状態の機器が発した音である確率(異常モデル)である。正常モデルと異常モデルはそれぞれ、正常状態および異常状態の機器の発した音を録音したデータ(学習データ)から求めることになる。しかしながら、異常状態の機器が発した音を録音したデータ(異常音データ)を収集することは多くの場合困難である。そこで、教師なし異常音検知では、式(3)に示すように、異常モデルを一様分布でモデル化することが一般的である。
Figure JPOXMLDOC01-appb-M000005
ここで、Rは実数全体の集合であり、Dはxの次元数であり、Cは正の定数である。式(3)を式(2)に代入することで、式(4)が得られる。
Figure JPOXMLDOC01-appb-M000006
 すなわち、教師なし異常音検知では、観測信号xが正常モデルp(x| z=0)から生成されたとは言えない場合、観測信号xを異常音と判定する。図2は、従来の教師なし異常音検知により観測信号x=(x1, x2)に対する異常音検知を示した概念図である。図2の破線の円は正常モデルであり、その円周が正常か異常かを判定する閾値である。○印で示す観測信号は正常モデルの中に位置しているため正常と判定され、×印で示す観測信号は正常モデルの外に位置しているため異常と判定される。
 <本実施形態の原理>
 異常音検知システムを運用していると、稀に異常音データを収集できることがある。この実施形態の目的は、運用中に得られた少数の異常音データを用いて、異常音検知の精度を向上させることである。
 ≪少数の異常音データを用いた異常音検知の高度化≫
 従来の教師なし異常音検知において、異常音は異常モデルp(x| z=1)で表現されていた。また、従来の問題設定では、異常音データを全く得られないことを想定していたため、異常モデルp(x| z=1)は一様分布でモデル化していた。本発明では、図3に示すように、得られた少数の異常音データ{xn}n=1 Nを用いて、異常モデルp(x| z=1)を推定することを考える。図3の例は、従来の教師なし異常音検知では、本来は異常である観測信号が正常モデル(破線)の内に入り正常と判定される誤判定や、本来は正常である観測信号が正常モデル(破線)の外に出て異常と判定される誤判定が発生していたが、得られた異常音データから異常モデル(一点鎖線)を推定することで、正しく判定されるようになっていることを表している。
 少数の異常音データを用いて異常モデルを推定する方法には、例えばカーネル密度推定法が応用できる。カーネル密度推定法を異常モデルの推定に適用すると、異常モデルp(x|z=1)は式(5)のように記述できる。
Figure JPOXMLDOC01-appb-M000007
ここで、0≦αであり、pn(x| xn)はn番目の異常音データxnから推定される確率分布である。
 確率分布pn(x| xn)は、例えば、式(6)のガウス分布を用いることができる。
Figure JPOXMLDOC01-appb-M000008
ここで、σ(>0)は分散パラメータである。
 確率分布pn(x| xn)は、式(6)のガウス分布の他にも、式(7)のフォン・ミーゼス分布なども利用できる。
Figure JPOXMLDOC01-appb-M000009
ここで、Tはベクトルの転置であり、кは集中度パラメータであり、Z(к)は正規化定数である。
 すると、異常度A(x)は式(8)(9)のように計算できる。
Figure JPOXMLDOC01-appb-M000010
 式(8)(9)を用いて異常モデルを推定することで、図4に例示するように異常度が変化する。つまり、得られた異常音データに類似する観測信号xの異常度A(x)に、lnpn(x|xn)に比例したペナルティが与えられるため、異常音データxnに類似する観測信号xを異常音と判定しやすくなる効果がある。
 ≪各異常音データの重みづけ問題≫
 異常音検知の最終目的は、観測信号xが正常音か異常音かを正しく判定することであり、異常モデルを正確に推定することではない。言い換えれば、観測信号xが正常音か異常音かを正しく判定できればよく、従来のカーネル密度推定法のように、ヒストグラムの意味で正確に異常モデルを求める必要はない。
 本実施形態では、カーネル密度推定法におけるN個の各確率分布pn(x| xn)に異なる重みwnを付けて異常モデルを推定する。すなわち、式(5)を式(10)に変更する。
Figure JPOXMLDOC01-appb-M000011
ただし、重みwnは以下の性質を持つものとする。
Figure JPOXMLDOC01-appb-M000012
 異常度A(x)は式(12)(13)のように計算できる。
Figure JPOXMLDOC01-appb-M000013
 式(12)(13)を用いて異常モデルを推定することで、図4に示すように異常度が変化する。つまり、この重みづけは、正常音と誤判定する可能性が高い異常音データxnには大きな重みwnを与えることで、全体の誤判定率を低下させる働きを持っている。ここで問題となるのが、1.最適な重みとはどのような性質を満たすのか、2.重みはどのような目的関数を用いて最適化すればよいのか、の二点である。
 ≪偽陽性率最小化指標と最適化アルゴリズム≫
 以下、本実施形態の中心的な部分である最適な重みwnを求めるアルゴリズムについて説明する。異常音検知システムの精度の評価には、真陽性率(TPR: True Positive Rate、異常音を正しく異常音と判定できる確率)と、偽陽性率(FPR: False Positive Rate、正常音を誤って異常音と判定してしまう確率)とが用いられることが一般的である。TPRとFPRは以下のように求めることができる。
Figure JPOXMLDOC01-appb-M000014
ここでΗ[x]は、x≧0なら1、x<0なら0となる判定関数である。異常音検知システムは、真陽性率(TPR)が高く、かつ、偽陽性率(FPR)が低い方が、性能が良いため、以下の指標を最小化するシステムが最も性能が良いことになる。
Figure JPOXMLDOC01-appb-M000015
 異常音検知システムにおいては、異常音データの見逃しの方が問題となるため、N個の異常音データは確実に異常と判定したい。これを満たすためには、N個の異常音データから求まる真陽性率(TPR)を1とすればよい。
Figure JPOXMLDOC01-appb-M000016
 以上より、最適な異常音検知システムは式(16)の最小化と、見逃しの再発を起こさないための式(17)の制約とを同時に満たせばよいことになる。言い換えると、得られている異常音データを全て異常と判定できる閾値の下で、偽陽性率を最小化するように重みを更新すればよい。この重みwnの最適化は、式(18)~(20)の制約付き最適化問題を解くことで実行できる。
Figure JPOXMLDOC01-appb-M000017
ここで、φwはwnが与えられた下で式(17)を満足する閾値である。
 式(18)の最適化は、近接勾配法などを用いて実行できる。勾配法の実行のために、目的関数J(w)を重みwnについて偏微分可能な形へと変形する。目的関数J(w)において重みwnで微分できないのは、判定関数H[A(xn), φ]である。ここでは判定関数をなめらかな関数であるシグモイド関数で近似する。
Figure JPOXMLDOC01-appb-M000018
すると、重みwnの更新は式(23)~(27)で実行できる。
Figure JPOXMLDOC01-appb-M000019
ここで、λ(>0)は勾配法のステップサイズであり、▽xはxに関する偏微分を表す。
 以下、この発明の第一実施形態について詳細に説明する。この発明の第一実施形態は、異常音検知に用いる異常モデルを推定する異常モデル学習装置1と、異常モデル学習装置1が学習した異常モデルを用いて観測信号が正常か異常かを判定する異常音判定装置2とからなる。
 ≪異常モデル学習装置≫
 第一実施形態の異常モデル学習装置1は、図5に例示するように、入力部11、初期化部12、閾値決定部13、重み更新部14、重み修正部15、収束判定部16、および出力部17を含む。この異常モデル学習装置1が、図6に例示する各ステップの処理を行うことにより第一実施形態の異常モデル学習方法が実現される。
 異常モデル学習装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。異常モデル学習装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。異常モデル学習装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。異常モデル学習装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
 以下、図6を参照して、第一実施形態の異常モデル学習装置1が実行する異常モデル学習方法について説明する。
 ステップS11において、入力部11は、正常モデルp(x| z=0)と正常音データ{xk}k=1 Kと異常音データ{xn}n=1 Nと一様分布重みαと一様分布定数Cと勾配法のステップサイズλとを入力として受け取る。α, C, λの各パラメータはチューニングする必要があるが、例えば、α=N, C=0.05, λ=10-3程度に設定すればよい。正常モデルp(x| z=0)は、正常音データを用いて推定した確率分布であり、従来の教師なし異常音検知で用いるものと同様である。正常音データ{xk}k=1 Kは正常状態の機器が発した音を収録した大量の音データである。異常音データ{xn}n=1 Nは異常状態の機器が発した音を収録した少量の音データである。なお、入力される正常音データ{xk}k=1 Kは、正常モデルp(x| z=0)を学習するために用いた正常音データと同じものであることが好ましいが、必ずしも同じものでなくてもよい。
 ステップS12において、初期化部12は、重みwn(n=1, …, N)を初期化する。例えば、wn←1/Nで初期化すればよい。
 ステップS13において、閾値決定部13は、各異常音データxn(n=1, …, N)について、式(13)を計算し、得られた異常度A(xn)(n=1, …, N)の最小値min(A(xn))を閾値φwとして決定する。閾値決定部13は、得られた閾値φwを重み更新部14へ出力する。
 ステップS14において、重み更新部14は、異常音データ{xn}n=1 Nがすべて異常と判定され、正常音データ{xk}k=1 Kが異常と判定される確率が最小となるように、重みwnを更新する。そのために、重み更新部14は、異常音データxnについて計算した異常度A(xn)が小さいほど大きな重みを与えるように、重みwnを更新する。具体的には、重み更新部14は、式(23)を計算して、重みwnを更新する。この際、Kが大きい、すなわち、正常音データ{xk}k=1 Kの数が多い場合には、その正常音データ{xk}k=1 Kからランダムに選択したK'個の正常音データを用いて式(23)を計算してもよい。K'は計算リソースや所望の判定精度に応じてチューニングすればよいが、例えば、128や1024に設定すればよい。重み更新部14は、更新された重みwn(n=1, …, N)を重み修正部15へ出力する。
 ステップS15において、重み修正部15は、重み更新部14から重みwn(n=1, …, N)を受け取り、重みwn(n=1, …, N)が制約を満たすように、各重みwnを修正する。例えば、重みwnのうちwn<0のものがあればwn=0と設定し、式(28)を計算することで、重みwnを修正することができる。
Figure JPOXMLDOC01-appb-M000020
 ステップS16において、収束判定部16は、あらかじめ設定した終了条件を満たしているか否かを判定する。収束判定部16は、終了条件を満たしていればステップS17へ処理を進め、満たしていなければステップS13へ処理を戻す。終了条件は、例えば、ステップS13~S15の繰り返しを100回実行したこと、などと設定すればよい。
 ステップS17において、出力部17は、重みwn(n=1, …, N)を出力する。
 ≪異常音検知装置≫
 第一実施形態の異常音検知装置2は、図7に例示するように、モデル記憶部20、入力部21、異常度取得部22、状態判定部23、および出力部24を含む。この異常音検知装置2が、図8に例示する各ステップの処理を行うことにより第一実施形態の異常音検知方法が実現される。
 異常音検知装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。異常音検知装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。異常音検知装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。異常音検知装置2の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。異常音検知装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
 モデル記憶部20には、正常モデルp(x| z=0)と異常モデルp(x| z=1)と閾値φとが記憶されている。正常モデルp(x| z=0)は、異常モデル学習装置1と同様に、正常音データを用いて確率分布を推定したモデルであり、従来の教師なし異常音検知で用いるものと同様である。異常モデルp(x| z=1)は、異常モデル学習装置1により異常音データ{xn}n=1 Nを用いて重みwn(n=1, …, N)を学習したモデルである。閾値φは、異常モデル学習装置1の閾値決定部13により決定された閾値φwであってもよいし、あらかじめ手動で与えた閾値であってもよい。
 以下、図8を参照して、第一実施形態の異常音検知装置2が実行する異常音検知方法について説明する。
 ステップS21において、入力部21は、異常音検知の対象とする観測信号xを入力として受け取る。入力部21は、観測信号xを異常度取得部22へ出力する。
 ステップS22において、異常度取得部22は、入力部21から観測信号xを受け取り、式(13)を計算し、異常度A(x)を得る。異常度取得部22は、得られた異常度A(x)を状態判定部23へ出力する。
 ステップS23において、状態判定部23は、異常度取得部22から異常度A(x)を受け取り、異常度A(x)と閾値φとを比較して、観測信号xが正常か異常かを判定する。状態判定部23は、判定結果を出力部24へ出力する。
 ステップS24において、出力部24は、状態判定部23から判定結果を受け取り、その判定結果を異常音検知装置2の出力とする。
 <第一実施形態の変形例>
 本実施形態では、音データを対象とした異常音検知について説明したが、本実施形態は音データ以外へも適用することが可能である。例えば、本実施形態は音データ以外の時系列データや、画像データにも適用できる。これを適用するためには、xをその適用対象に適したものにすればよい。これは、振動センサや株価データであれば、これらの時系列情報をまとめたものや、それをフーリエ変換したものにすればよいし、画像であれば画像特徴量やそれをニューラルネットワークなどで分析した結果にしてもよい。この場合、異常音検知装置2は、正常時のデータである正常データを学習した正常モデルと異常時のデータである異常データを学習した異常モデルとを用いて観測データが正常か異常かを判定する異常検知装置として機能する。
 本実施形態では、少数の異常音データを用いて偽陽性率を最小化することを説明したが、正常音データを用いて偽陰性率を最小化するように構成することも可能である。すなわち、対象とするデータの種類や目標とする指標については、本実施形態の趣旨を逸脱しない範囲で適宜変更することが可能である。
 本実施形態では、異常モデル学習装置1と異常音検知装置2を別個の装置として構成する例を説明したが、異常モデルを学習する機能と学習済みの異常モデルを用いて異常音検知を行う機能とを兼ね備えた1台の異常音検知装置を構成することも可能である。すなわち、変形例の異常音検知装置は、入力部11、初期化部12、閾値決定部13、重み更新部14、重み修正部15、収束判定部16、出力部17、モデル記憶部20、入力部21、異常度取得部22、状態判定部23、および出力部24を含む。
 <第二実施形態>
 本実施形態では、得られた少数の異常音データを用いて教師なし異常音検知の精度を向上する枠組みを提供する。本実施形態では、少数の異常音データから異常モデル(もしくはペナルティ)を推定し、それを併用しながら異常度を計算する。異常モデルは少数の異常音と観測信号の類似度として定義する。すなわち、今までに得ている異常音と類似した観測信号には、異常と判定しやすくなるペナルティを与える。この異常モデルを学習するために、得られている異常データをすべて異常と判定できる異常判定閾値の下で、正常な観測信号を誤って異常と誤判定する確率である偽陽性率を最小化するように重みを最適化するアルゴリズムを提供する。
 <教師なし異常音検知>
 異常音検知とは、入力xを発した監視対象の状況が正常か異常かを判定するタスクである。ここで、xには、例えば式(29)のように、観測信号の対数振幅スペクトルln|Xt,f|を並べたものを用いることができる。
Figure JPOXMLDOC01-appb-M000021
ここで、t={1, 2, …, T}は時間のインデックス、f={1, 2, …, F}は周波数のインデックス、Qは入力で考慮する過去と未来のフレーム数である。xはこれに限らず、観測信号から特徴量を抽出した結果でもよい。
 統計的手法に基づく異常音検知では、式(30)に示すように、入力xから異常度A(x)を算出する。
Figure JPOXMLDOC01-appb-M000022
ここで、p(x| z=0)は監視対象が正常状態のときにxを発する確率分布(正常モデル)、p(x| z=1)は監視対象が異常状態のときにxを発する確率分布(異常モデル)である。そして、式(31)に示すように、異常度A(x)が事前に定義した閾値φより大きければ監視対象は異常、小さければ正常と判断する。
Figure JPOXMLDOC01-appb-M000023
ここで、Η(・)は引数が非負なら1、負なら0を返すステップ関数である。識別結果が1ならば観測信号を異常と判定し、0ならば正常と判定する。
 式(31)を計算するためには、正常モデルと異常モデルとが既知でなくてはならない。しかしながら、各モデルは未知であるため、学習データから推定する必要がある。正常モデルは例えば、事前に収集した正常状態の動作音データ(正常データ)から、以下の混合ガウス分布(GMM: Gaussian Mixture Model)を学習することで設計できる。
Figure JPOXMLDOC01-appb-M000024
ただし、Kは混合数、Ν(x|μ, Σ)は平均ベクトルμと分散共分散行列Σとをパラメータとするガウス分布、wkはk番目の分布の重み、μkはk番目の分布の平均ベクトル、Σkはk番目の分布の分散共分散行列である。
 正常データは大量に収集することが容易な一方、異常状態の動作音データ(異常データ)を収集することは困難である。そこで、「教師なし異常音検知」では、異常モデルを省略し、式(33)に示すように異常度A(x)を定義することが一般的である。
Figure JPOXMLDOC01-appb-M000025
 つまり、教師なし異常音検知では、正常モデルと観測信号が類似しているならば正常と判定し、類似していないなら異常と判定する。
 <本実施形態の原理>
 実環境で教師なし異常音検知システムを運用していると、異常データを収集できるときがある。例えば、教師なし異常音検知システムが異常状態を検知すれば、自動的に異常データを得ることができる。また、教師なし異常音検知システムが異常状態を見逃したとしても、その後の人手の検査などで異常状態が発覚すれば、それまでの観測データを異常データとして用いることができる。特に後者のようなケースでは、異常状態の見逃しを続けると重大な事故に繋がるため、観測できた異常データを用いてシステムをアップデートすべきである。本発明は、上記のように運用中に得られた異常データを用いて異常モデルを学習することで、異常音検知の精度を向上させる技術である。
 ≪異常モデルの設計≫
 得られたN個の異常なサンプルY:={yn}n=1 Nから異常モデルp(x| Y)を推定することを考える。監視対象が異常状態になることは稀であるため、Nは正常データの数よりも圧倒的に少ない。そのため、異常モデルを混合ガウス分布のような複雑な統計モデルでモデル化することは困難である。そこで本発明では、式(34)の異常モデルを設計するものとする。
Figure JPOXMLDOC01-appb-M000026
ここで、Κ(x, yn)はxとynとの類似度を計算する関数、gnはn番目の異常データの混合重み、Θnはxとynとの類似度を計算するためのパラメータである。すなわち、異常度A(x)を式(35)として計算する。
Figure JPOXMLDOC01-appb-M000027
 つまり本実施形態では、異常モデルを、得られた異常データと観測信号の類似度の重み付き和を算出する関数として定義することで、得られた異常データと観測信号とが類似しているならば異常と判定するように誘導するペナルティ項として用いて、教師なし異常音検知システムを更新/補正する。
 ≪目的関数の設計≫
 本実施形態の異常度である式(35)において、求めるべきパラメータはgnとΘnである。学習データを用いてパラメータを求めるためには、「どのようなパラメータがシステムにとって良いパラメータなのか」を数学的に記述した「目的関数」を適切に設計しなくてはならない。異常音検知の目的関数では、横軸を正常な観測信号を誤って異常と誤判定する確率である偽陽性率(FPR: False Positive Rate)とし、縦軸を異常な観測信号を正しく異常と判定できる確率である真陽性率(TPR: True Positive Rate)としたときの、曲線の下部面積であるAUC(Area Under the Receiver Operating Characteristic Curve)を利用して目的関数を設計することがある。なお、式(35)で異常度を定義するならば、真陽性率(TPR)と偽陽性率(FPR)は、式(36)(37)のように定義できる。
Figure JPOXMLDOC01-appb-M000028
 初期の研究では、AUC全体を最大化するように学習が行われていた(下記参考文献1参照)。一方、近年の研究では、教師なし異常音検知を仮説検定とみなすことで、ある危険率(例えば、偽陽性率)に対する条件下で真陽性率を最大化するように教師なし異常音検知システムを学習することで、異常音検知の性能が向上することが明らかになっている(下記参考文献2参照)。このような概念は、「ネイマン・ピアソン基準」と呼ばれている。
 〔参考文献1〕A. P. Bradley, "The Use of the Area Under the ROC Curve in the Evaluation of Machine Learning Algorithms," Pattern Recognition, pp. 1145-1159, 1996.
 〔参考文献2〕Y. Koizumi, et al., "Optimizing Acoustic Feature Extractor for Anomalous Sound Detection Based on Neyman-Pearson Lemma," EUSIPCO, 2017.
 異常音検知システムにおいて、異常状態の見逃しを続けると重大な事故につながる可能性がある。監視対象機器が取り得るすべての異常データを得ることが困難なため、監視対象機器が取り得るすべての異常状態の見逃しを防ぐことは困難である。しかしながら、少なくとも得られている異常データと類似する異常状態は、必ず異常と判定するようにシステムを構築することは可能である。そこで、式(36)の真陽性率(TPR)の定義を式(38)のように変更する。
Figure JPOXMLDOC01-appb-M000029
 この真陽性率(TPR)が1.0となる条件のもとで、偽陽性率(FPR)を最小化する式(39)を、本実施形態の目的関数とする。以下、式(39)の目的関数を、「条件付きAUC最大化」と呼ぶことにする。
Figure JPOXMLDOC01-appb-M000030
 図9は、従来の「AUC最大化」(図9A)や「ネイマン・ピアソン基準」(図9B)と、本実施形態の「条件付きAUC最大化」(図9C)との概念の違いを表す図である。図中の点線は学習前の受信者動作特性(ROC: Receiver Operating Characteristic)曲線であり、実線は学習後のROC曲線である。またAUCは、ROC曲線とx軸がはさむ領域の面積であり、AUC最大化ではこの面積を増加させるように学習を行う。ネイマン・ピアソン基準は、偽陽性率(FPR)が特定の値になる領域のTPRを向上させることで、AUCを最大化していた(破線より左、A1の領域)。一方、条件付きAUC最大化は、真陽性率(TPR)が1.0となる領域のAUCを直接最大化していることに等しい(破線より右、A2の領域)。すなわち、制約項が偽陽性率(FPR)でなく真陽性率(TPR)に変化している。つまり、条件付きAUC最大化では、目的関数を、異常データを確実に異常と判定できる条件下で、正常データを異常と誤判定する確率を最小化するものとしている。
 ≪学習方法≫
 目的関数を計算機上で実現するアルゴリズムを考える。式(39)における制約項は、適切な閾値を設定することで満たすことができる。ここでφρ
Figure JPOXMLDOC01-appb-M000031
を満たすなら、式(39)は式(41)のように書くことができる。
Figure JPOXMLDOC01-appb-M000032
 したがって、上記のような閾値φρを求めることで、最適化は容易になる。
 式(38)で真陽性率(TPR)を求める上で困難になるのは、上記の積分が解析的に実行できない点にある。そこで本発明では、上記の積分をサンプリング法で近似的に実行する。まず、推定した異常分布p(x| Y)から、I個の異常サンプルY:={yi}i=1 Iを擬似生成する。
Figure JPOXMLDOC01-appb-M000033
ここで、~は、右辺の確率分布から擬似乱数生成法などを用いて擬似乱数を生成する演算子である。p(x| Y)が正規化された確率分布ではない場合でも、スライスサンプリング法などを用いてその値に比例した確率でサンプルを生成する。そして、これらのサンプルを用いて式(40)を満たすための条件は、φρが、生成されたサンプルから求められるすべての異常度よりも小さいことである。そこで、φρを以下のように決定する。
Figure JPOXMLDOC01-appb-M000034
ここで、βは正の定数である。
 最後に、式(39)を最大化したいが、式(37)における偽陽性率(FPR)内の積分も解析的に計算できない。そこで、正常データの中から、ランダムにJ個を選択し、積分をそのデータから計算される値の和に近似して勾配を計算する確率的勾配法で最適化を行う。
Figure JPOXMLDOC01-appb-M000035
ここで、αはステップサイズである。ただし、ステップ関数であるΗ(・)はその勾配を求めることができないため、シグモイド関数で近似する。なお、目的関数は式(47)のように変更してもよい。
Figure JPOXMLDOC01-appb-M000036
 つまり本実施形態では、目的関数を、得られた異常データそのものまたは得られた異常データから求めた異常モデルを用いて疑似生成した異常データを、確実に異常と判定できることを制約条件として、正常データを異常と誤判定する確率を最小化するものとして、異常モデルを学習する。
 <ガウスカーネルを用いた実装例>
 上述した本実施形態の異常音検知の原理を、ガウスカーネルを用いて実装する例を説明する。本実施形態における異常モデルを式(48)のように定義する。
Figure JPOXMLDOC01-appb-M000037
ここで、0≦λn,d, 0≦gn, Σn=1 Ngn=1であり、εは正の小さな定数である。gnはn番目の異常データが、その他の異常データと相対的に比較して、異常判定にどれくらい重要かを表すパラメータである。また、λn,dは、n番目の異常データのd次元目が異常判定にどれくらい重要かを表すパラメータである。なお、異常モデルp(x| Y)を確率密度関数として捉えるならば、∫Κ(x, y)dx=1と規格化されていなくてはならず、また、Σn=1 Ngn=1でなくてはならない。一方、異常モデルを得られた異常データと類似している観測へのペナルティ項と捉えるならば、確率分布の条件である規格化の制約を満たす必要はない。そのため、式(48)においては、∫Κ(x, y)dx=1は満たしていない。
 式(48)の異常モデルを用いた場合、各パラメータは以下のように更新することができる。まず、閾値φρを求めるために、異常サンプルを生成する。式(48)に基づき異常モデルを定義した場合、異常サンプルは例えば式(49)(50)のように生成できる。
Figure JPOXMLDOC01-appb-M000038
ここで、Categoricalはカテゴリー分布を表す。
 次に、式(43)で閾値を設定する。すると、各パラメータは式(51)(52)のように更新できる。
Figure JPOXMLDOC01-appb-M000039
ただし、
Figure JPOXMLDOC01-appb-M000040
であり、係数γnは以下のように求められる。
Figure JPOXMLDOC01-appb-M000041
また、0≦λn,d, 0≦gn, Σn=1 Ngn=1を満たすために、更新毎に以下の後処理を行う。
Figure JPOXMLDOC01-appb-M000042
また、正則化のために、λn,dの後処理は以下で行ってもよい。
Figure JPOXMLDOC01-appb-M000043
ここで、ξ=10-7程度に設定すればよい。
 ガウスカーネルの形状に関するパラメータλn,dを固定し、重要度パラメータgnのみを学習することも考えられる。しかしながら、このような状況でサンプリングを行うと、図10Aに例示するように、正常の範囲内に異常データを生成してしまう可能性があり、それにより、TPRの計算における期待値の近似演算が不安定になるため、閾値が正しく設定できない可能性がある。そのため、λn,dを固定した場合、サンプリングを用いた閾値設定は行えず、得られた異常サンプルから直接閾値設定を行う必要がある。λn,dの逆数が分散になるため、λn,dを最適化することで、図10Bに例示するように、検知に重要な特徴量次元では正常データの範囲内に異常サンプルを生成しないようになる。したがって、本実施形態では、λn,dを学習することで、サンプリングを用いた閾値設定を可能としている。
 以下、本発明の第二実施形態について詳細に説明する。本発明の第二実施形態は、上述した異常モデルの学習を行う異常モデル学習装置3と、異常モデル学習装置3が学習した異常モデルを用いて観測信号が正常か異常かを判定する異常音検知装置4とからなる。
 ≪異常モデル学習装置≫
 第二実施形態の異常モデル学習装置3は、図11に例示するように、入力部31、初期化部32、異常分布取得部33、異常音生成部34、閾値決定部35、モデル更新部36、収束判定部37、および出力部38を備える。この異常モデル学習装置3が、図12に例示する各ステップの処理を行うことにより第二実施形態の異常モデル学習方法が実現される。
 異常モデル学習装置3は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。異常モデル学習装置3は、例えば、中央演算処理装置の制御のもとで各処理を実行する。異常モデル学習装置3に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。異常モデル学習装置3の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
 以下、図12を参照して、第二実施形態の異常モデル学習装置3が実行する異常モデル学習方法について説明する。
 ステップS31において、入力部31は、正常モデルp(x| z=0)、正常音データ、異常音データ、および学習に必要なパラメータα, β, ε, ξを入力として受け取る。α, β, ε, ξの各パラメータは環境に合わせて設定するものであるが、例えば、α=10-4, β=5, ε=10-6, ξ=10-7程度に設定する。正常モデルp(x| z=0)は、正常音データを用いて推定した確率分布であり、従来の教師なし異常音検知で用いるものと同様である。正常音データは正常状態の機器が発した音を収録した大量の音データである。異常音データは異常状態の機器が発した音を収録した少量の音データである。なお、入力される正常音データは、正常モデルp(x| z=0)を学習するために用いた正常音データと同じものであることが好ましいが、必ずしも同じものでなくてもよい。
 ステップS32において、初期化部32は、0≦λn,d, 0≦gn, Σn=1 Ngn=1を満たすように、λn,d, gnを一様乱数などで初期化する。初期化部32は、初期化したパラメータλn,d, gnを異常分布取得部33へ出力する。
 ステップS33において、異常分布取得部33は、初期化部32からパラメータλn,d,gnを受け取り、入力された異常音データから式(48)の異常モデルp(x| Y)を生成する。ステップS33を2回目以降に実行するときには、異常分布取得部33は、学習中のパラメータλn,d, gnと、ステップS34で疑似生成する異常サンプル{yn}n=1 Nとから式(48)の異常モデルp(x| Y)を生成する。異常分布取得部33は、生成した異常モデルp(x| Y)を異常音生成部34へ出力する。
 ステップS34において、異常音生成部34は、異常分布取得部33から異常モデルp(x| Y)を受け取り、式(49)(50)により、N個の異常サンプル{yn}n=1 Nを疑似生成する。異常音生成部34は、疑似生成した異常サンプル{yn}n=1 Nを閾値決定部35へ出力する。
 ステップS35において、閾値決定部35は、異常音生成部34から異常サンプル{yn}n=1 Nを受け取り、式(43)に基づいて閾値φρを設定する。閾値決定部35は、決定した閾値φρをモデル更新部36へ出力する。
 ステップS36において、モデル更新部36は、閾値決定部35から閾値φρを受け取り、式(51)から式(58)に基づいて異常モデルp(x| Y)のパラメータλn,d, gnを更新する。このとき、式(51)(52)には単純な勾配降下法だけでなく、例えばAdam法などの異なる勾配法を用いてもよい。
 ステップS37において、収束判定部37は、あらかじめ設定した終了条件を満たしているか否かを判定する。収束判定部37は、終了条件を満たしていればステップS38へ処理を進め、満たしていなければステップS33へ処理を戻す。終了条件は、例えば、ステップS33~S36の繰り返しを500回実行したこと、などと設定すればよい。
 ステップS38において、出力部38は、学習したパラメータλn,d, gnを出力する。
 ≪異常音検知装置≫
 第二実施形態の異常音検知装置4は、図13に例示するように、モデル記憶部40、入力部41、異常度取得部42、状態判定部43、および出力部44を備える。この異常音検知装置4が、図14に例示する各ステップの処理を行うことにより第二実施形態の異常音検知方法が実現される。
 異常音検知装置4は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。異常音検知装置4は、例えば、中央演算処理装置の制御のもとで各処理を実行する。異常音検知装置4に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。異常音検知装置4の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。異常音検知装置4が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
 モデル記憶部40には、正常モデルp(x| z=0)と異常モデルp(x| z=1)と閾値φとが記憶されている。正常モデルp(x| z=0)は、異常モデル学習装置3と同様に、正常音データを用いて確率分布を推定したモデルであり、従来の教師なし異常音検知で用いるものと同様である。異常モデルp(x| z=1)は、異常モデル学習装置3により異常音データ{yn}n=1 Nを用いてパラメータλn,d, gn(d=1, …, D; n=1, …, N)を学習したモデルである。閾値φは、異常モデル学習装置3の閾値決定部35により決定された閾値φρであってもよいし、あらかじめ手動で与えた閾値であってもよい。
 以下、図14を参照して、第二実施形態の異常音検知装置4が実行する異常音検知方法について説明する。
 ステップS41において、入力部41は、異常音検知の対象とする観測信号xを入力として受け取る。入力部41は、観測信号xを異常度取得部42へ出力する。
 ステップS42において、異常度取得部42は、入力部41から観測信号xを受け取り、式(35)を計算し、異常度A(x)を得る。異常度取得部42は、得られた異常度A(x)を状態判定部43へ出力する。
 ステップS43において、状態判定部43は、異常度取得部42から異常度A(x)を受け取り、式(31)を計算し、観測信号xが正常か異常かを判定する。状態判定部43は、観測信号xが正常か異常かを示す二値データである判定結果を出力部44へ出力する。
 ステップS44において、出力部44は、状態判定部43から判定結果を受け取り、その判定結果を異常音検知装置4の出力とする。
 <第二実施形態の変形例>
 本実施形態では、異常モデル学習装置3が異常サンプルを疑似生成して異常モデルのパラメータを学習する構成としたが、異常サンプルを疑似生成する機能のみを備えた異常音生成装置を構成することも可能である。この異常音生成装置は、第二実施形態の異常モデル学習装置3が備える異常分布取得部33と異常音生成部34とを備える。この異常音生成装置は、例えば、正常データと少量の異常データと正常モデルと学習に必要なパラメータとを入力とし、異常分布取得部33が、異常データから異常音が従う確率分布である異常分布を得、異常音生成部34が、その異常分布を用いて異常サンプルを疑似生成し、その異常サンプルを異常音生成装置の出力とする。
 本実施形態では、異常モデル学習装置3と異常音検知装置4とを別個の装置として構成する例を説明したが、異常モデルを学習する機能と学習済みの異常モデルを用いて異常音検知を行う機能とを兼ね備えた1台の異常音検知装置を構成することも可能である。すなわち、変形例の異常音検知装置は、入力部31、初期化部32、異常分布取得部33、異常音生成部34、閾値決定部35、モデル更新部36、収束判定部37、モデル記憶部40、入力部41、異常度取得部42、状態判定部43、および出力部44を含む。
 本実施形態では、音データを対象とした異常音検知について説明したが、本実施形態は音データ以外へも適用することが可能である。例えば、本実施形態は音データ以外の時系列データや、画像データにも適用できる。これを適用するためには、xをその適用対象に適したものにすればよい。これは、振動センサや株価データであれば、これらの時系列情報をまとめたものや、それをフーリエ変換したものにすればよいし、画像であれば画像特徴量やそれをニューラルネットワークなどで分析した結果にしてもよい。この場合、異常音検知装置2は、正常時のデータである正常データを学習した正常モデルと異常時のデータである異常データを学習した異常モデルとを用いて観測データが正常か異常かを判定する異常検知装置として機能する。
 以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
 [プログラム、記録媒体]
 上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (17)

  1.  正常音データを用いて学習した正常モデルと異常音データを用いて学習した異常モデルとを記憶するモデル記憶部と、
     入力された対象データについて上記正常モデルと上記異常モデルとを用いて異常度を計算する異常度取得部と、
     上記異常度を所定の閾値と比較して上記対象データが正常か異常かを判定する状態判定部と、
     を含む異常音検知装置であって、
     上記異常モデルは、少なくとも上記正常モデルを用いて複数の異常音データそれぞれについて算出した異常度の最小値を学習時閾値として決定し、複数の正常音データと上記異常音データと上記学習時閾値とを用いて、上記異常音データすべてが異常と判定され、上記正常音データが異常と判定される確率が最小となるように重みを決定したものである、
     異常音検知装置。
  2.  請求項1に記載の異常音検知装置であって、
     上記異常モデルは、上記異常音データについて算出した異常度が小さいほどその異常音データに類似するデータに与える重みが大きくなるように重みを決定したものである、
     異常音検知装置。
  3.  請求項1または2に記載の異常音検知装置であって、
     Nを1以上の整数とし、x1, …, xNを上記異常音データとし、w1, …, wNを上記異常モデルの重みとし、αを正の定数とし、Cを正の定数とし、p(x| z=0)を上記正常モデルとし、pn(x| xn)をn番目の異常音データxnから推定される確率分布とし、
     上記異常モデルは、次式により対象データxの異常度A(x)を算出したものである、
    Figure JPOXMLDOC01-appb-M000001

     異常音検知装置。
  4.  請求項1から3のいずれかに記載の異常音検知装置であって、
     Nを1以上の整数とし、x1, …, xNを上記異常音データとし、Kを1以上の整数とし、x1, …, xKを上記正常データとし、αを正の定数とし、Cを正の定数とし、A(x)をxの異常度とし、φwを上記閾値とし、p(x| z=0)を上記正常モデルとし、pn(x| xn)をn番目の異常音データxnから推定される確率分布とし、λを所定のステップサイズとし、Tを転置とし、
     上記異常モデルは、次式を計算することにより上記異常モデルの重みw=(w1, …, wN)T
    を決定したものである、
    Figure JPOXMLDOC01-appb-M000002


     異常音検知装置。
  5.  予め用意された異常音データをモデル化した確率分布である第1の異常モデルと、上記異常音データとは異なる異常音である追加異常音をモデル化した確率分布である第2の異常モデルとを記憶するモデル記憶部と、
     入力された対象音データについて上記第1の異常モデルと上記第2の異常モデルとを組合せ異常度を計算する異常度取得部と、
     上記異常度を所定の閾値と比較し上記対象音データが正常音か異常音かを判定する状態判定部と、
     を含む異常音検知装置。
  6.  請求項5に記載の異常音検知装置であって、
     上記第2の異常モデルは、上記追加異常音を全て異常と判定できるような確率分布を得るために、上記追加異常音データについて算出した異常度が小さいほどその追加異常音データに類似するデータに与える重みが大きくなるように重みをもたせてモデル化されており、
     上記閾値は前記追加異常音の全てを異常音と判定するよう設定されている
     異常音検知装置。
  7.  正常音データを用いて学習した正常モデルと異常音データを表現した異常モデルとを用いて複数の異常音データそれぞれについて異常度を算出し、その最小値を閾値として決定する閾値決定部と、
     複数の正常音データと上記異常音データと上記閾値とを用いて、上記異常音データすべてが異常と判定され、上記正常音データが異常と判定される確率が最小となるように、上記異常モデルの重みを更新する重み更新部と、
     を含む異常モデル学習装置。
  8.  正常時の時系列データである正常データを用いて学習した正常モデルと異常時の時系列データである異常データを用いて学習した異常モデルとを記憶するモデル記憶部と、
     入力された対象データについて上記正常モデルと上記異常モデルとを用いて異常度を計算する異常度取得部と、
     上記異常度を所定の閾値と比較して上記対象データが正常か異常かを判定する状態判定部と、
     を含む異常検知装置であって、
     上記異常モデルは、少なくとも上記正常モデルを用いて複数の異常データそれぞれについて算出した異常度の最小値を学習時閾値として決定し、複数の正常データと上記異常データと上記学習時閾値とを用いて、上記異常データすべてが異常と判定され、上記正常データが異常と判定される確率が最小となるように重みを決定したものである、
     異常検知装置。
  9.  モデル記憶部に、正常音データを用いて学習した正常モデルと異常音データを用いて学習した異常モデルとが記憶されており、
     異常度取得部が、入力された対象データについて上記正常モデルと上記異常モデルとを用いて異常度を計算し、
     状態判定部が、上記異常度を所定の閾値と比較して上記対象データが正常か異常かを判定する、
     異常音検知方法であって
     上記異常モデルは、少なくとも上記正常モデルを用いて複数の異常音データそれぞれについて算出した異常度の最小値を学習時閾値として決定し、複数の正常音データと上記異常音データと上記学習時閾値とを用いて、上記異常音データすべてが異常と判定され、上記正常音データが異常と判定される確率が最小となるように重みを決定したものである、
     異常音検知方法。
  10.  少なくとも得られた異常音に基づき、疑似異常音を生成する異常音生成装置であって、
     前記得られた異常音もしくは前記得られた異常音に基づく値から異常音が従う確率分布である異常分布を得る異常分布取得部と、
     前記異常分布から生成される確率が高く、かつ、正常音が従う確率分布から生成される確率が低くなるように前記疑似異常音を生成する異常音生成部と、
     を有する異常音生成装置。
  11.  請求項10に記載の異常音生成装置であって、
     前記得られた異常音に基づく値は、異常音を確実に異常と判定し、かつ、正常音を異常と判定する確率を最小化するように最適化された異常モデルと前記得られた異常音とに基づき得られた値である、
     異常音生成装置。
  12.  請求項11に記載の異常音生成装置であって、
     前記異常モデルは、前記得られた異常音と、正常音であるか異常音であるかを判定する対象の音である観測音との重みつき類似度を算出する関数として定義されている、
     異常音生成装置。
  13.  請求項10から12のいずれかに記載の異常音生成装置であって、
     前記異常音生成部は、~を確率分布から擬似乱数を生成する演算子とし、Categoricalをカテゴリー分布とし、Nを前記得られた異常音の数とし、nを1からNまでの各整数とし、gnをn番目の前記得られた異常音に与える重みとし、yi,dをi番目の前記得られた異常音のd次元目の値とし、λi,dをi番目の前記得られた異常音のd次元目に与える重みとし、Ν(μ, Σ)を分散がμであり分散共分散行列がΣである混合ガウス分布とし、εを正の定数とし、次式により前記疑似異常音を生成するものである、
    Figure JPOXMLDOC01-appb-M000003


     異常音生成装置。
  14.  少なくとも得られた異常データに基づき、疑似異常データを生成する異常データ生成装置であって、
     前記得られた異常データもしくは前記得られた異常データに基づく値から異常データが従う確率分布である異常分布を得る異常分布取得部と、
     前記異常分布から生成される確率が高く、かつ、正常データが従う確率分布から生成される確率が低くなるように前記疑似異常データを生成する異常データ生成部と、
     を有する異常データ生成装置。
  15.  得られた異常音もしくは前記得られた異常音に基づく値から異常音が従う確率分布である異常分布を得る異常分布取得部と、
     前記異常分布から生成される確率が高く、かつ、正常音が従う確率分布から生成される確率が低くなるように疑似異常音を生成する異常音生成部と、
     前記疑似異常音から算出される異常度すべてが異常と判定されるように閾値を設定する閾値設定部と、
     得られた正常音と前記得られた異常音もしくは前記得られた異常音に基づく値と前記閾値とを用いて、異常音を確実に異常と判定し、かつ、正常音を異常と判定する確率を最小化するように異常モデルのパラメータを更新するモデル更新部と、
     を有する異常モデル学習装置。
  16.  少なくとも得られた異常音に基づき、疑似異常音を生成する異常音生成方法であって、
     異常分布取得部が、前記得られた異常音もしくは前記得られた異常音に基づく値から異常音が従う確率分布である異常分布を得、
     異常音生成部が、前記異常分布から生成される確率が高く、かつ、正常音が従う確率分布から生成される確率が低くなるように異常音を生成する、
     異常音生成方法。
  17.  請求項1から6のいずれかに記載の異常音検知装置もしくは請求項7または15に記載の異常モデル学習装置もしくは請求項8に記載の異常検知装置もしくは請求項10から13のいずれかに記載の異常音生成装置もしくは請求項14に記載の異常データ生成装置としてコンピュータを機能させるためのプログラム。
PCT/JP2018/031345 2017-09-06 2018-08-24 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム WO2019049688A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/643,916 US11467570B2 (en) 2017-09-06 2018-08-24 Anomalous sound detection apparatus, anomaly model learning apparatus, anomaly detection apparatus, anomalous sound detection method, anomalous sound generation apparatus, anomalous data generation apparatus, anomalous sound generation method and program
JP2019540879A JP6947219B2 (ja) 2017-09-06 2018-08-24 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
CN201880057321.1A CN111108362B (zh) 2017-09-06 2018-08-24 异常声音探测装置、异常模型学习装置、异常探测装置、异常声音探测方法、以及记录介质
EP18854021.5A EP3680639B1 (en) 2017-09-06 2018-08-24 Abnormality model learning device, method, and program
ES18854021T ES2970507T3 (es) 2017-09-06 2018-08-24 Dispositivo, método y programa de aprendizaje de modelos de anormalidad

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017-171058 2017-09-06
JP2017171058 2017-09-06
JP2018003979 2018-01-15
JP2018-003979 2018-01-15

Publications (1)

Publication Number Publication Date
WO2019049688A1 true WO2019049688A1 (ja) 2019-03-14

Family

ID=65634764

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031345 WO2019049688A1 (ja) 2017-09-06 2018-08-24 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム

Country Status (6)

Country Link
US (1) US11467570B2 (ja)
EP (1) EP3680639B1 (ja)
JP (1) JP6947219B2 (ja)
CN (2) CN113899577A (ja)
ES (1) ES2970507T3 (ja)
WO (1) WO2019049688A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200306912A1 (en) * 2019-04-01 2020-10-01 Fanuc Corporation Monitoring device, monitoring system and monitoring method
CN111832910A (zh) * 2020-06-24 2020-10-27 陕西法士特齿轮有限责任公司 一种多指标异响判定阈值确定方法、系统和计算机设备
WO2020230324A1 (ja) * 2019-05-16 2020-11-19 日本電信電話株式会社 学習装置、学習方法および学習プログラム
JPWO2021019671A1 (ja) * 2019-07-30 2021-02-04
WO2021019672A1 (ja) * 2019-07-30 2021-02-04 日本電信電話株式会社 異常度推定装置、異常度推定方法、およびプログラム
WO2021090842A1 (ja) * 2019-11-08 2021-05-14 Dmg森精機株式会社 工作機械および表示装置
EP3858578A1 (en) * 2020-01-31 2021-08-04 Sumitomo Heavy Industries, Ltd. Adjustment device of injection molding machine and injection molding machine
WO2021220450A1 (ja) * 2020-04-30 2021-11-04 日本電気株式会社 識別装置、識別方法及び記録媒体
CN113670434A (zh) * 2021-06-21 2021-11-19 深圳供电局有限公司 变电站设备声音异常识别方法、装置和计算机设备
TWI762101B (zh) * 2019-12-23 2022-04-21 日商日立製作所股份有限公司 異常診斷裝置及異常診斷程式
WO2023038022A1 (ja) * 2021-09-09 2023-03-16 株式会社堀場アドバンスドテクノ 測定システム、測定システムの異常判定方法、及び、測定システムの異常判定プログラム
WO2023067726A1 (ja) * 2021-10-20 2023-04-27 三菱電機株式会社 学習装置、予測装置、予測システム、学習方法、予測方法、及び予測プログラム
WO2023204183A1 (ja) * 2022-04-18 2023-10-26 東京エレクトロン株式会社 状態検出装置、状態検出方法、学習モデルの生成方法及びコンピュータプログラム
JP7433532B1 (ja) 2023-01-20 2024-02-19 三菱電機株式会社 疑似異常データ生成装置、設備監視システム、疑似異常データ生成方法、およびプログラム
JP7510979B2 (ja) 2022-09-22 2024-07-04 株式会社日立製作所 異常音のデータを生成する装置及び方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836142B1 (en) * 2018-08-10 2024-04-03 Nippon Telegraph And Telephone Corporation Abnormality detection device and program
JP7483341B2 (ja) * 2019-09-26 2024-05-15 キヤノン株式会社 情報処理方法、情報処理装置、機械設備、物品の製造方法、プログラム、記録媒体
CN112150780A (zh) * 2020-08-17 2020-12-29 来邦养老科技有限公司 一种报警阈值修正方法、装置及存储介质
US20220155263A1 (en) * 2020-11-19 2022-05-19 International Business Machines Corporation Sound anomaly detection using data augmentation
CN112926659A (zh) * 2021-02-26 2021-06-08 平安普惠企业管理有限公司 实例异常判定方法、装置、计算机设备及存储介质
IL309318A (en) * 2021-06-16 2024-02-01 Ironwood Cyber Inc Anomaly detection in a control system using neural network consensus
TWI774472B (zh) * 2021-07-13 2022-08-11 緯創資通股份有限公司 異音檢測方法及裝置
KR20230036384A (ko) * 2021-09-07 2023-03-14 현대자동차주식회사 이상 탐지 시스템 및 그의 임계치 설정 방법
CN114104332B (zh) * 2021-11-19 2023-09-22 中国直升机设计研究所 直升机动部件的状态指标动态阈值的获取方法和装置
CN114267178B (zh) * 2021-12-30 2023-09-26 佳都科技集团股份有限公司 一种车站的智能运营维护方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0972596A (ja) * 1995-09-07 1997-03-18 Yamatake Honeywell Co Ltd 空調システム診断方法
JP2010092266A (ja) * 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
US20150219530A1 (en) * 2013-12-23 2015-08-06 Exxonmobil Research And Engineering Company Systems and methods for event detection and diagnosis
US20160300126A1 (en) * 2013-11-29 2016-10-13 Ge Aviation Systems Limited Method of construction of anomaly models from abnormal data
JP2017062713A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 識別器作成装置、識別器作成方法、およびプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2284412A (en) * 1938-03-25 1942-05-26 Heil Co Scraper
CA2318262A1 (en) * 1998-03-03 1999-09-10 Lernout & Hauspie Speech Products N.V. Multi-resolution system and method for speaker verification
JP2005121639A (ja) * 2003-09-22 2005-05-12 Omron Corp 検査方法および検査装置ならびに設備診断装置
JP4670662B2 (ja) * 2006-01-26 2011-04-13 パナソニック電工株式会社 異常検出装置
JP2007256153A (ja) * 2006-03-24 2007-10-04 Hitachi Ltd 鉄道車両台車異常検知システム
JP4200332B2 (ja) * 2006-08-29 2008-12-24 パナソニック電工株式会社 異常監視装置、異常監視方法
US7310590B1 (en) * 2006-11-15 2007-12-18 Computer Associates Think, Inc. Time series anomaly detection using multiple statistical models
US7933420B2 (en) * 2006-12-28 2011-04-26 Caterpillar Inc. Methods and systems for determining the effectiveness of active noise cancellation
WO2008087968A1 (ja) * 2007-01-17 2008-07-24 Nec Corporation 変化点検出方法および装置
US7555399B1 (en) * 2007-04-23 2009-06-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting changes in sensor sample streams
JP5301310B2 (ja) * 2009-02-17 2013-09-25 株式会社日立製作所 異常検知方法及び異常検知システム
JP5448758B2 (ja) * 2009-11-30 2014-03-19 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造
CN102385705B (zh) * 2010-09-02 2013-09-18 大猩猩科技股份有限公司 利用多特征自动集群法的异常行为侦测系统与方法
JP5767825B2 (ja) 2011-02-28 2015-08-19 綜合警備保障株式会社 音処理装置および音処理方法
CN102243143B (zh) * 2011-04-20 2014-04-30 上海斐赛轴承科技有限公司 轴承异常声检测控制方法以及轴承振动测量仪
JP2013140135A (ja) * 2011-12-09 2013-07-18 Tokyo Electron Ltd 周期的駆動系の異常検知装置、周期的駆動系を有する処理装置、周期的駆動系の異常検知方法、およびコンピュータプログラム
JP5930789B2 (ja) * 2012-03-23 2016-06-08 三菱電機株式会社 異常音診断装置
CN103366738B (zh) * 2012-04-01 2016-08-03 佳能株式会社 生成声音分类器和检测异常声音的方法和设备及监视系统
JP5996384B2 (ja) * 2012-11-09 2016-09-21 株式会社東芝 プロセス監視診断装置、プロセス監視診断プログラム
US9727821B2 (en) * 2013-08-16 2017-08-08 International Business Machines Corporation Sequential anomaly detection
JP6236282B2 (ja) * 2013-10-21 2017-11-22 株式会社日立ハイテクノロジーズ 異常検出装置、異常検出方法、及びコンピュータ読み取り可能な記憶媒体
CN104281858B (zh) * 2014-09-15 2018-07-10 中安消技术有限公司 三维卷积神经网络训练方法、视频异常事件检测方法及装置
EP3892198B1 (en) * 2014-11-14 2024-03-06 ZOLL Medical Corporation Medical premonitory event estimation
CN104538041B (zh) * 2014-12-11 2018-07-03 深圳市智美达科技有限公司 异常声音检测方法及系统
US20160284349A1 (en) * 2015-03-26 2016-09-29 Binuraj Ravindran Method and system of environment sensitive automatic speech recognition
US10147049B2 (en) * 2015-08-31 2018-12-04 International Business Machines Corporation Automatic generation of training data for anomaly detection using other user's data samples
JP6498107B2 (ja) * 2015-11-30 2019-04-10 日本電信電話株式会社 分類装置、方法、及びプログラム
US9781095B2 (en) * 2015-12-18 2017-10-03 International Business Machines Corporation Suppression of authorization risk feedback to mitigate risk factor manipulation in an authorization system
KR101759143B1 (ko) * 2016-03-10 2017-07-18 현대자동차주식회사 음향 추적 정보 제공 방법, 차량용 음향 추적 장치, 및 이를 포함하는 차량
JP6542738B2 (ja) * 2016-10-12 2019-07-10 ファナック株式会社 対象物の出荷時検査情報と稼働時アラーム情報の相関関係を学習する機械学習装置および機械学習方法
US11195093B2 (en) * 2017-05-18 2021-12-07 Samsung Electronics Co., Ltd Apparatus and method for student-teacher transfer learning network using knowledge bridge
EP3882922A1 (en) * 2020-03-21 2021-09-22 Tata Consultancy Services Limited Discriminating features based sepsis prediction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0972596A (ja) * 1995-09-07 1997-03-18 Yamatake Honeywell Co Ltd 空調システム診断方法
JP2010092266A (ja) * 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
US20160300126A1 (en) * 2013-11-29 2016-10-13 Ge Aviation Systems Limited Method of construction of anomaly models from abnormal data
US20150219530A1 (en) * 2013-12-23 2015-08-06 Exxonmobil Research And Engineering Company Systems and methods for event detection and diagnosis
JP2017062713A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 識別器作成装置、識別器作成方法、およびプログラム

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
17 March 2017, article KOIZUMI, YUUMA ET AL.: "Detection of abnormal sound of equi0nent operation sound using depth learning", pages: 473 - 476, XP009519285 *
A. P. BRADLEY: "The Use of the Area Under the ROC Curve in the Evaluation of Machine Learning Algorithms", PATTERN RECOGNITION, 1996, pages 1145 - 1159
KOIZUMI, YUUMA ET AL.: "2-7-5 Automatic design of acoustic features for detecting abnormal sounds in machine operation sounds", PROCEEDINGS OF THE ACOUSTICAL SOCIETY OF JAPAN MEETING, THE ACOUSTICAL SOCIETY OF JAPAN, 1880-7658, vol. 2016, 31 August 2016 (2016-08-31) - 16 September 2016 (2016-09-16), 1880-7658, pages 365 - 368, XP009515527 *
NAMBA, MUNEHIRO: "On the quality inspection of motors by detecting abnormal noise", 22 August 2007 (2007-08-22), pages 243 - 244, XP009519284, Retrieved from the Internet <URL:https://www.ieice.org/publications/conference-FIT-DVDs/FIT2007/pdf/E/E_044.pdf> *
TSUYOSHI IDEMASASHI SUGIYAMA: "Anomaly Detection and Change Detection", 2015, KODANSHA, pages: 6 - 7
Y. KOIZUMI ET AL.: "Optimizing Acoustic Feature Extractor for Anomalous Sound Detection Based on Neyman-Pearson Lemma", EUSIPCO, 2017

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200306912A1 (en) * 2019-04-01 2020-10-01 Fanuc Corporation Monitoring device, monitoring system and monitoring method
JP7212292B2 (ja) 2019-05-16 2023-01-25 日本電信電話株式会社 学習装置、学習方法および学習プログラム
WO2020230324A1 (ja) * 2019-05-16 2020-11-19 日本電信電話株式会社 学習装置、学習方法および学習プログラム
JPWO2020230324A1 (ja) * 2019-05-16 2020-11-19
JPWO2021019671A1 (ja) * 2019-07-30 2021-02-04
WO2021019672A1 (ja) * 2019-07-30 2021-02-04 日本電信電話株式会社 異常度推定装置、異常度推定方法、およびプログラム
JPWO2021019672A1 (ja) * 2019-07-30 2021-02-04
WO2021019671A1 (ja) * 2019-07-30 2021-02-04 日本電信電話株式会社 特徴量抽出装置、異常度推定装置、それらの方法、およびプログラム
JP7188598B2 (ja) 2019-07-30 2022-12-13 日本電信電話株式会社 異常度推定装置、異常度推定方法、およびプログラム
JP7188597B2 (ja) 2019-07-30 2022-12-13 日本電信電話株式会社 特徴量抽出装置、異常度推定装置、それらの方法、およびプログラム
US11835430B2 (en) 2019-07-30 2023-12-05 Nippon Telegraph And Telephone Corporation Anomaly score estimation apparatus, anomaly score estimation method, and program
WO2021090842A1 (ja) * 2019-11-08 2021-05-14 Dmg森精機株式会社 工作機械および表示装置
EP4043853A4 (en) * 2019-11-08 2022-12-07 DMG Mori Co., Ltd. MACHINE TOOL AND INDICATOR
TWI762101B (zh) * 2019-12-23 2022-04-21 日商日立製作所股份有限公司 異常診斷裝置及異常診斷程式
EP3858578A1 (en) * 2020-01-31 2021-08-04 Sumitomo Heavy Industries, Ltd. Adjustment device of injection molding machine and injection molding machine
WO2021220450A1 (ja) * 2020-04-30 2021-11-04 日本電気株式会社 識別装置、識別方法及び記録媒体
JP7464114B2 (ja) 2020-04-30 2024-04-09 日本電気株式会社 識別装置、識別方法及び記録媒体
CN111832910A (zh) * 2020-06-24 2020-10-27 陕西法士特齿轮有限责任公司 一种多指标异响判定阈值确定方法、系统和计算机设备
CN111832910B (zh) * 2020-06-24 2024-03-12 陕西法士特齿轮有限责任公司 一种多指标异响判定阈值确定方法、系统和计算机设备
CN113670434A (zh) * 2021-06-21 2021-11-19 深圳供电局有限公司 变电站设备声音异常识别方法、装置和计算机设备
WO2023038022A1 (ja) * 2021-09-09 2023-03-16 株式会社堀場アドバンスドテクノ 測定システム、測定システムの異常判定方法、及び、測定システムの異常判定プログラム
WO2023067726A1 (ja) * 2021-10-20 2023-04-27 三菱電機株式会社 学習装置、予測装置、予測システム、学習方法、予測方法、及び予測プログラム
JP7475549B2 (ja) 2021-10-20 2024-04-26 三菱電機株式会社 学習装置、予測装置、予測システム、学習方法、予測方法、及び予測プログラム
WO2023204183A1 (ja) * 2022-04-18 2023-10-26 東京エレクトロン株式会社 状態検出装置、状態検出方法、学習モデルの生成方法及びコンピュータプログラム
JP7510979B2 (ja) 2022-09-22 2024-07-04 株式会社日立製作所 異常音のデータを生成する装置及び方法
JP7433532B1 (ja) 2023-01-20 2024-02-19 三菱電機株式会社 疑似異常データ生成装置、設備監視システム、疑似異常データ生成方法、およびプログラム

Also Published As

Publication number Publication date
CN113899577A (zh) 2022-01-07
ES2970507T3 (es) 2024-05-29
US20200209842A1 (en) 2020-07-02
EP3680639A1 (en) 2020-07-15
EP3680639A4 (en) 2021-10-06
JP6947219B2 (ja) 2021-10-13
US11467570B2 (en) 2022-10-11
JPWO2019049688A1 (ja) 2020-10-01
EP3680639B1 (en) 2023-11-15
CN111108362B (zh) 2022-05-24
CN111108362A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
WO2019049688A1 (ja) 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
US11609115B2 (en) Anomalous sound detection apparatus, degree-of-anomaly calculation apparatus, anomalous sound generation apparatus, anomalous sound detection training apparatus, anomalous signal detection apparatus, anomalous signal detection training apparatus, and methods and programs therefor
JP7331369B2 (ja) 異常音追加学習方法、データ追加学習方法、異常度算出装置、指標値算出装置、およびプログラム
JP6709277B2 (ja) 異常音検出装置、異常音検出学習装置、異常音サンプリング装置、これらの方法及びプログラム
US10970650B1 (en) AUC-maximized high-accuracy classifier for imbalanced datasets
US11288577B2 (en) Deep long short term memory network for estimation of remaining useful life of the components
CN111538311B (zh) 一种基于数据挖掘的机械设备柔性多状态自适应预警方法及装置
US20230085991A1 (en) Anomaly detection and filtering of time-series data
JP7188598B2 (ja) 異常度推定装置、異常度推定方法、およびプログラム
US11151463B2 (en) Distributable event prediction and machine learning recognition system
CN111314329A (zh) 流量入侵检测系统和方法
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
CN110956331A (zh) 数字工厂运营状态预测方法、系统、装置
Yousefpour et al. Unsupervised anomaly detection via nonlinear manifold learning
CN113553319A (zh) 基于信息熵加权的lof离群点检测清洗方法、装置、设备及存储介质
Xie et al. Machine learning control charts for monitoring serially correlated data
CN114513374B (zh) 一种基于人工智能的网络安全威胁识别方法及系统
US11971332B2 (en) Feature extraction apparatus, anomaly score estimation apparatus, methods therefor, and program
CN118052558B (zh) 基于人工智能的风控模型决策方法及系统
Shang et al. Multimode process monitoring based on conditionally independent Bayesian learning
US20230104028A1 (en) System for failure prediction for industrial systems with scarce failures and sensor time series of arbitrary granularity using functional generative adversarial networks
EP4394632A1 (en) Incident confidence level
US20240220629A1 (en) Incident confidence level
Rahman et al. Anomaly detection of river data for disaster prevention
El Motaki et al. A new fuzzy MLE-clustering approach based on object-to-group probabilistic distance measure: from anomaly detection to multi-fault classification in datacenter computational nodes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18854021

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019540879

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018854021

Country of ref document: EP

Effective date: 20200406