JP4605132B2 - Anomaly detection device and anomaly detection method - Google Patents

Anomaly detection device and anomaly detection method Download PDF

Info

Publication number
JP4605132B2
JP4605132B2 JP2006269509A JP2006269509A JP4605132B2 JP 4605132 B2 JP4605132 B2 JP 4605132B2 JP 2006269509 A JP2006269509 A JP 2006269509A JP 2006269509 A JP2006269509 A JP 2006269509A JP 4605132 B2 JP4605132 B2 JP 4605132B2
Authority
JP
Japan
Prior art keywords
learning
data
neural network
input
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006269509A
Other languages
Japanese (ja)
Other versions
JP2008090529A (en
Inventor
和隆 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2006269509A priority Critical patent/JP4605132B2/en
Publication of JP2008090529A publication Critical patent/JP2008090529A/en
Application granted granted Critical
Publication of JP4605132B2 publication Critical patent/JP4605132B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Description

本発明は、機器の運転時に発生する振動成分を含む対象信号から抽出した特徴量を競合学習型ニューラルネットワークに与え、運転中の機器が正常か異常かを監視する異常検出装置、異常検出方法に関するものである。   The present invention relates to an abnormality detection apparatus and an abnormality detection method for providing a competitive learning type neural network with a feature amount extracted from a target signal including a vibration component generated during operation of a device and monitoring whether the device being operated is normal or abnormal. Is.

従来から、機器の運転中に発生する音波を検査員が聞き取ることにより、機器の異常の有無を検査する官能検査が行われている。しかしながら、この種の官能検査では検査員の判断の個人差や検査員の体調によって結果にばらつきを生じることがある。   Conventionally, a sensory test has been performed in which an inspector listens to sound waves generated during operation of the device to inspect the presence or absence of the device. However, in this type of sensory test, the results may vary depending on individual differences in the judgment of the inspector and the physical condition of the inspector.

そこで、機器の運転中に発生する音波の周波数成分を抽出し、抽出した周波数成分の最大値の分布を求めることによって統計的にしきい値を決定し、当該周波数成分の最大値をしきい値と比較することによって良品と不良品とを分離することが提案されている(たとえば、特許文献1参照)。   Therefore, the threshold value is statistically determined by extracting the frequency component of the sound wave generated during the operation of the device, and obtaining the distribution of the maximum value of the extracted frequency component, and the maximum value of the frequency component as the threshold value. It has been proposed to separate non-defective products from defective products by comparison (see, for example, Patent Document 1).

この技術を採用すると、検査時における結果のばらつきは生じないものの、不良の種類に応じて着目すべき周波数成分を決定する必要がある上に、不良の種類によっては良品と区別するためのしきい値を決定するのが困難な場合もある。   When this technology is adopted, there is no variation in the results during the inspection, but it is necessary to determine the frequency component to be noticed according to the type of defect, and the threshold for distinguishing it from non-defective products depending on the type of defect. It may be difficult to determine the value.

一方、特許文献1には、特定の周波数成分のみを用いるのではなく、全周波数成分を用いるピーク値解析という技術についても記載されている。この技術では、音波の波形を微分することにより、衝撃振動により生じる微分波形のピーク値を評価している。しかしながら、特許文献1にも記載されているように、この技術を単独で用いても不良の種類については分類することができない。   On the other hand, Patent Document 1 describes a technique called peak value analysis that uses all frequency components instead of using only specific frequency components. In this technique, the peak value of the differential waveform generated by impact vibration is evaluated by differentiating the waveform of the sound wave. However, as described in Patent Document 1, even if this technique is used alone, the types of defects cannot be classified.

ところで、従来から、ニューラルネットワーク(ニューロコンピュータ)の分類機能を利用することにより、振動成分を含む対象信号を分類する技術が知られている。この種の技術は、機器の動作が正常か異常かを判定する異常検出装置にも用いられている。たとえば、この種の技術を採用した異常検出装置では、機器の動作音や機器の振動をセンサ部(トランスデューサ)により電気信号に変換してセンサ部の出力を対象信号に用い、対象信号について複数個のパラメータからなる特徴量を抽出し、この特徴量をニューラルネットワークで分類する技術が種々提案されている。   By the way, conventionally, a technique for classifying a target signal including a vibration component by using a classification function of a neural network (neurocomputer) is known. This type of technology is also used in an abnormality detection apparatus that determines whether the operation of a device is normal or abnormal. For example, in an abnormality detection apparatus that employs this type of technology, the operation sound of the device or the vibration of the device is converted into an electrical signal by a sensor unit (transducer), and the output of the sensor unit is used as the target signal. Various techniques have been proposed for extracting feature quantities consisting of the above parameters and classifying the feature quantities using a neural network.

ニューラルネットワークには種々の構成が知られており、たとえば、競合学習型ニューラルネットワーク(自己組織化マップ=SOM)を用いて特徴量のカテゴリを分類することが提案されている。競合学習型ニューラルネットワークは、入力層と出力層との2層からなるニューラルネットワークであり、学習モードと検査モードとの2動作を行う。   Various configurations are known for neural networks. For example, it has been proposed to classify feature categories using a competitive learning type neural network (self-organizing map = SOM). The competitive learning type neural network is a neural network including two layers of an input layer and an output layer, and performs two operations of a learning mode and an inspection mode.

学習モードでは、教師信号を用いずに学習データを与える。学習データにカテゴリを与えておけば、出力層のニューロンにカテゴリを対応付けることができ、同種のカテゴリに属するニューロンからなるクラスタを形成することができる。したがって、学習モードでは、出力層のニューロンのクラスタにカテゴリを示すクラスタリングマップを対応付けることができる。   In the learning mode, learning data is given without using a teacher signal. If a category is given to learning data, a category can be associated with a neuron in the output layer, and a cluster of neurons belonging to the same category can be formed. Accordingly, in the learning mode, a clustering map indicating a category can be associated with a cluster of neurons in the output layer.

また、検査モードでは、分類しようとする特徴量(入力データ)を学習済みの競合学習型ニューラルネットワークに与え、競合学習型ニューラルネットワークの出力層において発火したニューロンが属するクラスタのカテゴリをクラスタリングマップに照合することによって、入力データのカテゴリを分類することができる(たとえば、特許文献2参照)。   In the inspection mode, the feature quantity (input data) to be classified is given to the learned competitive learning neural network, and the category of the cluster to which the fired neuron belongs in the output layer of the competitive learning neural network is checked against the clustering map. By doing so, the category of the input data can be classified (for example, see Patent Document 2).

したがって、正常のカテゴリを持つ学習データと、異常ごとのカテゴリを持つ学習データとを用いて競合学習型ニューラルネットワークを学習させておけば、正常と異常との判別だけではなく、異常の種類の判別も可能になる。また、学習データのカテゴリを決めるだけでよいから、特定の周波数成分を選択することなく異常の種類の判別が可能になる。また、特許文献1に記載の構成では、特定の周波数成分に着目する場合と、全周波数成分を用いる場合との互いの欠点を補うために、両方の技術を併用する必要があるが、特許文献2に記載の技術では、カテゴリを適切に設定した学習データを与えるだけで、正常と異常との判別および異常の種類の判別が可能になるという長所を有している。
特開2003−214944号公報 特開2004−354111号公報
Therefore, if a competitive learning type neural network is trained using learning data having normal categories and learning data having categories for each abnormality, not only normality / abnormality but also abnormality type determination Is also possible. Further, since it is only necessary to determine the category of learning data, it is possible to determine the type of abnormality without selecting a specific frequency component. Further, in the configuration described in Patent Document 1, it is necessary to use both techniques in combination in order to compensate for the mutual disadvantages in the case of focusing on a specific frequency component and the case of using all frequency components. The technique described in No. 2 has an advantage that it is possible to discriminate between normal and abnormal and the type of abnormality only by providing learning data in which categories are appropriately set.
JP 2003-214944 A JP 2004-354111 A

ところで、競合学習型ニューラルネットワークを用いて特徴量を分類するには、上述したように、分類しようとするカテゴリごとの学習データが必要である。たとえば、モータを備える機器の出荷試験として、モータに与える負荷の大きさを変化させたときにも機器が正常に動作するか否かを検査する場合、負荷の大きさごとの学習データが必要になる。   By the way, in order to classify feature quantities using a competitive learning type neural network, as described above, learning data for each category to be classified is required. For example, as a shipping test for equipment equipped with a motor, when testing whether the equipment operates normally even when the load applied to the motor is changed, learning data for each load magnitude is required. Become.

一方、出荷試験のうち、とくに重要な項目は、製造時に生じた異物(たとえば、切削加工により生じた切削くず、バリの除去により生じたくず、部品の欠けにより生じたくず、内部に入り込んだ小部品など)により生じる異音、潤滑油の不足による異音などであり、これらの特定の異常が生じていなければ、正常な動作とみなしてよい場合がある。   On the other hand, in the shipping test, particularly important items are foreign matters generated at the time of manufacture (for example, cutting scraps generated by cutting, scraps generated by removing burrs, scraps generated by chipping of parts, and small intrusions inside. Abnormal noise caused by parts, etc., abnormal noise due to lack of lubricating oil, etc. If these specific abnormalities do not occur, it may be regarded as normal operation.

つまり、出荷試験などでは、検査すべき異常の種類が特定されており、しかも各異常ごとの学習データにばらつきが少ないが、正常のカテゴリに関しては学習データのばらつきが大きくなることがある。このような学習データでは、正常のカテゴリを付与した学習データのばらつきが大きくなるから、競合学習型ニューラルネットワークの出力層において正常のカテゴリに属するニューロンの個数が多くなり、異常のカテゴリに属するニューロンと明確に分離するのが難しくなるという問題が生じる。   That is, in the shipping test or the like, the type of abnormality to be inspected is specified, and the learning data for each abnormality is small in variation, but the variation in learning data may be large for normal categories. In such learning data, the variation of the learning data to which the normal category is assigned increases, so the number of neurons belonging to the normal category increases in the output layer of the competitive learning type neural network, and the neurons belonging to the abnormal category The problem arises that it becomes difficult to separate clearly.

本発明は上記事由に鑑みて為されたものであり、その目的は、機器の運転時における特定の異常状態について異常と判断すれば十分である場合について、正常と異常とを明確に分離することを可能とし、しかも学習データの個数を低減することで学習モードに要する時間を短縮した異常検出装置、異常検出方法を提供することにある。   The present invention has been made in view of the above reasons, and its purpose is to clearly separate normality and abnormality when it is sufficient to determine that a specific abnormal state during operation of the device is abnormal. Another object of the present invention is to provide an abnormality detection apparatus and an abnormality detection method that can reduce the time required for the learning mode by reducing the number of learning data.

請求項1の発明は、機器の運転時に発生する振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、既知のカテゴリの学習データを用いてあらかじめ学習され特徴抽出部により抽出した特徴量を入力データとする競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力を用いて運転中の機器が正常か異常かを判定する判定部とを備え、学習データとして機器が既知の異常状態であるときに得られる特徴量を用い、判定部は、学習データにより競合学習型ニューラルネットワークの出力層の各ニューロンに重みベクトルを設定するとともに、異常状態のカテゴリの学習データで発火したニューロンへの入力データの帰属度を決めるガウス関数を重みベクトルと学習データとのユークリッド距離に対応付けて設定し、ガウス関数が設定されたニューロンに対して機器の運転時に得られる入力データの帰属度が規定の閾値以下であるときに機器が正常に動作していると判断するものであって、帰属度としてガウス関数に入力データを入力したときの出力値を用い、ガウス関数は、学習後の競合学習型ニューラルネットワークに学習データを再入力したときに発火する各ニューロンの重みベクトルと当該学習データとのユークリッド距離により分散を決定し、発火したニューロンの重みベクトルを平均とすることを特徴とする。 The invention according to claim 1 is a signal input unit that captures a target signal including a vibration component that is generated during operation of the device, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and learning data of a known category A competitive learning type neural network that uses as input data the feature quantity that has been learned in advance using the feature extraction unit, and a determination unit that determines whether the device in operation is normal or abnormal using the output of the competitive learning type neural network And using a feature amount obtained when the device is in a known abnormal state as learning data, the determination unit sets a weight vector for each neuron in the output layer of the competitive learning type neural network based on the learning data, a Gaussian function to determine the degree of membership of the input data to the firing neurons in the learning data of the abnormal state category Equipment when viewed vector and set in association with the Euclidean distance between the learning data, degree of membership of the input data that Gaussian function is obtained during operation of the device for the configured neurons is a threshold hereinafter the provisions The output value when the input data is input to the Gaussian function is used as the degree of attribution, and the Gaussian function retrains the learning data to the competitive learning type neural network after learning. The variance is determined by the Euclidean distance between the weight vector of each neuron that fires when input and the learning data, and the weight vector of the fired neuron is averaged .

請求項2の発明では、請求項1の発明において、前記閾値はガウス関数における分散の3倍に設定していることを特徴とする。 In the invention of claim 2, in the invention of claim 1, prior SL threshold characterized in that it is set to three times the variance in the Gaussian function.

請求項3の発明は、機器の運転時に発生する振動成分を含む対象信号を取り込み、対象信号について複数のパラメータからなる特徴量を抽出した後、機器が既知の異常状態であるときに得られる特徴量を学習データとして用いてあらかじめ学習させた競合学習型ニューラルネットワークに、機器の運転時に得られる特徴量を入力データとして与え、競合学習型ニューラルネットワークの出力を用いて運転中の機器が正常か異常かを判定部で判定する異常検出方法であって、競合学習型ニューラルネットワークの出力層の各ニューロンに学習データにより重みベクトルを設定し、異常状態のカテゴリの学習データで発火したニューロンへの入力データの帰属度を決めるガウス関数を重みベクトルと学習データとのユークリッド距離に対応付けて設定し、ガウス関数が設定されたニューロンに対して機器の運転時に得られる入力データの帰属度が規定の閾値以下であるときに機器が正常に動作していると判断するものであって、帰属度としてガウス関数に入力データを入力したときの出力値を用い、ガウス関数は、学習後の競合学習型ニューラルネットワークに学習データを再入力したときに発火する各ニューロンの重みベクトルと当該学習データとのユークリッド距離により分散を決定し、発火したニューロンの重みベクトルを平均とすることを特徴とする。 The invention according to claim 3 is a feature obtained when the device is in a known abnormal state after taking in a target signal including a vibration component generated during operation of the device and extracting a feature amount including a plurality of parameters for the target signal. the competitive learning neural network which has learned in advance using the amounts as learning data, given the feature amount obtained during the operation of equipment as input data, equipment is normal in operation using the output of the competitive learning neural network An anomaly detection method for determining whether an anomaly is detected by the determination unit, in which a weight vector is set for each neuron in the output layer of a competitive learning type neural network by learning data, and input to a neuron that fires with the learning data in the abnormal category in association a Gaussian function to determine the degree of membership of the data to the Euclidean distance between the heavy viewing vector and learning data Constant and, be those devices is determined to be operating normally when membership of the input data that Gaussian function is obtained during operation of the device for the configured neurons is a threshold hereinafter the provisions The output value when input data is input to the Gaussian function is used as the degree of attribution, and the Gaussian function is the weight vector of each neuron that fires when the learning data is re-input to the competitive learning type neural network after learning. The variance is determined by the Euclidean distance from the learning data, and the weight vectors of the fired neurons are averaged .

請求項4の発明では、請求項3の発明において、前記閾値はガウス分布における分散の3倍に設定していることを特徴とする。 In the invention of claim 4, the invention smell of claim 3 Te, before Symbol threshold characterized in that it is set to three times the variance in the Gaussian distribution.

請求項1、3の発明によれば、学習データとして既知の異常状態のときに得られる特徴量を学習データに用いて異常状態のみを学習させるから、正常状態に対する学習データが不要であり学習データの個数を低減することができる。その結果、学習モードに要する時間を短縮することができる。また、負荷試験のように正常状態の特徴量のばらつきが大きい場合であっても、機器の運転時における特定の異常状態について異常と判断すれば十分である場合には、異常状態で発火するニューロンへの帰属度が閾値以上である入力データのみを異常と判定し、帰属度が閾値以下の入力データは正常状態と判定するから、検出しようとする異常状態を確実に検出しながらも、正常と異常とを明確に分離することができる。   According to the first and third aspects of the present invention, only the abnormal state is learned by using, as the learning data, the feature quantity obtained in the known abnormal state as the learning data. Can be reduced. As a result, the time required for the learning mode can be shortened. In addition, even if there is a large variation in feature values in the normal state as in a load test, if it is sufficient to determine that a specific abnormal state during operation of the device is abnormal, the neurons that fire in the abnormal state Only input data whose degree of belonging to the threshold is greater than or equal to the threshold is judged as abnormal, and input data whose degree of belonging is less than or equal to the threshold is judged as normal. Anomalies can be clearly separated.

請求項2、4の発明によれば、ガウス分布における分散の3倍を閾値とするから、閾値を一定の基準で自動的に設定することができ、異常を検出する機器の種類によらず判断基準を定式化することができる。 According to the invention of claim 2 and 4, since the threshold value three times the variance in the Gaussian distribution, it is possible to automatically set a threshold value on a regular basis, regardless of the type of device for detecting an abnormality Judgment criteria can be formulated.

以下に説明する実施形態は、機器の運転時に得られる対象信号の特徴量によって機器の動作が正常か異常かを判別する異常検出装置に関するものであって、機器としてはモータ単体、モータを駆動源とする電動工具や工作機器を想定する。また、異常の種類が特定されており、特定の異常が検出されなければ正常とみなしてよい場合を想定する。   The embodiment described below relates to an abnormality detection device that determines whether an operation of a device is normal or abnormal based on a feature amount of a target signal obtained during operation of the device. The device includes a motor alone and a motor as a drive source. An electric tool or machine tool is assumed. Further, it is assumed that the type of abnormality is specified, and it can be considered normal if no specific abnormality is detected.

本実施形態で説明する異常検出装置は、図1に示すように、教師なしの競合学習型ニューラルネットワーク(以下、単に「ニューラルネット」と呼ぶ)1を用いている。ニューラルネット1は、図2に示すように、それぞれ入力層11と出力層12との2層からなり、出力層12の各ニューロンN2が入力層11のすべてのニューロンN1とそれぞれ結合された構成を有している。ニューラルネット1は、逐次処理型のコンピュータで適宜のアプリケーションプログラムを実行することにより実現する場合を想定しているが、専用のニューロコンピュータを用いることも可能である。   As shown in FIG. 1, the abnormality detection apparatus described in the present embodiment uses an unsupervised competitive learning type neural network (hereinafter simply referred to as “neural network”) 1. As shown in FIG. 2, the neural network 1 includes two layers of an input layer 11 and an output layer 12, and each neuron N <b> 2 of the output layer 12 is coupled to all the neurons N <b> 1 of the input layer 11. Have. Although the neural network 1 is assumed to be realized by executing an appropriate application program on a sequential processing type computer, a dedicated neurocomputer can also be used.

ニューラルネット1の動作には、学習モードと検査モードとがあり、学習モードにおいて適宜の学習データを用いて学習した後に、検査モードにおいて実際の対象信号から生成した複数のパラメータからなる特徴量(入力データ)のカテゴリを分類する。   The operation of the neural network 1 has a learning mode and an inspection mode. After learning using appropriate learning data in the learning mode, a feature amount (input) generated from an actual target signal in the inspection mode. Data) category.

入力層11のニューロンN1と出力層12のニューロンN2との結合度(重み係数)は可変であり、学習モードにおいて、学習データをニューラルネット1に入力することによりニューラルネット1を学習させ、入力層11の各ニューロンN1と出力層12の各ニューロンN2との重み係数を決める。言い換えると、出力層12の各ニューロンN2には、入力層11の各ニューロンN1との間の重み係数を要素とする重みベクトルが対応付けられる。したがって、重みベクトルは入力層11のニューロンN1と同数の要素を持ち、入力層11に入力される特徴量のパラメータの個数と重みベクトルの要素の個数とは一致する。   The degree of connection (weighting coefficient) between the neuron N1 in the input layer 11 and the neuron N2 in the output layer 12 is variable. In the learning mode, the learning data is input to the neural network 1 to learn the neural network 1, and the input layer The weighting coefficients of the 11 neurons N1 and the neurons N2 of the output layer 12 are determined. In other words, each neuron N2 in the output layer 12 is associated with a weight vector whose element is a weight coefficient between each neuron N1 in the input layer 11. Therefore, the weight vector has the same number of elements as the neuron N1 of the input layer 11, and the number of parameters of the feature quantity input to the input layer 11 matches the number of elements of the weight vector.

一方、検査モードでは、カテゴリを判定すべき入力データをニューラルネット1の入力層11に与えると、出力層12のニューロンN2のうち、重みベクトルと入力データとのユークリッド距離が最小であるニューロンN2が発火する。学習モードにおいて出力層12のニューロンN2にカテゴリが対応付けられていれば、発火したニューロンN2の位置のカテゴリによって入力データのカテゴリを知ることができる。   On the other hand, in the inspection mode, when the input data whose category is to be determined is given to the input layer 11 of the neural network 1, among the neurons N2 in the output layer 12, the neuron N2 having the smallest Euclidean distance between the weight vector and the input data is found. set a fire. If a category is associated with the neuron N2 of the output layer 12 in the learning mode, the category of the input data can be known from the category of the position of the fired neuron N2.

出力層12のニューロンN2には、たとえば6×6個の領域を有する2次元のクラスタリングマップ4の各領域に一対一に対応付けられている。したがって、学習モードにおいて、クラスタリングマップ4の各領域に学習データのカテゴリを対応付けておけば、入力データにより発火したニューロンN2に対応するカテゴリをクラスタリングマップ4により知ることができる。つまり、クラスタリングマップ4はニューラルネット1による分類結果を出力することができる。   The neuron N2 of the output layer 12 is associated one-to-one with each region of the two-dimensional clustering map 4 having, for example, 6 × 6 regions. Therefore, if the learning data category is associated with each region of the clustering map 4 in the learning mode, the category corresponding to the neuron N2 fired by the input data can be known from the clustering map 4. That is, the clustering map 4 can output the classification result by the neural network 1.

クラスタリングマップ4の各領域(実質的には出力層12の各ニューロンN2)にカテゴリを対応付けるに際しては、学習済みのニューラルネット1を出力層12から入力層11に向かって逆向きに動作させて出力層12の各ニューロンN2ごとに入力層11に与えたデータを推定し、推定したデータとのユークリッド距離がもっとも近い学習データのカテゴリを、出力層12における当該ニューロンN2のカテゴリに用いる。言い換えると、出力層12の各ニューロンN2のカテゴリには、各ニューロンN2の重みベクトルとのユークリッド距離が最小である学習データのカテゴリを用いる。これにより、出力層12の各ニューロンN2のカテゴリには、学習データのカテゴリが反映される。   When associating a category with each region of the clustering map 4 (substantially each neuron N2 of the output layer 12), the learned neural network 1 is operated in the opposite direction from the output layer 12 toward the input layer 11, and output. The data given to the input layer 11 is estimated for each neuron N2 of the layer 12, and the category of learning data having the closest Euclidean distance to the estimated data is used as the category of the neuron N2 in the output layer 12. In other words, as the category of each neuron N2 in the output layer 12, the category of learning data having the minimum Euclidean distance from the weight vector of each neuron N2 is used. Thereby, the category of learning data is reflected in the category of each neuron N2 of the output layer 12.

本実施形態において、ニューラルネット1で分類するカテゴリは、特定の異常状態と正常状態とであり、異常状態の種類は必要に応じて1種類以上設定される。出力層12の各ニューロンN2のカテゴリには、学習データのカテゴリが反映され、1つのカテゴリについて多数個(たとえば、150個)の学習データを与えると、類似度の高いカテゴリがクラスタリングマップ4上で近い位置に配置される。つまり、特徴量の似通った学習データが発火させるニューロンN2は、クラスタリングマップ4の上で近い位置に配置される。   In the present embodiment, categories classified by the neural network 1 are a specific abnormal state and a normal state, and one or more types of abnormal states are set as necessary. The category of the learning data is reflected in the category of each neuron N2 of the output layer 12, and when a large number (for example, 150) of learning data is given for one category, the category with high similarity is displayed on the clustering map 4. It is arranged at a close position. That is, the neuron N <b> 2 that fires the learning data having similar feature amounts is arranged at a close position on the clustering map 4.

したがって、出力層12のニューロンN2のうち同種のカテゴリに属する学習データに対応して発火したニューロンN2は、クラスタリングマップ4上で近い位置に集まりニューロンN2の集合からなるクラスタを形成する。なお、学習後にクラスタが形成されるとともにカテゴリが対応付けられたものが、本来の意味のクラスタリングマップ4であるが、本実施形態では学習前であってもクラスタリングマップ4と呼んでとくに区別しない。学習モードでニューラルネット1に与えられる学習データは学習データ記憶部6に格納されており、必要に応じて学習データ記憶部6から読み出されてニューラルネット1に与えられる。   Accordingly, among the neurons N2 in the output layer 12, the neurons N2 that have fired corresponding to the learning data belonging to the same category gather at close positions on the clustering map 4 to form a cluster composed of the set of neurons N2. Note that the clustering map 4 having the original meaning is formed after the learning and the clusters are associated with each other. However, in the present embodiment, even before the learning, the clustering map 4 is called and is not particularly distinguished. The learning data given to the neural network 1 in the learning mode is stored in the learning data storage unit 6 and is read from the learning data storage unit 6 and given to the neural network 1 as necessary.

ところで、ニューラルネット1により分類する対象信号は、機器Xから得られる電気信号であって、たとえば、機器Xの動作音を検出するマイクロホン2aと、機器Xの動作時に生じる振動を検出する振動センサ2bとの少なくとも一方からなる信号入力部2の出力を用いる。つまり、信号入力部2は機器Xの動作により生じる対象信号を取り込む。   By the way, the target signal to be classified by the neural network 1 is an electric signal obtained from the device X, for example, a microphone 2a for detecting the operation sound of the device X, and a vibration sensor 2b for detecting vibration generated during the operation of the device X. The output of the signal input unit 2 consisting of at least one of That is, the signal input unit 2 captures a target signal generated by the operation of the device X.

信号入力部2で得られた電気信号である対象信号は、特徴抽出部3に与えられ対象信号の特徴量が抽出される。本実施形態では、信号入力部2から特徴抽出部3に与えられる対象信号は振動成分を含む信号であって、特徴抽出部3に入力されることにより対象信号の振動成分を表す複数のパラメータを持つ特徴量が抽出される。   The target signal, which is an electrical signal obtained by the signal input unit 2, is given to the feature extraction unit 3, and the feature amount of the target signal is extracted. In the present embodiment, the target signal given from the signal input unit 2 to the feature extraction unit 3 is a signal including a vibration component, and a plurality of parameters representing the vibration component of the target signal are input to the feature extraction unit 3. The feature quantity it has is extracted.

特徴抽出部3では、機器Xが発生する対象信号から同じ条件で特徴量を抽出するために、まず機器Xの動作に同期したタイミング信号(トリガ信号)を用いたり、対象信号の波形の特徴(たとえば、ひとまとまりの対象信号の開始点と終了点)を用いたりすることによって、対象信号の切り出し(セグメンテーション)を行った後、適宜の単位時間ごとの信号に分割し、単位時間毎に特徴量を抽出する。したがって、特徴抽出部3は信号入力部2から与えられる対象信号を一時的に記憶するバッファを備える。また、特徴抽出部3では、必要に応じて周波数帯域を制限するなどして、ノイズを低減させる前処理を行う。さらに、信号入力部2から出力される対象信号をデジタル信号に変換する機能も備える。   The feature extraction unit 3 uses a timing signal (trigger signal) synchronized with the operation of the device X in order to extract a feature value from the target signal generated by the device X under the same conditions, or uses a waveform feature ( For example, the target signal is segmented by using a set of target signal start points and end points, and then divided into signals for each appropriate unit time, and feature quantities for each unit time To extract. Therefore, the feature extraction unit 3 includes a buffer that temporarily stores the target signal given from the signal input unit 2. Further, the feature extraction unit 3 performs preprocessing for reducing noise by limiting the frequency band as necessary. Furthermore, it also has a function of converting the target signal output from the signal input unit 2 into a digital signal.

説明を簡単にするために、ここでは、セグメンテーションを行った後の対象信号の振動成分から複数の周波数成分(周波数帯域ごとのパワー)を抽出し、各周波数成分をパラメータとして特徴量に用いるものとして説明する。周波数成分の抽出には、FFT(高速フーリエ変換)の技術、あるいは多数個のバンドパスフィルタからなるフィルタバンクを用いる。どの周波数成分を特徴量に用いるかは、対象とする機器Xや抽出しようとする異常に応じて適宜に選択される。   In order to simplify the explanation, it is assumed here that a plurality of frequency components (power for each frequency band) are extracted from the vibration components of the target signal after segmentation, and each frequency component is used as a parameter for the feature amount. explain. For the extraction of frequency components, an FFT (Fast Fourier Transform) technique or a filter bank made up of a large number of bandpass filters is used. Which frequency component is used for the feature amount is appropriately selected according to the target device X and the abnormality to be extracted.

特徴抽出部3から単位時間毎に得られた特徴量は、学習モードの前に学習データを収集する際には学習データ記憶部6に格納され、検査モードの際には特徴量の抽出のたびにニューラルネット1に与えられ、特徴量を入力データとしてニューラルネット1が入力データのカテゴリを分類する。   The feature amount obtained for each unit time from the feature extraction unit 3 is stored in the learning data storage unit 6 when learning data is collected before the learning mode, and each time the feature amount is extracted in the inspection mode. The neural network 1 classifies the category of the input data using the feature amount as input data.

ここでは、学習データ記憶部6に格納されているデータのうちカテゴリを共有している集合をデータセットと呼び、1つのデータセットに含まれる各データにはそれぞれ検出しようとする特定の異常状態のカテゴリが対応付けられているものとする。データセットを構成するデータの個数は学習データ記憶部6に格納可能な範囲内で任意である。また、異常状態のカテゴリは1種類以上であればよい。   Here, a set sharing data among the data stored in the learning data storage unit 6 is called a data set, and each data included in one data set has a specific abnormal state to be detected. Assume that categories are associated. The number of data constituting the data set is arbitrary within a range that can be stored in the learning data storage unit 6. Further, the category of abnormal states may be one or more types.

学習データ記憶部6には、特定の異常状態のカテゴリを対応付けたデータセットしか格納されていないから、ニューラルネット1を学習モードとして学習データ記憶部6に格納された各データセットで学習を行うと、ニューラルネット1は特定の異常状態について学習することになる。つまり、他の異常状態についてのカテゴリはクラスタリングマップ4(実質的にはニューラルネット1の出力層12)に設定されず、また正常状態のカテゴリもクラスタリングマップ4に設定されない。   Since only the data set in which the category of the specific abnormal state is associated is stored in the learning data storage unit 6, learning is performed with each data set stored in the learning data storage unit 6 using the neural network 1 as a learning mode. Then, the neural network 1 learns about a specific abnormal state. That is, the category for other abnormal states is not set in the clustering map 4 (substantially, the output layer 12 of the neural network 1), and the category in the normal state is not set in the clustering map 4.

本実施形態では、学習データを用いてクラスタリングマップ4にカテゴリを設定した後に、ニューラルネット1に入力データを与える前に、判定部5においてニューラルネット1の出力層12の各ニューロンN2に対してガウス関数の割り当てを行う。ガウス関数は次式を用いる。なお、下式において角付き括弧を付した文字はベクトルを意味する。
y=exp(−‖[x]−[m]‖/2σ
ただし、[m]:平均、σ:分散である。
In this embodiment, after setting a category in the clustering map 4 using learning data and before providing input data to the neural network 1, the determination unit 5 uses a Gaussian for each neuron N2 in the output layer 12 of the neural network 1. Assign functions. The following equation is used for the Gaussian function. In the following formula, a character with square brackets means a vector.
y = exp (−‖ [x] − [m] ‖ 2 / 2σ 2 )
However, [m]: average, σ: variance.

上式の平均[m]には、学習済みのニューラルネット1の重みベクトルを用いる。上式の[x]はニューラルネット1に与える入力データであり、‖[x]−[m]‖は入力データの[x]の平均[m](つまり、重みベクトル)に対するユークリッド距離である。また、yは上式のガウス関数に入力データ[x]を入力したときの出力値である。   For the average [m] in the above equation, the weight vector of the learned neural network 1 is used. [X] in the above equation is input data given to the neural network 1, and ‖ [x] − [m] ‖ is the Euclidean distance with respect to the average [m] (that is, the weight vector) of [x] of the input data. Further, y is an output value when input data [x] is input to the Gauss function of the above equation.

上式によれば、入力データ[x]が平均[m]に近いほど出力値yが大きくなり、入力データ[x]が平均[m]に一致するときに出力値yは最大となって1になる。この出力値yを帰属度として用いる。つまり、この出力値yの値域は0〜1であって、数値が大きくなるほど(1に近いほど)帰属度が高いことになる。   According to the above equation, the closer the input data [x] is to the average [m], the larger the output value y. When the input data [x] matches the average [m], the output value y is 1 at the maximum. become. This output value y is used as the degree of attribution. That is, the range of the output value y is 0 to 1, and the greater the numerical value (the closer to 1), the higher the degree of attribution.

一方、分散σを求めるには、まず学習済みのニューラルネット1に学習データを再入力し、各ニューロンN2の重みベクトル[m]と各入力データ[x](つまり、学習データ)とのユークリッド距離を求める。同じカテゴリのすべての学習データをニューラルネット1に与えて、ユークリッド距離のリストを作成し、各ニューロンN2について求めたユークリッド距離の最大値を分散に用いればよい。   On the other hand, in order to obtain the variance σ, first, learning data is re-input to the learned neural network 1, and the Euclidean distance between the weight vector [m] of each neuron N2 and each input data [x] (that is, learning data). Ask for. All the learning data of the same category is given to the neural network 1, a list of Euclidean distances is created, and the maximum value of the Euclidean distance obtained for each neuron N2 may be used for dispersion.

上述のようにして、図3に示すように、特定の異常状態のカテゴリに対応する各ニューロンN2にガウス関数を設定することができる。図3は3個のニューロンN2が特定の異常状態のカテゴリに属している状態を示し、各ニューロンN2にそれぞれガウス関数が設定された状態を示す概念図である。カテゴリ外のニューロンN2にはガウス関数は設定されていない。判定部5においてガウス関数を設定すると、入力データと重みベクトルとのユークリッド距離をガウス関数に与えることにより帰属度を求めることができる。そこで、ガウス関数の設定後に、機器の運転時に得られる入力データ[x](特徴量)を入力し、ニューラルネットワーク1の各ニューロンN2の重みベクトル(つまり、平均[m])と入力データ[x]とのユークリッド距離を各ニューロンN2ごとのガウス関数に代入し、ニューロンN2に対応付けたカテゴリごとにガウス関数の出力値yを求める。この出力値yは上述のように各カテゴリへの入力データの帰属度であるから、帰属度に対する閾値を設定しておけば、入力データが当該カテゴリに属するか否かを判定することができる。閾値は分散の3倍に対応する帰属度としておけばよい。   As described above, as shown in FIG. 3, a Gaussian function can be set for each neuron N2 corresponding to a specific abnormal condition category. FIG. 3 is a conceptual diagram showing a state in which three neurons N2 belong to a specific abnormal state category, and a state in which a Gaussian function is set for each neuron N2. No Gaussian function is set for the neuron N2 outside the category. When a Gaussian function is set in the determination unit 5, the degree of attribution can be obtained by giving the Euclidean distance between the input data and the weight vector to the Gaussian function. Therefore, after setting the Gaussian function, input data [x] (feature value) obtained during operation of the device is input, the weight vector (that is, average [m]) of each neuron N2 of the neural network 1 and the input data [x ] Is substituted into a Gaussian function for each neuron N2, and an output value y of the Gaussian function is obtained for each category associated with the neuron N2. Since the output value y is the degree of attribution of input data to each category as described above, if a threshold value for the degree of attribution is set, it can be determined whether or not the input data belongs to the category. The threshold value may be set as the degree of attribution corresponding to three times the variance.

また、ニューラルネットワーク1の出力層12(つまり、クラスタリングマップ4)において1つのカテゴリに属するニューロンN2が1個とは限らず、1つのカテゴリが複数個のニューロンN2を含む場合もあるから、この場合にはカテゴリごとにガウス関数の出力値yの平均値を帰属度に用いるか、あるいはカテゴリ内の出力値yの最大値を帰属度に用いればよい。   In the output layer 12 of the neural network 1 (that is, the clustering map 4), the number of neurons N2 belonging to one category is not limited to one, and one category may include a plurality of neurons N2. For each category, the average value of the output values y of the Gaussian functions may be used for the degree of attribution, or the maximum value of the output values y within the category may be used for the degree of attribution.

本実施形態では、カテゴリが特定の異常状態に対応付けてあるから、クラスタリングマップ4に設定されたカテゴリに対する帰属度が閾値以下であることは、他の異常状態であるか正常状態であると推定される。ただし、本実施形態は、他の異常状態が生じる可能性はきわめて低いと仮定しているから、クラスタリングマップ4に設定されたカテゴリに対する帰属度が閾値以下であるときには、実質的に正常状態とみなすことができる。すなわち、判定部5では、上述した演算により各カテゴリへの帰属度を求め、求めた帰属度がいずれも閾値以下の場合には、正常状態という判定結果を出力する。   In this embodiment, since the category is associated with a specific abnormal state, it is estimated that the degree of belonging to the category set in the clustering map 4 is equal to or less than the threshold is another abnormal state or a normal state. Is done. However, since this embodiment assumes that the possibility of another abnormal state is extremely low, when the degree of belonging to the category set in the clustering map 4 is equal to or less than the threshold value, it is substantially regarded as a normal state. be able to. That is, the determination unit 5 calculates the degree of belonging to each category by the above-described calculation, and outputs a determination result of a normal state when all the calculated degrees of belonging are less than or equal to the threshold value.

したがって、製造時に生じたくずが混入することによる異音や潤滑油不足による異音のような異常がなければ、正常状態と判定することができ、また出荷検査において負荷を与える場合に、異常がなければ正常とすることによって正常運転時にも生じる対象信号の特徴量のばらつきとは無関係に異常の有無を判定することが可能になる。また、負荷を与えて試験を行う場合のように、多数のカテゴリの学習データを用意する必要がなく、特定の異常状態に関する学習データのみを収集すればよいから、学習データの収集に要する時間が比較的短く、また学習データが少ないから、学習モードでの学習に要する時間も短くなる。   Therefore, if there is no abnormality such as abnormal noise due to mixing of waste generated during manufacturing or abnormal noise due to lack of lubricating oil, it can be determined to be normal, and abnormalities can be detected when a load is applied during shipping inspection. If it is not normal, it is possible to determine whether there is an abnormality regardless of variations in the characteristic amount of the target signal that occurs even during normal operation. In addition, it is not necessary to prepare a large number of categories of learning data as in the case of performing a test with a load, and it is only necessary to collect learning data related to a specific abnormal state. Since it is relatively short and learning data is small, the time required for learning in the learning mode is also shortened.

なお、信号入力部2の構成は機器Xの種類に応じて適宜に選択され、マイクロホン2a、振動センサ2bのほか、TVカメラ、匂いセンサなどの各種のセンサを単独または組み合わせて用いることができる。あるいはまた、機器Xが発生する信号を取り出して対象信号に用いることも可能である。   The configuration of the signal input unit 2 is appropriately selected according to the type of the device X, and various sensors such as a TV camera and an odor sensor can be used alone or in combination in addition to the microphone 2a and the vibration sensor 2b. Alternatively, a signal generated by the device X can be taken out and used as a target signal.

本発明の実施形態を示すブロック図である。It is a block diagram which shows embodiment of this invention. 同上に用いるニューラルネットの概略構成図である。It is a schematic block diagram of the neural network used for the same as the above. 同上におけるガウス関数の概念図である。It is a conceptual diagram of the Gauss function in the same as the above.

符号の説明Explanation of symbols

1 ニューラルネット(競合学習型ニューラルネットワーク)
2 信号入力部
2a マイクロホン
2b 振動センサ
3 特徴抽出部
4 クラスタリングマップ
5 判定部
6 学習データ記憶部
11 入力層
12 出力層
N1 ニューロン
N2 ニューロン
X 機器
1 Neural network (competitive learning type neural network)
2 Signal Input Unit 2a Microphone 2b Vibration Sensor 3 Feature Extraction Unit 4 Clustering Map 5 Determination Unit 6 Learning Data Storage Unit 11 Input Layer 12 Output Layer N1 Neuron N2 Neuron X Device

Claims (4)

機器の運転時に発生する振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、既知のカテゴリの学習データを用いてあらかじめ学習され特徴抽出部により抽出した特徴量を入力データとする競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力を用いて運転中の機器が正常か異常かを判定する判定部とを備え、学習データとして機器が既知の異常状態であるときに得られる特徴量を用い、判定部は、学習データにより競合学習型ニューラルネットワークの出力層の各ニューロンに重みベクトルを設定するとともに、異常状態のカテゴリの学習データで発火したニューロンへの入力データの帰属度を決めるガウス関数を重みベクトルと学習データとのユークリッド距離に対応付けて設定し、ガウス関数が設定されたニューロンに対して機器の運転時に得られる入力データの帰属度が規定の閾値以下であるときに機器が正常に動作していると判断するものであって、帰属度としてガウス関数に入力データを入力したときの出力値を用い、ガウス関数は、学習後の競合学習型ニューラルネットワークに学習データを再入力したときに発火する各ニューロンの重みベクトルと当該学習データとのユークリッド距離により分散を決定し、発火したニューロンの重みベクトルを平均とすることを特徴とする異常検出装置。 A signal input unit that captures a target signal including a vibration component generated during operation of the device, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and a feature that has been learned in advance using learning data of a known category Comprising a competitive learning type neural network that uses the feature value extracted by the extraction unit as input data, and a determination unit that determines whether the device in operation is normal or abnormal using the output of the competitive learning type neural network, as learning data Using the feature value obtained when the device is in a known abnormal state, the determination unit sets the weight vector for each neuron in the output layer of the competitive learning type neural network using the learning data, and the learning data for the abnormal state category learning in a Gaussian function to determine the degree of membership of the input data to the firing neurons to a heavy real vector Set in association with the Euclidean distance between the over data, equipment normally when membership of the input data that Gaussian function is obtained during operation of the device for the configured neurons is a threshold hereinafter the provisions When the input data is input to the Gaussian function, the Gaussian function re-inputs the training data to the competitive neural network after learning. An anomaly detection apparatus characterized by determining a variance based on a Euclidean distance between a weight vector of each neuron that fires and the learning data, and averaging the weight vectors of fired neurons . 記閾値はガウス関数における分散の3倍に設定していることを特徴とする請求項1記載の異常検出装置。 Before SL threshold abnormality detecting device according to claim 1, wherein a is set to three times the variance in the Gaussian function. 機器の運転時に発生する振動成分を含む対象信号を取り込み、対象信号について複数のパラメータからなる特徴量を抽出した後、機器が既知の異常状態であるときに得られる特徴量を学習データとして用いてあらかじめ学習させた競合学習型ニューラルネットワークに、機器の運転時に得られる特徴量を入力データとして与え、競合学習型ニューラルネットワークの出力を用いて運転中の機器が正常か異常かを判定部で判定する異常検出方法であって、競合学習型ニューラルネットワークの出力層の各ニューロンに学習データにより重みベクトルを設定し、異常状態のカテゴリの学習データで発火したニューロンへの入力データの帰属度を決めるガウス関数を重みベクトルと学習データとのユークリッド距離に対応付けて設定し、ガウス関数が設定されたニューロンに対して機器の運転時に得られる入力データの帰属度が規定の閾値以下であるときに機器が正常に動作していると判断するものであって、帰属度としてガウス関数に入力データを入力したときの出力値を用い、ガウス関数は、学習後の競合学習型ニューラルネットワークに学習データを再入力したときに発火する各ニューロンの重みベクトルと当該学習データとのユークリッド距離により分散を決定し、発火したニューロンの重みベクトルを平均とすることを特徴とする異常検出方法。 After capturing the target signal including the vibration component generated during the operation of the device and extracting the feature amount consisting of multiple parameters for the target signal, the feature amount obtained when the device is in a known abnormal state is used as learning data the learned in advance competitive learning neural network was, given the feature amount obtained during the operation of equipment as input data, determining by the determination unit equipment is normal or abnormal in operation using the output of the competitive learning neural network A Gaussian that determines the degree of attribution of input data to neurons fired by learning data in the abnormal category category by setting a weight vector for each neuron in the output layer of the competitive learning type neural network. set in association functions in the Euclidean distance between the heavy viewing vector and learning data, the Gaussian function Be one device is determined to be operating normally when the set degree of membership of the input data obtained during the operation of the equipment to neurons is a threshold or less under provisions, Gauss as degree of membership Using the output value when input data is input to the function, the Gaussian function is the Euclidean distance between the weight vector of each neuron that fires when the learning data is re-input to the competitive learning neural network after learning and the learning data. An anomaly detection method characterized by determining variance by means of averaging the weighted vectors of fired neurons . 記閾値はガウス関数における分散の3倍に設定していることを特徴とする請求項3記載の異常検出方法。 Before SL threshold abnormality detecting method according to claim 3, wherein a is set to three times the variance in the Gaussian function.
JP2006269509A 2006-09-29 2006-09-29 Anomaly detection device and anomaly detection method Expired - Fee Related JP4605132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006269509A JP4605132B2 (en) 2006-09-29 2006-09-29 Anomaly detection device and anomaly detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006269509A JP4605132B2 (en) 2006-09-29 2006-09-29 Anomaly detection device and anomaly detection method

Publications (2)

Publication Number Publication Date
JP2008090529A JP2008090529A (en) 2008-04-17
JP4605132B2 true JP4605132B2 (en) 2011-01-05

Family

ID=39374615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006269509A Expired - Fee Related JP4605132B2 (en) 2006-09-29 2006-09-29 Anomaly detection device and anomaly detection method

Country Status (1)

Country Link
JP (1) JP4605132B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044744A1 (en) * 2017-08-31 2019-03-07 Ntn株式会社 State monitoring method and state monitoring device for rolling bearing
WO2019044745A1 (en) * 2017-08-31 2019-03-07 Ntn株式会社 Method and device for monitoring condition of rolling bearing
JP2019045487A (en) * 2017-08-31 2019-03-22 Ntn株式会社 State monitoring method and state monitoring device of rolling bearing
JP2019045495A (en) * 2017-08-31 2019-03-22 Ntn株式会社 State monitoring method and state monitoring device of rolling bearing

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5139163B2 (en) * 2008-06-06 2013-02-06 株式会社総合車両製作所 Abnormality detection method for moving objects
JP5139162B2 (en) * 2008-06-06 2013-02-06 株式会社総合車両製作所 Abnormality detection method for mechanical system
JP2010008159A (en) * 2008-06-25 2010-01-14 Panasonic Electric Works Co Ltd Visual inspection processing method
JP2012018066A (en) * 2010-07-07 2012-01-26 Panasonic Electric Works Sunx Co Ltd Device for inspecting abnormality
KR102026300B1 (en) * 2017-03-29 2019-11-04 아이덴티파이 주식회사 Method for detecting abnormal signal of vehicle by using artificial intelligence system
CN107977710B (en) * 2017-12-21 2020-12-25 南方电网科学研究院有限责任公司 Electricity consumption abnormal data detection method and device
CN109976934B (en) * 2019-02-26 2024-03-08 上海拍分乐网络科技有限公司 Device use abnormality determination method, device and computer storage medium
CN112041771A (en) * 2019-03-26 2020-12-04 东芝三菱电机产业系统株式会社 Abnormality determination support device
JP6664776B1 (en) * 2019-03-28 2020-03-13 ポート・アンド・アンカー株式会社 Abnormality determination method and abnormality determination system for structure
MX2022003138A (en) * 2019-09-17 2022-11-09 Nissan Motor Anomaly determination device and anomaly determination method.
CN112581940A (en) * 2020-09-17 2021-03-30 国网江苏省电力有限公司信息通信分公司 Discharging sound detection method based on edge calculation and neural network
KR102594253B1 (en) * 2021-08-06 2023-10-25 동의대학교 산학협력단 System and method for anomaly detection of crane equipment using artificial intelligence

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765168A (en) * 1993-08-31 1995-03-10 Hitachi Ltd Device and method for function approximation
JPH11338848A (en) * 1998-05-26 1999-12-10 Ffc:Kk Data abnormality detector
JP2001014293A (en) * 1999-06-30 2001-01-19 Glory Ltd Identifying/learning method of paper sheets using competitive neural network
JP2004183139A (en) * 2002-12-03 2004-07-02 Murata Mach Ltd Device and method for analyzing operation condition of textile machine
JP2005115569A (en) * 2003-10-06 2005-04-28 Matsushita Electric Works Ltd Signal identification device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765168A (en) * 1993-08-31 1995-03-10 Hitachi Ltd Device and method for function approximation
JPH11338848A (en) * 1998-05-26 1999-12-10 Ffc:Kk Data abnormality detector
JP2001014293A (en) * 1999-06-30 2001-01-19 Glory Ltd Identifying/learning method of paper sheets using competitive neural network
JP2004183139A (en) * 2002-12-03 2004-07-02 Murata Mach Ltd Device and method for analyzing operation condition of textile machine
JP2005115569A (en) * 2003-10-06 2005-04-28 Matsushita Electric Works Ltd Signal identification device and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044744A1 (en) * 2017-08-31 2019-03-07 Ntn株式会社 State monitoring method and state monitoring device for rolling bearing
WO2019044745A1 (en) * 2017-08-31 2019-03-07 Ntn株式会社 Method and device for monitoring condition of rolling bearing
JP2019045487A (en) * 2017-08-31 2019-03-22 Ntn株式会社 State monitoring method and state monitoring device of rolling bearing
JP2019045495A (en) * 2017-08-31 2019-03-22 Ntn株式会社 State monitoring method and state monitoring device of rolling bearing
JP6997054B2 (en) 2017-08-31 2022-01-17 Ntn株式会社 Rolling bearing condition monitoring method and condition monitoring device
JP6997051B2 (en) 2017-08-31 2022-02-03 Ntn株式会社 Rolling bearing condition monitoring method and condition monitoring device

Also Published As

Publication number Publication date
JP2008090529A (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4605132B2 (en) Anomaly detection device and anomaly detection method
Gunerkar et al. Fault diagnosis of rolling element bearing based on artificial neural network
Safizadeh et al. Using multi-sensor data fusion for vibration fault diagnosis of rolling element bearings by accelerometer and load cell
JP4356716B2 (en) Abnormality monitoring device
Subrahmanyam et al. Using neural networks for the diagnosis of localized defects in ball bearings
Amar et al. Vibration spectrum imaging: A novel bearing fault classification approach
CN113505655B (en) Intelligent bearing fault diagnosis method for digital twin system
Cococcioni et al. Robust diagnosis of rolling element bearings based on classification techniques
JP4200332B2 (en) Anomaly monitoring device and anomaly monitoring method
CN111044621B (en) Nondestructive testing system and method based on sound quality and acoustic characteristics
CN111678699B (en) Early fault monitoring and diagnosing method and system for rolling bearing
JP2012018066A (en) Device for inspecting abnormality
JP4760614B2 (en) Method for selecting learning data of signal identification device
KR101808390B1 (en) Method for machine fault diagnosis
CN118070009A (en) Steel structure flange bolt health detection and identification method based on impedance-torque fitting algorithm
JP4886461B2 (en) Abnormality monitoring device
JP2007327885A (en) Abnormality determination method and abnormality determination device
JP4886460B2 (en) Abnormality monitoring device
JP4875433B2 (en) Learning method of signal identification device
Mohamed et al. Self-organizing map-based feature visualization and selection for defect depth estimation in oil and gas pipelines
Vununu et al. Sound Based Machine Fault Diagnosis System Using Pattern Recognition Techniques
JP3012449B2 (en) Method and apparatus for identifying acoustic signal
Zhang et al. Applied sensor fault detection and validation using transposed input data PCA and ANNs
JP4513796B2 (en) Abnormality monitoring device
Patel et al. ANN based performance evaluation of BDI for condition monitoring of induction motor bearings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100920

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees