JP2008083866A - Emergency monitoring device - Google Patents

Emergency monitoring device Download PDF

Info

Publication number
JP2008083866A
JP2008083866A JP2006261485A JP2006261485A JP2008083866A JP 2008083866 A JP2008083866 A JP 2008083866A JP 2006261485 A JP2006261485 A JP 2006261485A JP 2006261485 A JP2006261485 A JP 2006261485A JP 2008083866 A JP2008083866 A JP 2008083866A
Authority
JP
Japan
Prior art keywords
neural network
category
neuron
input data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006261485A
Other languages
Japanese (ja)
Inventor
Yoshihito Hashimoto
良仁 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2006261485A priority Critical patent/JP2008083866A/en
Publication of JP2008083866A publication Critical patent/JP2008083866A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an abnormality monitoring device for judging normality/abnormality about equipment whose operation changes in a specific sequence. <P>SOLUTION: A plurality of types of operations are performed in a specific sequence by equipment X. An object signal generated according to the operation of the equipment X is captured by a signal input part 2, and the featured values of the object signal extracted by a feature extraction part 3 are inputted to a plurality of competition learning type neural networks (neural nets) 1a, 1b and so on learned by learning data corresponding to each operation of the equipment X as input data. A judging part 7 pays attention to the neural nets 1a, 1b and so on whose separation degree is the smallest and judges that abnormality has been generated when the category of the neuron which has ignited in the neural nets 1a, 1b and so on, is abnormal, or when the operation sequence of the equipment X associated with the neural nets 1a, 1b and so on is not matched with the operation sequence of the equipment X which has generated the input data although the category of the neuron which has ignited is normal. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、機器の動作により生じる対象信号から抽出した特徴量を用いて機器の異常の有無を判断する異常監視装置に関するものである。   The present invention relates to an abnormality monitoring apparatus that determines the presence or absence of an abnormality of a device using a feature amount extracted from a target signal generated by the operation of the device.

従来から、機器の動作により生じる音波や振動を用いて機器が正常に動作しているか機器に異常が発生しているかを判断する装置が種々提案されている。この種の装置では、機器が発生する音波や振動を検出するためのようなセンサ(トランスデューサ)を備える信号入力部を設け、音波や振動を電気信号に変換して解析の対象とする対象信号に用いている。また、機器の様々な動作における異常を判定するために、機器の動作により生じる対象信号から複数個のパラメータからなる特徴量を抽出し、特徴量におけるパラメータの分布パターンを、ニューラルネットワーク(ニューロコンピュータ)で分類することにより、機器が正常に動作しているか機器に異常が生じているかを判定することが考えられている。   2. Description of the Related Art Conventionally, various devices for determining whether a device is operating normally or an abnormality has occurred using sound waves or vibration generated by the operation of the device have been proposed. In this type of device, a signal input unit including a sensor (transducer) for detecting sound waves and vibrations generated by the device is provided, and the sound signals and vibrations are converted into electric signals to be analyzed. Used. In addition, in order to determine abnormalities in various operations of the device, a feature amount consisting of a plurality of parameters is extracted from the target signal generated by the operation of the device, and the parameter distribution pattern in the feature amount is represented by a neural network (neurocomputer). It is considered to determine whether the device is operating normally or whether there is an abnormality in the device.

特徴量におけるパラメータの分布パターンを分類するためのニューラルネットワークとしては、競合学習型ニューラルネットワーク(自己組織化マップ=SOM)を採用することが提案されている。競合学習型ニューラルネットワークは、入力層と出力層との2層からなるニューラルネットワークであり、学習モードと検査モードとの2動作を行う。   It has been proposed to employ a competitive learning type neural network (self-organizing map = SOM) as a neural network for classifying parameter distribution patterns in feature quantities. The competitive learning type neural network is a neural network including two layers of an input layer and an output layer, and performs two operations of a learning mode and an inspection mode.

学習モードでは、教師信号を用いずに学習データを与える。学習データにカテゴリを与えておけば、出力層のニューロンにカテゴリを対応付けることができ、同種のカテゴリに属するニューロンからなるクラスタを形成することができる。したがって、学習モードでは、出力層のニューロンのクラスタにカテゴリを示すクラスタリングマップを対応付けることができる。   In the learning mode, learning data is given without using a teacher signal. If a category is given to learning data, a category can be associated with a neuron in the output layer, and a cluster of neurons belonging to the same category can be formed. Accordingly, in the learning mode, a clustering map indicating a category can be associated with a cluster of neurons in the output layer.

検査モードでは、分類しようとする特徴量(入力データ)を学習済みの競合学習型ニューラルネットワークに与え、クラスタリングマップにおいて発火したニューロンが属するクラスタのカテゴリをクラスタリングマップに照合することによって、入力データのカテゴリを分類することができる(たとえば、特許文献1参照)。
特開2004−354111号公報
In the inspection mode, the feature quantity (input data) to be classified is given to a learned competitive learning neural network, and the category of the cluster to which the fired neuron belongs in the clustering map is checked against the clustering map. Can be classified (see, for example, Patent Document 1).
JP 2004-354111 A

上述したように、対象信号の特徴量をニューラルネットワークで分類する技術を採用すれば、機器が正常に動作しているか機器に異常が生じているかを判定することができる。一方、マシニングセンタやターニングセンタのような多数個の工具を取り換えて一連の加工を行う機器、あるいはマッサージ機のような所定のシーケンスに従って一連動作を行う機器では、機器の動作が規定の順序で変化するから、正常と判断すべき特徴量も機器の動作に応じて変化する。   As described above, if a technique for classifying the feature amount of the target signal using a neural network is employed, it can be determined whether the device is operating normally or whether the device has an abnormality. On the other hand, in a device that performs a series of processing by replacing a large number of tools such as a machining center or a turning center, or a device that performs a series of operations according to a predetermined sequence such as a massage machine, the operation of the device changes in a prescribed order. Therefore, the feature amount to be determined as normal also changes according to the operation of the device.

一般に、ニューラルネットワークでは特徴量の静的な分布パターンを分類するから、機器の動作が変化したときには正常か異常かの判断ができなくなる。機器の各動作ごとに正常な状態をニューラルネットワークに学習させることは可能であるから、機器の動作に応じてニューラルネットワークの出力層の各ニューロンに設定した重みベクトルを切り換えれば、機器の動作に対応した正常・異常の判定が可能になると考えられるが、機器の動作の変化のたびに重みベクトルを切り換えることは、処理負荷の大幅な増加になり、適切な対応策とは言えない。   In general, a neural network classifies a static distribution pattern of features, so that it is impossible to determine whether the feature is normal or abnormal when the operation of the device changes. Since it is possible for the neural network to learn the normal state for each device operation, switching the weight vector set for each neuron in the output layer of the neural network according to the device operation Although it is considered that the corresponding normality / abnormality can be determined, switching the weight vector every time the operation of the device changes is a significant increase in processing load, which is not an appropriate countermeasure.

本発明は上記事由に鑑みて為されたものであり、その目的は、規定の順序で動作が変化する機器についても正常・異常の判定が可能な異常監視装置を提供することにある。   The present invention has been made in view of the above reasons, and an object of the present invention is to provide an abnormality monitoring apparatus that can determine whether a device whose operation changes in a specified order is normal or abnormal.

請求項1の発明は、一連動作として規定順序で複数動作を行う機器の運転により生じる対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、機器の各動作ごとに正常のカテゴリに対応した学習データを用いてそれぞれ個別に学習させることにより出力層の各ニューロンに重みベクトルが付与されるとともに機器の動作順序と対応付けられ特徴抽出部により抽出した特徴量を入力データとして入力データのカテゴリを正常と異常とに分類する複数の競合学習型ニューラルネットワークと、機器の一連動作の期間においてすべての競合学習型ニューラルネットワークに同じ特徴量を入力データとして与えるとともに機器の各動作ごとに各競合学習型ニューラルネットワークに設定されているカテゴリへの入力データの帰属度を求める帰属度演算部と、機器の各動作について帰属度が最大である競合学習型ニューラルネットワークに着目し、当該競合型ニューラルネットワークの出力層において発火したニューロンのカテゴリが異常である場合と、発火したニューロンのカテゴリが正常であるが当該競合学習型ニューラルネットワークに対応付けた機器の動作順序が入力データを生成した機器の動作順序と一致しない場合とに異常と判定する判定部とを備えることを特徴とする。   The invention of claim 1 includes a signal input unit that captures a target signal generated by operation of a device that performs a plurality of operations in a prescribed order as a series of operations, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and a device Each learning operation is individually learned using the learning data corresponding to the normal category, and a weight vector is assigned to each neuron in the output layer and extracted by the feature extraction unit in association with the operation sequence of the device. Gives the same feature quantity as input data to multiple competitive learning type neural networks that classify input data categories as normal and abnormal with feature quantity as input data, and all competitive learning type neural networks during a series of device operations In addition, each competitive learning type neural network is set for each device operation. Pay attention to the attribution calculation unit that calculates the attribution of the input data to the category and the competitive learning type neural network that has the maximum attribution for each operation of the device. When the category is abnormal and when the category of the fired neuron is normal but the operation sequence of the device associated with the competitive learning type neural network does not match the operation sequence of the device that generated the input data, And a determination unit for determining.

上記構成によれば、機器の動作ごとに正常のカテゴリで学習させた複数の競合学習型ニューラルネットワークを設けておき、機器の運転により生じる対象信号の特徴量を入力データとして、すべての競合学習型ニューラルネットワークに入力データを同時に与えている。また、各競合学習型ニューラルネットワークには機器の動作順序を対応付けている。つまり、機器の動作が正常であれば、当該動作に対応付けられた競合学習型ニューラルネットワークの出力層において正常のカテゴリに属するニューロンが発火するから、機器の動作の順序に応じて正常のカテゴリに属するニューロンの発火する競合学習型ニューラルネットワークが順に移り変わり、しかも、その順序は機器の動作の順序に一致することになる。なお、ここでの同時は必ずしも時刻が同時である必要はなく、時刻が異なっている場合でもすべての競合学習型ニューラルネットに同じ入力データを与えることを含んでいる。   According to the above configuration, a plurality of competitive learning type neural networks trained in the normal category for each operation of the device are provided, and the feature quantity of the target signal generated by the operation of the device is used as input data for all the competitive learning types. Input data is given to the neural network at the same time. Each competitive learning type neural network is associated with the operation order of the devices. In other words, if the operation of the device is normal, the neurons belonging to the normal category fire in the output layer of the competitive learning type neural network associated with the operation. The competitive learning type neural network in which the neuron to which it belongs fires changes in order, and the order matches the order of operation of the devices. Here, the simultaneous time does not necessarily need to be the same time, and includes giving the same input data to all competitive learning type neural networks even when the times are different.

一方、機器の動作に異常があれば、当該動作に対応付けられた競合学習型ニューラルネットワークの出力層においては異常のカテゴリに属するニューロンが発火する。あるいは、機器の動作に対応付けられていない他の競合学習型ニューラルネットワークにおいて正常のカテゴリに属するニューロンが発火する場合もある。そこで、各競合学習型ニューラルネットワークにおいて設定されているカテゴリ(正常または異常)への入力データの帰属度を求め、この帰属度が最大である競合学習型ニューラルネットワークに着目することによって、その競合学習型ニューラルネットワークにおいて異常のカテゴリのニューロンが発火していれば、競合学習型ニューラルネットワークが機器の動作に対応しているか否かにかかわらず機器に異常が生じていると判断することができる。また、帰属度が最大である競合学習型ニューラルネットワークにおいて正常のカテゴリのニューロンが発火した場合には、当該競合学習型ニューラルネットワークと他の競合学習型ニューラルネットワークとの関係において、正常のカテゴリのニューロンが発火すると期待されている順序が正しいか否かを判断し、順序が正しくなければ、機器に異常が生じていると判断することができる。   On the other hand, if there is an abnormality in the operation of the device, neurons belonging to the abnormality category are fired in the output layer of the competitive learning type neural network associated with the operation. Alternatively, in other competitive learning type neural networks that are not associated with the operation of the device, neurons belonging to the normal category may fire. Therefore, the competitive learning type neural network is determined by determining the degree of attribution of the input data to the category (normal or abnormal) set in each competitive learning type neural network, and focusing on the competitive learning type neural network having the maximum degree of attribution. If a neuron in the abnormal category is ignited in the neural network, it can be determined that an abnormality has occurred in the device regardless of whether or not the competitive learning neural network supports the operation of the device. In addition, when a normal category of neurons fires in a competitive learning type neural network with the highest degree of attribution, the normal category of neurons in the relationship between the competitive learning type neural network and other competitive learning type neural networks. It is determined whether or not the order expected to fire is correct, and if the order is not correct, it can be determined that an abnormality has occurred in the device.

ここにおいて、順序が正しく異常のカテゴリのニューロンが発火しているときには、当該競合学習型ニューラルネットワークに対応付けた機器の動作において異常が生じていると判断することができる。また、正常のカテゴリのニューロンが発火しているが、順序に異常があるときには、機器のいずれかの動作において異常が生じている場合のほか、機器の動作の順序が入れ替わったり、予定した動作が脱漏していたりする場合が考えられる。これは、機器がマシニングセンタのような加工機である場合には、加工順序を間違った場合や予定していた加工が行われなかった場合に相当する。   Here, when a neuron in an abnormal category whose order is correct is firing, it can be determined that an abnormality has occurred in the operation of the device associated with the competitive learning type neural network. In addition, when a normal category of neurons fires, but there is an abnormality in the order, in addition to the case where an abnormality has occurred in any operation of the device, the operation order of the device has been switched, or the planned operation has It may be missing. This corresponds to a case where the processing order is wrong or a planned processing is not performed when the device is a processing machine such as a machining center.

請求項2の発明では、請求項1の発明において、前記帰属度演算部は、前記競合学習型ニューラルネットワークの出力層において発火したニューロンに付与されている重みベクトルと入力データとのユークリッド距離に相当する乖離度を帰属度として求め、前記判定部は、乖離度が最小である競合学習型ニューラルネットワークに着目することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the membership calculation unit corresponds to a Euclidean distance between a weight vector assigned to a neuron fired in an output layer of the competitive learning type neural network and input data. The degree of divergence is determined as the degree of attribution, and the determination unit focuses on a competitive learning type neural network having the smallest degree of divergence.

この構成によれば、個々の競合学習型ニューラルネットワークにおける出力ニューロンは、機器の局所的な動作に対応しており、競合学習型ニューラルネットワークにおいて発火したニューロンに関して乖離度を帰属度に用いるから、機器の各動作に対する正常・異常の区別ができ、機器の個々の動作における正常・異常の判定精度が高くなる。   According to this configuration, the output neuron in each competitive learning type neural network corresponds to the local operation of the device, and the degree of divergence is used as the degree of belonging for the neurons fired in the competitive learning type neural network. Therefore, it is possible to distinguish between normal and abnormal for each operation, and the accuracy of normal / abnormal determination in each operation of the device is increased.

請求項3の発明では、請求項1の発明において、前記帰属度演算部は、前記競合学習型ニューラルネットワークの出力層の各ニューロンに付与されている重みベクトルと入力データとのユークリッド距離の総和に相当する適合度を帰属度として求め、前記判定部は、適合度が最大である競合学習型ニューラルネットワークに着目することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the invention, the degree-of-assignment calculation unit calculates a sum of Euclidean distances between the weight vector assigned to each neuron of the output layer of the competitive learning type neural network and the input data. The matching degree is obtained as the degree of attribution, and the determination unit focuses on the competitive learning type neural network having the highest matching degree.

この構成によれば、機器における出力ニューロンの重み係数の総体は、機器が取り得る動作全体を表しており、各競合学習型ニューラルネットワークに対する入力データの適合度を帰属度に用いるから、機器の局所的な動作の影響を受けることなく、機器の動作可能範囲全体への帰属度を用いて判定を行うことになり、機器の一連動作における動作順序の正常・異常の判定精度が高くなる。   According to this configuration, the total weight coefficient of the output neuron in the device represents the entire operation that the device can take, and the fitness of the input data for each competitive learning type neural network is used as the attribution level. The determination is made using the degree of belonging to the entire operable range of the device without being affected by the general operation, and the accuracy of determining whether the operation sequence is normal or abnormal in a series of operation of the device is increased.

本発明の構成によれば、動作が時間経過に伴って規定の順序で変化する機器においても異常の有無を判定することができるという利点がある。また、機器の各動作において正常と異常とを判断することのできる複数の競合学習型ニューラルネットワークを用い、入力データについて、各競合学習型ニューラルネットに設定されたカテゴリへの帰属度と、正常のカテゴリのニューロンの発火順序とを検出することにより、機器の動作ごとの異常の有無と機器の動作順序の異常の有無とを監視できるという利点がある。   According to the configuration of the present invention, there is an advantage that the presence / absence of an abnormality can be determined even in a device whose operation changes in a prescribed order with time. In addition, using multiple competitive learning type neural networks that can determine normal and abnormal in each operation of the device, the input data is attributed to the category set in each competitive learning type neural network and normal By detecting the firing order of the neurons in the category, there is an advantage that the presence / absence of abnormality for each operation of the device and the presence / absence of abnormality of the operation sequence of the device can be monitored.

本実施形態で説明する異常監視装置では、図1に示すように、教師なしの競合学習型ニューラルネットワーク(以下、単に「ニューラルネット」と呼ぶ)1a,1b,……を複数用いている。各ニューラルネット1a,1b,……は、図2に示すように、それぞれ入力層11と出力層12との2層からなり、出力層12の各ニューロンN2が入力層11のすべてのニューロンN1とそれぞれ結合された構成を有している。ニューラルネット1a,1b,……は、逐次処理型のコンピュータで適宜のアプリケーションプログラムを実行することにより実現する場合を想定しているが、専用のニューロコンピュータを用いることも可能である。   In the abnormality monitoring apparatus described in the present embodiment, as shown in FIG. 1, a plurality of unsupervised competitive learning type neural networks (hereinafter simply referred to as “neural networks”) 1a, 1b,. As shown in FIG. 2, each neural network 1a, 1b,... Is composed of two layers, an input layer 11 and an output layer 12, and each neuron N2 in the output layer 12 is connected to all neurons N1 in the input layer 11. Each has a combined configuration. The neural networks 1a, 1b,... Are assumed to be realized by executing an appropriate application program on a sequential processing type computer, but a dedicated neurocomputer can also be used.

ニューラルネット1a,1b,……の動作には、学習モードと検査モードとがあり、学習モードにおいて適宜の学習データを用いて学習した後に、検査モードにおいて実際の対象信号から生成した特徴量(入力データ)のカテゴリを分類する。   The operation of the neural networks 1a, 1b,... Has a learning mode and an inspection mode. After learning using appropriate learning data in the learning mode, the feature amount (input) generated from the actual target signal in the inspection mode. Data) category.

ニューラルネット1a,1b,……を構成する入力層11のニューロンN1と出力層12のニューロンN2との結合度(重み係数)は可変であり、学習モードにおいて、学習データをニューラルネット1a,1b,……に入力することによりニューラルネット1a,1b,……を学習させ、入力層11の各ニューロンN1と出力層12の各ニューロンN2との重み係数を決める。言い換えると、出力層12の各ニューロンN2には、入力層11の各ニューロンN1との間の重み係数を要素とする重みベクトルが対応付けられる。したがって、重みベクトルは入力層11のニューロンN1と同数の要素を持ち、入力層11に入力される特徴量のパラメータの個数と重みベクトルの要素の個数とは一致する。   The coupling degree (weight coefficient) between the neuron N1 of the input layer 11 and the neuron N2 of the output layer 12 constituting the neural nets 1a, 1b,... Is variable, and in the learning mode, the learning data is stored in the neural nets 1a, 1b,. ... Is learned by inputting to, and the weighting coefficients of the neurons N1 in the input layer 11 and the neurons N2 in the output layer 12 are determined. In other words, each neuron N2 in the output layer 12 is associated with a weight vector whose element is a weight coefficient between each neuron N1 in the input layer 11. Therefore, the weight vector has the same number of elements as the neuron N1 of the input layer 11, and the number of parameters of the feature quantity input to the input layer 11 matches the number of elements of the weight vector.

検査モードでは、カテゴリを判定すべき入力データをニューラルネット1a,1b,……の入力層11に与えると、出力層12のニューロンN2のうち、重みベクトルと入力データとのユークリッド距離が最小であるニューロンN2が発火する。学習モードにおいて出力層12のニューロンN2にカテゴリが対応付けられていれば、発火したニューロンN2の位置のカテゴリによって入力データのカテゴリを知ることができる。   In the inspection mode, when the input data whose category is to be determined is applied to the input layer 11 of the neural network 1a, 1b,..., The Euclidean distance between the weight vector and the input data among the neurons N2 in the output layer 12 is the smallest. Neuron N2 fires. If a category is associated with the neuron N2 of the output layer 12 in the learning mode, the category of the input data can be known from the category of the position of the fired neuron N2.

出力層12のニューロンN2は、たとえば6×6個の領域を有する2次元のクラスタリングマップ5a,5b,……の各領域に一対一に対応付けられている。クラスタリングマップ5a,5b,……はニューラルネット1a,1b,……ごとに設けられ、本実施形態では、複数のニューラルネット1a,1b,……を用いているから、クラスタリングマップ5も複数設けられる。学習モードにおいて、各クラスタリングマップ5a,5b,……の各領域に学習データのカテゴリを対応付けておけば、入力データにより発火したニューロンN2に対応するカテゴリをクラスタリングマップ5a,5b,……により知ることができる。   The neurons N2 of the output layer 12 are associated one-to-one with each region of the two-dimensional clustering maps 5a, 5b,... Having, for example, 6 × 6 regions. The clustering maps 5a, 5b,... Are provided for each neural network 1a, 1b,..., And in this embodiment, a plurality of the neural networks 1a, 1b,. . In the learning mode, if a category of learning data is associated with each area of each clustering map 5a, 5b,..., The category corresponding to the neuron N2 fired by the input data is known from the clustering map 5a, 5b,. be able to.

クラスタリングマップ5a,5b,……の各領域(実質的には出力層12の各ニューロンN2)にカテゴリを対応付けるに際しては、学習済みのニューラルネット1a,1b,……を出力層12から入力層11に向かって逆向きに動作させて出力層12の各ニューロンN2ごとに入力層11に与えたデータを推定し、推定したデータとのユークリッド距離がもっとも近い学習データのカテゴリを、出力層12における当該ニューロンN2のカテゴリに用いる。   When associating a category with each region of the clustering maps 5a, 5b,... (Substantially, each neuron N2 of the output layer 12), the learned neural nets 1a, 1b,. The data given to the input layer 11 is estimated for each neuron N2 of the output layer 12 by operating in the opposite direction, and the category of the learning data having the closest Euclidean distance to the estimated data is determined in the output layer 12 Used for the category of neuron N2.

言い換えると、出力層12の各ニューロンN2のカテゴリには、各ニューロンN2の重みベクトルとのユークリッド距離が最小である学習データのカテゴリを用いる。これにより、出力層12の各ニューロンN2のカテゴリには、学習データのカテゴリが反映される。また、多数個(たとえば、150個)の学習データを与えると、属性の類似度の高いカテゴリがクラスタリングマップ5a,5b,……上で近い位置に配置される。   In other words, as the category of each neuron N2 in the output layer 12, the category of learning data having the minimum Euclidean distance from the weight vector of each neuron N2 is used. Thereby, the category of learning data is reflected in the category of each neuron N2 of the output layer 12. Further, when a large number (for example, 150) of learning data is given, categories with high attribute similarity are arranged at close positions on the clustering maps 5a, 5b,.

したがって、出力層12のニューロンN2のうち同種のカテゴリに属する学習データに対応して発火したニューロンN2は、クラスタリングマップ5a,5b,……上で近い位置に集まりニューロンN2の集合からなるクラスタを形成する。学習モードでニューラルネット1a,1b,……に与えられる学習データは学習データ記憶部4に格納されており、必要に応じて学習データ記憶部4から読み出されてニューラルネット1a,1b,……に与えられる。   Therefore, the neurons N2 fired corresponding to the learning data belonging to the same category among the neurons N2 in the output layer 12 gather at close positions on the clustering maps 5a, 5b,... To form a cluster composed of the set of neurons N2. To do. The learning data given to the neural networks 1a, 1b,... In the learning mode is stored in the learning data storage unit 4, and is read out from the learning data storage unit 4 as necessary, and the neural networks 1a, 1b,. Given to.

ニューラルネット1a,1b,……により分類する対象信号は、機器Xから得られる電気信号であって、たとえば、機器Xの動作音を検出するマイクロホン2aと、機器Xの動作時に生じる振動を検出する振動センサ2bとの少なくとも一方からなる信号入力部2の出力を用いる。信号入力部2の構成は機器Xの種類に応じて適宜に選択され、マイクロホン2a、振動センサ2bのほか、TVカメラ、匂いセンサなどの各種のセンサを単独または組み合わせて用いることができる。あるいはまた、機器Xが発生する信号を取り出して対象信号に用いることも可能である。   The target signals to be classified by the neural networks 1a, 1b,... Are electrical signals obtained from the device X. For example, the microphone 2a that detects the operation sound of the device X and the vibration that occurs during the operation of the device X are detected. The output of the signal input unit 2 composed of at least one of the vibration sensor 2b is used. The configuration of the signal input unit 2 is appropriately selected according to the type of the device X, and various sensors such as a TV camera and an odor sensor can be used alone or in combination in addition to the microphone 2a and the vibration sensor 2b. Alternatively, a signal generated by the device X can be taken out and used as a target signal.

信号入力部2で得られた電気信号である対象信号は、特徴抽出部3に与えられ対象信号の特徴量が抽出される。本実施形態では、信号入力部2から特徴抽出部3に与えられる対象信号は振動成分を含む信号であって、特徴抽出部3に入力されることにより対象信号の振動成分を表す複数種類の特徴量が抽出される。   The target signal, which is an electrical signal obtained by the signal input unit 2, is given to the feature extraction unit 3, and the feature amount of the target signal is extracted. In the present embodiment, the target signal given from the signal input unit 2 to the feature extraction unit 3 is a signal including a vibration component, and is input to the feature extraction unit 3 to represent a plurality of types of features representing the vibration component of the target signal. The quantity is extracted.

特徴抽出部3では、機器Xが発生する対象信号から同じ条件で特徴量を抽出するために、機器Xの動作に同期したタイミング信号(トリガ信号)を用いたり、対象信号の波形の特徴(たとえば、ひとまとまりの対象信号の開始点と終了点)を用いたりすることによって、対象信号の切り出し(セグメンテーション)を行った後、適宜の単位時間ごとの信号に分割し、単位時間毎に特徴量を抽出する。したがって、特徴抽出部3は信号入力部2から与えられる対象信号を一時的に記憶するバッファを備える。また、特徴抽出部3では、必要に応じて周波数帯域を制限するなどして、ノイズを低減させる前処理を行う。さらに、特徴抽出部3は対象信号をデジタル信号に変換する機能も備える。   The feature extraction unit 3 uses a timing signal (trigger signal) synchronized with the operation of the device X in order to extract a feature value from the target signal generated by the device X under the same conditions, or features the waveform of the target signal (for example, The target signal is segmented by using a set of target signal start points and end points, and then divided into signals for each appropriate unit time. Extract. Therefore, the feature extraction unit 3 includes a buffer that temporarily stores the target signal given from the signal input unit 2. Further, the feature extraction unit 3 performs preprocessing for reducing noise by limiting the frequency band as necessary. Furthermore, the feature extraction unit 3 also has a function of converting the target signal into a digital signal.

説明を簡単にするために、ここでは、セグメンテーションを行った後の対象信号の振動成分から複数の周波数成分(周波数帯域ごとのパワー)を抽出し、各周波数成分を特徴量に用いるものとして説明する。周波数成分の抽出には、FFT(高速フーリエ変換)の技術、あるいは多数個のバンドパスフィルタからなるフィルタバンクを用いる。どの周波数成分を特徴量に用いるかは、対象とする機器Xや抽出しようとする異常に応じて適宜に選択される。特徴抽出部3から単位時間毎に得られた特徴量は、特徴量の抽出のたびにニューラルネット1a,1b,……にそれぞれ与えられる。   In order to simplify the description, it is assumed here that a plurality of frequency components (power for each frequency band) are extracted from the vibration components of the target signal after segmentation, and each frequency component is used as a feature amount. . For the extraction of frequency components, an FFT (Fast Fourier Transform) technique or a filter bank made up of a large number of bandpass filters is used. Which frequency component is used for the feature amount is appropriately selected according to the target device X and the abnormality to be extracted. The feature quantity obtained from the feature extraction unit 3 per unit time is given to the neural networks 1a, 1b,... Each time the feature quantity is extracted.

本実施形態のニューラルネット1a,1b,……では、学習モードにおいて設定されるカテゴリを「正常」のみとしている。したがって、上述したように、クラスタリングマップ5a,5b,……を作成するために学習済みのニューラルネット1a,1b,……を出力層12から入力層11に向かって逆向きに動作させることは必ずしも必要ではない。   In the neural networks 1a, 1b,... Of the present embodiment, the category set in the learning mode is only “normal”. Therefore, as described above, it is not always necessary to operate the learned neural networks 1a, 1b,... In order to create the clustering maps 5a, 5b,. Not necessary.

ところで、本実施形態では、機器Xが規定した順序で複数種類の動作を行う場合に、機器Xの各動作における異常だけではなく、機器Xの動作順序の異常についても検出可能となっている点に特徴がある。機器Xの動作の種類は、上述したようにマシニングセンタのように複数個の工具を取り換えて様々な加工を行う際の動作、あるいはマッサージ機における揉みや叩きなどの様々な動作を意味しており、これらの動作は機器Xのプログラムによって順序が規定され、全体として一連動作を行うように機器Xが制御される。   By the way, in the present embodiment, when a plurality of types of operations are performed in the order prescribed by the device X, not only an abnormality in each operation of the device X but also an abnormality in the operation order of the device X can be detected. There is a feature. As described above, the type of operation of the device X means an operation when performing various processing by exchanging a plurality of tools like a machining center, or various operations such as itching and hitting in a massage machine, The order of these operations is defined by the program of the device X, and the device X is controlled to perform a series of operations as a whole.

そこで、学習データ記憶部4には機器Xの各動作における「正常」な特徴量をそれぞれ学習データとして動作別に格納し、各ニューラルネット1a,1b,……を機器Xの動作別の学習データを用いて学習させるようにしている。つまり、各ニューラルネット1a,1b,……は、それぞれ異なる動作の学習データを用いて学習され、それぞれのニューラルネット1a,1b,……およびクラスタリングマップ5a,5b,……には、機器Xの各動作ごとに正常のカテゴリが設定されることになる。なお、学習データ記憶部4に特徴量を格納する際には、機器Xの動作を示す信号を外部信号に用い、各特徴量に機器の各動作をカテゴリとして対応付ける。つまり、各動作ごとに正常であるときの特徴量が学習データ記憶部4に格納される。   Therefore, the learning data storage unit 4 stores “normal” feature values in each operation of the device X as learning data for each operation, and stores each neural network 1a, 1b,... As learning data for each operation of the device X. I am trying to use it. That is, each of the neural nets 1a, 1b,... Is learned using learning data having different operations, and each of the neural nets 1a, 1b,... And the clustering maps 5a, 5b,. A normal category is set for each operation. When storing feature quantities in the learning data storage unit 4, a signal indicating the operation of the device X is used as an external signal, and each operation of the device is associated with each feature amount as a category. That is, the feature amount when normal for each operation is stored in the learning data storage unit 4.

学習データ記憶部4に格納された特徴量を学習データとして用いて、各ニューラルネット1a,1b,……の学習を行うと、各ニューラルネット1a,1b,……における出力層12の各ニューロンN2には重みベクトルが設定され、また各クラスタリングマップ5a,5b,……の各位置には、各動作ごとの「正常」に対応するカテゴリが付与される。上述のように、各ニューラルネット1a,1b,……は、それぞれ機器Xの動作に対応付けられているから、ニューラルネット1a,1b,……は機器Xの動作順序にも対応付けられていることになる。そこで、機器Xの動作順序とニューラルネット1a,1b,……との対応関係を記憶する順序記憶部8を設けておき、機器Xのどの動作のときに、正常のカテゴリのニューロンN2が発火するニューラルネット1a,1b,……がどれになるかの対応付けを行っておく。   When learning is performed on each neural network 1a, 1b,... Using the feature amount stored in the learning data storage unit 4 as learning data, each neuron N2 of the output layer 12 in each neural network 1a, 1b,. Is set with a weight vector, and a category corresponding to “normal” for each operation is assigned to each position of each clustering map 5a, 5b,. As described above, since each neural network 1a, 1b,... Is associated with the operation of the device X, the neural networks 1a, 1b,. It will be. Therefore, an order storage unit 8 for storing the correspondence between the operation order of the device X and the neural networks 1a, 1b,... Is provided, and the normal category neuron N2 fires at any operation of the device X. The neural networks 1a, 1b,... Are associated with each other.

上述のように学習モードでの学習を行った後に、各ニューラルネット1a,1b,……を検査モードに切り換え、機器Xの運転により生じる対象信号から抽出した特徴量を入力データとして各ニューラルネット1a,1b,……に入力する。入力データはすべてのニューラルネット1a,1b,……に同時に与える。つまり、すべてのニューラルネット1a,1b,……において入力データのカテゴリが分類される。ただし、逐次処理型のコンピュータを用いる場合には、同じ時刻にすべてのニューラルネット1a,1b,……に同じ入力データを与えることはできないから、実際には入力データを一時記憶しておき、すべてのニューラルネット1a,1b,……に記憶した同じ入力データを与えることにより、実質的にすべてのニューラルネット1a,1b,……に同じ入力データを同時に与えたことと等価な動作を実現する。   After learning in the learning mode as described above, each of the neural networks 1a, 1b,... Is switched to the inspection mode, and each neural network 1a is input with the feature value extracted from the target signal generated by the operation of the device X as input data. , 1b,... Input data is given to all the neural networks 1a, 1b,. That is, the category of input data is classified in all the neural networks 1a, 1b,. However, when a sequential processing type computer is used, the same input data cannot be given to all the neural networks 1a, 1b,... At the same time. Are provided with the same input data stored in the neural networks 1a, 1b,..., So that an operation equivalent to substantially simultaneously applying the same input data to all the neural networks 1a, 1b,.

ここで、順序記憶部8において、機器Xの当該動作に対応付けられているニューラルネット1a,1b,……では、正常のカテゴリのニューロンN2が発火するから、この関係が成立しているときには、機器Xは正常に動作していると推定される。言い換えると、機器Xから得られる実際の対象信号を入力すると、機器Xが正常に動作していれば、各クラスタリングマップ5a,5b,……の「正常」の位置にあるニューロンN2が順に発火することになる。   Here, in the order storage unit 8, in the neural networks 1a, 1b,... Associated with the operation of the device X, the normal category neuron N2 fires. It is estimated that the device X is operating normally. In other words, when an actual target signal obtained from the device X is input, if the device X is operating normally, the neuron N2 at the “normal” position in each clustering map 5a, 5b,. It will be.

ただし、ニューラルネット1a,1b,……において正常のカテゴリのニューロンN2が発火したとしても、順序記憶部8に登録されている順序と異なっている場合、つまりニューロンN2の発火したニューラルネット1a,1b,……と、当該ニューラルネットN2の前にニューロンN2が発火したニューラルネット1a,1b,……とについて発火順が入れ替わったり発火順に抜けがあった場合には、機器Xの動作順序に異常が生じていると判断される。   However, even if the neurons N2 in the normal category are fired in the neural networks 1a, 1b,..., They are different from the order registered in the order storage unit 8, that is, the neural networks 1a, 1b fired by the neurons N2. ,..., And the neural network 1a, 1b,... Fired by the neuron N2 before the neural network N2, the firing order is switched or the firing order is missing. It is determined that it has occurred.

上述のような正常・異常の判断を行うために、各ニューラルネット1a,1b,……における入力データの各カテゴリへの帰属度を求める帰属度演算部6と、帰属度が最大であるニューラルネット1a,1b,……に着目し正常・異常の判断を行う判定部7とを設けてある。   In order to perform the normality / abnormality determination as described above, the degree-of-affiliation calculation unit 6 for obtaining the degree of belonging to each category of the input data in each of the neural networks 1a, 1b,. A determination unit 7 for determining normality / abnormality is provided by paying attention to 1a, 1b,.

本実施形態では、帰属度演算部6において求める帰属度として、乖離度と適合度とのいずれか一方を用いる。乖離度は、検査モードにおける入力データ(ベクトル)と、当該入力データにより発火したニューロンに設定された重みベクトルとの差分の内積を正規化した値であって、入力データを[X]、発火したニューロンの重みベクトルを[Wwin]とすれば([a]はaがベクトルであることを意味している)、乖離度Yは次式で定義される。
Y=([X]/X−[Wwin]/Wwin)([X]/X−[Wwin]/Wwin)
ここにTは転置を表し、角付き括弧を付与していないX,Wwinは各ベクトルのノルムを表す。
In the present embodiment, either the divergence degree or the fitness level is used as the degree of attribution to be obtained by the degree-of-affiliation calculation unit 6. The degree of divergence is a value obtained by normalizing the inner product of the difference between the input data (vector) in the examination mode and the weight vector set for the neuron fired by the input data. If the neuron weight vector is [Wwin] ([a] means that a is a vector), the divergence degree Y is defined by the following equation.
Y = ([X] / X- [Wwin] / Wwin) T ([X] / X- [Wwin] / Wwin)
Here, T represents transposition, and X and Wwin without a square bracket indicate the norm of each vector.

一方、適合度Gは、検査モードにおける入力データ[X]と、発火したニューロンの重みベクトル[Wwin]と、出力層のニューロンの重みベクトルの分散σとを用いることにより、次式で表される。
G=Σgi
gi=exp(−Z/2σ
Z=([X]−[Wi])([X]−[Wi])
ただし、i=1〜N(=出力層12のニューロンN2の個数)である。
On the other hand, the fitness G is expressed by the following equation by using the input data [X] in the examination mode, the weight vector [Wwin] of the firing neuron, and the variance σ of the neuron weight vector of the output layer. .
G = Σgi
gi = exp (−Z / 2σ 2 )
Z = ([X]-[Wi]) T ([X]-[Wi])
However, i = 1 to N (= number of neurons N2 in the output layer 12).

判定部7において、帰属度として乖離度を用いる場合には、乖離度が最小になるニューラルネット1a,1b,……に着目し、帰属度として適合度を用いる場合には、適合度が最大になるニューラルネット1a,1b,……に着目する。   When using the degree of divergence as the degree of attribution in the determination unit 7, pay attention to the neural networks 1a, 1b,... That minimize the degree of divergence, and when using the degree of fitness as the degree of attribution, the degree of fitness is maximized. Focus on the neural networks 1a, 1b,.

判定部7では、着目したニューラルネット1a,1b,……の出力層12において発火したニューロンN2のカテゴリが異常である場合に、機器Xに異常があると判定する。また、着目したニューラルネット1a,1b,……の出力層12において発火したニューロンN2のカテゴリが正常であっても、そのニューラルネット1a,1b,……に対応付けた機器Xの動作順序が入力データを生成した機器Xの動作順序と一致しない場合、つまり順序記憶部8が記憶している順序と一致しない場合に、機器Xに異常があると判定する。上述のようにして判定部7において異常を検出することにより、機器Xの動作の順序の異常と各動作ごとの異常とを検出することができる。   The determination unit 7 determines that the device X is abnormal when the category of the neuron N2 fired in the output layer 12 of the focused neural networks 1a, 1b,. Further, even if the category of the neuron N2 fired in the output layer 12 of the focused neural network 1a, 1b,... Is normal, the operation order of the device X associated with the neural network 1a, 1b,. When the operation order of the device X that generated the data does not match, that is, when the order does not match the order stored in the order storage unit 8, it is determined that the device X is abnormal. By detecting an abnormality in the determination unit 7 as described above, it is possible to detect an abnormality in the operation sequence of the device X and an abnormality for each operation.

上述した構成について、ニューラルネット1a,1b,……の学習データを収集する動作を図3にまとめて示す。まず、機器Xを作動させ一連動作における最初の動作において(S1)、信号入力部2から対象信号を取り込み(S2)、特徴量抽出部3において特徴量を抽出し(S3)、この特徴量を学習データ記憶部4に格納する(S4)。ステップS2〜S4の処理を機器Xの一連動作が終了するまで繰り返す(S5,S6)。また、機器Xを繰り返し動作させることによって、ステップS1〜S6の処理を繰り返し、学習データ記憶部4に一連動作に対応した規定個数の学習データ(特徴量)が格納されと学習データの収集を終了する(S7)。学習データ記憶部4に格納する学習データの個数はニューラルネット1a,1b,……の学習に必要な個数であって、たとえば機器Xの1動作当たり150個ずつとする。ここで、ニューラルネット1a,1b,……の学習は、学習データ記憶部4に学習データを格納するとき同時に行うことができ、また学習データ記憶部4に機器Xの各動作の学習データを格納した後に行うようにしてもよい。   With respect to the above-described configuration, operations for collecting learning data of the neural networks 1a, 1b,... Are collectively shown in FIG. First, in the first operation in a series of operations by operating the device X (S1), the target signal is fetched from the signal input unit 2 (S2), and the feature amount extraction unit 3 extracts the feature amount (S3). The data is stored in the learning data storage unit 4 (S4). The processes in steps S2 to S4 are repeated until the series of operations of the device X is completed (S5, S6). Further, by repeating the operation of the device X, the processing of steps S1 to S6 is repeated, and when the prescribed number of learning data (features) corresponding to the series of operations is stored in the learning data storage unit 4, the collection of the learning data is finished. (S7). The number of learning data stored in the learning data storage unit 4 is the number necessary for learning of the neural networks 1a, 1b,..., For example, 150 pieces per operation of the device X. Here, the learning of the neural networks 1a, 1b,... Can be performed simultaneously when the learning data is stored in the learning data storage unit 4, and the learning data of each operation of the device X is stored in the learning data storage unit 4. You may be made to do it after.

上述のように機器Xの一連動作における各動作に対応した学習データを用いて各ニューラルネット1a,1b,……の学習を行い、各ニューラルネット1a,1b,……における出力層12のニューロンN2に重みベクトルを付与した後には、ニューラルネット1a,1b,……を検査モードに切り換え、機器Xを実際に運転させたときの入力データを用いて機器Xの動作の正常・異常を判定部7において判定する。   As described above, learning of each neural network 1a, 1b,... Is performed using the learning data corresponding to each operation in the series of operations of the device X, and the neuron N2 of the output layer 12 in each neural network 1a, 1b,. After assigning the weight vector to, the neural network 1a, 1b,... Is switched to the inspection mode, and the normal / abnormal operation of the device X is determined using the input data when the device X is actually operated. Determine in

検査モードにおける動作を図4に示す。まず、一連動作の最初の動作で機器Xを動作させ(S1)、信号入力部2で対象信号を取り込み(S2)、さらに特徴抽出部3で特徴量を抽出する(S3)。この特徴量は入力データとして各ニューラルネット1a,1b,……に与えられるとともに、各ニューラルネット1a,1b,……においてそれぞれ乖離度が求められる(S4〜S7)。ここでは、上述したように入力データを一時記憶し、各ニューラルネット1a,1b,……に入力データを順次与え(S4,S6,S7)、入力データが与えられた各ニューラルネット1a,1b,……に関して帰属度演算部6において乖離度を求める(S5)。   The operation in the inspection mode is shown in FIG. First, the device X is operated in the first operation of a series of operations (S1), the target signal is captured by the signal input unit 2 (S2), and the feature quantity is extracted by the feature extraction unit 3 (S3). This feature quantity is given as input data to each neural network 1a, 1b,..., And the degree of divergence is obtained in each neural network 1a, 1b,... (S4 to S7). Here, as described above, the input data is temporarily stored, the input data is sequentially given to each neural network 1a, 1b,... (S4, S6, S7), and each neural network 1a, 1b,. ... The degree of divergence is obtained in the degree-of-assignment calculation unit 6 (S5).

上述のようにしてすべてのニューラルネット1a,1b,……において乖離度が求められると、判定部7では、乖離度が最小であったニューラルネット1a,1b,……を選択する(S8)。このニューラルネット1a,1b,……に着目して、以下の処理により正常・異常の判定を行う。   When the divergence degree is obtained in all the neural networks 1a, 1b,... As described above, the determination unit 7 selects the neural networks 1a, 1b,. Focusing on the neural networks 1a, 1b,..., Normal / abnormal determination is performed by the following processing.

まず、乖離度が最小であったニューラルネット1a,1b,……において発火したニューロンN2が異常であるときには(S9)、異常と判定する(S10)。一方、発火したニューロンN2が正常であるときには(S9)、一連動作において前の動作で機器Xを動作させたときにステップS8において選択したニューラルネット1a,1b,……の順序と今回選択したニューラルネット1a,1b,……の順序とを順序記憶部8から抽出し(S11)、両順序を比較する(S12)。ここで、ニューラルネット1a,1b,……の順序に異常が生じている場合(順序が逆転している場合と順序が脱漏している場合)には、異常と判定する(S10)。一方、ステップS12において順序に異常がなければ、正常と判定する(S13)。   First, when the neuron N2 fired in the neural networks 1a, 1b,... Having the smallest divergence is abnormal (S9), it is determined as abnormal (S10). On the other hand, when the fired neuron N2 is normal (S9), the sequence of the neural networks 1a, 1b,... Selected in step S8 when the device X is operated in the previous operation in a series of operations and the currently selected neural network. The order of the nets 1a, 1b,... Is extracted from the order storage unit 8 (S11), and both orders are compared (S12). Here, when an abnormality occurs in the order of the neural networks 1a, 1b,... (When the order is reversed and when the order is omitted), it is determined that there is an abnormality (S10). On the other hand, if there is no abnormality in the order in step S12, it is determined as normal (S13).

ステップS2〜S13の処理は、機器Xの一連動作の各動作について順次行う(S14,S15)。機器Xを連続的に動作させている場合には、動作が終了(S16)するまで上述の処理を繰り返し行う。図4に示した処理によって、機器Xの一連動作において各動作ごとの異常と動作順序の異常とを検出することが可能になる。   The processes in steps S2 to S13 are sequentially performed for each operation of the series operation of the device X (S14, S15). When the device X is continuously operated, the above process is repeated until the operation ends (S16). The processing shown in FIG. 4 makes it possible to detect an abnormality for each operation and an abnormality in the operation sequence in the series of operations of the device X.

上述の動作例は帰属度として乖離度を用いる例であるが、帰属度として適合度を用いる場合には、ステップS5において適合度を求め、ステップS8において適合度が最大になるニューラルネット1a,1b,……を選択する点が異なるだけで、他の処理は図4に示した手順と同じになる。   The above operation example is an example in which the degree of divergence is used as the degree of attribution. However, when the degree of fitness is used as the degree of attribution, the degree of fitness is obtained in step S5, and the neural networks 1a and 1b in which the degree of fitness is maximized in step S8. ,... Are different except that the other processing is the same as the procedure shown in FIG.

なお、本実施形態の構成では、ニューラルネット1a,1b,……の個数は機器Xの一連動作に含まれる動作数に対応付ける必要があるが、一連動作の中に実質的に同等な動作が含まれるときには、1個のニューラルネット1a,1b,……を複数動作に共用することも可能であって、この対応付けは順序記憶部8において行えばよい。また、上述の構成例ではニューラルネット1a,1b,……における出力層12のニューロンN2の個数を6×6個としているが、ニューロンN2の個数についてとくに制限はなく、さらに多数個のニューロンN2を設ければ動作パターンの分類精度は高くなる。また、機器Xの動作についてもとくに制限はない。   In the configuration of the present embodiment, the number of neural networks 1a, 1b,... Needs to correspond to the number of operations included in the series operation of the device X, but substantially equivalent operations are included in the series operations. It is possible to share one neural network 1a, 1b,... For a plurality of operations, and this association may be performed in the order storage unit 8. In the above configuration example, the number of neurons N2 in the output layer 12 in the neural networks 1a, 1b,... Is 6 × 6, but the number of neurons N2 is not particularly limited, and a larger number of neurons N2 are arranged. If it is provided, the classification accuracy of the operation pattern is increased. Further, there is no particular limitation on the operation of the device X.

本発明の実施形態を示すブロック図である。It is a block diagram which shows embodiment of this invention. 同上に用いるニューラルネットの概略構成図である。It is a schematic block diagram of the neural network used for the same as the above. 同上の学習モードの動作説明図である。It is operation | movement explanatory drawing of a learning mode same as the above. 同上の検査モードの動作説明図である。It is operation | movement explanatory drawing of a test | inspection mode same as the above.

符号の説明Explanation of symbols

1 ニューラルネット(競合学習型ニューラルネットワーク)
2 信号入力部
2a マイクロホン
2b 振動センサ
3 特徴抽出部
4 学習データ記憶部
5 クラスタリングマップ
6 帰属度演算部
7 判定部
8 順序記憶部
11 入力層
12 出力層
N1,N2 ニューロン
X 機器
1 Neural network (competitive learning type neural network)
2 Signal Input Unit 2a Microphone 2b Vibration Sensor 3 Feature Extraction Unit 4 Learning Data Storage Unit 5 Clustering Map 6 Attribution Level Calculation Unit 7 Judgment Unit 8 Order Storage Unit 11 Input Layer 12 Output Layer N1, N2 Neuron X Device

Claims (3)

一連動作として規定順序で複数動作を行う機器の運転により生じる対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、機器の各動作ごとに正常のカテゴリに対応した学習データを用いてそれぞれ個別に学習させることにより出力層の各ニューロンに重みベクトルが付与されるとともに機器の動作順序と対応付けられ特徴抽出部により抽出した特徴量を入力データとして入力データのカテゴリを正常と異常とに分類する複数の競合学習型ニューラルネットワークと、機器の一連動作の期間においてすべての競合学習型ニューラルネットワークに同じ特徴量を入力データとして与えるとともに機器の各動作ごとに各競合学習型ニューラルネットワークに設定されているカテゴリへの入力データの帰属度を求める帰属度演算部と、機器の各動作について帰属度が最大である競合学習型ニューラルネットワークに着目し、当該競合型ニューラルネットワークの出力層において発火したニューロンのカテゴリが異常である場合と、発火したニューロンのカテゴリが正常であるが当該競合学習型ニューラルネットワークに対応付けた機器の動作順序が入力データを生成した機器の動作順序と一致しない場合とに異常と判定する判定部とを備えることを特徴とする異常監視装置。   A signal input unit that captures a target signal generated by operation of a device that performs a plurality of operations in a prescribed order as a series of operations, a feature extraction unit that extracts a feature amount consisting of a plurality of parameters for the target signal, and a normal for each operation of the device By learning individually using the learning data corresponding to the category, a weight vector is given to each neuron in the output layer, and the feature quantity extracted by the feature extraction unit is input as input data in association with the operation sequence of the device. Multiple competitive learning neural networks that classify data categories as normal and abnormal, and the same feature value as input data to all competitive learning neural networks during the series of device operations, and for each device operation Enter the category set for each competitive learning type neural network Pay attention to the attribution calculation unit that calculates the degree of attribution of data and the competitive learning type neural network that has the maximum degree of attribution for each operation of the device, and the category of neurons that fired in the output layer of the competitive type neural network is abnormal A determination unit that determines an abnormality when the category of the fired neuron is normal but the operation order of the device associated with the competitive learning type neural network does not match the operation order of the device that generated the input data; An abnormality monitoring device comprising: 前記帰属度演算部は、前記競合学習型ニューラルネットワークの出力層において発火したニューロンに付与されている重みベクトルと入力データとのユークリッド距離に相当する乖離度を帰属度として求め、前記判定部は、乖離度が最小である競合学習型ニューラルネットワークに着目することを特徴とする請求項1記載の異常監視装置。   The belonging degree calculating unit obtains a degree of divergence corresponding to the Euclidean distance between the weight vector assigned to the neuron fired in the output layer of the competitive learning type neural network and the input data as the belonging degree, and the determining unit includes: 2. The abnormality monitoring apparatus according to claim 1, wherein attention is paid to a competitive learning type neural network having a minimum deviation. 前記帰属度演算部は、前記競合学習型ニューラルネットワークの出力層の各ニューロンに付与されている重みベクトルと入力データとのユークリッド距離の総和に相当する適合度を帰属度として求め、前記判定部は、適合度が最大である競合学習型ニューラルネットワークに着目することを特徴とする請求項1記載の異常監視装置。   The attribution calculating unit obtains a fitness corresponding to the sum of Euclidean distances between the weight vector assigned to each neuron of the output layer of the competitive learning type neural network and the input data as an attribution, and the determining unit 2. The abnormality monitoring apparatus according to claim 1, wherein attention is paid to a competitive learning type neural network having a maximum fitness.
JP2006261485A 2006-09-26 2006-09-26 Emergency monitoring device Withdrawn JP2008083866A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006261485A JP2008083866A (en) 2006-09-26 2006-09-26 Emergency monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261485A JP2008083866A (en) 2006-09-26 2006-09-26 Emergency monitoring device

Publications (1)

Publication Number Publication Date
JP2008083866A true JP2008083866A (en) 2008-04-10

Family

ID=39354708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261485A Withdrawn JP2008083866A (en) 2006-09-26 2006-09-26 Emergency monitoring device

Country Status (1)

Country Link
JP (1) JP2008083866A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016052049A1 (en) * 2014-10-02 2016-04-07 シャープ株式会社 Signal processing device, signal processing method, and computer program
CN107110672A (en) * 2014-11-14 2017-08-29 夏普株式会社 Signal processing apparatus, signal processing method and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016052049A1 (en) * 2014-10-02 2016-04-07 シャープ株式会社 Signal processing device, signal processing method, and computer program
CN106796127A (en) * 2014-10-02 2017-05-31 夏普株式会社 Signal processing apparatus, signal processing method and computer program
JPWO2016052049A1 (en) * 2014-10-02 2017-08-17 シャープ株式会社 Signal processing apparatus, signal processing method, and computer program
CN107110672A (en) * 2014-11-14 2017-08-29 夏普株式会社 Signal processing apparatus, signal processing method and computer program
CN107110672B (en) * 2014-11-14 2019-11-19 夏普株式会社 Signal processing apparatus, signal processing method and computer program

Similar Documents

Publication Publication Date Title
Lin et al. Structural damage detection with automatic feature‐extraction through deep learning
JP4356716B2 (en) Abnormality monitoring device
Samanta et al. Artificial neural networks and genetic algorithm for bearing fault detection
US20230114296A1 (en) Automated analysis of non-stationary machine performance
JP4605132B2 (en) Anomaly detection device and anomaly detection method
KR101822829B1 (en) Method of identifying partial discharge and noise of switchgear using machine learning
WO2019176993A1 (en) Inspection system, image recognition system, recognition system, discriminator generation system, and learning data generation device
US20120016824A1 (en) Method for computer-assisted analyzing of a technical system
WO2013105164A1 (en) Abnormal signal determining apparatus, abnormal signal determining method, and abnormal signal determining program
CN114184367B (en) Rotary mechanical equipment fault diagnosis method, device, equipment and readable storage medium
JP4760614B2 (en) Method for selecting learning data of signal identification device
JP4412306B2 (en) Abnormality determination method and abnormality determination device
KR102289212B1 (en) Fault diagnosis apparatus and method based on artificial intelligence technology
JP4886461B2 (en) Abnormality monitoring device
JP4886460B2 (en) Abnormality monitoring device
US11989013B2 (en) Abnormality detection apparatus, abnormality detection system, and learning apparatus, and methods for the same and non-temporary computer-readable medium storing the same
JP2008083866A (en) Emergency monitoring device
JP2008040684A (en) Learning method of signal identification device
JP5134605B2 (en) Signal identification device
JP3012449B2 (en) Method and apparatus for identifying acoustic signal
Chetouani A neural network approach for the real-time detection of faults
CN116049638A (en) Transformer vibration detection method, system, equipment and storage medium
JP4513796B2 (en) Abnormality monitoring device
Shang et al. Multi-view feature fusion fault diagnosis method based on an improved temporal convolutional network
JP2008083865A (en) Emergency monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080205

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090423