JP4760614B2 - Method for selecting learning data of signal identification device - Google Patents

Method for selecting learning data of signal identification device Download PDF

Info

Publication number
JP4760614B2
JP4760614B2 JP2006232575A JP2006232575A JP4760614B2 JP 4760614 B2 JP4760614 B2 JP 4760614B2 JP 2006232575 A JP2006232575 A JP 2006232575A JP 2006232575 A JP2006232575 A JP 2006232575A JP 4760614 B2 JP4760614 B2 JP 4760614B2
Authority
JP
Japan
Prior art keywords
data
learning
neural network
value
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006232575A
Other languages
Japanese (ja)
Other versions
JP2008059080A (en
Inventor
良仁 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2006232575A priority Critical patent/JP4760614B2/en
Priority to PCT/JP2007/065172 priority patent/WO2008016109A1/en
Priority to KR1020097002986A priority patent/KR101075824B1/en
Priority to US12/309,773 priority patent/US7831530B2/en
Priority to EP07805893A priority patent/EP2048603A4/en
Publication of JP2008059080A publication Critical patent/JP2008059080A/en
Application granted granted Critical
Publication of JP4760614B2 publication Critical patent/JP4760614B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、競合学習型ニューラルネットワークを用いて振動成分を含む対象信号を分類する信号識別装置において、集めたデータの中から競合学習型ニューラルネットワークの学習に適した学習データを選び出す信号識別装置の学習データの選択方法に関するものである。   The present invention relates to a signal identification device that classifies target signals including vibration components using a competitive learning type neural network, and selects a learning data suitable for learning of the competitive learning type neural network from the collected data. The present invention relates to a method for selecting learning data.

従来から、ニューラルネットワーク(ニューロコンピュータ)の分類機能を利用することにより、振動成分を含む対象信号を分類する技術が知られている。この種の技術は、音声の認識や機器が正常に動作しているか機器に異常が生じているかを判定する異常監視装置などに用いられている。たとえば、この種の技術を採用した異常監視装置では、機器の動作音や機器の振動をセンサ部(トランスデューサ)により電気信号に変換してセンサ部の出力を対象信号に用い、対象信号について複数個のパラメータからなる特徴量を抽出し、この特徴量をニューラルネットワークで分類する技術が種々提案されている。   Conventionally, a technique for classifying a target signal including a vibration component by using a classification function of a neural network (neurocomputer) is known. This type of technology is used in an abnormality monitoring apparatus that recognizes voice and determines whether an apparatus is operating normally or whether an apparatus has an abnormality. For example, in an abnormality monitoring apparatus that employs this type of technology, the operation sound of a device or the vibration of a device is converted into an electrical signal by a sensor unit (transducer), and the output of the sensor unit is used as a target signal. Various techniques have been proposed for extracting feature quantities consisting of the above parameters and classifying the feature quantities using a neural network.

ニューラルネットワークには種々の構成が知られており、たとえば、競合学習型ニューラルネットワーク(自己組織化マップ=SOM)を用いて特徴量のカテゴリを分類することが提案されている。競合学習型ニューラルネットワークは、入力層と出力層との2層からなるニューラルネットワークであり、学習モードと検査モードとの2動作を行う。   Various configurations are known for neural networks. For example, it has been proposed to classify feature categories using a competitive learning type neural network (self-organizing map = SOM). The competitive learning type neural network is a neural network including two layers of an input layer and an output layer, and performs two operations of a learning mode and an inspection mode.

学習モードでは、教師信号を用いずに学習データを与える。学習データにカテゴリを与えておけば、出力層のニューロンにカテゴリを対応付けることができ、同種のカテゴリに属するニューロンからなるクラスタを形成することができる。したがって、学習モードでは、出力層のニューロンのクラスタにカテゴリを示すクラスタリングマップを対応付けることができる。   In the learning mode, learning data is given without using a teacher signal. If a category is given to learning data, a category can be associated with a neuron in the output layer, and a cluster of neurons belonging to the same category can be formed. Accordingly, in the learning mode, a clustering map indicating a category can be associated with a cluster of neurons in the output layer.

検査モードでは、分類しようとする特徴量(入力データ)を学習済みの競合学習型ニューラルネットワークに与え、クラスタリングマップにおいて発火したニューロンが属するクラスタのカテゴリをクラスタリングマップに照合することによって、入力データのカテゴリを分類することができる(たとえば、特許文献1参照)。
特開2004−354111号公報
In the inspection mode, the feature quantity (input data) to be classified is given to a learned competitive learning neural network, and the category of the cluster to which the fired neuron belongs in the clustering map is checked against the clustering map. Can be classified (see, for example, Patent Document 1).
JP 2004-354111 A

ところで、競合学習型ニューラルネットワークでは、教師信号を用いていないから、学習モードにおいて入力される学習データのカテゴリの精度により、検査モードの際のカテゴリの分類の精度が決定される。すなわち、学習モードにおいて使用する学習データとして適正なものを採用する必要があるが、学習データの選別には適切な基準が存在しない。したがって、競合学習型ニューラルネットワークにおける出力層の1つのニューロンが複数のカテゴリの学習データで発火する場合が生じる。言い換えると、適切な学習データを用いて学習しなければ、発火したときにカテゴリを決定できないニューロンが出力層に含まれるという問題が生じる。   By the way, since the competitive learning type neural network does not use a teacher signal, the accuracy of category classification in the inspection mode is determined by the accuracy of the category of learning data input in the learning mode. That is, it is necessary to employ appropriate learning data to be used in the learning mode, but there is no appropriate standard for selecting learning data. Therefore, one neuron of the output layer in the competitive learning type neural network may fire with learning data of a plurality of categories. In other words, unless learning is performed using appropriate learning data, there arises a problem that neurons that cannot determine the category when fired are included in the output layer.

本発明は上記事由に鑑みて為されたものであり、その目的は、競合学習型ニューラルネットの学習に用いる学習データを適正化することにより、信号識別装置のカテゴリの分類精度を高める信号識別装置の学習データの選択方法を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and its purpose is to improve the classification accuracy of the category of the signal identification device by optimizing the learning data used for learning of the competitive learning type neural network. It is to provide a method for selecting learning data.

請求項1の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする。   According to the first aspect of the present invention, a signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and a feature amount extracted by the feature extraction unit is used as input data. It is expected to be classified into a single category, a competitive learning type neural network that classifies input data according to categories learned in advance using learning data, an output unit that outputs the classification result by the competitive learning type neural network, and A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a data set composed of a plurality of data, wherein the learning set is a competitive learning type neural network using the data set To a competitive learning type neural network In the learning data selection unit, each of the data in the data set and the output layer of the competitive learning type neural network of the fired neuron are set in each neuron of the output layer. The magnitude of the difference vector with respect to the weight vector is obtained as the divergence degree for each data, and the divergence degree is specified when the average value and the variance value of the divergence degree are equal to or greater than the average threshold value and the variance threshold value, respectively. Data selection processing is performed to delete data that exceeds the divergence threshold from the data set. The average value of the divergence obtained from the data included in the data set is smaller than the average threshold, and the variance of the divergence is smaller than the dispersion threshold. The process of performing the data selection process until is repeated.

この方法によれば、データセットに含まれるデータについて期待されるカテゴリへの帰属の程度を評価することができ、他のカテゴリに帰属する可能性のあるデータを除外することができる。つまり、学習に用いるデータセットのうち競合学習型ニューラルネットワークの出力層の各ニューロンに設定した重みベクトルとの乖離度が大きいデータについてはデータセットから削除するから、期待するカテゴリに帰属しないカテゴリ違いのデータやデータセットを構成するデータを収集する際に突発的に雑音として混入するデータなどをデータセットから除去することができ、学習データとして用いるデータセットに含まれるデータのカテゴリの精度を高めることができる。つまり、入力データを分類する際の精度を高めることができる。   According to this method, it is possible to evaluate the degree of attribution to the category expected for the data included in the data set, and it is possible to exclude data that may belong to other categories. In other words, data with a large deviation from the weight vector set for each neuron in the output layer of the competitive learning type neural network is deleted from the data set for use in learning. Data collected suddenly as noise when collecting data and data constituting the data set can be removed from the data set, and the accuracy of the category of data included in the data set used as learning data can be improved. it can. That is, it is possible to improve accuracy when classifying input data.

請求項2の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、競合学習型ニューラルネットワークの出力層の各ニューロンごとに他のニューロンとの間の重みベクトルのユークリッド距離について最小値と総和とのいずれか一方を求め、求めた最小値と総和との一方が規定の閾値以上であるときにそのニューロンを発火させたすべてのデータをデータセットから削除するカテゴリ選別処理を行い、競合学習型ニューラルネットワークの出力層のすべてのニューロンについてカテゴリ選別処理を行った後、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする。   According to the second aspect of the present invention, a signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and a feature amount extracted by the feature extraction unit is used as input data. It is expected to be classified into a single category, a competitive learning type neural network that classifies input data according to categories learned in advance using learning data, an output unit that outputs the classification result by the competitive learning type neural network, and A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a data set composed of a plurality of data, wherein the learning set is a competitive learning type neural network using the data set To a competitive learning type neural network After setting a weight vector for each neuron in the output layer as an element, a weight between each neuron in the output layer of the competitive learning neural network is set for each neuron in the learning data selection unit. Find either the minimum value or the sum of the vector Euclidean distances, and delete all data that fired the neuron from the data set when either the minimum value or the sum is greater than or equal to the specified threshold After performing category selection processing and category selection processing for all neurons in the output layer of the competitive learning type neural network, each data of the data set and the weight vector of the fired neuron in the output layer of the competitive learning type neural network For each data, the magnitude of the difference vector from Data selection processing for deleting from the data set the data whose divergence degree is equal to or greater than the prescribed divergence degree threshold when the average value and the variance value of the divergence degrees are equal to or greater than the prescribed average threshold value and equal to or greater than the dispersion threshold value. And the process of performing the data selection process is repeated until the average value of the divergence degree obtained from the data included in the data set is smaller than the average threshold value and the variance value of the divergence degree is smaller than the dispersion threshold value.

この方法によれば、請求項1の発明と同様にデータ選別処理を行うから請求項1の発明と同様の作用を奏する上に、カテゴリ選別処理を行うことによりカテゴリ違いのデータによって発火したニューロンについては、そのニューロンを発火させたデータを削除することで、期待されるカテゴリとは異なるカテゴリのデータが学習データに用いられるのを防止することができる。言い換えると、カテゴリの異なるデータにより発火したニューロンが、期待されるカテゴリのニューロンと誤認されることを回避できる。   According to this method, since the data selection process is performed in the same manner as in the first aspect of the invention, the same effect as that of the first aspect of the invention can be achieved, and the neurons fired by the data of different categories by performing the category selection process. By deleting the data that fired the neuron, it is possible to prevent data in a category different from the expected category from being used as learning data. In other words, it can be avoided that a neuron fired by data of different categories is mistaken as a neuron of an expected category.

請求項3の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、学習データ選択部において、データセットに含まれるすべてのデータについて相互間のユークリッド距離を求め、データセットの全データを対象にして求めたユークリッド距離の平均値および分散値を第1の平均値および第1の分散値とし、データセットから着目する1個のデータを除外した残りのデータを対象にして求めたユークリッド距離の平均値および分散値を第2の平均値および第2の分散値とし、第1の平均値と第2の平均値との差分が規定の第1の閾値以上、かつ第1の分散値と第2の分散値との差分が規定の第2の閾値以上、かつ第2の平均値が第1の平均値以下、かつ第2の分散値が第1の分散値以下という条件を満たすときに、着目した1個のデータをデータセットから削除するデータ除去処理を行い、データセットに含まれるすべてのデータについて削除するデータがなくなるまでデータ除去処理を行う処理を繰り返すことを特徴とする。   According to a third aspect of the present invention, a signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and a feature amount extracted by the feature extraction unit is used as input data. It is expected to be classified into a single category, a competitive learning type neural network that classifies input data according to categories learned in advance using learning data, an output unit that outputs the classification result by the competitive learning type neural network, and A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a data set composed of a plurality of data, the learning data selection unit including a data set Find the Euclidean distance between all data and set the data The average value and the variance value of the Euclidean distance obtained from all data are set as the first average value and the first variance value, and the remaining data obtained by excluding one piece of data of interest from the data set is obtained as a target. The average value and variance value of the Euclidean distance are defined as the second average value and the second variance value, and the difference between the first average value and the second average value is equal to or greater than a specified first threshold value, and the first The condition that the difference between the variance value and the second variance value is greater than or equal to the prescribed second threshold, the second average value is less than or equal to the first average value, and the second variance value is less than or equal to the first variance value. When satisfying, a data removal process of deleting one focused data from the data set is performed, and a process of performing the data removal process is repeated until there is no data to be deleted for all data included in the data set .

請求項1、請求項2の発明では、競合学習型ニューラルネットワークをデータセットに含まれるデータで学習させているが、この方法によれば、データセットに含まれるデータを用いて競合学習型ニューラルネットワークを学習させる必要がなく、データセットに含まれるデータ自身を用いて学習データとしての適否を評価することができるから、データセットに含まれるデータのうちで学習データとして使用するデータを選択する際に競合型ニューラルネットワークを動作させる必要がなく、少ない処理負荷で学習データを短時間で選別することができる。また、請求項1、請求項2の発明と同様に、学習データから期待するカテゴリに帰属しないカテゴリ違いのデータや突発的に雑音として混入するデータなどをデータセットから削除することができるから、入力データを分類する際の精度を高めることができる。   According to the first and second aspects of the present invention, the competitive learning type neural network is trained with the data included in the data set. According to this method, the competitive learning type neural network is used using the data included in the data set. When selecting data to be used as learning data from among the data included in the data set, it is possible to evaluate the suitability as learning data using the data itself included in the data set. It is not necessary to operate a competitive neural network, and learning data can be selected in a short time with a small processing load. Similarly to the first and second aspects of the invention, it is possible to delete from the data set data that is different from the category that does not belong to the category expected from the learning data or data that is suddenly mixed as noise. The accuracy in classifying data can be increased.

本発明の方法によれば、データセットに含まれるデータについて期待されるカテゴリへの帰属の程度を評価して他のカテゴリに帰属する可能性のあるデータを除外することができるという利点がある。その結果、期待するカテゴリに帰属しないカテゴリ違いのデータやデータセットを構成するデータを収集する際に突発的に雑音として混入するデータなどをデータセットから除去することができ、学習データとして用いるデータセットに含まれるデータのカテゴリの精度を高め、入力データを分類する際の精度を高めることができるという利点がある。   According to the method of the present invention, there is an advantage that data that can be attributed to other categories can be excluded by evaluating the degree of attribution to the expected category for the data included in the data set. As a result, the data set used as learning data can be removed from the data set, such as data that is different from the category that does not belong to the expected category or data that suddenly get mixed as noise when collecting the data constituting the data set. There is an advantage that the accuracy of the category of the data included in can be increased and the accuracy in classifying the input data can be increased.

以下に説明する実施形態では、機器の動作によって得られる対象信号の特徴量によって機器の動作が正常か異常かを判別する異常監視装置に本発明の技術を採用する例を示す。つまり、信号識別装置として異常監視装置を例示する。また、機器としてはモータのような動力源を備える設備機器を想定するが、機器の種類はとくに問わない。   In the embodiment described below, an example in which the technique of the present invention is applied to an abnormality monitoring apparatus that determines whether an operation of a device is normal or abnormal based on a feature amount of a target signal obtained by the operation of the device will be described. That is, an abnormality monitoring device is exemplified as the signal identification device. Moreover, although the equipment apparatus provided with motive power sources, such as a motor, is assumed as an apparatus, the kind of apparatus in particular is not ask | required.

(実施形態1)
本実施形態で説明する信号識別装置は、図1に示すように、教師なしの競合学習型ニューラルネットワーク(以下、単に「ニューラルネット」と呼ぶ)1を用いている。ニューラルネット1は、図2に示すように、それぞれ入力層11と出力層12との2層からなり、出力層12の各ニューロンN2が入力層11のすべてのニューロンN1とそれぞれ結合された構成を有している。ニューラルネット1は、逐次処理型のコンピュータで適宜のアプリケーションプログラムを実行することにより実現する場合を想定しているが、専用のニューロコンピュータを用いることも可能である。
(Embodiment 1)
As shown in FIG. 1, the signal identification apparatus described in this embodiment uses an unsupervised competitive learning type neural network (hereinafter simply referred to as “neural network”) 1. As shown in FIG. 2, the neural network 1 includes two layers of an input layer 11 and an output layer 12, and each neuron N <b> 2 of the output layer 12 is coupled to all the neurons N <b> 1 of the input layer 11. Have. Although the neural network 1 is assumed to be realized by executing an appropriate application program on a sequential processing type computer, a dedicated neurocomputer can also be used.

ニューラルネット1の動作には、学習モードと検査モードとがあり、学習モードにおいて適宜の学習データを用いて学習した後に、検査モードにおいて実際の対象信号から生成した複数のパラメータからなる特徴量(入力データ)のカテゴリを分類する。   The operation of the neural network 1 has a learning mode and an inspection mode. After learning using appropriate learning data in the learning mode, a feature amount (input) generated from an actual target signal in the inspection mode. Data) category.

入力層11のニューロンN1と出力層12のニューロンN2との結合度(重み係数)は可変であり、学習モードにおいて、学習データをニューラルネット1に入力することによりニューラルネット1を学習させ、入力層11の各ニューロンN1と出力層12の各ニューロンN2との重み係数を決める。言い換えると、出力層12の各ニューロンN2には、入力層11の各ニューロンN1との間の重み係数を要素とする重みベクトルが対応付けられる。したがって、重みベクトルは入力層11のニューロンN1と同数の要素を持ち、入力層11に入力される特徴量のパラメータの個数と重みベクトルの要素の個数とは一致する。   The degree of connection (weighting coefficient) between the neuron N1 in the input layer 11 and the neuron N2 in the output layer 12 is variable. In the learning mode, the learning data is input to the neural network 1 to learn the neural network 1, and the input layer The weighting coefficients of the 11 neurons N1 and the neurons N2 of the output layer 12 are determined. In other words, each neuron N2 in the output layer 12 is associated with a weight vector whose element is a weight coefficient between each neuron N1 in the input layer 11. Therefore, the weight vector has the same number of elements as the neuron N1 of the input layer 11, and the number of parameters of the feature quantity input to the input layer 11 matches the number of elements of the weight vector.

一方、検査モードでは、カテゴリを判定すべき入力データをニューラルネット1の入力層11に与えると、出力層12のニューロンN2のうち、重みベクトルと入力データとのユークリッド距離が最小であるニューロンN2が発火する。学習モードにおいて出力層12のニューロンN2にカテゴリが対応付けられていれば、発火したニューロンN2の位置のカテゴリによって入力データのカテゴリを知ることができる。   On the other hand, in the inspection mode, when the input data whose category is to be determined is given to the input layer 11 of the neural network 1, among the neurons N2 in the output layer 12, the neuron N2 having the smallest Euclidean distance between the weight vector and the input data is found. set a fire. If a category is associated with the neuron N2 of the output layer 12 in the learning mode, the category of the input data can be known from the category of the position of the fired neuron N2.

出力層12のニューロンN2には、たとえば6×6個の領域を有する2次元のクラスタリングマップ5の各領域に一対一に対応付けられている。したがって、学習モードにおいて、クラスタリングマップ5の各領域に学習データのカテゴリを対応付けておけば、入力データにより発火したニューロンN2に対応するカテゴリをクラスタリングマップ5により知ることができるから、クラスタリングマップ5はニューラルネット1による分類結果を出力する出力部として機能する。   The neuron N2 of the output layer 12 is associated with each region of the two-dimensional clustering map 5 having, for example, 6 × 6 regions on a one-to-one basis. Therefore, if the learning data category is associated with each area of the clustering map 5 in the learning mode, the category corresponding to the neuron N2 fired by the input data can be known from the clustering map 5. It functions as an output unit that outputs the classification result by the neural network 1.

クラスタリングマップ5の各領域(実質的には出力層12の各ニューロンN2)には後述する手順でカテゴリを対応付ける。また、本実施形態では、説明を簡単にするために、ニューラルネット1で分類すべきカテゴリは正常と異常との2種類としており、本実施形態では、学習モードにおいて正常のカテゴリの学習データのみを入力する。出力層12の各ニューロンN2のカテゴリには、学習データのカテゴリが反映され、多数個(たとえば、150個)の学習データを与えると、類似度の高いカテゴリがクラスタリングマップ5上で近い位置に配置される。つまり、特徴量の似通った学習データが発火させるニューロンN2は、クラスタリングマップ5の上で近い位置に配置される。   Categories are associated with each region of the clustering map 5 (substantially, each neuron N2 of the output layer 12) in the procedure described below. Further, in this embodiment, for simplicity of explanation, the categories to be classified by the neural network 1 are two types, normal and abnormal. In this embodiment, only the learning data of the normal category in the learning mode is used. input. The category of the learning data is reflected in the category of each neuron N2 of the output layer 12, and when a large number (for example, 150) of learning data is given, the category with high similarity is arranged at a close position on the clustering map 5. Is done. That is, the neuron N <b> 2 that is fired by learning data having similar feature quantities is arranged at a close position on the clustering map 5.

したがって、出力層12のニューロンN2のうち同種のカテゴリに属する学習データに対応して発火したニューロンN2は、クラスタリングマップ5上で近い位置に集まりニューロンN2の集合からなるクラスタを形成する。学習モードでニューラルネット1に与えられる学習データは学習データ記憶部6に格納されており、必要に応じて学習データ記憶部6から読み出されてニューラルネット1に与えられる。   Therefore, the neurons N2 fired corresponding to the learning data belonging to the same category among the neurons N2 in the output layer 12 gather at close positions on the clustering map 5 to form a cluster composed of the set of neurons N2. The learning data given to the neural network 1 in the learning mode is stored in the learning data storage unit 6 and is read from the learning data storage unit 6 and given to the neural network 1 as necessary.

ところで、ニューラルネット1により分類する対象信号は、機器Xから得られる電気信号であって、たとえば、機器Xの動作音を検出するマイクロホン2aと、機器Xの動作時に生じる振動を検出する振動センサ2bとの少なくとも一方からなるセンサ部2の出力を用いる。センサ部2の構成は機器Xの種類に応じて適宜に選択され、マイクロホン2a、振動センサ2bのほか、TVカメラ、匂いセンサなどの各種のセンサを単独または組み合わせて用いることができる。あるいはまた、機器Xが発生する信号を取り出して対象信号に用いることも可能である。センサ部2は機器Xの動作により生じる対象信号を取り込むから、信号入力部として機能する。   By the way, the target signal to be classified by the neural network 1 is an electric signal obtained from the device X, for example, a microphone 2a for detecting the operation sound of the device X, and a vibration sensor 2b for detecting vibration generated during the operation of the device X. The output of the sensor unit 2 consisting of at least one of the above is used. The configuration of the sensor unit 2 is appropriately selected according to the type of the device X, and various sensors such as a TV camera and an odor sensor can be used alone or in combination in addition to the microphone 2a and the vibration sensor 2b. Alternatively, a signal generated by the device X can be taken out and used as a target signal. Since the sensor unit 2 captures a target signal generated by the operation of the device X, it functions as a signal input unit.

センサ部2で得られた電気信号である対象信号は、特徴抽出部3に与えられ対象信号の特徴量が抽出される。本実施形態では、センサ部2から特徴抽出部3に与えられる対象信号は振動成分を含む信号であって、特徴抽出部3に入力されることにより対象信号の振動成分を表す複数のパラメータを持つ特徴量が抽出される。   The target signal, which is an electrical signal obtained by the sensor unit 2, is given to the feature extraction unit 3, and the feature amount of the target signal is extracted. In the present embodiment, the target signal given from the sensor unit 2 to the feature extraction unit 3 is a signal including a vibration component, and has a plurality of parameters representing the vibration component of the target signal when input to the feature extraction unit 3. Feature quantities are extracted.

特徴抽出部3では、機器Xが発生する対象信号から同じ条件で特徴量を抽出するために、まず機器Xの動作に同期したタイミング信号(トリガ信号)を用いたり、対象信号の波形の特徴(たとえば、ひとまとまりの対象信号の開始点と終了点)を用いたりすることによって、対象信号の切り出し(セグメンテーション)を行った後、適宜の単位時間ごとの信号に分割し、単位時間毎に特徴量を抽出する。したがって、特徴抽出部3はセンサ部2から与えられる対象信号を一時的に記憶するバッファを備える。また、特徴抽出部3では、必要に応じて周波数帯域を制限するなどして、ノイズを低減させる前処理を行う。さらに、センサ部2から出力される対象信号をデジタル信号に変換する機能も備える。   The feature extraction unit 3 uses a timing signal (trigger signal) synchronized with the operation of the device X in order to extract a feature value from the target signal generated by the device X under the same conditions, or uses a waveform feature ( For example, the target signal is segmented by using a set of target signal start points and end points, and then divided into signals for each appropriate unit time, and feature quantities for each unit time To extract. Therefore, the feature extraction unit 3 includes a buffer that temporarily stores a target signal given from the sensor unit 2. Further, the feature extraction unit 3 performs preprocessing for reducing noise by limiting the frequency band as necessary. Furthermore, it also has a function of converting a target signal output from the sensor unit 2 into a digital signal.

説明を簡単にするために、ここでは、セグメンテーションを行った後の対象信号の振動成分から複数の周波数成分(周波数帯域ごとのパワー)を抽出し、各周波数成分をパラメータとして特徴量に用いるものとして説明する。周波数成分の抽出には、FFT(高速フーリエ変換)の技術、あるいは多数個のバンドパスフィルタからなるフィルタバンクを用いる。どの周波数成分を特徴量に用いるかは、対象とする機器Xや抽出しようとする異常に応じて適宜に選択される。   In order to simplify the explanation, it is assumed here that a plurality of frequency components (power for each frequency band) are extracted from the vibration components of the target signal after segmentation, and each frequency component is used as a parameter for the feature amount. explain. For the extraction of frequency components, an FFT (Fast Fourier Transform) technique or a filter bank made up of a large number of bandpass filters is used. Which frequency component is used for the feature amount is appropriately selected according to the target device X and the abnormality to be extracted.

特徴抽出部3から単位時間毎に得られた特徴量は、特徴量の抽出のたびにニューラルネット1に与えられる。また、特徴量は学習データとしても用いるために学習データ記憶部6にも格納される。学習データ記憶部6はFIFO(先入れ先出し)であって、最大で、たとえば150個の特徴量が学習データとして保持されるようになっている。   The feature quantity obtained from the feature extraction unit 3 per unit time is given to the neural network 1 every time the feature quantity is extracted. The feature amount is also stored in the learning data storage unit 6 for use as learning data. The learning data storage unit 6 is a FIFO (first-in first-out), and holds, for example, 150 feature values as learning data at the maximum.

以下では、本発明の特徴である学習データ選択部4について説明する。学習データ記憶部6には正常のカテゴリに分類されることが期待される多数個の学習データが格納されるが、学習データ記憶部6に格納されている学習データは機器Xを動作させることにより収集したものであるから、学習データを収集した時点で機器Xが正常な動作であったか否かは必ずしも保証されておらず、また環境音や突発的な雑音が学習データに混入している可能性もある。したがって、各学習データに対応付けたカテゴリは、必ずしも適正であるとは限らない。   Below, the learning data selection part 4 which is the characteristic of this invention is demonstrated. The learning data storage unit 6 stores a large number of learning data expected to be classified into normal categories. The learning data stored in the learning data storage unit 6 is obtained by operating the device X. Because it is collected, it is not always guaranteed whether the device X was operating normally at the time of learning data collection, and there is a possibility that environmental sound or sudden noise is mixed in the learning data There is also. Therefore, the category associated with each learning data is not always appropriate.

そこで、本実施形態では、学習データ選択部4を設け、学習データ記憶部6に格納されたデータをニューラルネット1に与えたときの結果を評価し、その評価によって学習データ記憶部6に格納されているデータから学習に適したデータを選別することにより、適正な学習データのみが学習データ記憶部6に残るようにしている。   Therefore, in the present embodiment, the learning data selection unit 4 is provided, the result when the data stored in the learning data storage unit 6 is given to the neural network 1 is evaluated, and the evaluation is stored in the learning data storage unit 6. By selecting data suitable for learning from the stored data, only appropriate learning data remains in the learning data storage unit 6.

ここでは、学習データ記憶部6に格納されているデータの集合をデータセットと呼び、データセットを構成している各データはそれぞれ特定のカテゴリ(つまり、正常のカテゴリ)に分類されることが期待されているものとする。つまり、各データにはカテゴリが対応付けられているものとする。データセットは、学習データ記憶部6に格納されたデータの全体であることを想定しているが、学習データ記憶部6に複数のデータセットを格納してもよい。また、データセットを構成するデータの個数は学習データ記憶部6に格納可能な範囲内で任意である。   Here, a set of data stored in the learning data storage unit 6 is called a data set, and each data constituting the data set is expected to be classified into a specific category (that is, a normal category). It is assumed that That is, it is assumed that a category is associated with each data. Although it is assumed that the data set is the entire data stored in the learning data storage unit 6, a plurality of data sets may be stored in the learning data storage unit 6. Further, the number of data constituting the data set is arbitrary within a range that can be stored in the learning data storage unit 6.

本実施形態では、学習データ選択部4において、図3に示す手順の処理を行うことにより、学習データ記憶部6に格納されたデータセットから学習データとしては不適なデータを削除する。すなわち、まずニューラルネット1を学習モードとして、学習データ記憶部6に格納されているデータセットに含まれるすべてのデータを用いてニューラルネット1の学習を行う(S1)。この処理によって、ニューラルネット1の出力層12における各ニューロンN2にはそれぞれ重みベクトルが設定される。   In the present embodiment, the learning data selection unit 4 deletes data that is inappropriate as learning data from the data set stored in the learning data storage unit 6 by performing the processing of the procedure shown in FIG. That is, first, the neural network 1 is set to the learning mode, and the neural network 1 is learned using all data included in the data set stored in the learning data storage unit 6 (S1). By this processing, a weight vector is set for each neuron N2 in the output layer 12 of the neural network 1.

次に、学習データ選択部4では、ニューラルネット1に与えたデータセットの各データとニューラルネット1の出力層12の各ニューロンN2のうち発火したニューロンN2との乖離度を各データについて求める(S2)。つまり、乖離度は、ニューラルネット1に与えた入力データ(ベクトル)と、当該入力データにより発火したニューロンN2に対応付けた重みベクトルとの差分ベクトルの大きさを反映する値であって、入力データを[X]、発火したニューロンN2の重みベクトルを[Wwin]とすれば([a]はaがベクトルであることを意味している)、乖離度Yは次式で定義される。
Y=([X]/X−[Wwin]/Wwin)([X]/X−[Wwin]/Wwin)
ここにTは転置を表し、角付き括弧を付与していないX,Wwinは各ベクトルのノルムを表す。各ベクトルの要素をノルムで除算していることにより、乖離度Yは正規化されている。
Next, the learning data selection unit 4 obtains the degree of divergence between each data of the data set given to the neural network 1 and the firing neuron N2 among the neurons N2 of the output layer 12 of the neural network 1 for each data (S2). ). That is, the degree of divergence is a value that reflects the magnitude of a difference vector between input data (vector) given to the neural network 1 and a weight vector associated with the neuron N2 fired by the input data. Is [X], and the weight vector of the fired neuron N2 is [Wwin] ([a] means that a is a vector), the divergence degree Y is defined by the following equation.
Y = ([X] / X- [Wwin] / Wwin) T ([X] / X- [Wwin] / Wwin)
Here, T represents transposition, and X and Wwin without a square bracket indicate the norm of each vector. The divergence degree Y is normalized by dividing the elements of each vector by the norm.

上述のように、各データごとに乖離度が求められるから、データの個数分の乖離度が得られる。得られた乖離度については平均値と分散値とを求め(S3)、平均値を規定した平均閾値と比較し、分散値を規定した分散閾値と比較する(S4)。平均閾値および分散閾値はそれぞれ使用者が適宜に設定する。ここで、乖離度の平均値が平均閾値より小さく、また乖離度の分散値が分散閾値よりも小さければ、カテゴリが適正に設定されているものとして学習モードを終了する(S5)。   As described above, since the divergence degree is obtained for each data, the divergence degrees corresponding to the number of data are obtained. For the obtained degree of divergence, an average value and a variance value are obtained (S3), compared with an average threshold value defining the average value, and compared with a variance threshold value defining the variance value (S4). The average threshold value and the dispersion threshold value are appropriately set by the user. Here, if the average value of the divergence degree is smaller than the average threshold value and the variance value of the divergence degree is smaller than the dispersion threshold value, it is determined that the category is properly set, and the learning mode is ended (S5).

一方、乖離度の平均値が平均閾値以上または分散値が分散閾値以上であるときには、カテゴリが適正ではないデータが学習データに混入しているものと判断し、データセットに含まれる各データを1個ずつ選択し(S6)、選択したデータについて求めた乖離度を規定の乖離度閾値と比較する(S7)。乖離度が乖離度閾値以下の場合には当該データを学習データとして採用し、乖離度が乖離度閾値以上である場合には当該データをデータセットから削除する(S8)。ステップS6〜S9の処理はデータセットに含まれるすべてのデータについて行う(S9)。   On the other hand, when the average value of the divergence degree is equal to or greater than the average threshold value or the variance value is equal to or greater than the variance threshold value, it is determined that data whose category is not appropriate is included in the learning data, and each data included in the data set is set to 1 Individually selected (S6), and the divergence obtained for the selected data is compared with a prescribed divergence threshold (S7). When the divergence degree is equal to or less than the divergence degree threshold, the data is adopted as learning data, and when the divergence degree is equal to or greater than the divergence degree threshold, the data is deleted from the data set (S8). The processes in steps S6 to S9 are performed for all data included in the data set (S9).

上述したステップS1〜S9の処理はデータ選別処理と呼び、データ選別処理は、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくなり、かつ乖離度の分散値が分散閾値より小さくなるまで繰り返される。つまり、ステップS4において学習モードの終了(S5)に分岐するまで繰り返される。   The above-described processing of steps S1 to S9 is called data selection processing. In the data selection processing, the average value of the divergence obtained from the data included in the data set is smaller than the average threshold, and the variance of the divergence is the dispersion threshold. Repeat until smaller. That is, it repeats until it branches to completion | finish (S5) of learning mode in step S4.

上述したデータ選別処理を行うことにより、正常のカテゴリのデータ群から逸脱するデータをデータセットから除外することができる。また、正常のカテゴリに属さないデータや環境音あるいは雑音により生じたデータを除去したデータによってニューラルネット1の学習が行われるから、学習モードの終了時点ではニューラルネット1が適正なデータで学習されていることになる。その結果、検査モードにおいて入力データを精度よく分類することが可能になる。   By performing the data selection process described above, data deviating from the normal category data group can be excluded from the data set. Further, since the neural network 1 is learned by data that does not belong to the normal category, or data that has been removed from environmental sound or noise, the neural network 1 is learned with appropriate data at the end of the learning mode. Will be. As a result, it is possible to classify input data with high accuracy in the inspection mode.

なお、上述した例では、カテゴリを正常のみとしたが、他のカテゴリであってもよく、また複数のカテゴリについて学習させる場合には、各データセットのデータを1種類のカテゴリに対応付けてあればよい。したがって、1種類のカテゴリに対応付けた複数のデータセットを用い、各データセットごとに上述した学習を行えば複数のカテゴリについてニューラルネット1の学習を行うことができる。   In the above-described example, the category is only normal, but other categories may be used, and when learning about a plurality of categories, the data of each data set is associated with one type of category. That's fine. Therefore, if a plurality of data sets associated with one type of category are used and the above learning is performed for each data set, the neural network 1 can be learned for a plurality of categories.

(実施形態2)
実施形態1は、学習時における入力データとニューラルネット1において発火したニューロンN2との関係のみを評価しているが、本実施形態はニューラルネット1の出力層12においてカテゴリの類似するニューロンN2の距離が近くに配置されることに着目し、出力層12のニューロンN2の関係についても評価を行うものである。
(Embodiment 2)
In the first embodiment, only the relationship between the input data at the time of learning and the neuron N2 fired in the neural network 1 is evaluated. In the present embodiment, the distance between neurons N2 having similar categories in the output layer 12 of the neural network 1 is evaluated. Note that the relationship between the neurons N2 in the output layer 12 is also evaluated.

学習データ記憶部6に格納されたデータセットを用いてニューラルネット1を学習させるのは実施形態1と同様である。図4に示すように、ニューラルネット1の学習後に(S1)、学習データ選択部4では、ニューラルネット1の出力層12のすべてのニューロンN2を対象として、他のニューロンN2との重みベクトルのユークリッド距離を求める(S2)。ここで、実際の演算にあたっては2つのニューロンN2の重みベクトルの差分の2乗をユークリッド距離に代用する(つまり、符号を無視するためにユークリッド距離の2乗を用いる)。   The neural network 1 is learned using the data set stored in the learning data storage unit 6 as in the first embodiment. As shown in FIG. 4, after learning of the neural network 1 (S1), the learning data selection unit 4 targets all the neurons N2 in the output layer 12 of the neural network 1 and performs Euclidean weight vectors with other neurons N2. The distance is obtained (S2). Here, in actual calculation, the square of the difference between the weight vectors of the two neurons N2 is substituted for the Euclidean distance (that is, the square of the Euclidean distance is used to ignore the sign).

次に、各ニューロンN2ごとに、求めたユークリッド距離(ユークリッド距離の2乗)の最小値と総和との一方を求める(S3)。各ニューロンN2について、ユークリッド距離の2乗が最小になるニューロンN2はカテゴリの類似の程度がもっとも高いニューロンN2を意味しており、またユークリッド距離の2乗の総和が最小になることはカテゴリの類似の程度の高いニューロンが分散せずに集中して存在していることを意味する
したがって、各ニューロンN2について、ステップS3で求めた最小値または総和を規定した閾値と比較し(S5)、閾値以上であるときにはカテゴリが適切に設定されていないニューロンN2であるとみなして、当該ニューロンN2を発火させたデータをすべてデータセットから削除する(S6)。ステップS5、S6の処理をカテゴリ選別処理と呼び、カテゴリ選別処理をニューラルネット1の出力層12のすべてのニューロンN2について行う(S4,S7)。ステップS6においてデータセットからデータを削除した場合には、残されたデータからなるデータセットを用いてステップS1の学習が再度行われる(S8)。
Next, for each neuron N2, one of the minimum value and the sum of the obtained Euclidean distances (the square of the Euclidean distance) is obtained (S3). For each neuron N2, the neuron N2 having the smallest square of the Euclidean distance means the neuron N2 having the highest degree of category similarity, and the fact that the sum of the squares of the Euclidean distance is minimized is the category similarity. Therefore, the neurons N2 are concentrated and exist without being dispersed. Therefore, for each neuron N2, the minimum value or the sum obtained in step S3 is compared with a threshold value (S5), and the threshold value is exceeded. If it is, it is regarded as a neuron N2 whose category is not properly set, and all the data that fired the neuron N2 are deleted from the data set (S6). The process of steps S5 and S6 is called a category selection process, and the category selection process is performed for all the neurons N2 in the output layer 12 of the neural network 1 (S4, S7). When data is deleted from the data set in step S6, learning in step S1 is performed again using the data set composed of the remaining data (S8).

また、ステップS6においてデータセットからデータを削除しなかった場合には、実施形態1と同様のデータ選別処理を行い(S9〜S17)、カテゴリが逸脱しているデータをデータセットから除去する。   If the data is not deleted from the data set in step S6, the same data selection process as that of the first embodiment is performed (S9 to S17), and the data whose category is deviated is removed from the data set.

本実施形態の方法を採用すれば、ニューラルネット1の出力層12におけるニューロンN2のカテゴリの近接度によってデータセットのデータを評価するから、正常のカテゴリに属するニューロンN2が分散することがなく、クラスタリングマップ13において正常のカテゴリに属するニューロンN2の存在位置を集中させることができる。さらに、カテゴリ選別処理を前処理として、カテゴリの曖昧なデータをデータセットから取り除いた後に、実施形態1と同様のデータ選別処理を行うから、正常のカテゴリに属していない環境音や雑音により生じたデータも除去され、実施形態1よりもさらに適正なデータによる学習が可能になる。実施形態1と同様にカテゴリは正常のみではなく、他のカテゴリであってもよく、複数のカテゴリについて学習させることも可能である。他の構成および動作は実施形態1と同様である。   If the method of this embodiment is adopted, the data of the data set is evaluated based on the proximity of the category of the neuron N2 in the output layer 12 of the neural network 1, so that the neurons N2 belonging to the normal category are not dispersed and clustering is performed. In the map 13, it is possible to concentrate the existence positions of the neurons N2 belonging to the normal category. Furthermore, since the category selection process is a pre-process, and after the ambiguous data of the category is removed from the data set, the data selection process similar to that of the first embodiment is performed, the environmental noise or noise that does not belong to the normal category is generated. Data is also removed, and learning with more appropriate data than in the first embodiment becomes possible. Similar to the first embodiment, the category is not limited to normal, but may be other categories, and a plurality of categories can be learned. Other configurations and operations are the same as those of the first embodiment.

(実施形態3)
上述した実施形態1、実施形態2ではニューラルネット1を学習させ、出力層12のニューロンN2に重みベクトルを対応付けた後に、カテゴリの評価を行うようにしているが、本実施形態では、学習データ記憶部6に格納されているデータセット自身を評価することにより、学習に用いるデータを適正化する技術を例示する。
(Embodiment 3)
In the first embodiment and the second embodiment described above, the neural network 1 is learned and the weight vector is associated with the neuron N2 of the output layer 12, and then the category is evaluated. A technique for optimizing data used for learning by evaluating the data set itself stored in the storage unit 6 will be exemplified.

本実施形態では、図5に示すように、学習データ選択部4において、まず学習データ記憶部6に格納されているデータセットに含まれるすべてのデータについて相互間のユークリッド距離を求める(S1)。ユークリッド距離は、符号を無視するために実際にはデータ間の差の2乗を用いる。   In the present embodiment, as shown in FIG. 5, the learning data selection unit 4 first obtains the Euclidean distance between all the data included in the data set stored in the learning data storage unit 6 (S1). The Euclidean distance actually uses the square of the difference between the data in order to ignore the sign.

次に、データセットの全データを対象にしてユークリッド距離(ユークリッド距離の2乗)の平均値および分散値を求め、それぞれ第1の平均値と第1の分散値とする(S2)。さらに、データセットから着目する1個のデータを除外し(S3)、残りのデータを対象にしてユークリッド距離(ユークリッド距離の2乗)の平均値および分散値を求め、それぞれ第2の平均値と第2の分散値とする(S4)。ここで、除外したデータが同じカテゴリに属している場合には、第1の平均値と第2の平均値との差は小さく、第1の分散値と第2の分散値との差も小さいと推定できる。   Next, an average value and a variance value of the Euclidean distance (the square of the Euclidean distance) are obtained for all data in the data set, and set as a first average value and a first variance value, respectively (S2). Furthermore, one piece of data of interest is excluded from the data set (S3), and the average value and the variance value of the Euclidean distance (the square of the Euclidean distance) are obtained from the remaining data, and the second average value and The second variance value is set (S4). If the excluded data belongs to the same category, the difference between the first average value and the second average value is small, and the difference between the first variance value and the second variance value is also small. Can be estimated.

そこで、第1の平均値と第2の平均値との差分と、第1の分散値と第2の分散値との差分とを求め(S5)、各差分のうちの一方でも各差分について規定した第1および第2の閾値以上であれば除外したデータは適正ではないと推定することができる(S6)。ただし、この条件が満たされる場合でも、適正なデータである可能性も残されているから、さらに第2の平均値が第1の平均値以下(S7)、かつ第2の分散値が第1の分散値以下(S8)という条件を満たすときに、除外したデータは正常のカテゴリに属していないデータであると判断してデータセットから削除する(S9)。ステップS6〜S8のいずれか1つでも条件が満たされない場合には、除外したデータを削除せず、学習に適したデータとみなす。ステップS3〜S9の処理をデータ除去処理と呼ぶ。   Therefore, a difference between the first average value and the second average value and a difference between the first variance value and the second variance value are obtained (S5), and one of the differences is defined for each difference. If it is above the first and second threshold values, it can be estimated that the excluded data is not appropriate (S6). However, even if this condition is satisfied, there is still a possibility that the data is appropriate data. Therefore, the second average value is not more than the first average value (S7), and the second variance value is the first value. When the condition that the variance value is less than (S8) is satisfied, the excluded data is determined to be data that does not belong to the normal category, and is deleted from the data set (S9). If any one of steps S6 to S8 does not satisfy the condition, the excluded data is not deleted and is regarded as data suitable for learning. The processing of steps S3 to S9 is called data removal processing.

ステップS9においてデータが削除された場合には、第2の平均値および第2の分散値を第1の平均値および第1の分散値に読み替え(S10)、ステップS3に戻って別のデータを除外し、すべてのデータについてデータ除去処理を繰り返す(S11)。さらに、ステップS9においてデータを削除した場合には、ステップS1に戻って上述の処理を繰り返し、削除されるデータがなくなるまでデータ除去処理を繰り返す(S12)。   When the data is deleted in step S9, the second average value and the second variance value are read as the first average value and the first variance value (S10), and the process returns to step S3 to store other data. The data removal process is repeated for all data (S11). Further, when data is deleted in step S9, the process returns to step S1 to repeat the above process, and the data removal process is repeated until there is no data to be deleted (S12).

上述の処理により学習データ記憶部6に格納されたデータセットについて評価し、削除するデータがなくなれば、データセットのデータが適正化されたとみなして、ニューラルネット1の学習に用いる(S13)。   The data set stored in the learning data storage unit 6 is evaluated by the above processing, and if there is no data to be deleted, the data of the data set is regarded as appropriate and used for learning of the neural network 1 (S13).

本実施形態では、ニューラルネット1の学習前にデータセットに含まれるデータについて学習用のデータとしての適否を評価するから、実施形態1、実施形態2で説明した方法のように、ニューラルネット1を学習モードで何度も動作させる必要がなく、処理負荷を低減することができる。なお、本実施形態の他の構成および動作は実施形態1、2と同様であり、実施形態1、2の方法と本実施形態の方法とを組み合わせて用いることも可能である。   In this embodiment, the adequacy of the data included in the data set as learning data is evaluated before learning of the neural network 1, so that the neural network 1 is changed as in the method described in the first and second embodiments. It is not necessary to operate the learning mode many times, and the processing load can be reduced. Other configurations and operations of the present embodiment are the same as those of the first and second embodiments, and the methods of the first and second embodiments and the method of the present embodiment can be used in combination.

本発明の各実施形態に共通するブロック図である。It is a block diagram common to each embodiment of this invention. 同上に用いるニューラルネットの概略構成図である。It is a schematic block diagram of the neural network used for the same as the above. 実施形態1の動作説明図である。FIG. 3 is an operation explanatory diagram of the first embodiment. 実施形態2の動作説明図である。FIG. 9 is an operation explanatory diagram of the second embodiment. 実施形態3の動作説明図である。FIG. 9 is an operation explanatory diagram of Embodiment 3.

符号の説明Explanation of symbols

1 ニューラルネット(競合学習型ニューラルネットワーク)
2 信号入力部
2a マイクロホン
2b 振動センサ
3 特徴抽出部
4 学習データ選択部
5 クラスタリングマップ(出力部)
6 学習データ記憶部
11 入力層
12 出力層
N1 ニューロン
N2 ニューロン
X 機器
1 Neural network (competitive learning type neural network)
2 Signal input unit 2a Microphone 2b Vibration sensor 3 Feature extraction unit 4 Learning data selection unit 5 Clustering map (output unit)
6 Learning Data Storage Unit 11 Input Layer 12 Output Layer N1 Neuron N2 Neuron X Device

Claims (3)

振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。   A signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and learning in advance using learning data using the feature amount extracted by the feature extraction unit as input data Data consisting of a competitive learning type neural network that classifies input data according to the selected category, an output unit that outputs the classification result of the competitive learning type neural network, and a plurality of data expected to be classified into a single category A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a set, wherein competition is performed by learning a competitive learning type neural network using the data set Each level of the output layer in the learning type neural network After setting a weight vector whose element is a set of weight coefficients for each of the alons, in the learning data selection unit, the difference between each data of the data set and the weight vector of the firing neuron in the output layer of the competitive learning type neural network Obtain the magnitude of the vector as the divergence degree for each data, and the divergence degree is greater than or equal to the specified divergence degree threshold when the average value and the variance value of the divergence degree are equal to or greater than the specified average threshold value and the variance threshold value, respectively. The data selection process is performed until the average value of the divergence obtained from the data included in the data set is smaller than the average threshold and the variance of the divergence is smaller than the dispersion threshold. A learning data selection method for a signal identification device, characterized in that the processing to be performed is repeated. 振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、競合学習型ニューラルネットワークの出力層の各ニューロンごとに他のニューロンとの間の重みベクトルのユークリッド距離について最小値と総和とのいずれか一方を求め、求めた最小値と総和との一方が規定の閾値以上であるときにそのニューロンを発火させたすべてのデータをデータセットから削除するカテゴリ選別処理を行い、競合学習型ニューラルネットワークの出力層のすべてのニューロンについてカテゴリ選別処理を行った後、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。   A signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and learning in advance using learning data using the feature amount extracted by the feature extraction unit as input data Data consisting of a competitive learning type neural network that classifies input data according to the selected category, an output unit that outputs the classification result of the competitive learning type neural network, and a plurality of data expected to be classified into a single category A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a set, wherein competition is performed by learning a competitive learning type neural network using the data set Each level of the output layer in the learning type neural network After setting a weight vector whose elements are each a pair of weighting factors, the Euclidean distance of the weight vector between each neuron in the output layer of the competitive learning type neural network and other neurons in the learning data selection unit Performs a category selection process that calculates either the minimum value or the sum, and deletes all data that fired that neuron from the data set when either the minimum value or the sum is greater than the specified threshold. After performing category selection processing for all neurons in the output layer of the competitive learning type neural network, the difference vector between each data of the data set and the weight vector of the firing neuron in the output layer of the competitive learning type neural network Obtain the magnitude as the degree of divergence for each piece of data, Data selection processing is performed to delete from the data set data whose divergence level is equal to or higher than the specified divergence degree threshold when the value and the variance value are equal to or greater than the specified average threshold value and the variance threshold value. Selection of learning data of a signal identification device characterized by repeating a data selection process until an average value of divergence obtained from contained data is smaller than an average threshold and a variance of divergence is smaller than a dispersion threshold Method. 振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、学習データ選択部において、データセットに含まれるすべてのデータについて相互間のユークリッド距離を求め、データセットの全データを対象にして求めたユークリッド距離の平均値および分散値を第1の平均値および第1の分散値とし、データセットから着目する1個のデータを除外した残りのデータを対象にして求めたユークリッド距離の平均値および分散値を第2の平均値および第2の分散値とし、第1の平均値と第2の平均値との差分が規定の第1の閾値以上、かつ第1の分散値と第2の分散値との差分が規定の第2の閾値以上、かつ第2の平均値が第1の平均値以下、かつ第2の分散値が第1の分散値以下という条件を満たすときに、着目した1個のデータをデータセットから削除するデータ除去処理を行い、データセットに含まれるすべてのデータについて削除するデータがなくなるまでデータ除去処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。   A signal input unit that captures a target signal including a vibration component, a feature extraction unit that extracts a feature amount including a plurality of parameters for the target signal, and learning in advance using learning data using the feature amount extracted by the feature extraction unit as input data Data consisting of a competitive learning type neural network that classifies input data according to the selected category, an output unit that outputs the classification result of the competitive learning type neural network, and a plurality of data expected to be classified into a single category A learning data selection method in a signal identification device including a learning data selection unit that selects data to be adopted as learning data from a set, and in the learning data selection unit, all data included in the data set Find the Euclidean distance and target all data in the dataset The average value and variance value of the Euclidean distance obtained in this way are used as the first average value and the first variance value, and the average of the Euclidean distance obtained from the remaining data excluding one data item of interest from the data set. The value and the variance value are defined as the second average value and the second variance value, and the difference between the first average value and the second average value is equal to or greater than a prescribed first threshold value, and the first variance value and the second variance value When the condition that the difference from the variance value is equal to or greater than the prescribed second threshold, the second average value is equal to or less than the first average value, and the second variance value is equal to or less than the first variance value is noted Learning of a signal identification device characterized by performing data removal processing for deleting one piece of data from a data set, and repeating data removal processing until there is no data to be deleted for all data included in the data set Data択方 method.
JP2006232575A 2006-08-03 2006-08-29 Method for selecting learning data of signal identification device Expired - Fee Related JP4760614B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006232575A JP4760614B2 (en) 2006-08-29 2006-08-29 Method for selecting learning data of signal identification device
PCT/JP2007/065172 WO2008016109A1 (en) 2006-08-03 2007-08-02 Learning data set optimization method for signal identification device and signal identification device capable of optimizing the learning data set
KR1020097002986A KR101075824B1 (en) 2006-08-03 2007-08-02 Optimizing method of learning data set for signal discrimination apparatus and signal discrimination apparatus capable of optimizing learning data set
US12/309,773 US7831530B2 (en) 2006-08-03 2007-08-02 Optimizing method of learning data set for signal discrimination apparatus and signal discrimination apparatus capable of optimizing learning data set by using a neural network
EP07805893A EP2048603A4 (en) 2006-08-03 2007-08-02 Learning data set optimization method for signal identification device and signal identification device capable of optimizing the learning data set

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006232575A JP4760614B2 (en) 2006-08-29 2006-08-29 Method for selecting learning data of signal identification device

Publications (2)

Publication Number Publication Date
JP2008059080A JP2008059080A (en) 2008-03-13
JP4760614B2 true JP4760614B2 (en) 2011-08-31

Family

ID=39241775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006232575A Expired - Fee Related JP4760614B2 (en) 2006-08-03 2006-08-29 Method for selecting learning data of signal identification device

Country Status (1)

Country Link
JP (1) JP4760614B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6177649B2 (en) * 2013-10-07 2017-08-09 株式会社日立ハイテクノロジーズ Data processing apparatus, length measurement system, defect inspection system, image tracking system, and data processing method
WO2015083333A1 (en) * 2013-12-04 2015-06-11 日本電気株式会社 Performance estimation device, performance estimation method, and storage medium on which computer program is stored
JP6173972B2 (en) * 2014-06-10 2017-08-02 株式会社東芝 Detection device, correction system, detection method and program
US9881253B2 (en) 2014-11-07 2018-01-30 International Business Machines Corporation Synaptic neural network core based sensor system
JP7029385B2 (en) * 2018-12-19 2022-03-03 Kddi株式会社 Learning equipment, learning methods and learning programs
JP7088871B2 (en) 2019-03-29 2022-06-21 ファナック株式会社 Inspection equipment, inspection system, and user interface
JP7197795B2 (en) * 2019-05-22 2022-12-28 富士通株式会社 Machine learning program, machine learning method and machine learning apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0934861A (en) * 1995-07-17 1997-02-07 Olympus Optical Co Ltd Cluster classification device
JP2005115569A (en) * 2003-10-06 2005-04-28 Matsushita Electric Works Ltd Signal identification device and method

Also Published As

Publication number Publication date
JP2008059080A (en) 2008-03-13

Similar Documents

Publication Publication Date Title
JP4356716B2 (en) Abnormality monitoring device
JP4760614B2 (en) Method for selecting learning data of signal identification device
US10540988B2 (en) Method and apparatus for sound event detection robust to frequency change
JP4605132B2 (en) Anomaly detection device and anomaly detection method
JP4200332B2 (en) Anomaly monitoring device and anomaly monitoring method
JP5335536B2 (en) Information processing apparatus and information processing method
De Seixas et al. Preprocessing passive sonar signals for neural classification
CN112614187A (en) Loop detection method, device, terminal equipment and readable storage medium
CN112131907A (en) Method and device for training classification model
Himawan et al. Deep Learning Techniques for Koala Activity Detection.
JP4875433B2 (en) Learning method of signal identification device
KR102314824B1 (en) Acoustic event detection method based on deep learning
CN110942034A (en) Method, system and device for detecting multi-type depth network generated image
JP4886461B2 (en) Abnormality monitoring device
JP4886460B2 (en) Abnormality monitoring device
Lopez-Tello et al. Classifying acoustic signals for wildlife monitoring and poacher detection on UAVs
JP4513796B2 (en) Abnormality monitoring device
Diez Gaspon et al. Deep learning for natural sound classification
CN115099372B (en) Classification identification method and device
KR102432786B1 (en) Apparatus and method for removing noise in speech
JP2008083866A (en) Emergency monitoring device
Jiang et al. Classification of Infrasound Events based on Multilevel Wavelet Transforms
Mishra et al. Bird Call Recognition using Acoustic based Feature Selection approach in Machine Learning
CN114155878A (en) Artificial intelligence detection system, method and computer program
CN115130494A (en) Signal detection method, signal detection device, storage medium, electronic equipment and product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees