JP4775100B2 - 信号識別装置 - Google Patents

信号識別装置 Download PDF

Info

Publication number
JP4775100B2
JP4775100B2 JP2006124262A JP2006124262A JP4775100B2 JP 4775100 B2 JP4775100 B2 JP 4775100B2 JP 2006124262 A JP2006124262 A JP 2006124262A JP 2006124262 A JP2006124262 A JP 2006124262A JP 4775100 B2 JP4775100 B2 JP 4775100B2
Authority
JP
Japan
Prior art keywords
category
learning
data
neural network
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006124262A
Other languages
English (en)
Other versions
JP2007299059A (ja
Inventor
良仁 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2006124262A priority Critical patent/JP4775100B2/ja
Publication of JP2007299059A publication Critical patent/JP2007299059A/ja
Application granted granted Critical
Publication of JP4775100B2 publication Critical patent/JP4775100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)

Description

本発明は、監視対象物が発生している音波や振動に対応した対象信号に含まれる特徴量を、基準となる特徴量と比較することにより、監視対象物の動作状態を識別する信号識別装置に関するものである。
従来から、監視対象物が発生している音波や振動を検出することにより得られる入力データの特徴量を、学習済みの競合学習型ニューラルネットワークに与え、学習時に与えた学習データとの類似あるいは相違の程度を評価する技術が知られている(たとえば、特許文献1参照)。
競合学習型ニューラルネットワークを用いる場合には、出力層のニューロンによりクラスタリングマップを形成し、クラスタリングマップには学習データに応じたカテゴリを設定する。たとえば、監視対象物の正常動作に対応した学習データによりクラスタリングマップに形成された領域のカテゴリを正常とする。監視対象物から得られた入力データを競合学習型ニューラルネットワークに与えると、クラスタリングマップ上で発火するニューロンの位置に応じて、当該特徴量が正常の範囲内か否かに分類される。
ところで、特許文献1に記載された発明では、各カテゴリの領域の境界やクラスタリングマップの周辺部のニューロンを学習データにより登録されたカテゴリに属さない未知カテゴリのニューロンとしている。一方、競合学習型ニューラルネットワークでは、各カテゴリの典型的な入力データがクラスタリングマップの周辺部のニューロンを発火させる場合も多い。したがって、特許文献1に記載された技術では、未知と判定された入力データであっても、すでにカテゴリを設定した学習データと類似している場合も多い。つまり、周辺部のすべてのニューロンを未知カテゴリとすると、判定の結果に誤りが生じる。
また、特許文献1に記載された発明では、各カテゴリの領域の境界のニューロンについては未知カテゴリのニューロンとしているから、入力データが境界を挟んでいる複数領域のうちのどのカテゴリに属しているのかを判別することができない。この種の競合学習型ニューラルネットワークでは、異なるカテゴリの学習データが競合することにより、判別の精度を高めることができるのであって、同じカテゴリの学習データだけ個数を増加させて追加学習を行っても判別の精度が却って低下することになる。
競合学習型ニューラルネットワークで用いるクラスタリングマップには、通常は複数種類のカテゴリが設定されることが多いが、学習時において1種類のカテゴリに分類される学習データのみを与えるようにし、監視対象物から得られた入力データを競合学習型ニューラルネットワークに与えることによりクラスタリングマップ上で発火するニューロンが、学習したカテゴリに属さない場合には、未知と判断することも考えられている。たとえば、監視対象物が正常であるときに得られる特徴量のみを競合学習型ニューラルネットワークに学習データとして与えることにより、クラスタリングマップに正常のカテゴリを有する領域を登録する。学習後に、競合学習型ニューラルネットワークに監視対象物から得られた入力データを与えたときに、クラスタリングマップ上で発火したニューロンが正常のカテゴリに属していない場合には、監視対象物の状態が未知状態であると判断するのである。
ここで、クラスタリングマップ上の各ニューロンごとに学習後の重みベクトルと当該ニューロンを発火させた学習データとのユークリッド距離を求め、ユークリッド距離の分散に応じた閾値を各ニューロンに設定することが考えられている。この場合、監視対象物の状態を判断する際に、監視対象物から得られた入力データにより発火したニューロンの重みベクトルと入力データとのユークリッド距離を求め、求めたユークリッド距離と当該ニューロンに設定された閾値との大小を比較することにより、クラスタリングマップに登録されているカテゴリに属するか否かを判断する。ユークリッド距離が閾値を超えるときにはカテゴリに属さない未知状態と判定する。
ただし、この技術では、未知の判定に使用しているのがクラスタリングマップ上での1個のニューロンに関するデータであるから、学習データの分布が疎である場合や、入力データが高次元である場合には、カテゴリを登録した領域の中心付近のニューロンが発火している場合でも未知のカテゴリと判定してしまう場合がある。
この問題を回避するには、各学習データにガウス関数を割り当てておき、学習データにより得られた出力値の総和を比較し、各ニューロンのカテゴリを識別する方法もある。この方法では、学習データの個数が多いほど判定の精度を高めることができる。ただし、学習データの個数が多くなるほど処理時間が増加するものであるから、精度と処理時間とがトレードオフになり両者をともに実用的な範囲とするのは難しい。
特開2004−354111号公報
上述したように、複数種類のカテゴリの学習データを与えて学習させたとしても、学習データと一致する入力データでないかぎりは、類似度が比較的高いと考えられる場合でも未知カテゴリと判断されることも多く、必ずしも判定精度がよいとは言えない。また、1種類のカテゴリの学習データのみを用いて学習させ、当該カテゴリ以外のものと区別する場合であっても判定の精度は高いとは言えない。
判定の精度を向上させるには、カテゴリの境界付近の学習データやカテゴリに属さない未知の学習データを増やす必要があるが、追加学習を行う前に学習データのカテゴリを事前に確認しなければならないから作業の負担が大きく、しかも学習データの取捨選択のために専門知識が必要になる。
学習データごとにガウス関数を割り当てるようにすれば、上述のような問題は緩和されるものの、学習データの個数の増加に伴って処理時間が大幅に増加するから、判定の精度と処理時間とをともに実用的な範囲にすることは難しい。
本発明は上記事由に鑑みて為されたものであり、その目的は、入力データにより発火するニューロンのクラスタリングマップ上での位置によらずに、従来構成よりも高い精度でカテゴリを判別することができ、しかも学習データの個数が増加しても処理時間が増加しない信号識別装置を提供することにある。
請求項1の発明は、監視対象物の状態を反映する電気信号から特徴量を抽出する特徴抽出部と、特徴抽出部が抽出した特徴量を入力データとし、当該入力データがあらかじめ学習したカテゴリに属するか否かを判別する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力層のニューロンをカテゴリに対応付けているクラスタリングマップに登録されたカテゴリと入力データとの類似あるいは相違の程度を評価する出力部とを備える信号識別装置であって、出力部は、競合学習型ニューラルネットワークの学習後に、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力したときに発火する各ニューロンの重みベクトルとすべての学習データとのユークリッド距離の最大値を分散に用いるとともに、当該ニューロンの重みベクトルである平均値により定義したガウス関数をクラスタリングマップの各ニューロンに設定し、さらに、ガウス関数の設定後に、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力して学習データごとのクラスタリングマップの出力値の総和を求め、すべての学習データに関する当該総和の大きさの分布を用いて閾値を設定し、監視対象物から得られた入力データのカテゴリを判別する際に、クラスタリングマップの各ニューロンに設定されたガウス関数の出力値の総和を求め、求めた総和が前記閾値を下回るときには、入力データが学習データのカテゴリに含まれないと判定することを特徴とする。
この方法によれば、クラスタリングマップの各ニューロンに対して1個のガウス関数を割り当てるとともに、競合学習型ニューラルネットワークに学習データを再度入力したときの各学習データごとの出力値の総和から閾値を決定しておき、入力データのカテゴリを判別する際にガウス関数の出力値の総和が閾値に達しなかった場合には、学習データには入力データ対応したカテゴリが存在しなかったと判定するから、競合学習型ニューラルネットワークにおいて学習していないカテゴリに属する入力データが与えられたときには、当該入力データが属するカテゴリを設定したり、あるいは不要なカテゴリとして扱うことが可能になる。すなわち、クラスタリングマップによる判別の精度を向上させることができる。しかも、当初は既知のカテゴリの学習データのみで学習すればよく、既知のカテゴリに属さない入力データが発生したときに、当該入力データのカテゴリを登録するか否かを利用者が決めることができるから、学習データを収集する際の利用者の作業の負担が軽減される。さらに、ガウス関数はクラスタリングマップの各ニューロンに設定されるから、学習データにガウス関数を設定する必要がなく、学習時の処理負荷が少なく処理時間の増加が生じない。
請求項2の発明は、監視対象物の状態を反映する電気信号から特徴量を抽出する特徴抽出部と、特徴抽出部が抽出した特徴量を入力データとし、当該入力データがあらかじめ学習したカテゴリに属するか否かを判別する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力層のニューロンをカテゴリに対応付けているクラスタリングマップに登録されたカテゴリと入力データとの類似あるいは相違の程度を評価する出力部とを備える信号識別装置であって、出力部は、競合学習型ニューラルネットワークの学習後に、学習時に用いた学習データをカテゴリ毎に競合学習型ニューラルネットワークに再度入力してカテゴリごとのクラスタリングマップを生成し、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力したときに発火する各ニューロンの重みベクトルとすべての学習データとのユークリッド距離の最大値を分散に用いるとともに、当該ニューロンの重みベクトルである平均値により定義したガウス関数を各カテゴリごとのクラスタリングマップの各ニューロンに設定し、監視対象物から得られた入力データのカテゴリを判別する際に、各クラスタリングマップの各ニューロンに設定されたガウス関数の出力値の総和を求め、求めた総和が最大になるクラスタリングマップのカテゴリを入力データのカテゴリと判定することを特徴とする。
この方法によれば、学習データのカテゴリごとにクラスタリングマップを生成し、各カテゴリのクラスタリングマップにおける各ニューロンに対してそれぞれ1個のガウス関数を割り当て、入力データのカテゴリを判別する際には、出力値の総和が最大になったクラスタリングマップのカテゴリを入力データのカテゴリと判別するから、競合学習型ニューラルネットワークを単独で用いる場合よりもカテゴリの判定精度を向上させることができる。また、学習データにガウス関数を設定する必要がないから、学習時の処理負荷が少なく処理時間の増加が生じない。
請求項3の発明は、請求項2の発明において、前記出力部は、前記入力データのカテゴリと判定されたクラスタリングマップにおける出力値の総和と、出力値の総和が2番目に大きいクラスタリングマップの出力値の総和と和によって、入力データカテゴリと判定されたクラスタリングマップにおける出力値の総和を除算し、除算結果が規定の範囲内であるときには、入力データが学習データにより規定されたカテゴリの境界であると判定し、判定結果を出力することを特徴とする。
この方法によれば、カテゴリを判別しようとする入力データが1つのカテゴリの境界付近のニューロンに対応しているときに、当該カテゴリに属していないことが明らかな入力データを別カテゴリの入力データと判別することができ、結果的にカテゴリの境界付近の入力データか否かを利用者に明確に示すことができ、カテゴリの追加を行うか否かの意志決定を支援することになる。その結果、カテゴリの境界付近の入力データの個数を低減させることができ、追加学習のための学習データとしての使用可否を判定する利用者の負担を低減することが可能になる。
請求項4の発明は、請求項1ないし請求項3のいずれか1項の発明において、前記出力部は、前記競合学習型ニューラルネットワークの学習後に学習データを再度入力したときに発火したニューロンの重みベクトルと当該学習データとのユークリッド距離を評価することにより、外れ値を除外したユークリッド距離を用いて前記ガウス関数の分散を求めることを特徴とする。
この方法によれば、学習データの外れ値を除去することにより、ガウス関数の分散が過大になるのを抑制し、判定精度の低下を抑制することができる。
請求項1の発明によれば、競合学習型ニューラルネットワークにおいて学習していないカテゴリに属する入力データについて、当該入力データが属するカテゴリを設定したり、不要なカテゴリとして扱うことが容易になり、クラスタリングマップによる判別の精度を向上させることができるという利点がある。しかも、既知のカテゴリに属さない入力データが発生したときに、新たなカテゴリを登録するか否かを利用者が決めることができ、学習データを収集する際の利用者の作業の負担が軽減されるという利点がある。加えて、ガウス関数はクラスタリングマップに設定するから、学習時の処理負荷が少なく処理時間の増加が生じないという利点もある。
請求項2の発明によれば、カテゴリごとのクラスタリングマップを生成するとともに、各クラスタリングマップの各ニューロンごとにガウス関数を設定して、入力データのカテゴリを評価するから、競合学習型ニューラルネットワークを単独で用いる場合よりもカテゴリの判定精度を向上させることができるという利点があり、また、学習データにガウス関数を設定する必要がないから、学習時の処理負荷が少なく処理時間の増加が生じないという利点がある。
以下に説明する実施形態では、入力データのカテゴリを判別するために、図2に示すように入力層11と出力層12との2層構造を有した競合学習型ニューラルネットワーク(以下、単に「ニューラルネット」という)1を用いる。このニューラルネット1は、入力層11の各ニューロンNと、出力層12の各ニューロンNとが相互に結合されており、出力層12の各ニューロンNには、入力層11のニューロンNと出力層12のニューロンNとの間の接続重みからなる重みベクトルが対応付けられる。
このニューラルネット1の出力層12は、クラスタリングマップを形成する。クラスタリングマップは、学習データによりニューラルネット1の学習を行うことにより生成される。つまり、学習データをニューラルネット1に与えることにより、出力層12の各ニューロンNの重みベクトルが設定される。また、学習後のクラスタリングマップの各領域には学習データに応じたカテゴリが登録される。
入力層11に与えられるデータは、監視対象物の状態に応じて得られる適宜の電気信号について特徴抽出を行うことによって得られた特徴量に関するデータである。つまり、図1に示すように、監視対象物の状態を電気信号に変換するセンサを備えた入力部2を有し、入力部2から出力された電気信号から特徴量を抽出する特徴抽出部3を有する。
入力部2のセンサは、人の五感に相当するものであり、振動センサ、マイクロホン、TVカメラ、匂いセンサなどの各種のセンサを単独または組み合わせて用いる。センサとして、振動センサ、マイクロホン、TVカメラのように連続したアナログ信号を出力するものを用いる場合には、特徴量として、たとえば周波数成分の分布を用いる。この場合、特徴抽出部3ではフーリエ変換を行ったり、フィルタバンクによって周波数成分を分離する。入力部2に設けたセンサからは通常はアナログ信号が出力され、特徴抽出部3からはデジタル信号が出力される。したがって、通常は入力部2と特徴抽出部3とのいずれかにおいてA/D変換を行う。
特徴抽出部3で抽出した特徴量は、上述したニューラルネット1の入力層11に与えられる。ここで、ニューラルネット1の学習時には、学習データとなる特徴量がニューラルネット1に与えられ、ニューラルネット1で監視対象物の状態を判別する際には、入力部2から出力される未分類の電気信号に対応した特徴量が入力データとしてニューラルネット1に与えられる。学習データは、監視対象物の検査時に発生するすべてのカテゴリについて入力部2で収集した多数個のデータについて、特徴抽出部3で抽出した特徴量を用いる。
学習データは、メモリのような記憶手段に格納したものを用いるようにしてもよい。なお、ニューラルネット1は、逐次処理型のコンピュータにおいて適宜のアプリケーションプログラムを実行することにより実現することができ、また専用のニューロコンピュータを用いてもよい。
クラスタリングマップの作成後には、入力部2で取得したデータの特徴量を特徴抽出部3で抽出することにより得られた入力データを、学習済みのニューラルネット1に与えることで、クラスタリングマップに登録されたカテゴリと入力データとの類似あるいは相違の程度を評価することができる。この評価は、出力部4において行う。すなわち、出力部4は、ニューラルネット1の出力層12において発火したニューロンがどのカテゴリに属するかを評価する機能と、評価結果を利用者に通知する機能とを有している。出力部4において利用者に通知する機能には、たとえば、クラスタリングマップを表示するディスプレイを用いる。あるいはまた、外部装置と接続するためのインターフェイスであってもよい。
上述した構成を前提として、以下では各実施形態の特徴について説明する。
(実施形態1)
本実施形態では、学習データを用いてクラスタリングマップを生成した後に、ニューラルネット1に入力データを与える前に、出力部4においてニューラルネット1の出力層12の各ニューロンNに対してガウス関数の割り当てを行う。ガウス関数は次式を用いる。なお、下式において角付き括弧を付した文字はベクトルを意味する。
y=exp(−‖[x]−[m]‖/2σ
ただし、[m]:平均ベクトル、σ:分散である。
上式の平均ベクトル[m]には、学習済みのニューラルネット1の重みベクトルを用いる。上式の[x]は特徴抽出部3で得られた入力データを成分とする特徴ベクトルであり、‖[x]−[m]‖は特徴ベクトル[x]の平均ベクトル[m]に対するユークリッド距離である。また、yは上式のガウス関数に特徴ベクトル[x]を入力したときの出力値である。
上式によれば、特徴ベクトル[x]が平均ベクトル[m]に近いほど出力値yが大きくなり、特徴ベクトル[x]が平均ベクトル[m]に一致するときに出力値yは最大となって1になる。クラスタリングマップの各ニューロンごとの平均ベクトル[m]に対して、特徴ベクトル[x]を入力し、出力値yの総和を求めると、出力値yの総和はすべての平均ベクトル[m]で構成されるカテゴリに属する確率に比例した値になる。
また、分散(σ)は、以下のようにして決定する。すなわち、まず学習データを学習済みのニューラルネット1に再度入力し、各ニューロンNの重みベクトルと入力データ(学習データ)とのユークリッド距離を求める。すべての学習データをニューラルネット1に与えて、ユークリッド距離のリストを作成する。各ニューロンNについて求めたユークリッド距離の最大値を分散に用いる。
出力層12の各ニューロンNにガウス関数を割り当てた後には、ニューラルネット1に学習データを再度入力する。学習データのカテゴリごとに出力層12のニューロンNの出力値の総和を求め、そのリストを作成する。このリストに基づいて以下の(1)〜(4)のいずれかの値を出力層12の各ニューロンNの閾値に用いる。
(1)出力値の総和の下位10%について求めた平均値の50%
(2)出力値の総和の下位20%について求めた平均値の50%
(3)出力値の総和の最小値の50%
(4)出力値の総和の中央の値(=最大値と最小値との平均値)を中心としてデータ総数の半数(複数個のニューロンNについて出力値の総和が同じ値になるときには、データ総数の半数を超えてもよい)について求めた平均値の50%
なお、これらの閾値は一例であって、平均値を求める個数、求めた平均値に対する閾値の大きさは学習データに応じて適宜に設定することができる。適正値は使用目的によっても異なるので、閾値の求め方については入力データが適正なカテゴリに分類されるようにあらかじめ定式化しておけばよい。
ニューラルネット1の学習後に(1)の方法で閾値を決定する際の手順を図3に示す。すなわち、ニューラルネット1を学習データにより学習させた後に(S1)、ニューラルネット1にすべての学習データを再度入力する(S2)。クラスタリングマップの各位置(つまり、出力層12の各ニューロンN)における重みベクトルと与えた学習ベクトルとのユークリッド距離を求める(S3)。このようにして、各ニューロンNについてユークリッド距離のリストを作成する(S4)。着目するニューロンNについて得られたユークリッド距離のうちの最大値を選択する(S5)。当該ニューロンNの重みベクトルを平均ベクトルとし、ユークリッド距離の最大値を分散とするガウス関数を当該ニューロンNに割り当てる(S6)。
さらに、すべての学習データをニューラルネット1に再度入力し(S7)。学習データのカテゴリごとにニューロンNの出力値の総和を求める(S8)。この総和についてリストを作成し(S9)、リストの下位10%について平均値を求め、その平均値の50%を閾値として採用する(S10)。
監視対象物から得られた入力データをニューラルネット1に与える際には、クラスタリングマップの作成時と同様に、入力部2から取り込んだデータについて特徴抽出部3において特徴量を抽出する。ニューラルネット1は学習済みであるから、特徴量をニューラルネット1に与えると、入力データがクラスタリングマップのどのカテゴリに属するかが求められる。
ここで、各ニューロンNに設定されたガウス関数に対して入力データが与えられるから、出力部4では各ニューロンNの出力値の総和を求め、この総和を学習時に設定した閾値と比較する。出力値の総和が閾値を下回っているときには、出力部4では入力データが学習データのカテゴリに属さないデータであると判断して判定結果を出力する。
上述の手順によって、学習データのカテゴリに属していない入力データを確実に振り分けることができるようになり、クラスタリングマップによるカテゴリの分離精度を向上させることが可能になる。
本実施形態の概念と従来技術の概念とを図4に示す。図4(b)は従来技術の概念であって、入力データに応じて発火したニューロンN1がどのカテゴリに属するかは、クラスタリングマップ上における各カテゴリのニューロンNに設定された重みベクトルと入力データとのユークリッド距離によってしか判断していないから、クラスタリングマップ上で発火したニューロンN1の位置が、既知のカテゴリの領域Dに挟まれている場合であっても、当該ニューロンN1が未知のカテゴリであると判断されることがある。
これに対して、本実施形態の技術を採用すれば、図4(a)のように、すべてのカテゴリのニューロンの重みベクトルと入力データとのユークリッド距離を用いて、入力データがどのカテゴリに属するかを判断するから、既知のカテゴリの境界付近に存在するニューロンN1が発火した場合にはカテゴリを未知とせず、既知のカテゴリの外側に位置するニューロンN2が発火した場合にのみ入力データを未知のカテゴリと判定とするのである。つまり、図4(a)の領域D1内であれば入力データを未知のカテゴリと判定しないのである。
上述した技術を採用することにより、従来の技術に比較すると、単一のカテゴリで学習させる場合やある場合(たとえば、正常と異常との判別をするために、正常のカテゴリに属する学習データのみで学習させる場合)や、実際のカテゴリ数よりも少ない種類のカテゴリの学習データで学習させた場合において、カテゴリが未知であるのに既知と判定するような誤判定と、カテゴリが既知であるのに未知と判定する誤判定とをともに減少させることができる。
ちなみに、単一のカテゴリで学習させた場合について、既知のカテゴリであるのに未知と判定する誤判定の個数は1/5程度にまで改善された。また、ニューラルネット1の出力層12のニューロンNの個数を36個とし、学習データを2000個とした場合に、学習データのすべてにガウス関数を割り当てる場合に比較して処理時間を1.8%にまで短縮することができた。
(実施形態2)
実施形態1では、クラスタリングマップを1個だけ作成し、クラスタリングマップの各ニューロンNに対して設定した閾値を用いてカテゴリの判別を行っているが、本実施形態では、学習データのカテゴリの個数分のクラスタリングマップを作成し、閾値を用いずにカテゴリに判別を行う。すなわち、学習データをカテゴリごとに分類し、カテゴリごとに同規模のクラスタリングマップを作成する。学習時には、各クラスタリングマップについて、実施形態1と同様にしてガウス関数を設定する。
一方、監視対象物から得た入力データのカテゴリを決定する際には、各クラスタリングマップにおいてガウス関数を適用したときの出力値の総和を求める。出力部4では、出力値の総和が最大になるカテゴリを当該入力データのカテゴリと判断する。つまり、閾値を用いることなく入力データのカテゴリを判別する。
本実施形態では、上述の処理により、ニューラルネット1を単独で用いた場合の判定結果よりもカテゴリの判定精度を向上させることができる。
ちなみに、本実施形態の技術を採用することにより、カテゴリの境界付近のニューロンNが発火するの入力データに対して、カテゴリの誤判定が生じる回数を20%程度低減することができた。処理時間については実施形態1と同様の結果になった。他の構成および動作は実施形態1と同様である。
ところで、出力部4では、カテゴリの判定結果が得られた後に、さらに次の処理を行うのが望ましい。判定結果として選択されたカテゴリについて、ガウス関数を適用した出力値の総和(つまり、総和の最大値)を求めた後、この総和と2番目に大きい総和との和を求め、この和で総和の最大値を除算し(つまり、(総和の最大値)/{(総和の最大値)+(総和の2番目に大きい値)}、除算結果が規定の範囲内であれば、カテゴリの境界付近の結果であることを示す警告出力を発生するのである。この動作により、入力データのカテゴリが、複数のカテゴリの境界付近に分類されることを利用者に通知することができる。
警告出力が発生したときには、利用者は該当する入力データを確認することができるから、必要に応じて該当カテゴリを登録して、追加学習を行うことができる。このように、未登録のカテゴリと考えられる入力データが発生したときに警告出力によって利用者に通知することで、利用者は必要に応じてカテゴリを増加させるように追加学習を行うことができるから、追加学習によってクラスタリングマップの精度を高めることが可能になる。
この処理によって、監視対象物について目的とするカテゴリに対応したクラスタリングマップの上で発火したニューロンNに対する重みベクトルに対して、他のカテゴリに属する可能性のある入力データのみを境界領域に属する入力データと判定することができるようになる。したがって、判定の精度を向上させるために追加学習に用いるべき学習データを選択して提示することができ、結果的にカテゴリの境界と判定される入力データの数を低減させることができ、追加学習の学習データとしての利用の可否を判定するユーザの負担を低減することができる。
(実施形態3)
上述の各実施形態において、ガウス関数の分散として、学習データと重みベクトルとのユークリッド距離のリストから求めた最大値を用いているが、仮に学習データに外れ値(たとえば、分散σに対して3σを超える領域の値)が含まれているときに、分散が適正値よりも大きい値になることがある。ここで、学習データに複数のカテゴリが存在している場合に、分散が大きくなるほど、カテゴリ間で重複する領域が大きくなるから、カテゴリを判定する精度が低下することになる。
このような外れ値を除去するために、本実施形態では、以下のいずれかの処理を追加する。
(1)ユークリッド距離のリストの平均値から昇順に数えて3σである位置のデータを分散に用いる。
(2)ユークリッド距離のリストの昇順で各ユークリッド距離間の差が、各ユークリッド距離の間の差の平均値に対して定数倍となったデータを分散に用いる。ここに、定数は任意に設定することができる。たとえば、1.5〜2.0倍を目安に設定する。
(3)ユークリッド距離のリストのうちの一定割合が含まれる領域で、領域の始点と終点との間の距離(クラスタリングマップ上での距離)が最小である領域内に存在するデータの最大値を分散に用いる。ここに、割合は任意に設定することができる。たとえば、80〜95%を目安に設定することができる。
上述のように外れ値を除去して分散を設定することにより、ガウス関数に適用する分散が大きくなりすぎないように抑制し、カテゴリの判定の精度の低下を抑制することが可能になる。他の構成および動作は実施形態1,2と同様である。
実施形態を示すブロック図である。 同上に用いる競合学習型ニューラルネットワークの概略構成図である。 同上におけるガウス関数の設定手順を示す動作説明図である。 (a)は同上の動作例を示す図、(b)は従来方法の動作例を示す図である。
符号の説明
1 ニューラルネット(競合学習型ニューラルネットワーク)
2 入力部
3 特徴抽出部
4 出力部

Claims (4)

  1. 監視対象物の状態を反映する電気信号から特徴量を抽出する特徴抽出部と、特徴抽出部が抽出した特徴量を入力データとし、当該入力データがあらかじめ学習したカテゴリに属するか否かを判別する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力層のニューロンをカテゴリに対応付けているクラスタリングマップに登録されたカテゴリと入力データとの類似あるいは相違の程度を評価する出力部とを備える信号識別装置であって、出力部は、競合学習型ニューラルネットワークの学習後に、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力したときに発火する各ニューロンの重みベクトルとすべての学習データとのユークリッド距離の最大値を分散に用いるとともに、当該ニューロンの重みベクトルである平均値により定義したガウス関数をクラスタリングマップの各ニューロンに設定し、さらに、ガウス関数の設定後に、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力して学習データごとのクラスタリングマップの出力値の総和を求め、すべての学習データに関する当該総和の大きさの分布を用いて閾値を設定し、監視対象物から得られた入力データのカテゴリを判別する際に、クラスタリングマップの各ニューロンに設定されたガウス関数の出力値の総和を求め、求めた総和が前記閾値を下回るときには、入力データが学習データのカテゴリに含まれないと判定することを特徴とする信号識別装置
  2. 監視対象物の状態を反映する電気信号から特徴量を抽出する特徴抽出部と、特徴抽出部が抽出した特徴量を入力データとし、当該入力データがあらかじめ学習したカテゴリに属するか否かを判別する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークの出力層のニューロンをカテゴリに対応付けているクラスタリングマップに登録されたカテゴリと入力データとの類似あるいは相違の程度を評価する出力部とを備える信号識別装置であって、出力部は、競合学習型ニューラルネットワークの学習後に、学習時に用いた学習データをカテゴリ毎に競合学習型ニューラルネットワークに再度入力してカテゴリごとのクラスタリングマップを生成し、学習時に用いた学習データを競合学習型ニューラルネットワークに再度入力したときに発火する各ニューロンの重みベクトルとすべての学習データとのユークリッド距離の最大値を分散に用いるとともに、当該ニューロンの重みベクトルである平均値により定義したガウス関数を各カテゴリごとのクラスタリングマップの各ニューロンに設定し、監視対象物から得られた入力データのカテゴリを判別する際に、各クラスタリングマップの各ニューロンに設定されたガウス関数の出力値の総和を求め、求めた総和が最大になるクラスタリングマップのカテゴリを入力データのカテゴリと判定することを特徴とする信号識別装置
  3. 前記出力部は、前記入力データのカテゴリと判定されたクラスタリングマップにおける出力値の総和と、出力値の総和が2番目に大きいクラスタリングマップの出力値の総和と和によって、入力データカテゴリと判定されたクラスタリングマップにおける出力値の総和を除算し、除算結果が規定の範囲内であるときには、入力データが学習データにより規定されたカテゴリの境界であると判定し、判定結果を出力することを特徴とする請求項2記載の信号識別装置
  4. 前記出力部は、前記競合学習型ニューラルネットワークの学習後に学習データを再度入力したときに発火したニューロンの重みベクトルと当該学習データとのユークリッド距離を評価することにより、外れ値を除外したユークリッド距離を用いて前記ガウス関数の分散を求めることを特徴とする請求項1ないし請求項3のいずれか1項に記載の信号識別装置
JP2006124262A 2006-04-27 2006-04-27 信号識別装置 Active JP4775100B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006124262A JP4775100B2 (ja) 2006-04-27 2006-04-27 信号識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006124262A JP4775100B2 (ja) 2006-04-27 2006-04-27 信号識別装置

Publications (2)

Publication Number Publication Date
JP2007299059A JP2007299059A (ja) 2007-11-15
JP4775100B2 true JP4775100B2 (ja) 2011-09-21

Family

ID=38768521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006124262A Active JP4775100B2 (ja) 2006-04-27 2006-04-27 信号識別装置

Country Status (1)

Country Link
JP (1) JP4775100B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008159A (ja) * 2008-06-25 2010-01-14 Panasonic Electric Works Co Ltd 外観検査処理方法
KR102194280B1 (ko) * 2016-09-28 2020-12-22 주식회사 케이티 Dnn의 분산 훈련 시스템 및 분산 훈련 방법
CN110135623A (zh) * 2019-04-12 2019-08-16 天津大学 基于层次聚类和神经网络的负荷预测输入特征筛选方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3778177B2 (ja) * 2003-05-27 2006-05-24 松下電工株式会社 物体検査装置

Also Published As

Publication number Publication date
JP2007299059A (ja) 2007-11-15

Similar Documents

Publication Publication Date Title
JP7046481B2 (ja) バッテリ管理方法及びバッテリ管理装置
CN110163300B (zh) 一种图像分类方法、装置、电子设备及存储介质
JP4140634B2 (ja) 異常監視方法、および異常監視装置
CN109397703B (zh) 一种故障检测方法及装置
JP6359123B2 (ja) 検査データ処理装置および検査データ処理方法
JP2008090529A (ja) 異常検出装置、異常検出方法
JP4670662B2 (ja) 異常検出装置
JP5027859B2 (ja) 信号識別方法および信号識別装置
JP4775100B2 (ja) 信号識別装置
CN108470194B (zh) 一种特征筛选方法及装置
CN110927217A (zh) 基于电子鼻系统的食物新鲜度的识别方法及电子鼻系统
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
KR20110122748A (ko) 신호 식별 방법 및 신호 식별 장치
CN111814557A (zh) 动作流检测方法、装置、设备及存储介质
US9865158B2 (en) Method for detecting false alarm
JP4886461B2 (ja) 異常監視装置
JP7056259B2 (ja) 検査システム、識別システム、及び識別器評価装置
JP4875433B2 (ja) 信号識別装置の学習方法
JP2020107248A (ja) 異常判定装置および異常判定方法
Zhang et al. Applied sensor fault detection and validation using transposed input data PCA and ANNs
JP2011065545A (ja) 信号識別装置および信号識別方法
TW202223767A (zh) 學習裝置、不良檢測裝置以及不良檢測方法
JPH0743352A (ja) 学習型異常診断アルゴリズム自動構築方法およびその装置
JP4513796B2 (ja) 異常監視装置
US20230056387A1 (en) Method and device for ascertaining object detections of an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R151 Written notification of patent or utility model registration

Ref document number: 4775100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250