JP4427132B2 - 競合型ニューラルネットワークを用いた紙葉類の識別方法 - Google Patents
競合型ニューラルネットワークを用いた紙葉類の識別方法 Download PDFInfo
- Publication number
- JP4427132B2 JP4427132B2 JP18613599A JP18613599A JP4427132B2 JP 4427132 B2 JP4427132 B2 JP 4427132B2 JP 18613599 A JP18613599 A JP 18613599A JP 18613599 A JP18613599 A JP 18613599A JP 4427132 B2 JP4427132 B2 JP 4427132B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- data
- competitive
- competitive layer
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、競合型ニューラルネットワークを用いた紙葉類の識別/学習方法に関する。
【0002】
【従来の技術】
金融、流通、交通機関等における貨幣の受け払い及び精算業務の自動化は著しく、各種金融機関でのATM、流通、交通機関での自動販売機等の普及は周知の通りである。また、これら接客機器の後方にあって、受け払いされた貨幣を集計精算する精算機器もほとんど自動化されるに至っている。これら自動機器の機能や性能の向上は著しく、人手で装填された貨幣を必要数量だけ出金する自動出金機から、貨幣の金種や真偽を識別する識別装置を搭載した自動入金機や自動入出金機が開発されてきた。その後、貨幣の汚損及び損傷状態を識別する正損識別技術が開発されるに至って、入金された貨幣を再度流通可能な正貨と回収すべき損貨とに分別して、正貨のみを出金用貨幣として出金庫に循環させる循環式自動受払い機も開発されている。
【0003】
また、上記自動機器では機器内の現金管理機能が強化され、自動機器が現金を保管する代用金庫としても運用されるに至っている。これら自動化機器の発展や普及には、構成する各種装置や技術等に高い信頼性が要求されている。更に、貨幣の受け払い技術、分離搬送及び収納技術、中でも貨幣の金種及び真偽を判別する貨幣識別技術については無限保証が要求されており、違算は許されない。紙幣に関しては吸湿、乾燥、汚れ、折れ癖、しわ、穴、破れ、落書き等のほか、紙疲労等により紙質や紙面印刷状態は様々である。しかし、循環式入出金機では、紙幣のどのような状態でも真券は100%正確に計数され、どのように精巧な偽造、変造異券でも、100%確実に検知、排除しなければならない要請がある。
【0004】
貨幣識別技術については、従来サンプルパターンデータからその平均値などの基準パターンを求め、その基準パターンと入力データとの照合により認識を行うパターンマッチング手法がある。また、人間の脳神経系を模倣したモデルのニューラルネットワークとして、BP(Back-Propagation)法による学習に基づいた階層型ニューラルネットワークが注目されている。他のニューラルネットワークとしてLVQ(Learning Vector Quantization)法による学習を行う競合型ニューラルネットワークがあり、LVQ法によって基準パターンを学習により作成し、入力データが多次元な場合や複雑なパターン認識においても容易に識別が行える。
【0005】
【発明が解決しようとする課題】
しかしながら、パターンマッチングによって複雑なパターン認識を行う場合には、単純にサンプルデータの平均値を求めるだけでは困難であり、基準パターンの作成に多くの経験と時間が必要となる。また、BP法に基づく階層型ニューラルネットワークではパターン認識に要する演算量が多く(3層構造でニューロン数が多く、シグモイド関数を使用しているため)、認識に時間がかかる。演算時間はニューロ演算処理をハードウェア化することで解決できるが、ハードウェア(DSPやニューロ専用CPUボード等の使用)は非常に高価なものであり、学習において局所解に陥ったり、構造が複雑なため入力と出力の物理的な因果関係を見出すことが困難であるなどの問題がある。
【0006】
一方、競合型ニューラルネットワークではパターンマッチングにおける基準パターンを結合係数として学習し、複数の基準パターンを必要とする場合にも容易に作成でき、複雑なパターン認識が行える。また、競合型ニューラルネットワークは構造が単純であり、識別時は入力と結合係数との距離演算と出力値の判定を行うものであり、前記階層型ニューラルネットワークと比べて、複雑なパターンや多次元入力に対しても容易に学習でき、識別時の演算も高速に行える。しかし、従来の競合型ニューラルネットワークでは、入力されたデータは最も距離の近いニューロンが発火するため、偽券などの識別すべき紙葉類以外の紙葉類が入力された場合、その入力データと結合係数との距離が遠いにも拘らず、いずれかのニューロンが発火し誤認識してしまう。また、要求される識別能力を満たすのに必要な競合層ニューロンの数は明確ではないといった問題がある。
【0007】
本発明は上述のような事情よりなされたものであり、本発明の目的は、紙幣等の紙葉類の識別に比較的有効であると考えられる競合型ニューラルネットワークを基に、その競合型ニューラルネットワークの問題点を解決して識別力を向上するための競合型ニューラルネットワークを用いた紙葉類の識別/学習方法を提供することにある。即ち、本発明の競合型ニューラルネットワークでは、要求される識別能力を満たすような競合層ニューロン数の決定及び偽券等の識別対象外の紙葉類を排除するためのしきい値の設定を自動的に行えるようにし、紙葉類の識別に有効な特徴を自動抽出できるようにしている。
【0008】
本発明は競合型ニューラルネットワークを用いた紙葉類の識別方法に関し、本発明の上記目的は、識別すべき紙葉類の入力データを受け取るニューロン数Nの入力層と、発火することにより前記入力データをM個のカテゴリーに分類するニューロン数Mの競合層とが結合係数で接続され、前記入力層に入力された紙葉類の入力データとの距離が最も近い結合係数を持つ競合層ニューロンのみに発火するようにLVQ法により学習させる競合型ニューラルネットワークを用いた紙葉類の識別方法において、予め採取した複数の紙葉類のデータを学習データとし、前記学習データの各カテゴリー別平均値を、カテゴリー毎に設けられた競合層ニューロンの結合係数の初期値とする初期化ステップと、前記学習データを入力した場合に、前記LVQ法で、入力された前記学習データに属するカテゴリーに対応する競合層ニューロンのみに発火するように結合係数を更新するLVQ学習ステップと、
前記結合係数のLVQ学習の後に、各カテゴリーの競合層ニューロン毎に、該競合層ニューロンの結合係数と該競合層ニューロンに発火すべき前記学習データとの距離分布を示す平均値及び標準偏差を求め、前記標準偏差に0又は所定の正数kを乗じた値と前記平均値との加算値を求め、前記加算値を前記競合層ニューロンの発火と判定するためのしきい値とするしきい値作成ステップと、前記判定しきい値を設定した後、全ての前記学習データを入力しても発火しない競合層ニューロンがある場合は当該未発火のニューロンを削除するニューロン削除ステップと、全ての前記学習データに対する発火判定の結果に基づき判断し、誤認識された学習データがあれば、誤認識された学習データの平均値を前記誤認識された学習データが属するカテゴリー毎に求め、該平均値を結合係数とするニューロンを追加し、誤認識がない場合は、前記競合層ニューロンにおいて、所定のカテゴリーに対応する第一競合層ニューロンiに発火すべき学習データと、別のカテゴリーに対応する第二の競合層ニューロンj(j≠i)の結合係数との距離が前記第二の競合層ニューロンjのしきい値以下となる確率を、前記所定のカテゴリーの第一のニューロンiに発火すべき紙葉類データが前記第二の競合層ニューロンjに誤認識される信頼性とするように前記学習データに対する信頼性評価を行い、既定信頼性を満たさない場合には、信頼性を満たさない前記第二の競合層ニューロンj又は評価対象データが発火する前記第一競合層ニューロンiの複製を追加するニューロン追加チェックステップと、前記競合層ニューロンの追加がある場合に、前記LVQ学習以降のステップを繰り返す競合層ニューロン数の最適化ステップとを具備することにより達成される。
【0009】
また、本発明の上記目的は、識別すべき紙葉類のデータと、前記各カテゴリーの競合層ニューロンの結合係数との距離が最小値となる競合層ニューロンcを求め、前記距離最小値が前記競合層ニューロンcに設けられたしきい値θc以下の場合は、前記紙葉類を前記競合層ニューロンcが属するカテゴリーとして認識し、前記距離最小値が前記しきい値θcより大きい場合は、前記紙葉類をリジェクトするようになっていることにより、また、前記競合型ニューラルネットワークへ入力されるデータに正規化されたデータを用いることによって、より効果的に達成される。
【0011】
貨幣識別機は、その目的により他国の貨幣や偽造紙幣といった対象外の媒体が入力されることがある。しかし、競合型ニューラルネットワークでは、入力データと各競合層ニューロン(以下、単にニューロンともいう)の結合係数との距離を求め、最も距離の近いニューロンが発火し、入力データが発火したニューロンの属するカテゴリーに識別されるため、入力データと結合係数との距離がかなり離れている場合でも、入力データに最も距離の近い結合係数を持つ競合層ニューロンが発火するため、偽造紙幣などの対象外媒体に対しても発火して誤認識を生じることがあり得る。本発明ではこのような誤認識を防ぐため、自己認識の範囲を確保するのに競合型ニューラルネットワークの距離値の分布推定を行い、出力値に対するしきい値を各ニューロンに設定する。また、競合型ニューラルネットワークにおいて複雑なパターンを精度良く認識するにはニューロン数を増やせば良いが、その方法は明確ではない。本発明では学習に用いたデータの認識及び信頼性評価の結果を基に、自動的にニューロン数の追加及び削除を行っている。ここで、学習とは、各競合層ニューロンの結合係数を更新して行くことである。
【0012】
LVQ法のアルゴリズムには、最も距離が小さくなる1つのニューロンを学習するLVQ1のほか、最も距離が小さくなる2つのニューロンを学習するLVQ2及びLVQ3、LVQ1における学習率を最適化したOLVQ1等があるが、本発明では計算が容易で高速に学習を行うことのできるOLVQ1を用いる。なお、LVQ法はユークリッド距離演算のみのため、シグモイド関数を使用する階層型ニューラルネットワークと異なって演算量が少なく、規模が小さいため、通常のCPU等での実装が容易である。また、結合荷重ベクトルは入力データの量子化ベクトルであるため、入力と出力の物理的な因果関係を容易に見出せる特徴がある。
【0013】
以下に、本発明の詳細を、図面を参照して説明する。
【0014】
先ず競合型ニューラルネットワークは図1のような2層構造から成っており、第1層の入力層が入力パターンを受け取り、第2層の競合層への入力を受け渡して入力パターンの分類を行う。入力層のニューロンは競合層の各ニューロンと完全に結合されており、各結合は結合係数で表現される。ここで、入力層のニューロンjから競合層のニューロンiへの結合係数をwijと表現し、入力層のニューロン数をN、競合層のニューロン数をMとする。競合層のニューロンでは、入力されたデータx=(x1,x2,…,xN)と、そのニューロンが有する結合係数wi=(w1,w2,…,wN)とのユークリッド距離diを下記数1に従って計算する。
【0015】
【数1】
上記数1で定義された距離diが最小になるニューロンcを選び、それを勝者ニューロンと呼ぶ。
【0016】
【数2】
この勝者ニューロンに対する出力ycを“1”とし、他のニューロンの出力を“0”とする。即ち、下記数3となる。
【0017】
【数3】
yi=1 (i=cのとき)
yi=0 (i≠cのとき)
この手法では入力パターンベクトルに対して、最も距離の近い結合係数ベクトルを持つ競合層のニューロンが発火するため、これにより競合型ニューラルネットワークへの入力パターンの識別が可能である。
【0018】
図2は、上述した競合型ニューラルネットワークを用いて紙幣等の画像又は時系列データを入力して識別する本発明の構成例を示しており、ニューラルネットワークの競合層ニューロンに判定部1が接続されている。入力される画像又は時系列データは競合型ニューラルネットワークによりクラスタリングされ、つまり発火するニューロン別にデータ分類されるが、競合層ニューロンiで発火するデータ集合を1つの母集団Siとする。例えば100枚の紙幣データを入力したとき、40枚がニューロン1に発火し、60枚がニューロン2に発火したとすると、40枚のデータから成る集合S1及び60枚のデータから成る集合S2に分類されたことになる。これをクラスタリングという。判定部1は距離di(1〜M)中から最小値dcを求め、ニューロンcのしきい値θcとの比較を行い、dc≦θcならニューロンcを発火し、dc>θcならニューロンcは未発火とする。ただし、しきい値θcは学習データに対して、ニューロンcにおける最小距離の平均値をmc、標準偏差をσcとするとき、0又は正数kcを用いてθc=mc+kcσcとする。また、競合層のニューロンは1つのカテゴリー(金種、方向:4つの紙幣搬送方向をA〜Dで表す)に対し1つ又は複数個である。例えば$5のD方向に対し4個の競合層ニューロンを持つ判定部では、$5のD方向の各ニューロンに対ししきい値がそれぞれ設定されている。
【0019】
図3は本発明の全体的な動作例を示しており、先ず採取した紙葉類データを学習用データとし、これらデータに対してデータ前処理を行い(ステップS10)、結合係数Wijの初期化を行い(ステップS20)、LVQ学習を実行する(ステップS30)。結合係数Wijの初期化では、各ニューロンに該当する入力データの平均値を用いる。例えば$1Aのニューロンに対して、$1Aのデータの平均値を初期値とする。結合係数Wijの学習によりニューラルネットワークを構築し、学習データに対してしきい値を作成し(ステップS40)、発火しないニューロンを削除する(ステップS50)。次に、学習データの評価を行い(ステップS60)、ニューロン追加のチェックを行い(ステップS70)、ニューロンの追加がないか否かを判定し(ステップS80)、追加がなければしきい値を拡張する(ステップS90)。また、上記ステップS80においてニューロンの追加がある場合には、上記ステップS30にリターンする。以下に上記フローの各部詳細を説明する。
【0020】
図4はデータ前処理(ステップS10)の処理フローを示しており、図5に示すように、紙幣4の搬送に対してセンサ2,3の走査で光学的に得られる紙幣データのモザイク化処理を行う(ステップS11)。このモザイク化処理では、256画素のセンサ出力データを32画素から成る入力データに変換する。具体的には先ず256画素のデータを8画素ずつに区切り、その領域内の各画素値の平均値を演算する。この結果、演算された各平均値を画素値とする32データがそのモザイク化された入力データとして得られる。即ち、センサ2,3によって採取されたデータは例えば図6(A)に示すような時系列データとなり、この時系列データを8画素ずつの平均値でグラフ化すると同図(B)に示すようになる。このモザイク化処理により、ノイズ除去やデータ数の削減に伴う識別演算時間の減少を期待でき、エッジ抽出における誤差を軽減できる。なお、モザイク化処理を画像(エリア)について行うと、図7(A)及び(B)のようになる。本例では3×4画素の平均値でモザイク化処理している。
【0021】
上述のようにしてモザイク化された入力画像に対し、オフセット及びゲインのばらつきをなくすための正規化を行う。この正規化を面積比率変換と定義する。モザイク化されたデータをxi(i=1,…,n)としたとき、変換表のデータXi(i=1,…,n)は下記数4となる。ただし、Aはゲイン定数、Bはオフセット定数である。
【0022】
【数4】
上記数4において、xオーババーはデータxiの平均を表し、Sxは平均xオーババーとデータxiとの差分の絶対値の総和(面積)を表している。右辺第1項はデータxiの平均からの変動を、全体の変動に対する割合で表している。図8は、32個のモザイク化データ(0〜31)に対して平均xオーババーと絶対値の総和(面積)を示している。このため、データのゲイン変動及びオフセット変動に対して不変な値が得られる。また、オフセット定数Bは変換後のデータのオフセットを調節するための定数である。データは256階調のため、B=127とする。
【0023】
以下に、ゲイン変動及びオフセット変動に対し、面積比率変換データが不変であることを数式によって説明する。先ず変動データを
【数5】
yi=axi+b(i=1,…,n)
aはゲイン変動(>0)であり、bはオフセット変動である。
【0024】
とするとき、平均は
【数6】
となり、平均yオーババーとデータyiとの差分の絶対値の総和Syは下記数7のようになる。
【0025】
【数7】
ここで、面積比率変換を施したデータYi(i=1,…,n)は下記数8となる。
【0026】
【数8】
このように、面積比率変換を施すことで、ゲイン及びオフセットの変動を除去することができる。
【0027】
前処理されたデータを用いて、結合係数の初期値を設定する(ステップS20)。学習の初期には、1カテゴリー当たり1つのニューロンが競合層に設定され、各ニューロンの結合係数の初期値は、当該カテゴリーに属するデータの平均値とする。
【0028】
次に、LVQ法のアルゴリズムを示す。先ずLVQ法の概念図を図20に示す。図20で示すように、入力データx(t)と発火したニューロンcとが同じカテゴリーならば、ニューロンcの結合係数wc(t)を入力データx(t)に近づけ、入力データx(t)と発火したニューロンcとが異なるカテゴリーならば、ニューロンcの結合係数wc(t)を入力データx(t)から遠ざける。このように、LVQ法では結合係数を学習する。
【0029】
LVQ法にはLVQ1、LVQ2、LVQ3、OLVQ1等のアルゴリズムがあるが、ここでは本発明で用いるOLVQ1のアルゴリズムを数9及び数10に示す。
【0030】
【数9】
【数10】
ここで、tは学習回数、αc(t)は各ニューロンの学習率を表わし、s(t)=1(正しく認識したとき)又はs(t)=−1(誤って認識したとき)である。数9では学習時に発火したニューロンの結合係数を更新し、数10ではその他のニューロンは更新されないことを示している。
【0031】
図3における結合荷重の初期化(ステップS20),LVQ学習(ステップS30)の後、しきい値を作成するが(ステップS40)、その詳細は図9のフローチャートのようになっている。
【0032】
即ち、先ず学習データ番号l(l=1〜L)によるクラスタリングのループ(ステップS41〜S43)において、発火するニューロン別に学習データをクラスタリングし(ステップS42)、M個のデータ集合を得る。そして、ニューロン番号i(i=1〜M)によるしきい値作成のループ(ステップS44〜S49)において、クラスタリングされた学習データの集合の距離分布を推定し、平均値mi、標準偏差σi及び最大値dmaxを得(ステップS45)、しきい値θiを作成する(ステップS46)。そして、しきい値θiが最大値dmaxより小さいか否かを判定し(ステップS47)、最大値dmaxより小さければ最大値dmaxに所定数αを加算した値をしきい値θiとする(ステップS48)。これを、ニューロン番号M個分だけ繰り返す(ステップS49)。
【0033】
図10に示すように、推定された分布より競合層ニュ−ロンiの自己認識の範囲としてのしきい値θiを、θi=mi+kiσiに設定する。よって、入力データと競合層ニューロンiのユークリッド距離diがdi≦θiならば、標本は母集団Siに属すると認識される。ここで、kiは自己認識の範囲として任意の値を設定できるが、ki=4.5の場合、母集団Siのデータに対してニューロンiが発火(正しく認識)する確率は、標準正規分布表から1−3.4×10-6であり、ki=6.5の場合、1−4.0×10-11である。学習データによっては、このように設定されたしきい値を越えることもあるが、このようなデータも認識させる必要がある場合は、図11に示すようにθioに広げて設定すればよい。
【0034】
上述のようにしてしきい値を作成すると、発火しないニューロンの削除を行うが(ステップS50)、その詳細を図12のフローチャートを参照して説明する。先ずニューロン番号i(i=1〜M)によるニューロン削除のループ(ステップS51〜S54)において、ニューロンiが発火したか否かを判定し(ステップS52)、発火していなければニューロンiを削除する(ステップS53)。
【0035】
その後、学習データの評価を行うが(ステップS60)、その詳細を図13のフローチャートを参照して説明する。
【0036】
先ず学習データ番号l(l=1〜L)による学習データ識別のループ(ステップS61〜S64)において、学習データの識別判定を行い(ステップS62)、発火するニューロン別に学習データをクラスタリングする(ステップS63)。そして、ニューロン番号i(i=1〜M)による信頼性評価のループ(ステップS65〜S68)において、クラスタリングされた学習データの集合の距離分布を推定し(ステップS66)、信頼性評価を行う(ステップS67)。これを、全ニューロン番号に亙って実施する。
【0037】
上記学習データの評価が終わると次にニューロン追加のチェックを行う(ステップS70)が、その詳細を図14のフローチャートを参照して説明する。
【0038】
先ずニューロン番号i(i=1〜M)によるニューロン追加チェックのループ(ステップS71〜S76)において、誤認識があるか否かを判断し(ステップS72)、誤認識があれば誤認識データの平均値をカテゴリー毎に求め、その平均値を結合係数としたニューロンを追加する(ステップS73)。その後、ニューロンiが既定信頼性を満たすか否かを判定し(ステップS74)、既定信頼性を満たしていなければ、ニューロンi又は信頼性評価対象のデータ集合が発火するニューロンj(j≠i)の複製を追加する(ステップS75)。信頼性評価では図15に示すように、ニューロンiに発火するデータ集合Siを評価対象データとして、ニューロンj(j≠i)との距離diの度数分布を考える。この距離diの度数分布が図15に示すような正規分布NDであると仮定し、正規分布NDがしきい値θjよりも小さくなる確率をニューロンjの信頼性とする。これは図15における黒色部分BAの面積を表し、ニューロンiに発火すべきデータがニューロンjに発火する確率を意味している。
【0039】
しきい値設定後、学習データに対して識別判定を行い、誤認識するデータがあればそれに対するニューロンを追加する。そのニューロンの結合荷重ベクトルは、誤認識データのカテゴリー毎の平均値とする。これにより認識率を向上させることが可能である。また、学習データに対する図15に示すように信頼性評価を行い、既定の信頼性が得られないニューロンjに対しては、そのニューロンj又はその評価対象ニューロンi(評価対象データ集合が発火するニューロンi)の複製を追加する。これにより、ニューロンの出力値分布のばらつきが小さくなり、信頼性が向上する。図16は誤認識データに対するニューロンの追加を示しており、ニューロンiに誤認識したデータの平均を結合荷重とするニューロンを追加する様子を示している。また、図17は既定信頼性を満たさない場合のニューロンの追加を示しており、既定信頼性を満たさないニューロンj又はその評価対象ニューロンiの複製を追加している。
【0040】
図3のニューロンのチェック(ステップS70)において、その後ニューロンの追加がなければ(ステップS80)しきい値を拡張するが(ステップS90)、その動作を図18のフローチャートを参照して説明する。
【0041】
実際のデータでは予測できないようなばらつきを持つこともあり、統計的に設定されたしきい値を超える場合もある。このようなデータに対しても汎化能力を持たせるにはしきい値を拡張すれば良い。そこで、拡張する基準として信頼性評価の結果に基づき、既定の信頼性が得られる範囲で拡張すれば、既定の信頼性を確保した状態で認識率を向上させることが可能である。図19に示す具体例では、しきい値θiをθi=mi+4.5σiに設定した後に信頼性評価を行う。その結果、評価対象ニューロンが既定信頼性を満たす境界値を算出し、その境界値を拡張されたしきい値として再設定する。このとき、過剰な拡張を防ぐため、mi+6.5σiをしきい値拡張の限界値として設け、境界値が限界値より大きければ、限界値を拡張されたしきい値として設定する。
【0042】
先ずニューロン番号i(i=1〜M)によるしきい値拡張のループ(ステップS91〜S96)において、既定の信頼性を満たすしきい値の境界値θBを求め(ステップS92)、しきい値拡張の限界値θLを求める(ステップS93)。そして、境界値θBが限界値θLより小さいか否かを判定し(ステップS94)、小さければしきい値θを境界値θBに拡張し(ステップS95)、そうでなければしきい値θを限界値θLに拡張する(ステップS97)。
【0043】
図21は紙幣識別時の動作例を示しており、紙幣を走査して得られたデータの前処理を行い(ステップS100)、ニューロン番号i(i=1〜M)による距離計算のループ(ステップS101〜S103)において、入力データと結合係数の距離diを計算する(ステップS103)。そして、距離diが最小となるニューロンcを求め(ステップS104)、これをニューロン番号についてM回実行し、dc≦θcを判定し、そうであればニューロンcを発火する(ステップS106)。これにより、入力データはニューロンcが属するカテゴリーに認識される。また、上記ステップS105においてdc>θcであれば、ニューロンcは未発火であり(ステップS107)、入力データはリジェクトされる。
【0044】
【発明の効果】
以上のように、本発明によれば、学習終了後にニューロン数の調整を行い、再学習するという方法を繰り返してニューロン数を最適化すると共に、ニューロン数の調整を学習データに対する認識結果及び信頼性評価に基づいて行うようにしているので、紙葉類の識別力を向上することができる。
【図面の簡単な説明】
【図1】本発明に用いる競合型ニューラルネットワークの基本構造を示す図である。
【図2】本発明の構成例を示すブロック図である。
【図3】本発明の全体的な動作例を示すフローチャートである。
【図4】データ前処理の動作例を示すフローチャートである。
【図5】紙幣のデータ採取の様子を示す図である。
【図6】モザイク化処理(時系列データ)を説明するための図である。
【図7】モザイク化処理(画像)を説明するための図である。
【図8】正規化処理を説明するための図である。
【図9】しきい値作成の処理例を示すフローチャートである。
【図10】しきい値の設定を説明するための図である。
【図11】しきい値の調整を説明するための図である。
【図12】ニューロン削除の処理例を示すフローチャートである。
【図13】学習データの評価の処理例を示すフローチャートである。
【図14】ニューロン追加のチェック処理例を示すフローチャートである。
【図15】競合型ニューラルネットワークの信頼性評価を説明するための図である。
【図16】誤認識データに対するニューロンの追加を説明するための図である。
【図17】既定信頼性を満たさない場合のニューロンの追加を説明するための図である。
【図18】しきい値拡張の処理例を示すフローチャートである。
【図19】しきい値の拡張設定を説明するための図である。
【図20】LVQ法の概念を説明するための図である。
【図21】紙幣識別の処理例を示すフローチャートである。
【符号の説明】
1 判定部
2,3 センサ
4 紙幣
Claims (3)
- 識別すべき紙葉類の入力データを受け取るニューロン数Nの入力層と、発火することにより前記入力データをM個のカテゴリーに分類するニューロン数Mの競合層とが結合係数で接続され、前記入力層に入力された紙葉類の入力データとの距離が最も近い結合係数を持つ競合層ニューロンのみに発火するようにLVQ法により学習させる競合型ニューラルネットワークを用いた紙葉類の識別方法において、
予め採取した複数の紙葉類のデータを学習データとし、前記学習データの各カテゴリー別平均値を、カテゴリー毎に設けられた競合層ニューロンの結合係数の初期値とする初期化ステップと、
前記学習データを入力した場合に、前記LVQ法で、入力された前記学習データに属するカテゴリーに対応する競合層ニューロンのみに発火するように結合係数を更新するLVQ学習ステップと、
前記結合係数のLVQ学習の後に、各カテゴリーの競合層ニューロン毎に、該競合層ニューロンの結合係数と該競合層ニューロンに発火すべき前記学習データとの距離分布を示す平均値及び標準偏差を求め、前記標準偏差に0又は所定の正数kを乗じた値と前記平均値との加算値を求め、前記加算値を前記競合層ニューロンの発火と判定するためのしきい値とするしきい値作成ステップと、
前記判定しきい値を設定した後、全ての前記学習データを入力しても発火しない競合層ニューロンがある場合は当該未発火のニューロンを削除するニューロン削除ステップと、
全ての前記学習データに対する発火判定の結果に基づき判断し、誤認識された学習データがあれば、誤認識された学習データの平均値を前記誤認識された学習データが属するカテゴリー毎に求め、該平均値を結合係数とするニューロンを追加し、誤認識がない場合は、前記競合層ニューロンにおいて、所定のカテゴリーに対応する第一競合層ニューロンiに発火すべき学習データと、別のカテゴリーに対応する第二の競合層ニューロンj(j≠i)の結合係数との距離が前記第二の競合層ニューロンjのしきい値以下となる確率を、前記所定のカテゴリーの第一のニューロンiに発火すべき紙葉類データが前記第二の競合層ニューロンjに誤認識される信頼性とするように前記学習データに対する信頼性評価を行い、既定信頼性を満たさない場合には、信頼性を満たさない前記第二の競合層ニューロンj又は評価対象データが発火する前記第一競合層ニューロンiの複製を追加するニューロン追加チェックステップと、
前記競合層ニューロンの追加がある場合に、前記LVQ学習以降のステップを繰り返す競合層ニューロン数の最適化ステップと、
を具備したことを特徴とする競合型ニューラルネットワークを用いた紙葉類の識別方法。 - 前記競合型ニューラルネットワークへ入力される入力データには正規化されたデータを用いるようにした請求項1に記載の競合型ニューラルネットワークを用いた紙薬類の識別方法。
- 識別すべき紙葉類のデータと、前記各カテゴリーの競合層ニューロンの結合係数との距離が最小値となる競合層ニューロンcを求め、前記距離最小値が前記競合層ニューロンcに設けられたしきい値θc以下の場合は、前記紙葉類を前記競合層ニューロンcが属するカテゴリーとして認識し、前記距離最小値が前記しきい値θcより大きい場合は、前記紙葉類をリジェクトするようになっている請求項1又は2に記載の競合型ニューラルネットワークを用いた紙葉類の識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18613599A JP4427132B2 (ja) | 1999-06-30 | 1999-06-30 | 競合型ニューラルネットワークを用いた紙葉類の識別方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18613599A JP4427132B2 (ja) | 1999-06-30 | 1999-06-30 | 競合型ニューラルネットワークを用いた紙葉類の識別方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001014293A JP2001014293A (ja) | 2001-01-19 |
JP4427132B2 true JP4427132B2 (ja) | 2010-03-03 |
Family
ID=16182997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18613599A Expired - Fee Related JP4427132B2 (ja) | 1999-06-30 | 1999-06-30 | 競合型ニューラルネットワークを用いた紙葉類の識別方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4427132B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3892258B2 (ja) * | 2001-08-31 | 2007-03-14 | 独立行政法人科学技術振興機構 | 自動検査装置及び自動検査方法 |
JP2005309920A (ja) * | 2004-04-23 | 2005-11-04 | Alliance Group Inc | 多数決装置及びその学習方法と多クラス識別装置 |
JP4100413B2 (ja) * | 2005-04-25 | 2008-06-11 | 松下電工株式会社 | 設備監視方法および設備監視装置 |
JPWO2006117836A1 (ja) * | 2005-04-26 | 2008-12-18 | 株式会社シーフォーテクノロジー | 感性語による情報検索方法およびその装置 |
JP4605132B2 (ja) * | 2006-09-29 | 2011-01-05 | パナソニック電工株式会社 | 異常検出装置、異常検出方法 |
KR101652851B1 (ko) * | 2016-04-20 | 2016-09-02 | 유솔전자 주식회사 | 스마트지폐감지모듈·지폐특징추출알고리즘엔진부로 이루어진 스마트 지폐계수기 |
CN108073978A (zh) * | 2016-11-14 | 2018-05-25 | 顾泽苍 | 一种人工智能超深度学习模型的构成方法 |
US11494640B2 (en) | 2017-04-10 | 2022-11-08 | Softbank Corp. | Information processing apparatus, information processing method, and program |
WO2018189793A1 (ja) | 2017-04-10 | 2018-10-18 | ソフトバンク株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018189792A1 (ja) * | 2017-04-10 | 2018-10-18 | ソフトバンク株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN110196911B (zh) * | 2019-06-06 | 2022-04-22 | 申林森 | 一种民生数据自动分类管理系统 |
JP7187397B2 (ja) * | 2019-07-18 | 2022-12-12 | オークマ株式会社 | 工作機械における診断モデルの再学習要否判定方法及び再学習要否判定装置、再学習要否判定プログラム |
CN110659563A (zh) * | 2019-08-12 | 2020-01-07 | 国网湖南省电力有限公司 | 基于改进YOLOv3网络的电网调度图纸自动识别方法、系统及介质 |
-
1999
- 1999-06-30 JP JP18613599A patent/JP4427132B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001014293A (ja) | 2001-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4427132B2 (ja) | 競合型ニューラルネットワークを用いた紙葉類の識別方法 | |
Hassanpour et al. | Feature extraction for paper currency recognition | |
US7639858B2 (en) | Currency validation | |
JP5219211B2 (ja) | 銀行券の確認方法及びその装置 | |
EP0660276B1 (en) | Neural network for bank note recognition and authentication | |
JP5213649B2 (ja) | 紙葉類処理装置及び紙葉類処理プログラム | |
JP4105694B2 (ja) | 紙片鑑別装置、紙片鑑別方法及びプログラム | |
KR100893613B1 (ko) | 지폐 및 바코드가 표시된 유가증권의 인식계수방법과 그장치 | |
JP2001331839A (ja) | 紙幣識別方法及び装置 | |
JP3753779B2 (ja) | 紙幣選別機 | |
JP2006301881A (ja) | 貨幣識別装置、貨幣識別方法および貨幣識別プログラム | |
Kara et al. | Detection of Fake Indian Currency Using Deep Convolutional Neural Network | |
Shaker et al. | Paper Currency Detection based Image Processing Techniques: A review paper | |
KR101232684B1 (ko) | 베이시안 접근법을 이용한 지폐 진위 감별 방법 | |
CN108320372B (zh) | 一种折叠纸币有效识别方法 | |
JP2002092683A (ja) | 媒体真偽鑑別装置 | |
Kagehiro et al. | A hierarchical classification method for us bank-notes | |
Veeramsetty et al. | State of art on: Features extraction, recognition and detection of currency notes | |
JP3362087B2 (ja) | 紙葉類鑑別装置 | |
JP4306027B2 (ja) | 紙葉類の真偽鑑別装置 | |
Sajal et al. | A machine vision based automatic system for real time recognition and sorting of Bangladeshi bank notes. | |
Basturk et al. | Efficient detection of counterfeit banknotes using adaptive network based fuzzy inference systems | |
JPH1196431A (ja) | ニュ−ロ識別における未知パタ−ン紙葉類画像の判定方法及び装置 | |
JPH09134464A (ja) | 紙葉類認識装置 | |
Kumar et al. | Classification and Detection of Banknotes using Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091214 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |