JP2001331839A - Method and device for discriminating paper money - Google Patents

Method and device for discriminating paper money

Info

Publication number
JP2001331839A
JP2001331839A JP2000149556A JP2000149556A JP2001331839A JP 2001331839 A JP2001331839 A JP 2001331839A JP 2000149556 A JP2000149556 A JP 2000149556A JP 2000149556 A JP2000149556 A JP 2000149556A JP 2001331839 A JP2001331839 A JP 2001331839A
Authority
JP
Japan
Prior art keywords
banknote
input
pattern
reference pattern
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000149556A
Other languages
Japanese (ja)
Inventor
Shigeru Daimatsu
繁 大松
Toshihisa Kosaka
利▲寿▼ 小坂
Norikazu Takeya
紀和 竹谷
Kunihiro Sunatori
邦広 漁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2000149556A priority Critical patent/JP2001331839A/en
Publication of JP2001331839A publication Critical patent/JP2001331839A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To accurately perform pattern recognition, discrimination and elimination of counterfeited/damaged paper money by improving the discrimination rate of the pattern recognition of paper money that is partially subjected to specific counterfeit/alteration processing and normal paper money whose damage is in progress. SOLUTION: This paper money discriminating method in which the characteristic quantity of paper money to be discriminated is inputted, a reference pattern is learned and subsequently pattern recognition of unknown paper money is performed according to the reference pattern comprises the steps of: sensing the unknown paper money and extracting each characteristic quantity of every first small area, collecting the characteristic quantity in second small areas larger than the first small area; comparing the reference pattern that is provided corresponding to the second small area and can be selected as a denomination/direction candidate of paper money and the characteristic quantity of the second small area to perform pattern recognition; consequently decides a candidate to which the unknown paper money corresponds; excluding an uncorresponding candidate; repeatedly performing such processing over the entire area while changing second small areas; storing a finally remaining candidate; simultaneously comparing the characteristic quantity of the entire unknown paper money and all reference patterns by changing the above mentioned conditions to perform pattern recognition; storing the denomination and direction of the paper money obtained as a candidate; and outputting a common candidate as the denomination and direction of the unknown paper money when the common candidate exists in such candidates.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、一部、不正常な処
理をされた偽造・変造紙幣や、損傷等により変形、変質
してしまった紙幣の排除能力を向上させた紙幣識別方法
及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for recognizing forged or altered banknotes which have been partially treated abnormally or which have been improved in their ability to remove banknotes which have been deformed or altered due to damage or the like. About.

【0002】[0002]

【従来の技術】金融、流通、交通機関等における貨幣の
受け払い及び精算業務の自動化は著しく、各種昨今金融
機関でのATM、流通、交通機関での自動販売機等の普
及は周知の通りである。また、これら接客機器の後方に
あって、受け払いされた貨幣を集計精算する精算機器も
ほとんど自動化されるに至っている。これら自動機器の
機能や性能の向上は著しく、人手で装填された貨幣を必
要数量だけ出金する自動出金機から、貨幣の金種や真偽
を識別する識別装置を搭載した自動入金機や自動入出金
機が開発されてきた。
2. Description of the Related Art The automation of money transfer and settlement operations in finance, distribution, transportation, etc. is remarkable, and the spread of ATMs, distribution, vending machines, etc. in various financial institutions is well known. is there. In addition, payment devices behind these customer service devices, which totalize and settle the received money, have been almost automated. The functions and performance of these automatic devices have been remarkably improved, from automatic dispensers that dispensed the required amount of money loaded by hand to automatic deposit machines equipped with identification devices that identify the denomination and authenticity of money. Automatic depositing and dispensing machines have been developed.

【0003】その後、貨幣の汚損及び損傷状態を識別す
る正損識別技術が開発されるに至って、入金された貨幣
を再度流通可能な正貨と回収すべき損貨とに分別して、
正貨のみを出金用貨幣として出金庫に循環させる循環式
自動受払い機も開発されている。
[0003] After that, with the development of a fitness discrimination technology for discriminating whether the currency is dirty or damaged, the deposited money is separated into genuine coins that can be recirculated and damaged coins to be collected.
A circulation type automatic teller machine which circulates only genuine coins as money for withdrawal to a bank can be developed.

【0004】また、上記自動機器では機器内の現金管理
機能が強化され、自動機器が現金を保管する代用金庫と
しても運用されるに至っている。これら自動化機器の発
展や普及には、構成する各種装置や技術等に高い信頼性
が要求されている。更に、貨幣の受け払い技術、分離搬
送及び収納技術、中でも貨幣の金種及び真偽を判別する
貨幣識別技術については無限保証が要求されており、違
算は許されない。
[0004] Further, in the above-mentioned automatic equipment, the cash management function in the equipment has been strengthened, and the automatic equipment has been operated as a substitute safe for storing cash. For the development and spread of these automation devices, high reliability is required for various constituent devices and technologies. Furthermore, an infinite guarantee is required for a money receiving / dispensing technology, a separation transporting and storing technology, and in particular, a money discriminating technology for discriminating the denomination and authenticity of money, and no difference is allowed.

【0005】特に、紙幣に関しては吸湿、乾燥、汚れ、
折れ癖、しわ、穴、破れ、落書き等のほか、紙疲労等に
より紙質や紙面印刷状態は様々である。さらに、近年で
は、カラーコピー偽造券や、不正に押印された紙幣、ピ
ンホール等の穴明き紙幣、一部を正常紙幣で代用した偽
造紙幣等が、盛んに不正使用されるようになり、一部が
正常紙幣と同一の紙幣を使用して偽造された不正紙幣も
正確に不正紙幣と識別するといった、非常に高度な紙幣
のパターン認識技術の開発が要求され、特に、循環式入
出金機では、紙幣のどのような状態でも、真券は100
%正確に計数され、どのように精巧な偽造、変造異券で
も、100%確実に検知、排除しなければならない要請
がある。
[0005] In particular, regarding banknotes, moisture absorption, drying, dirt,
In addition to creases, wrinkles, holes, tears, graffiti, etc., the paper quality and printing condition vary due to paper fatigue and the like. Furthermore, in recent years, counterfeit color-copy tickets, banknotes improperly stamped, perforated banknotes such as pinholes, counterfeit banknotes partially substituting for normal banknotes, and the like have been actively used illegally. Development of very advanced banknote pattern recognition technology is required, such as the use of the same banknote as a normal banknote to accurately identify forged banknotes as fraudulent banknotes. Then, in any state of the bill, the genuine bill is 100
There is a need to be able to 100% reliably detect and eliminate even the most sophisticated counterfeit and counterfeit bills, which are accurately counted.

【0006】貨幣識別技術については、従来サンプルパ
ターンデータから各種の特徴量を抽出し、その後演算処
理して基準パターンを求め、その基準パターンと入力デ
ータとの照合により認識を行うパターンマッチング手法
がある。また、人間の脳神経系を模倣したモデルのニュ
ーラルネットワークとして、BP(Back-Propagation)法
による学習に基づいた階層型ニューラルネットワークが
注目されている。他のニューラルネットワークとしてL
VQ(Learning Vector Quantization)法による学習を行
う競合型ニューラルネットワークがあり、LVQ法によ
って基準パターンを学習により作成し、入力データの特
徴量が多次元な場合や複雑なパターン認識においても容
易に識別が行える。
As for the currency identification technology, there is a conventional pattern matching method of extracting various characteristic amounts from sample pattern data, thereafter performing arithmetic processing to obtain a reference pattern, and performing recognition by comparing the reference pattern with input data. . Also, as a neural network of a model imitating a human brain nervous system, a hierarchical neural network based on learning by a BP (Back-Propagation) method has attracted attention. L as another neural network
There is a competitive neural network that performs learning by the VQ (Learning Vector Quantization) method. A reference pattern is created by learning by the LVQ method. I can do it.

【0007】しかしながら、パターンマッチングによっ
て複雑なパターン認識を行う場合には、単純にサンプル
データの平均値を求めるだけでは、一部が正常紙幣とい
う様な同一の紙幣を使用して偽造された不正紙幣を正確
に不正紙幣と識別することは、非常に困難であり、基準
パターンの作成に多くの経験と時間が必要となる。ま
た、BP法に基づく階層型ニューラルネットワークでは
パターン認識に要する演算量が多く(3層構造でニュー
ロン数が多く、シグモイド関数を使用しているため)、
認識に時間がかかる。演算時間はニューロ演算処理をハ
ードウェア化することで解決できるが、ハードウェア
(DSPやニューロ専用CPUボード等の使用)は非常
に高価なものであり、学習において局所解に陥ったり、
構造が複雑なため入力と出力の物理的な因果関係を見出
すことが困難であるなどの問題がある。
However, when performing complex pattern recognition by pattern matching, simply calculating the average value of the sample data simply means that a fraudulent bill that has been counterfeited using the same bill, such as a normal bill, is partially used. It is very difficult to accurately identify a banknote as a fraudulent banknote, and a lot of experience and time are required to create a reference pattern. In addition, the hierarchical neural network based on the BP method requires a large amount of computation for pattern recognition (because the three-layer structure has a large number of neurons and uses a sigmoid function).
It takes time to recognize. The operation time can be solved by implementing the neuro operation processing as hardware, but the hardware (use of a DSP or a neuro-dedicated CPU board, etc.) is very expensive, and may cause a local solution in learning,
There are problems such as difficulty in finding the physical causal relationship between input and output due to the complicated structure.

【0008】一方、競合型ニューラルネットワークで
は、パターンマッチングにおける基準パターンを結合係
数として学習し、複数の基準パターンを必要とする場合
にも容易に作成でき、複雑なパターン認識処理が行え
る。また、競合型ニューラルネットワークは構造が単純
であり、識別時は入力と結合係数との距離演算及び、出
力値の判定を閾値を用いて行うものであり、前記階層型
ニューラルネットワークと比べて、複雑なパターンや多
次元特徴量の入力に対しても容易に学習でき、識別時の
演算も高速に行える。
On the other hand, in a competitive neural network, a reference pattern in pattern matching is learned as a coupling coefficient, and can be easily created even when a plurality of reference patterns are required, so that a complicated pattern recognition process can be performed. Further, the competitive neural network has a simple structure, and performs a distance calculation between an input and a coupling coefficient and determines an output value using a threshold at the time of identification, which is more complicated than the hierarchical neural network. It is also possible to easily learn the input of a simple pattern or a multidimensional feature amount, and to perform the calculation at the time of identification at a high speed.

【0009】しかし、従来の競合型ニューラルネットワ
ークでは、入力された特徴量データは最も距離の近いニ
ューロンが発火するため、偽券などの識別すべき紙葉類
/紙幣以外の紙葉類/紙幣が入力された場合、その入力
データと結合係数との距離が遠いにも拘らず、いずれか
のニューロンが発火し誤認識してしまうという問題点が
あった。
[0009] However, in the conventional competitive neural network, the input feature value data is fired by the nearest neuron, so that papers / banknotes other than paper / banknotes to be identified, such as counterfeit bills, are generated. When the input is made, there is a problem that one of the neurons is fired and erroneously recognized even though the distance between the input data and the coupling coefficient is long.

【0010】ところで、貨幣識別機は、その目的により
他国の貨幣や偽造紙幣といった対象外の媒体が入力され
ることがある。しかし、競合型ニューラルネットワーク
では、入力特徴量データと各競合層ニューロン(以下、
単にニューロンともいう)の結合係数との距離を求め、
最も距離の近いニューロンが発火し、入力データが発火
したニューロンの属するカテゴリーに識別されるため、
入力データと結合係数との距離がかなり離れている場合
でも、入力データに最も距離の近い結合係数を持つ競合
層ニューロンが発火するため、偽造紙幣などの対象外媒
体に対しても発火して誤認識を生じることがあり得る。
このような誤認識を防ぐため、自己認識の範囲を確保す
るのに競合型ニューラルネットワークの出力値分布推定
を行い、出力値に対する閾値を各ニューロンに設定する
方法も特願平11−186135号に記載されている。
また、競合型ニューラルネットワークにおいて、複雑な
パターンを精度良く認識するにはニューロン数を増やせ
ば良いが、その方法は明確ではない。上述の学習では、
用いたデータの認識及び信頼性評価の結果を基に、自動
的にニューロン数の追加及び削除を行っている。ここ
で、学習とは、各競合層ニューロンの結合係数を更新し
て行くことである。
By the way, a currency discriminator may receive a non-target medium such as currency from another country or a counterfeit bill depending on the purpose. However, in the competitive neural network, the input feature data and each competitive layer neuron (hereinafter, referred to as
(Also simply called a neuron)
Since the nearest neuron fires and the input data is identified as the category to which the firing neuron belongs,
Even when the distance between the input data and the coupling coefficient is considerably large, the competitive layer neuron having the coupling coefficient closest to the input data will fire, and therefore will fire even on non-target media such as counterfeit banknotes and cause an error. It can cause recognition.
In order to prevent such erroneous recognition, a method of estimating an output value distribution of a competitive neural network to secure a range of self-recognition and setting a threshold value for an output value to each neuron is disclosed in Japanese Patent Application No. 11-186135. Has been described.
In a competitive neural network, a complex pattern can be accurately recognized by increasing the number of neurons, but the method is not clear. In the above learning,
The number of neurons is automatically added and deleted based on the results of data recognition and reliability evaluation used. Here, the learning means updating the coupling coefficient of each competitive layer neuron.

【0011】上述のLVQ法のアルゴリズムには、最も
距離が小さくなる1つのニューロンを学習するLVQ1
のほか、最も距離が小さくなる2つのニューロンを学習
するLVQ2及びLVQ3、LVQ1における学習率を
最適化したOLVQ1等があるが、上述の学習では、計
算が容易で高速に学習を行うことのできるOLVQ1
(Optimized Learning Vecto
r Quantization Method 1)が
用いられている。なお、LVQ法はユークリッド距離演
算のみのため、シグモイド関数を使用する階層型ニュー
ラルネットワークと異なって演算量が少なく、規模が小
さいため、通常のCPU等での実装が容易である。ま
た、結合係数は入力特徴量データの量子化ベクトルであ
るため、入力と出力の物理的な因果関係を容易に見出せ
る特徴がある。
The above algorithm of the LVQ method includes an LVQ1 for learning one neuron whose distance is the shortest.
Other than the above, there are LVQ2 and LVQ3 for learning the two neurons having the smallest distance, OLVQ1 for which the learning rate in LVQ1 is optimized, and the like.
(Optimized Learning Vector
r Quantization Method 1) is used. Since the LVQ method uses only the Euclidean distance calculation, unlike the hierarchical neural network using the sigmoid function, the amount of calculation is small and the scale is small. Further, since the coupling coefficient is a quantization vector of the input feature amount data, there is a feature that a physical causal relationship between the input and the output can be easily found.

【0012】ところで、競合型ニューラルネットワーク
は、図1のような2層構造から成っており、第1層の入
力層が入力パターンを受け取り、第2層の競合層への入
力を受け渡して入力パターンの分類を行う。入力層のニ
ューロンは競合層の各ニューロンと完全に結合されてお
り、各結合は結合係数で表現される。ここで、入力層の
ニューロンjから競合層のニューロンiの結合係数をw
ijと表現し、入力層のニューロン数をN、競合層のニ
ューロン数をMとする。競合層のニューロンでは、入力
されたデータx=(x1,x2,…,xN)と、そのニ
ューロンが有する結合係数wi=(w1,w2,…,w
N)とのユークリッド距離diを下記数1に従って計算
する。
Meanwhile, the competitive neural network has a two-layer structure as shown in FIG. 1, in which a first input layer receives an input pattern, and an input to a second competitive layer is passed to the input pattern to input the input pattern. Classification of The neurons in the input layer are completely connected to the neurons in the competitive layer, and each connection is represented by a connection coefficient. Here, the coupling coefficient between the neuron j in the input layer and the neuron i in the competition layer is represented by w
ij, where N is the number of neurons in the input layer and M is the number of neurons in the competition layer. In the neuron of the competitive layer, the input data x = (x1, x2,..., XN) and the coupling coefficient wi = (w1, w2,.
The Euclidean distance di with respect to N) is calculated according to the following equation (1).

【0013】[0013]

【数1】 上記数1で定義された距離diが最小になるニューロン
cを選び、それを勝者ニューロンと呼ぶ。
(Equation 1) The neuron c whose distance di defined by the above equation 1 is minimized is selected, and is called a winner neuron.

【0014】[0014]

【数2】 この勝者ニューロンの出力ycは、yc=1となり、他
のニューロンの出力yi(i≠c)は、yi=0とな
る。
(Equation 2) The output yc of the winner neuron is yc = 1, and the outputs yi (i ≠ c) of the other neurons are yi = 0.

【0015】この手法では入力パターンベクトルに対し
て、最も距離の近い結合係数を持つ競合層のニューロン
が発火するため、これにより競合型ニューラルネットワ
ークへの入力パターンの識別が可能である。
In this method, the neuron of the competitive layer having the coupling coefficient closest to the input pattern vector is fired, so that the input pattern to the competitive neural network can be identified.

【0016】[0016]

【発明が解決しようとする課題】すなわち、対象となる
紙幣の全領域をそれぞれ所定の各小領域に分割して、各
小領域に対応した特徴量を抽出し、パターンマッチング
技術により紙幣の金種、方向を識別/判定する場合、図
21(A)に示すように、予め所定の枚数の正常な紙幣
を処理して作成した基準パターンA、B等に対し、新し
く未知の紙幣Xを入力して抽出される特徴量をパターン
マッチング処理すると、各基準パターンとの照合演算値
の大小や、許容範囲の内外判定から、未知紙幣Xは基準
パターンBの金種、方向であると正常に識別できる。
That is, the entire area of a target banknote is divided into predetermined small areas, and a feature amount corresponding to each small area is extracted. In the case of identifying / determining the direction, as shown in FIG. 21 (A), a new unknown banknote X is input to the reference patterns A, B, etc., which are created by processing a predetermined number of normal banknotes in advance. When the extracted feature amount is subjected to pattern matching processing, the unknown banknote X can be normally identified as the denomination and direction of the reference pattern B from the magnitude of the comparison operation value with each reference pattern and the determination of the inside / outside of the allowable range. .

【0017】しかしながら、図21(B)に示す未知入
力紙幣Yのように、類似した他国紙幣や、偽造紙幣、変
造紙幣、及び、一部に正常な紙幣を使用した一部特異変
造の偽造紙幣等が入力された場合には、上述のパターン
マッチング技術や、領域全体から抽出される特徴量だけ
を利用して単純にパターン認識すると、未知入力紙幣Y
は、その一部が特異なだけで、大部分の特徴量は偽造元
の基準パターンBと類似しているので、マッチング結果
やパターン認識結果が基準パターンBの許容範囲内に収
まり、誤認識、誤識別してしまう結果となっていた。ま
た、上述の一部特異な偽造を施した紙幣に対しては、特
異な偽造領域だけを抽出して正常な基準パターンと比較
/照合すれば偽造紙幣を排除できるが、偽造/変造紙幣
に対してはどの領域が偽造/変造されているのか予め予
測することは困難であるので、かかる特異変造された紙
幣を正しく識別することは非常に困難となっていた。
However, like the unknown input banknote Y shown in FIG. 21B, similar foreign country banknotes, counterfeit banknotes, falsified banknotes, and partially peculiarly falsified banknotes using normal banknotes are used. Is input, if the pattern is simply recognized using the above-described pattern matching technique or only the feature amount extracted from the entire area, the unknown input bill Y
Is partially unique, and most of the feature amounts are similar to the reference pattern B of the forgery source, so that the matching result and the pattern recognition result fall within the allowable range of the reference pattern B, This resulted in misidentification. In addition, for the above-mentioned partially unique counterfeit banknotes, it is possible to exclude counterfeit banknotes by extracting only specific counterfeit areas and comparing / collating them with a normal reference pattern. Since it is difficult to predict in advance which area has been forged / falsified, it has been extremely difficult to correctly identify such a specially falsified banknote.

【0018】また、損傷等の発生している紙幣に対して
は、以下のような問題点があった。すなわち、未知の入
力紙幣に対し、紙幣全体を所定の小領域に分割して、各
小領域毎の特徴量を各特徴量が抽出される毎に、順次、
パターン認識装置に入力して、紙幣の金種、方向を識別
する方法と、未知の入力紙幣に対し、紙幣全体を所定の
小領域に分割して、各小領域毎の特徴量を抽出し、パタ
ーン認識装置に一括入力して、紙幣の金種、方向を識別
する方法とを、単純に組み合わせて使用しても、類似し
た2種類の正常な基準パターンM,Nが登録されている
紙幣の場合、損傷が進行した正常な紙幣の識別率が向上
しないという問題点が発生した。
Further, there are the following problems with a banknote that has been damaged. That is, for an unknown input bill, the entire bill is divided into predetermined small areas, and the feature amount of each small area is sequentially extracted each time the feature amount is extracted.
Input to the pattern recognition device, the denomination of the bill, the method of identifying the direction and, for unknown input bills, divide the whole bill into predetermined small areas, extract the characteristic amount for each small area, Even if the method of collectively inputting into the pattern recognition device and identifying the denomination and the direction of the banknote is used in a simple combination, even if the similar two normal reference patterns M and N are registered, In this case, there is a problem that the identification rate of a damaged normal bill is not improved.

【0019】より具体的には、図22(A)に示すよう
に類似した2種類の正常な基準パターンM,Nが登録さ
れている場合に、基準パターンNとして識別すべき正常
な紙幣の入力パターンであって、領域5のみで部分的に
損傷を持った入力パターンXに対し、各小領域毎の判定
では、基準パターンNは領域5の損傷により排除され、
基準パターンMは、許容範囲内として識別候補に残る。
More specifically, when two similar normal reference patterns M and N are registered as shown in FIG. 22A, the input of a normal bill to be identified as the reference pattern N is performed. With respect to the input pattern X which is a pattern and is partially damaged only in the region 5, in the determination for each small region, the reference pattern N is excluded due to the damage in the region 5,
The reference pattern M remains in the identification candidate as being within the allowable range.

【0020】次に、領域全体の特徴量を一括入力して、
類似度を演算処理する場合、単純に上述の識別候補に残
った基準パターンだけを対象として、許容範囲内にある
一番類似した基準パターンを抽出処理すると、基準パタ
ーンNは、小領域の識別で排除されているので、基準パ
ターンMが、許容範囲内にある一番類似した基準パター
ンと判定され、損傷の発生した入力紙幣Xは、基準パタ
ーンMであると、誤認識してしまっていた。
Next, the feature values of the entire area are input collectively,
When calculating the similarity, simply extracting the most similar reference pattern within the allowable range only for the reference patterns remaining in the above-mentioned identification candidates, the reference pattern N becomes the small area identification. Since it is excluded, the reference pattern M is determined to be the most similar reference pattern within the allowable range, and the damaged input banknote X is erroneously recognized as the reference pattern M.

【0021】本発明は上述のような事情よりなされたも
のであり、本発明の目的は、一部特異な偽造/変造処理
された紙幣を、正確にパターン認識し、識別、排除でき
る紙幣の識別方法及び装置を提供することにある。ま
た、本発明の他の目的は、損傷が進行した正常な紙幣の
パターン認識の識別率を向上させ、正確に損傷紙幣とパ
ターン認識し、識別、排除できる紙幣の識別方法及び装
置を提供することにもある。
The present invention has been made in view of the circumstances described above, and it is an object of the present invention to identify a banknote that can be accurately pattern-recognized, discriminated, and eliminated from a partially unique counterfeit / falsified banknote. It is to provide a method and an apparatus. Further, another object of the present invention is to provide a method and an apparatus for improving the identification rate of pattern recognition of a damaged normal banknote, thereby accurately recognizing a damaged banknote as a pattern, and identifying and rejecting the damaged banknote. There is also.

【0022】[0022]

【課題を解決するための手段】この課題を解決するため
に請求項1に記載の紙幣の識別方法は、識別すべき紙幣
の特徴量を入力し基準パターンを学習し、その後、入力
された未知の紙幣を前記基準パターンを用いてパターン
認識する紙幣識別方法であって、前記未知の紙幣のセン
シングを行い所定の第1の小領域毎(基本単位)に抽出
された前記未知の紙幣の各特徴量を前記第1の小領域よ
りも大きい第2の小領域に集合させる第1のステップ
と、前記第2の小領域(103cの領域1〜P)の各々
に対応して設けられ、且つ該当紙幣の金種・方向の候補
として選択可能な基準パターンと前記第2の小領域(1
03cの領域1〜P)を構成する前記第1の小領域(基
本単位)の特徴量とを比較してパターン認識する第2の
ステップと前記パターン認識の結果前記未知の紙幣が該
当する金種、方向の候補を決定するとともに、該当しな
い金種、方向を候補の中から除外する第3のステップ
と、前記第2のステップと第3のステップを前記第2の
小領域を替えて全領域に亘って(窓パターン103cの
1〜Pに亘って)繰り返し、金種、方向の中から前記第
2のステップの結果を得て該未知の紙幣の候補として最
終的に残った紙幣の金種、方向を記憶する第4のステッ
プと、前記未知の紙幣の全体分の前記第1の所定の小領
域の特徴量と前記基準パターンの全てと同時に比較して
パターン認識を行い候補として得られた紙幣の金種、方
向の候補を記憶する第5のステップと、前記第4のステ
ップ及び前記第5のステップで記憶された紙幣の金種、
方向の候補に、それぞれ、共通の候補があった場合に、
この共通候補の紙幣の金種、方向を、当該未知の紙幣の
金種、方向として外部に出力する第6のステップとを含
むことを特徴としている。
According to a first aspect of the present invention, there is provided a banknote identification method for inputting a feature amount of a banknote to be identified, learning a reference pattern, and then inputting an unknown unknown value. A banknote recognition method for recognizing a pattern of the banknote using the reference pattern, wherein the unknown banknote is sensed and each characteristic of the unknown banknote is extracted for each predetermined first small area (basic unit). A first step of assembling an amount into a second sub-region larger than the first sub-region; and providing and corresponding to each of the second sub-regions (regions 1 to P of 103c). A reference pattern selectable as a candidate for a banknote denomination / direction and the second small area (1
A second step of recognizing a pattern by comparing a feature amount of the first small area (basic unit) constituting the first to third areas 03c and a denomination to which the unknown banknote corresponds as a result of the pattern recognition A third step of determining candidate directions and excluding non-applicable denominations and directions from the candidates; and replacing the second step and the third step by replacing the second small area with the entire area. (From 1 to P of the window pattern 103c), obtaining the result of the second step from among denominations and directions, and finally denominations of banknotes remaining as candidates for the unknown banknote And a fourth step of storing the direction, and simultaneously performing the feature recognition of the first predetermined small area and the reference pattern for the entirety of the unknown banknote to perform pattern recognition and obtain a candidate as a candidate. Remembers banknote denominations and direction candidates 5 and step, the fourth step and the fifth banknote denomination stored in step,
If there is a common candidate for each direction,
A sixth step of outputting the denomination and direction of the common candidate banknote to the outside as the denomination and direction of the unknown banknote.

【0023】さらに請求項2に記載の紙幣の識別方法は
前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用すること
を特徴としている。
[0023] Further, in the bill recognizing method according to the second aspect, the pattern recognition may be performed by an LVQ (Learning Vector Quantizon).
ation) method is used.

【0024】更に請求項3に記載の紙幣の識別方法は、
識別すべき紙幣の特徴量を入力し基準パターンを学習
し、その後、入力された未知の紙幣を前記基準パターン
を用いてパターン認識する紙幣識別方法であって、前記
パターン認識に、LVQ(Learning Vector Quantizatio
n)法によるニューラルネットワークを使用し、出力層ニ
ューロンに発火すべき金種・方向を設定し、前記識別す
べき紙幣のセンシングを行い紙幣の全体を、所定の第1
の小領域(基本単位)に分割すると共に、該ニューラル
ネットワークの入力層ニューロンに前記第1の小領域毎
に抽出された特徴量を全て入力し、パターンマッチング
における基準パターンを結合係数として学習し記憶させ
る第1のステップと、前記識別すべき紙幣の第1の小領
域毎(基本単位)に抽出された前記学習すべき紙幣の各
特徴量を前記第1の小領域よりも大きい第2の小領域に
集合させ(103C)、前記ニューラルネットワークの
入力層ニューロンに前記第2の小領域の特徴量を、小領
域を替えて全領域に亘って繰り返し入力して、前記基準
パターンとの距離を演算し、該当金種、方向の出力層ニ
ューロンが発火するように閾値を設定する第2のステッ
プと、前記第1の小領域(基本単位)毎に抽出された特
徴量の紙幣の全体分を前記ニューラルネットワークに同
時に入力して(103b)、前記基準パターンとの距離
を演算し、該当金種、方向の出力層ニューロンが発火す
るように閾値を設定する第3のステップと、前記未知の
紙幣の全体を、前記第1の小領域に分割すると共に、前
記小領域毎(基本単位)に抽出された前記未知の紙幣の
各特徴量を前記第2の小領域に集合させ(103C)、
前記ニューラルネットワークの入力層ニューロンに前記
第2の小領域の特徴量を、小領域を替えて全領域に亘っ
て繰り返し入力して、前記基準パターンとの距離を演算
し、候補となる紙幣の金種、方向を演算すると共に、前
記基準パターンとの距離が所定の閾値以上の出力層ニュ
ーロンを非活性化させる第1のパターン認識をする第4
のステップと、前記未知の紙幣の全体分の第1の小領域
毎(基本単位)に抽出された特徴量を全て前記ニューラ
ルネットワークに同時に入力して(103b)、候補と
なる紙幣の金種、方向を演算する第2のパターン認識を
する第5のステップと、前記第4及び第5のステップの
演算結果を比較し、同一候補が抽出された場合に、この
同一候補の紙幣の金種、方向を出力する第6のステップ
とからなることを特徴としている。
[0024] Further, a bill discriminating method according to claim 3 is characterized in that:
A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and then the input unknown banknote is pattern-recognized using the reference pattern. Quantizatio
Using a neural network according to the n) method, a denomination and a direction to be fired in the output layer neuron are set, the bill to be identified is sensed, and the whole bill is set to a predetermined first.
And input all the feature amounts extracted for each of the first small regions to the input layer neurons of the neural network, and learn and store a reference pattern in pattern matching as a coupling coefficient. A first step of causing each of the feature amounts of the banknote to be learned extracted for each first subregion (basic unit) of the banknote to be identified to be a second subregion larger than the first subregion. The feature amount of the second small area is repeatedly input to the input layer neurons of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A second step of setting a threshold value so that the output layer neuron of the corresponding denomination and direction is fired; and a whole feature amount banknote extracted for each first small area (basic unit). Simultaneously inputting into the neural network (103b), calculating the distance from the reference pattern, and setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires; The entire bill is divided into the first small areas, and the characteristic amounts of the unknown bills extracted for each of the small areas (basic units) are collected in the second small area (103C).
The feature amount of the second small area is repeatedly input to the input layer neuron of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A fourth pattern for calculating a seed and a direction and performing a first pattern recognition for inactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value;
And simultaneously inputting the feature amounts extracted for each of the first small areas (basic units) of the entire unknown bill to the neural network (103b), and denominations of candidate bills, Comparing the fifth step of performing the second pattern recognition for calculating the direction and the calculation results of the fourth and fifth steps, and when the same candidate is extracted, the denomination of the banknote of the same candidate; And a sixth step of outputting a direction.

【0025】更に請求項4記載の紙幣の識別方法は、識
別すべき紙幣の特徴量を入力し基準パターンを学習し、
その後、入力された未知の紙幣を前記基準パターンを使
用してパターン認識する紙幣識別方法であって、前記パ
ターン認識に、LVQ(Learning Vector Quantization)
法によるニューラルネットワークを使用し、出力層ニュ
ーロンに発火すべき金種・方向を設定し、前記識別すべ
き紙幣のセンシングを行い紙幣の全体を、所定の第1の
小領域(基本単位)に分割すると共に、該ニューラルネ
ットワークの入力層ニューロンに前記第1の小領域毎に
抽出された特徴量を全て入力し、パターンマッチングに
おける基準パターンを結合係数として学習し記憶させる
第1のステップと、前記識別すべき紙幣の第1の小領域
毎(基本単位)に抽出された前記識別すべき紙幣の各特
徴量を前記第1の小領域よりも大きい第2の小領域に集
合させ(103C)、前記ニューラルネットワークの入
力層ニューロンに前記第2の小領域の特徴量を、小領域
を替えて全領域に亘って繰り返し入力して、前記基準パ
ターンとの距離を演算し、該当金種、方向の出力層ニュ
ーロンが発火するように閾値を設定する第2のステップ
と、前記第1の小領域毎(基本単位)に抽出された特徴
量の紙幣の全体分を前記ニューラルネットワークに同時
に入力して、前記基準パターンとの距離を演算し、該当
金種、方向の出力層ニューロンが発火するように閾値を
設定する第3のステップと、前記未知の紙幣の全体を、
前記第1の小領域に分割すると共に、前記第1の小領域
毎(基本単位)に抽出された前記未知の紙幣の各特徴量
を前記第2の小領域に集合させ(103C)、前記ニュ
ーラルネットワークの入力層ニューロンに前記第2の小
領域の特徴量を、小領域を替えて全領域に亘って繰り返
し入力して、前記基準パターンとの距離を演算し、候補
となる紙幣の金種、方向を演算すると共に、前記基準パ
ターンとの距離が所定の閾値以上の出力層ニューロンを
非活性化させる第1のパターン認識をする第4のステッ
プと、前記未知の紙幣の全体分の第1の小領域毎(基本
単位)に抽出された特徴量を、前記第1のパターン認識
手段により出力層ニューロンが非活性化されたニューロ
ンを含む前記ニューラルネットワークに同時入力して、
候補となる紙幣の金種、方向を演算する第2のパターン
認識をする第5のステップと、前記第4及び第5のステ
ップの演算結果を比較し、同一候補が抽出された場合
に、この同一候補の紙幣の金種、方向を出力する第6の
ステップとからなることを特徴としている。
According to a fourth aspect of the present invention, there is provided a method for recognizing a bill, wherein a feature amount of the bill to be recognized is inputted and a reference pattern is learned.
Thereafter, a bill identification method for recognizing an inputted unknown bill using the reference pattern, wherein the pattern recognition includes LVQ (Learning Vector Quantization).
The denomination and the direction to be fired in the output layer neuron are set using the neural network by the method, the bill to be identified is sensed, and the whole bill is divided into a predetermined first small area (basic unit). A first step of inputting all the feature amounts extracted for each of the first small areas to an input layer neuron of the neural network, learning and storing a reference pattern in pattern matching as a coupling coefficient, and The feature amounts of the banknote to be identified extracted for each first subregion (basic unit) of the banknote to be collected are collected in a second subregion larger than the first subregion (103C). The feature amount of the second small area is repeatedly input to the input layer neuron of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A second step of setting a threshold value so that the output layer neuron of the corresponding denomination and direction is fired, and calculating the whole amount of the feature amount banknote extracted for each of the first small areas (basic units) The third step of simultaneously inputting to the neural network, calculating the distance from the reference pattern, setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires, ,
While dividing into the first small area, each characteristic amount of the unknown bill extracted for each of the first small areas (basic unit) is collected in the second small area (103C), The feature amount of the second small region is repeatedly input to the input layer neuron of the network over the entire region while changing the small region, and the distance from the reference pattern is calculated. A fourth step of calculating a direction and performing a first pattern recognition for inactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value; The feature amount extracted for each small area (basic unit) is simultaneously input to the neural network including neurons whose output layer neurons have been deactivated by the first pattern recognition means,
The fifth step of performing the second pattern recognition for calculating the denomination and the direction of the candidate banknotes is compared with the calculation results of the fourth and fifth steps. And a sixth step of outputting the denomination and the direction of the same candidate banknote.

【0026】更に請求項5に記載の紙幣の識別方法は、
識別すべき紙幣の特徴量を入力し基準パターンを学習
し、その後、入力された未知の紙幣を前記基準パターン
からパターン認識する紙幣識別方法であって、前記パタ
ーン認識に、LVQ(Learning Vector Quantization)法
によるニューラルネットワークを使用し、出力層ニュー
ロンに発火すべき金種・方向を設定し、該ニューラルネ
ットワークの入力層ニューロンには、前記識別すべき紙
幣のセンシングを行い所定の第1の小領域毎(基本単
位)に抽出された特徴量を全て入力し、パターンマッチ
ングにおける基準パターンを結合係数として学習し記憶
させる第1のステップと、前記学習すべき紙幣の第1の
小領域毎(基本単位)に抽出された前記学習すべき紙幣
の各特徴量を前記第1の小領域よりも大きい第2の小領
域に集合させ(103C)、前記ニューラルネットワー
クの入力層ニューロンに前記第2の小領域の特徴量を、
小領域を替えて全領域に亘って繰り返し入力して、前記
基準パターンとの距離を演算し、該当金種、方向の出力
層ニューロンが発火するように閾値を設定する第2のス
テップと、前記学習すべき紙幣の全体を、前記第1の小
領域に分割すると共に、第1の小領域毎(基本単位)に
抽出された特徴量を全て前記ニューラルネットワークに
同時に入力して(103b)、前記基準パターンとの距
離を演算し、該当金種、方向の出力層ニューロンが発火
するように閾値を設定する第3のステップと、前記未知
の紙幣の第1の小領域毎(基本単位)に抽出された前記
未知の紙幣の各特徴量を前記第2の小領域に集合させ
(103C)、前記ニューラルネットワークの入力層ニ
ューロンに前記第2の小領域の特徴量を、小領域を替え
て全領域に亘って繰り返し入力して、前記基準パターン
との距離を演算し、候補となる紙幣の金種、方向を演算
すると共に、前記基準パターンとの距離が所定の閾値以
上の出力層ニューロンを非活性化させる第1のパターン
認識をする第4のステップと、前記未知の紙幣の全体
を、前記第1の小領域に分割すると共に、第1の小領域
毎(基本単位)に抽出された特徴量を全て前記ニューラ
ルネットワークに同時に入力して(103b)、候補と
なる紙幣の金種、方向を演算する第2のパターン認識を
する第5のステップと、前記未知の紙幣の第1の小領域
毎(基本単位)に抽出された前記学習すべき紙幣の各特
徴量を前記第1の小領域よりも大きい領域であって、候
補となる金種に対し識別しうる特徴を有する第3の小領
域に集合させ(103a)、前記ニューラルネットワー
クの入力層ニューロンに前記第3の小領域の特徴量を入
力して、前記基準パターンとの距離を演算し、前記基準
パターンとの距離が最も近い出力層ニューロンを識別結
果とする第3のパターン認識をする第6のステップと、
前記第4及び第5及び第6のステップの演算結果を比較
し、同一候補が抽出された場合に、この同一候補の紙幣
の金種、方向を出力する第7のステップとからなること
を特徴としている。
Further, the bill recognition method according to the fifth aspect is characterized in that:
A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and thereafter, an input unknown banknote is pattern-recognized from the reference pattern. In the pattern recognition, LVQ (Learning Vector Quantization) is used. A denomination and a direction to be fired in an output layer neuron are set using a neural network based on the method, and the input layer neuron of the neural network senses the bill to be identified and performs a predetermined first small area A first step of inputting all the feature amounts extracted in (basic unit) and learning and storing a reference pattern in pattern matching as a coupling coefficient, and for each first small area of the banknote to be learned (basic unit) The feature amounts of the banknotes to be learned that are extracted in the second small area larger than the first small area are collected (103C). The feature quantity of the second small region in the input layer neurons-menu neural network,
A second step of repeatedly inputting over the entire area while replacing the small area, calculating the distance to the reference pattern, and setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires; The entire banknote to be learned is divided into the first small areas, and all the feature amounts extracted for each first small area (basic unit) are simultaneously input to the neural network (103b). A third step of calculating a distance from the reference pattern and setting a threshold value so that an output layer neuron of a corresponding denomination and direction is fired, and extracting the first small area (basic unit) of the unknown bill; The characteristic amounts of the unknown bills thus collected are collected in the second small area (103C), and the input amount neuron of the neural network is replaced with the characteristic amount of the second small area, and the entire area is replaced by the small area. Over Return input, calculate the distance to the reference pattern, calculate the denomination and direction of the candidate banknote, and deactivate the output layer neuron whose distance to the reference pattern is equal to or greater than a predetermined threshold. A fourth step of performing pattern recognition, and dividing the entirety of the unknown banknote into the first small areas, and extracting all feature amounts extracted for each first small area (basic unit). A fifth step of simultaneously inputting to the neural network (103b) and performing a second pattern recognition for calculating the denomination and direction of a candidate banknote; and a first step for each first small area of the unknown banknote (basic unit). ), The feature amounts of the banknotes to be learned are collected in a third sub-region that is larger than the first sub-region and has a feature that can be identified for a candidate denomination. (103a), the new The feature amount of the third small region is input to the input layer neuron of the network, the distance to the reference pattern is calculated, and the output layer neuron closest to the reference pattern is used as the identification result. A sixth step of performing pattern recognition of
A seventh step of comparing the calculation results of the fourth, fifth, and sixth steps and, when the same candidate is extracted, outputting the denomination and direction of the banknote of the same candidate. And

【0027】次に請求項6に記載の紙幣識別装置は、識
別すべき紙幣の特徴量を入力し基準パターンを学習し、
その後、入力された未知の紙幣を前記基準パターンから
パターン認識するとともに、前記パターン認識に、LV
Q(Learning Vector Quantization)法によるニューラル
ネットワークを使用し、このニューラルネットワークの
入力層ニューロンには、分割した所定の小領域毎に、得
られた特徴量を、位置依存関係に応じて選択的に入力
し、ニューロ演算する紙幣識別装置であって、紙幣のセ
ンシングを行い紙幣の全体を、所定の第1の小領域に分
割し特徴量を抽出する特徴量抽出手段と、所定の枚数の
学習用紙幣を処理し、識別すべき紙幣のそれぞれに対
し、前記特徴量抽出手段により得られた各小領域毎の特
徴量を、前記ニューラルネットワークの入力層ニューロ
ンに順次入力して、前記基準パターンをそれぞれ所定の
ニューロンに記憶させる第1の学習手段と、前記特徴量
抽出手段により第1の小領域毎に抽出された前記識別す
べき紙幣の各特徴量を前記第1の小領域よりも大きい第
2の小領域に集合させ、紙幣の全領域に対する特徴量
を、前記ニューラルネットワークの入力層ニューロンに
同時に入力して、前記基準パターンをそれぞれ所定のニ
ューロンに記憶させる第2の学習手段と、前記未知の紙
幣から前記特徴量抽出手段により得られた特徴量を前記
第2の小領域に集合させ、前記ニューラルネットワーク
の入力層ニューロンに順次入力して、前記基準パターン
との距離を演算し、候補となる紙幣の金種、方向を演算
すると共に、前記基準パターンとの距離が所定の閾値以
上の出力層ニューロンを非活性化させる第1のパターン
認識手段と、前記特徴量抽出手段により第1の小領域毎
に抽出された前記未知の紙幣全体分の特徴量を、前記第
1のパターン認識手段により出力層ニューロンが非活性
化されたニューロンを含む前記ニューラルネットワーク
に同時に入力して、前記基準パターンとの距離を演算
し、この距離が所定の閾値以内の出力層ニューロンは、
全て紙幣の金種、方向の候補として選択可能な第2のパ
ターン認識手段と、前記第1及び第2のパターン認識手
段の演算結果を比較し、同一候補が抽出された場合に、
この同一候補の紙幣の金種、方向を出力する演算結果統
合手段とを具えたことを特徴としている。
Next, the bill discriminating apparatus according to claim 6 inputs a feature amount of a bill to be discriminated and learns a reference pattern,
Thereafter, the input unknown banknote is pattern-recognized from the reference pattern, and LV is used for the pattern recognition.
A neural network based on the Q (Learning Vector Quantization) method is used, and the input layer neurons of the neural network are selectively input with the obtained feature amounts for each of the divided small regions according to the positional dependency. A bill discriminating device for performing a neuro operation, wherein the bill sensing device performs sensing of the bill and divides the whole bill into a first predetermined small area to extract a feature amount; and a predetermined number of learning bills. For each of the banknotes to be identified, sequentially inputting the characteristic amount of each small area obtained by the characteristic amount extracting means to the input layer neuron of the neural network, and setting the reference pattern to a predetermined value. A first learning unit that stores the characteristic amount of the banknote to be identified extracted for each first small area by the characteristic amount extracting unit. A second learning step in which the reference amounts are gathered in a second small area larger than the area, and the feature amounts for the entire area of the bill are simultaneously input to the input layer neurons of the neural network, and the reference patterns are stored in predetermined neurons, respectively. Means, the feature amounts obtained by the feature amount extraction means from the unknown banknotes are collected in the second small area, and sequentially input to the input layer neurons of the neural network, and the distance from the reference pattern is calculated. A first pattern recognition means for calculating a denomination and a direction of a candidate banknote and deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value; The output layer neuron is deactivated by the first pattern recognition means by using the feature amount of the entire unknown bill extracted for each first small area by the first pattern recognition means. The Type neural network simultaneously comprising of neurons, and calculates the distance between the reference pattern, the output layer neurons of the distance is within the predetermined threshold value,
Comparing the calculation results of the second pattern recognition means, which can be selected as banknote denominations and direction candidates, and the first and second pattern recognition means, and when the same candidate is extracted,
And a calculation result integrating means for outputting a denomination and a direction of the banknote of the same candidate.

【0028】また、請求項7に記載の紙幣識別方法は、
識別すべき紙幣の特徴量を入力し基準パターンを学習
し、その後、入力された未知の紙幣を前記基準パターン
からパターン認識する紙幣識別方法であって、前記パタ
ーン認識に、LVQ(Learning Vector Quantization)法
によるニューラルネットワークを使用し、出力層ニュー
ロンに発火すべき金種・方向を設定し、該ニューラルネ
ットワークの入力層ニューロンには、前記識別すべき紙
幣のセンシングを行い所定の第1の小領域毎(基本単
位)に抽出された特徴量を全て入力し、パターンマッチ
ングにおける基準パターンを結合係数として学習し記憶
させる第1のステップと、前記学習すべき紙幣の第1の
小領域毎(基本単位)に抽出された前記学習すべき紙幣
の各特徴量を前記第1の小領域よりも大きい第2の小領
域に集合させ(103C)、前記ニューラルネットワー
クの入力層ニューロンに前記第2の小領域の特徴量を、
小領域を替えて全領域に亘って繰り返し入力して、前記
基準パターンとの距離を演算し、該当金種、方向の出力
層ニューロンが発火するように閾値を設定する第2のス
テップと、前記学習すべき紙幣の全体を、前記第1の小
領域に分割すると共に、第1の小領域毎(基本単位)に
抽出された特徴量を全て前記ニューラルネットワークに
同時に入力して(103b)、前記基準パターンとの距
離を演算し、該当金種、方向の出力層ニューロンが発火
するように閾値を設定する第3のステップと、予め類似
した候補のニューロンを、それぞれ登録しておく連想ニ
ューロンテーブルを設ける第4のステップと、前記未知
の紙幣の第1の小領域毎(基本単位)に抽出された前記
未知の紙幣の各特徴量を前記第1の小領域よりも大きい
第2の小領域に集合させ(103C)、前記ニューラル
ネットワークの入力層ニューロンに前記第2の小領域の
特徴量を、小領域を替えて全領域に亘って繰り返し入力
して、前記基準パターンとの距離を演算し、候補となる
紙幣の金種、方向を演算すると共に、前記基準パターン
との距離が所定の閾値以上の出力層ニューロンを非活性
化させる第1のパターン認識をする第5のステップと、
前記未知の紙幣の全体を、第2の所定の小領域に分割す
ると共に、各小領域を一括処理して、得られた各特徴量
を、前記第1のパターン認識手段により出力層ニューロ
ンが非活性化されたニューロンを含む前記ニューラルネ
ットワークで、かつ、前記連想ニューロンテーブルの候
補ニューロンに登録されているニューロンは全て活性化
させた状態のニューラルネットワークに同時に入力し
て、前記基準パターンとの距離を演算し、この距離が所
定の閾値以内の出力層ニューロンは、全て紙幣の金種、
方向の候補として選択可能な第2のパターン認識する第
6のステップと、前記第5及び第6のステップの演算結
果を比較し、同一候補が抽出された場合に、この同一候
補の紙幣の金種、方向を出力する第7のステップとを有
することを特徴としている。
[0028] The bill identifying method according to claim 7 is characterized in that:
A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and thereafter, an input unknown banknote is pattern-recognized from the reference pattern. In the pattern recognition, LVQ (Learning Vector Quantization) is used. A denomination and a direction to be fired in an output layer neuron are set using a neural network based on the method, and the input layer neuron of the neural network senses the bill to be identified and performs a predetermined first small area A first step of inputting all the feature amounts extracted in (basic unit) and learning and storing a reference pattern in pattern matching as a coupling coefficient, and for each first small area of the banknote to be learned (basic unit) The feature amounts of the banknotes to be learned that are extracted in the second small area larger than the first small area are collected (103C). The feature quantity of the second small region in the input layer neurons-menu neural network,
A second step of repeatedly inputting over the entire area while replacing the small area, calculating the distance to the reference pattern, and setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires; The entire banknote to be learned is divided into the first small areas, and all the feature amounts extracted for each first small area (basic unit) are simultaneously input to the neural network (103b). A third step of calculating the distance from the reference pattern and setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires, and an associative neuron table in which similar candidate neurons are registered in advance A fourth step of providing, and each feature amount of the unknown bill extracted for each first small area (basic unit) of the unknown bill into a second small area larger than the first small area. Collection (103C), the feature amount of the second small area is repeatedly input to the input layer neuron of the neural network over the entire area, replacing the small area, and the distance from the reference pattern is calculated. A fifth step of calculating the denomination and direction of the banknote to be performed, and performing first pattern recognition for deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value;
The entire unknown banknote is divided into second predetermined small areas, and each small area is collectively processed, and the obtained feature amount is output to the output layer neuron by the first pattern recognition means. In the neural network including activated neurons, all neurons registered as candidate neurons in the associative neuron table are simultaneously input to the activated neural network, and the distance from the reference pattern is determined. The output layer neurons whose distance is within a predetermined threshold are all denominations of banknotes,
The sixth step of recognizing a second pattern that can be selected as a direction candidate is compared with the calculation results of the fifth and sixth steps, and when the same candidate is extracted, the money of the banknote of the same candidate is extracted. And a seventh step of outputting a seed and a direction.

【0029】更に、請求項8に記載の紙幣識別方法は、
識別すべき紙幣の特徴量を入力し基準パターンを学習
し、その後、入力された未知の紙幣を前記基準パターン
からパターン認識する紙幣識別方法であって、前記パタ
ーン認識に、LVQ(Learning Vector Quantization)法
によるニューラルネットワークを使用し、出力層ニュー
ロンに発火すべき金種・方向を設定し、該ニューラルネ
ットワークの入力層ニューロンには、前記識別すべき紙
幣のセンシングを行い所定の第1の小領域毎(基本単
位)に抽出された特徴量を全て入力し、パターンマッチ
ングにおける基準パターンを結合係数として学習し記憶
させる第1のステップと、前記学習すべき紙幣の前記第
1の小領域毎(基本単位)に抽出された前記学習すべき
紙幣の各特徴量を前記第1の小領域よりも大きい第2の
小領域に集合させ(103C)、前記ニューラルネット
ワークの入力層ニューロンに前記第2の小領域の特徴量
を、小領域を替えて全領域に亘って繰り返し入力して、
前記基準パターンとの距離を演算し、該当金種、方向の
出力層ニューロンが発火するように閾値を設定する第2
のステップと、前記学習すべき紙幣の全体を、前記第1
の小領域に分割すると共に、第1の小領域毎(基本単
位)に抽出された特徴量を全て前記ニューラルネットワ
ークに同時に入力して(103b)、前記基準パターン
との距離を演算し、該当金種、方向の出力層ニューロン
が発火するように閾値を設定する第3のステップと、予
め類似した候補のニューロンを、それぞれ登録しておく
連想ニューロンテーブルを設ける第4のステップと、前
記未知の紙幣の前記第1の小領域毎(基本単位)に抽出
された前記未知の紙幣の各特徴量を前記第1の小領域よ
りも大きい第2の小領域に集合させ(103C)、前記
ニューラルネットワークの入力層ニューロンに前記第2
の小領域の特徴量を、小領域を替えて全領域に亘って繰
り返し入力して、前記基準パターンとの距離を演算し、
候補となる紙幣の金種、方向を演算すると共に、前記基
準パターンとの距離が所定の閾値以上の出力層ニューロ
ンを非活性化させる第1のパターン認識をする第5のス
テップと、前記未知の紙幣の全体を、前記第2の小領域
に分割すると共に、各小領域を一括処理して、得られた
各特徴量を、前記第1のパターン認識手段により出力層
ニューロンが非活性化されたニューロンを含む前記ニュ
ーラルネットワークで、かつ、前記連想ニューロンテー
ブルの候補ニューロンに登録されているニューロンを全
て活性化させた状態のニューラルネットワークに同時に
入力して、前記基準パターンとの距離を演算し、この距
離が所定の閾値以内の出力層ニューロンは、全て紙幣の
金種、方向の候補として選択可能な第2のパターン認識
する第6のステップと、前記未知の紙幣の第1の小領域
毎(基本単位)に抽出された前記学習すべき紙幣の各特
徴量を前記第1の小領域よりも大きい領域であって、候
補となる金種に対し識別しうる特徴を有する第3の小領
域に集合させ(103a)、前記ニューラルネットワー
クの入力層ニューロンに前記第3の小領域の特徴量を入
力して、前記基準パターンとの距離を演算し、前記基準
パターンとの距離が最も近い出力層ニューロンを識別結
果とする第3のパターン認識をする第7のステップと、
前記第5及び第6及び第7のステップの演算結果を比較
し、同一候補が抽出された場合に、この同一候補の紙幣
の金種、方向を出力する第8のステップとを有すること
を特徴としている。
[0029] Further, the bill identification method according to claim 8 is characterized in that:
A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and thereafter, an input unknown banknote is pattern-recognized from the reference pattern. A denomination and a direction to be fired in an output layer neuron are set using a neural network based on the method, and the input layer neuron of the neural network senses the bill to be identified and performs a predetermined first small area A first step of inputting all the feature amounts extracted in (basic unit) and learning and storing a reference pattern in pattern matching as a coupling coefficient; and a first step for each of the first small areas of the banknote to be learned (basic unit). ), The characteristic amounts of the banknotes to be learned extracted in (2) are aggregated in a second small area larger than the first small area (103C). Serial characteristic quantity of the second small region in the input layer neurons of the neural network, and enter repeatedly over the entire area instead of the small regions,
Calculating a distance from the reference pattern and setting a threshold value so that the output layer neuron of the corresponding denomination and direction is fired;
And the whole of the banknotes to be learned
, And simultaneously input all feature amounts extracted for each first small area (basic unit) to the neural network (103b), calculate the distance from the reference pattern, and calculate A third step of setting a threshold value so that an output layer neuron of a seed and a direction fires, a fourth step of providing an associative neuron table for registering previously similar candidate neurons, and the unknown banknote. The characteristic amounts of the unknown banknotes extracted for each of the first small areas (basic units) are aggregated into a second small area larger than the first small area (103C), and In the input layer neuron, the second
The feature amount of the small area is repeatedly input over the entire area while changing the small area, and the distance from the reference pattern is calculated,
A fifth step of calculating a denomination and a direction of a candidate banknote and performing a first pattern recognition for deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value; The entire banknote was divided into the second sub-regions, and the respective sub-regions were collectively processed, and the obtained feature amounts were used to deactivate the output layer neurons by the first pattern recognition means. The neural network including neurons, and all the neurons registered in the candidate neurons of the associative neuron table are simultaneously input to the activated neural network, and the distance from the reference pattern is calculated. The output-layer neurons whose distances are within the predetermined threshold value are all in the sixth step of recognizing the second pattern selectable as a candidate for the denomination and direction of the banknote. A region where each feature amount of the banknote to be extracted extracted for each first subregion (basic unit) of the unknown banknote is larger than the first subregion and is a candidate denomination Are collected into a third small area having distinguishable features (103a), and the feature amount of the third small area is input to the input layer neuron of the neural network, and the distance from the reference pattern is calculated. A seventh step of performing third pattern recognition using an output layer neuron closest to the reference pattern as a classification result;
An eighth step of comparing the calculation results of the fifth, sixth, and seventh steps and outputting the denomination and direction of the same candidate banknote when the same candidate is extracted. And

【0030】[0030]

【発明の実施の形態】以下に、本発明の詳細を、図面を
参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The details of the present invention will be described below with reference to the drawings.

【0031】図2は、上述した競合型ニューラルネット
ワークを用いて紙幣等の画像又は時系列データ等の特徴
量を入力して、予め登録されている基準パターンとの類
似度を演算する本発明のパターン認識手段の1構成例を
示しており、ニューラルネットワークの競合層ニューロ
ンに判定部1が接続されている。すなわち、入力される
紙幣から抽出される画像又は時系列データ等の特徴量
は、所定の数の異なる波長を利用した反射/透過タイプ
の光学式センサの出力や磁気センサ(単独または複数
個)の出力を演算処理して得られ、かかるセンサ出力の
特徴量が競合型ニューラルネットワークによりクラスタ
リングされる。
FIG. 2 shows a feature of the present invention in which a feature amount such as an image of a banknote or time-series data is input using the above-mentioned competitive neural network and a similarity with a pre-registered reference pattern is calculated. 1 shows an example of a configuration of a pattern recognition unit, in which a determination unit 1 is connected to a competitive layer neuron of a neural network. That is, the feature quantity such as an image or time-series data extracted from an input bill is determined by the output of a reflection / transmission type optical sensor using a predetermined number of different wavelengths or the magnetic sensor (single or plural). The output is obtained by arithmetic processing, and the feature amount of the sensor output is clustered by a competitive neural network.

【0032】ところで、従来は、入力紙幣から特徴量を
抽出する場合、後述するように各センサからの出力を図
4〜図7に示すモザイク化処理し、更に入力データに対
するオフセットやゲインのばらつきを減少させるため
に、正規化を行っていた。すなわち、図5に示すように
センサ2a〜2nの出力を、搬送方向に沿って順次処理
し、搬送方向に分割した各小領域毎にモザイク化処理
し、更に、入力紙幣の全領域に渡って入力走査が終了し
た後に、上述の入力センサデータに対するオフセットや
ゲインのばらつきを減少させるために、正規化を行って
いた。このため、入力紙幣に対する全領域の走査が終了
するまで、上述のモザイク化及び入力センサデータに対
するオフセットやゲインのばらつきを減少させるための
正規化処理が実行できず、かかる入力データの補正処理
に時間がかかり、前処理時間が長期化するという問題点
となっていた。
By the way, conventionally, when extracting a characteristic amount from an input bill, the output from each sensor is subjected to a mosaic processing shown in FIGS. To reduce it, normalization was performed. In other words, as shown in FIG. 5, the outputs of the sensors 2a to 2n are sequentially processed in the transport direction, mosaic processing is performed for each small area divided in the transport direction, and further, over the entire area of the input bill. After the end of the input scanning, normalization is performed to reduce the above-described offset and gain variations with respect to the input sensor data. For this reason, the above-mentioned mosaic processing and the normalization processing for reducing the variation of the offset and gain with respect to the input sensor data cannot be executed until the scanning of the entire area for the input bill is completed. And the pre-treatment time is prolonged.

【0033】尚、従来の搬送方向に分割した各小領域毎
の処理では、分割した各小領域の間ではオーバーラップ
して特徴抽出のための小領域を設定することは試みられ
なかった。このため、部分的な特徴を抽出できたり、上
手に抽出できなかったりして、特徴抽出処理が安定しな
いという問題点ともなっていた。
In the conventional processing for each small area divided in the transport direction, no attempt has been made to set a small area for feature extraction by overlapping each divided small area. For this reason, there has been a problem that a feature extraction process is not stable because a partial feature can be extracted or cannot be extracted well.

【0034】かくして、発火するニューロン別にデータ
分類されるが、競合層ニューロンiで発火するデータ集
合を1つの母集団Siとする。例えば100枚の紙幣デ
ータを入力したとき、40枚がニューロン1に発火し、
60枚がニューロン2に発火したとすると、40枚のデ
ータから成る集合S1及び60枚のデータから成る集合
S2に分類されたことになる。これをクラスタリングと
いう。
Thus, data is classified according to the firing neuron. A data set firing in the competitive layer neuron i is defined as one population Si. For example, when 100 bill data are input, 40 bills fire on neuron 1,
Assuming that 60 neurons fired on the neuron 2, it is classified into a set S1 composed of 40 data and a set S2 composed of 60 data. This is called clustering.

【0035】判定部1は距離di(1〜M)中から最小
値dcを求め、ニューロンcの閾値θcとの比較を行
い、dc≦θcならニューロンcを発火し、dc>θc
ならニューロンcは未発火とする。ただし、閾値θc
は、正常な紙幣から抽出した特徴量から演算した学習デ
ータに対して、ニューロンcにおける最小距離の平均値
をmc、標準偏差をσcとするとき、0又は正数kcを
用いてθc=mc+kc・σcで求める。また、競合層
のニューロンは、1つのカテゴリー(金種、方向:4つ
の紙幣搬送方向をA〜Dで表す)に対し、1つ又は複数
個である。例えば米国の$5紙幣のD方向に対し、4個
の競合層ニューロンを持つ判定部では、$5のD方向の
各ニューロンに対し、閾値がそれぞれ設定されている。
The determination unit 1 finds the minimum value dc from the distance di (1 to M), compares the minimum value dc with the threshold value θc of the neuron c, fires the neuron c if dc ≦ θc, and dc> θc
If so, the neuron c is not fired. However, the threshold θc
Is given assuming that the average value of the minimum distance in the neuron c is mc and the standard deviation is σc with respect to the learning data calculated from the feature amount extracted from the normal banknote, and θc = mc + kc · σc. The competition layer has one or more neurons for one category (denomination, direction: four bill conveyance directions are represented by A to D). For example, in the determination unit having four competitive layer neurons in the D direction of US $ 5 banknote, a threshold value is set for each neuron in the D direction of $ 5.

【0036】図3は本発明のニューラルネットワークの
学習過程の全体的な動作例の1例を示しており、先ず偽
造等のない正常な紙幣から抽出された特徴量を学習用デ
ータとして利用し、これらデータに対してデータ前処理
を行い(ステップS10)、結合係数Wijの初期化を
行い(ステップS20)、LVQ学習を実行する(ステ
ップS30)。結合係数Wijの初期化では、各ニュー
ロンに該当する入力データの平均値を用いる。例えば$
1Aのニューロンに対して、$1Aのデータの平均値を
初期値とする。結合係数Wijの学習によりニューラル
ネットワークを構築し、学習データに対して閾値を作成
し(ステップS40)、発火しないニューロンを削除す
る(ステップS50)。次に、学習データの評価を行い
(ステップS60)、評価の結果、認識率、信頼性の低
い場合にはニューロンの追加が必要なので、ニューロン
追加のチェックを行い(ステップS70)、ニューロン
の追加がないか否かを判定し(ステップS80)、追加
がなければ閾値を拡張する(ステップS90)。また、
上記ステップS80においてニューロンの追加がある場
合には、上記ステップS30にリターンする。以下に上
記フローの各部詳細を説明する。
FIG. 3 shows an example of an overall operation example of the learning process of the neural network according to the present invention. First, a feature extracted from a normal banknote without forgery or the like is used as learning data. Data preprocessing is performed on these data (step S10), initialization of the coupling coefficient Wij is performed (step S20), and LVQ learning is performed (step S30). In the initialization of the coupling coefficient Wij, the average value of the input data corresponding to each neuron is used. For example $
The average value of the data of $ 1A is set as the initial value for the neuron of 1A. A neural network is constructed by learning the coupling coefficient Wij, a threshold is created for the learning data (step S40), and non-firing neurons are deleted (step S50). Next, the learning data is evaluated (step S60). If the result of the evaluation indicates that the recognition rate and the reliability are low, it is necessary to add a neuron. Therefore, the neuron addition is checked (step S70). It is determined whether or not there is not (step S80), and if there is no addition, the threshold is extended (step S90). Also,
If a neuron is added in step S80, the process returns to step S30. The details of each part of the above flow will be described below.

【0037】図4はデータ前処理(ステップS10)の
処理フローを示しており、図5に示すように、紙幣4の
搬送に対してセンサ2a〜2nの走査で、例えば、光学
的に得られる紙幣データに対しては、モザイク化処理を
行う(ステップS11)。このモザイク化処理では、2
56画素のセンサ出力データを32画素から成る入力デ
ータに変換する。
FIG. 4 shows a processing flow of the data pre-processing (step S10). As shown in FIG. Mosaic processing is performed on the bill data (step S11). In this mosaic processing, 2
The sensor output data of 56 pixels is converted into input data of 32 pixels.

【0038】具体的には先ず256画素のデータを8画
素ずつに区切り、その領域内の各画素値の平均値を演算
する。この結果、演算された各平均値を画素値とする3
2個のデータがそのモザイク化された入力データとして
得られる。即ち、センサ2a〜2nによって採取された
データは、例えば図6(A)に示すような時系列データ
となり、この時系列データを8画素単位の平均値でグラ
フ化すると同図(B)に示すようになる。このモザイク
化処理により、ノイズ除去やデータ数の削減に伴う識別
演算時間の減少を期待でき、エッジ抽出における誤差を
軽減できる。なお、モザイク化処理を画像(エリア)に
ついて行うと、図7(A)及び(B)のようになる。本
例では3×4画素の平均値でモザイク化処理している。
Specifically, the data of 256 pixels is first divided into eight pixels, and the average value of each pixel value in the area is calculated. As a result, each of the calculated average values is set as a pixel value 3
Two pieces of data are obtained as the mosaiced input data. That is, the data collected by the sensors 2a to 2n is, for example, time-series data as shown in FIG. 6A, and when this time-series data is graphed by an average value in units of eight pixels, it is shown in FIG. Become like By this mosaic processing, it is possible to expect a reduction in identification calculation time due to noise removal and a reduction in the number of data, and it is possible to reduce errors in edge extraction. When the mosaic processing is performed on an image (area), the result is as shown in FIGS. In this example, the mosaic processing is performed with an average value of 3 × 4 pixels.

【0039】上述のようにしてモザイク化された入力画
像に対し、オフセット及びゲインのばらつきをなくすた
めの正規化処理を行う。モザイク化されたデータをxi
(i=1,…,n)としたとき、変換表のデータXi
(i=1,…,n)は下記数3となる。ただし、Aはゲ
イン定数、Bはオフセット定数である。
The input image mosaiced as described above is subjected to normalization processing for eliminating offset and gain variations. Xi the mosaiced data
(I = 1,..., N), the conversion table data Xi
(I = 1,..., N) becomes the following equation 3. Here, A is a gain constant, and B is an offset constant.

【0040】[0040]

【数3】 上記数3において、xオーババーはデータxiの平均を
表し、Sxは平均xオーババーとデータxiとの差分の
絶対値の総和(面積)を表している。右辺第1項はデー
タxiの平均からの変動を、全体の変動に対する割合で
表している。
(Equation 3) In Equation 3, x overbar represents the average of data xi, and Sx represents the sum (area) of the absolute value of the difference between the average x overbar and data xi. The first term on the right side represents the variation of the data xi from the average as a percentage of the overall variation.

【0041】図8は、32個のモザイク化データ(0〜
31)に対して平均xオーババーと絶対値の総和(面
積)を示している。このため、データのゲイン変動及び
オフセット変動に対して不変な値が得られる。また、オ
フセット定数Bは変換後のデータのオフセットを調節す
るための定数である。一般に、定数Bはダイナミックレ
ンジの中央値と設定される。
FIG. 8 shows 32 pieces of mosaiced data (0 to 0).
31) shows the sum (area) of the average x overbar and the absolute value. For this reason, a value that is invariant with respect to the data gain variation and offset variation is obtained. The offset constant B is a constant for adjusting the offset of the converted data. Generally, the constant B is set as the median of the dynamic range.

【0042】以下に、ゲイン変動及びオフセット変動に
対し、正規化データが不変であることを数式によって説
明する。先ず変動データを
Hereinafter, the fact that the normalized data is invariant with respect to the gain fluctuation and the offset fluctuation will be described with reference to mathematical expressions. First, change data

【数4】yi=axi+b(i=1,…,n) aはゲイン変動(>0)であり、bはオフセット変動で
ある。
Yi = axi + b (i = 1,..., N) a is a gain variation (> 0) and b is an offset variation.

【0043】とするとき、平均はThen, the average is

【数5】 となり、平均yオーババーとデータyiとの差分の絶対
値の総和Syは下記数6のようになる。
(Equation 5) And the total sum Sy of the absolute values of the differences between the average y overbar and the data yi is as shown in the following Expression 6.

【0044】[0044]

【数6】 ここで、正規化を施したデータYi(i=1,…,n)
は下記数7となる。
(Equation 6) Here, the normalized data Yi (i = 1,..., N)
Becomes the following Expression 7.

【0045】[0045]

【数7】 このような、正規化を施すことで、ゲイン及びオフセッ
トの変動を除去することができる。
(Equation 7) By performing such normalization, fluctuations in gain and offset can be removed.

【0046】かくして前処理されたデータを用いて、各
ニューロンの結合係数の学習及びニューラルネットワー
クによるパターン認識を行うが、本発明では、一部特異
な偽造/変造処理された紙幣を、正確にパターン認識
し、識別、排除するため、入力紙幣の特徴抽出では、搬
送方向に、図5(B)に示すように、入力データをオー
バーラップさせながら小領域1〜5のように分割して、
各小領域毎の特徴抽出を実行した。
Using the preprocessed data, learning of the coupling coefficient of each neuron and pattern recognition by a neural network are performed. In order to recognize, identify, and eliminate, in the feature extraction of the input bill, in the transport direction, as shown in FIG.
Feature extraction was performed for each small area.

【0047】具体的には、搬送方向に全体を第1の小領
域(基本単位)である30画素まで圧縮し、これを10
画素単位のオーバーラップした第2の小領域に分割す
る。
Specifically, the whole is compressed in the transport direction to 30 pixels, which is the first small area (basic unit), and this is reduced to 10 pixels.
It is divided into a second small area that overlaps in pixel units.

【0048】また、入力紙幣の全領域に渡って入力走査
が終了した後に、上述の入力センサデータに対するオフ
セットやゲインのばらつきを減少させるための正規化処
理を行うと、入力紙幣に対する全領域の走査が終了する
まで、正規化処理が実行できず(図23(A))、かか
る入力データの補正処理に時間がかかり、前処理時間が
長期化するので、本発明では、図23(C)に示すよう
に、入力紙幣の全領域を、搬送方向に対し前部の補正1
の領域と搬送方向に対し後部の補正2の領域とに、分割
し、補正1の領域に対する入力走査が終了した時点で、
上述の入力センサデータに対するオフセットやゲインの
ばらつきを減少させるための第1の正規化処理を行い、
この結果を利用して、前部のパターン認識処理を実行
し、また、入力紙幣に対する全領域の走査が終了した時
点で、上述の入力センサデータに対するオフセットやゲ
インのばらつきを減少させるための第2の正規化処理を
行い、この結果を利用して、後部のパターン認識処理を
実行するようになっている。
Further, after the input scanning is completed over the entire area of the input bill, a normalization process for reducing the offset and gain variations with respect to the input sensor data is performed. 23, the normalization process cannot be executed (FIG. 23A), and the input data correction process takes time and the pre-processing time becomes long. As shown in FIG.
At the time when the input scanning for the correction 1 area is completed.
A first normalization process for reducing the variation of the offset and the gain with respect to the input sensor data is performed,
Utilizing this result, the pattern recognition process of the front part is executed, and at the time when the scanning of the entire area with respect to the input bill is completed, a second offset for reducing the offset and the gain variation with respect to the input sensor data is performed. Is performed, and a pattern recognition process at the rear portion is executed using the result.

【0049】かかる時分割で順次入力したセンサデータ
に対する正規化の前処理された特徴量データを用いたニ
ューラルネットワークの学習及びパターン認識処理を次
に説明する。
A neural network learning and pattern recognition process using the feature data preprocessed for normalization of the sensor data sequentially input in a time-division manner will be described below.

【0050】先ず、図3に示す様にニューラルネットワ
ークの学習処理では、結合係数の初期値を設定する(ス
テップS20)。学習の初期には、1カテゴリー当たり
1つのニューロンが競合層に設定され、各ニューロンの
結合係数の初期値は、当該カテゴリーに属するデータの
平均値とする。
First, in the learning process of the neural network as shown in FIG. 3, an initial value of the coupling coefficient is set (step S20). At the beginning of learning, one neuron per category is set in the competitive layer, and the initial value of the coupling coefficient of each neuron is the average value of data belonging to the category.

【0051】次に、LVQ法のアルゴリズムを示す。先
ずLVQ法の概念図を図20に示す。図20で示すよう
に、未知の入力紙幣から抽出される特徴量データx
(t)と発火したニューロンcとが同じカテゴリーなら
ば、ニューロンcの結合係数wc(t)を入力データx
(t)に近づけ、入力データx(t)と発火したニュー
ロンcとが異なるカテゴリーならば、ニューロンcの結
合係数wc(t)を入力データx(t)から遠ざける。
このように、LVQ法では結合係数を学習する。
Next, the algorithm of the LVQ method will be described. First, a conceptual diagram of the LVQ method is shown in FIG. As shown in FIG. 20, feature amount data x extracted from an unknown input bill
If (t) and the firing neuron c are in the same category, the coupling coefficient wc (t) of the neuron c is calculated as input data x
(T), and if the input data x (t) and the firing neuron c are in different categories, the coupling coefficient wc (t) of the neuron c is moved away from the input data x (t).
Thus, the coupling coefficient is learned in the LVQ method.

【0052】LVQ法にはLVQ1、LVQ2、LVQ
3、OLVQ1等のアルゴリズムがあるが、ここでは本
発明で用いるOLVQ1のアルゴリズムを数8及び数9
に示す。
The LVQ method includes LVQ1, LVQ2, LVQ
3. There are algorithms such as OLVQ1.
Shown in

【0053】[0053]

【数8】 (Equation 8)

【数9】 ここで、tは学習回数、αc(t)は各ニューロンの学
習率を表わし、s(t)=1(正しく認識したとき)又
はs(t)=−1(誤って認識したとき)である。数8
では学習時に発火したニューロンの結合係数を更新し、
数9ではその他のニューロンは更新されないことを示し
ている。
(Equation 9) Here, t is the number of times of learning, αc (t) represents the learning rate of each neuron, and s (t) = 1 (when correctly recognized) or s (t) = − 1 (when incorrectly recognized). . Number 8
Now we update the coupling coefficient of the neuron that fired during learning,
Equation 9 indicates that the other neurons are not updated.

【0054】図3における結合係数の初期化(ステップ
S20),LVQ学習(ステップS30)の後、閾値を
作成するが(ステップS40)、その詳細は図9のフロ
ーチャートのようになっている。
After the initialization of the coupling coefficient in FIG. 3 (step S20) and the LVQ learning (step S30), a threshold is created (step S40), the details of which are as shown in the flowchart of FIG.

【0055】即ち、先ず学習データ番号l(l=1〜
L)によるクラスタリングのループ(ステップS41〜
S43)において、発火するニューロン別に学習データ
をクラスタリングし(ステップS42)、M個のデータ
集合を得る。そして、ニューロン番号i(i=1〜M)
による閾値作成のループ(ステップS44〜S49)に
おいて、クラスタリングされた学習データの集合の距離
分布を推定し、平均値mi、標準偏差σi及び最大値d
maxを得(ステップS45)、判定用の閾値θiを作
成する(ステップS46)。そして、閾値θiが最大値
dmaxより小さいか否かを判定し(ステップS4
7)、最大値dmaxより小さければ最大値dmaxに
所定数αを加算した値を閾値θiとする(ステップS4
8)。これを、ニューロン番号M個分だけ繰り返す(ス
テップS49)。
That is, first, the learning data number l (l = 1 to 1)
L) (steps S41 to S41)
In S43), learning data is clustered for each firing neuron (step S42) to obtain M data sets. Then, the neuron number i (i = 1 to M)
In the loop for creating thresholds (steps S44 to S49), the distance distribution of the set of clustered learning data is estimated, and the average value mi, the standard deviation σi, and the maximum value d
max is obtained (step S45), and a judgment threshold θi is created (step S46). Then, it is determined whether the threshold value θi is smaller than the maximum value dmax (step S4).
7) If the value is smaller than the maximum value dmax, a value obtained by adding a predetermined number α to the maximum value dmax is set as the threshold value θi (step S4).
8). This is repeated for M neuron numbers (step S49).

【0056】図10に示すように、推定された分布よ
り、競合層ニュ−ロンiの自己認識の範囲としての閾値
θiを、θi=mi+kiσiに設定する。よって、入
力データと競合層ニューロンiとのユークリッド距離d
iがdi≦θiならば、標本は母集団Siに属すると認
識される。ここで、kiは自己認識の範囲として任意の
値を設定できるが、ki=4.5の場合、母集団Siの
データに対してニューロンiが発火(正しく認識)する
確率は、標準正規分布表から1−3.4×10−6乗で
あり、ki=6.5の場合、1−4.0×10−11乗
である。学習データによっては、このように設定された
閾値を越えることもあるが、このようなデータも認識さ
せる必要がある場合は、図11に示すようにθioに広
げて設定すればよい。
As shown in FIG. 10, the threshold θi as the range of self-recognition of the competitive layer neuron i is set to θi = mi + kiσi from the estimated distribution. Thus, the Euclidean distance d between the input data and the competitive layer neuron i
If i is di ≦ θi, the sample is recognized as belonging to the population Si. Here, ki can be set to any value as the range of self-recognition. In the case of ki = 4.5, the probability that the neuron i fires (recognizes correctly) with respect to the data of the population Si is expressed by a standard normal distribution table. To the power of 1-3.4 × 10−6, and when ki = 6.5, the power is the power of 1-4.0 × 10−11. Depending on the learning data, the threshold value set in this way may be exceeded. However, if such data needs to be recognized, it is sufficient to set it to θio as shown in FIG.

【0057】上述のようにして閾値を作成した後、発火
しないニューロンの削除を行うが(ステップS50)、
その詳細を図12のフローチャートを参照して説明す
る。先ずニューロン番号i(i=1〜M)によるニュー
ロン削除のループ(ステップS51〜S54)におい
て、ニューロンiが発火したか否かを判定し(ステップ
S52)、発火していなければニューロンiを削除する
(ステップS53)。
After the threshold value is created as described above, the non-firing neurons are deleted (step S50).
The details will be described with reference to the flowchart of FIG. First, in a loop for deleting a neuron with a neuron number i (i = 1 to M) (steps S51 to S54), it is determined whether or not the neuron i has fired (step S52), and if not, the neuron i is deleted. (Step S53).

【0058】その後、学習データの評価を行うが(ステ
ップS60)、その詳細を図13のフローチャートを参
照して説明する。
Thereafter, the learning data is evaluated (step S60), and the details will be described with reference to the flowchart of FIG.

【0059】先ず学習データ番号l(l=1〜L)によ
る学習データ識別のループ(ステップS61〜S64)
において、学習データの識別判定を行い(ステップS6
2)、発火するニューロン別に学習データをクラスタリ
ングする(ステップS63)。そして、ニューロン番号
i(i=1〜M)による信頼性評価のループ(ステップ
S65〜S68)において、クラスタリングされた学習
データの集合の距離分布を推定し(ステップS66)、
信頼性評価を行う(ステップS67)。これを、全ニュ
ーロン番号に亙って実施する。
First, a learning data identification loop based on the learning data number l (l = 1 to L) (steps S61 to S64)
In step S6, identification of learning data is determined (step S6).
2) The learning data is clustered for each firing neuron (step S63). Then, in a reliability evaluation loop based on the neuron number i (i = 1 to M) (steps S65 to S68), the distance distribution of the set of clustered learning data is estimated (step S66).
A reliability evaluation is performed (step S67). This is performed over all neuron numbers.

【0060】上記学習データの評価が終わると次にニュ
ーロン追加のチェックを行う(ステップS70)が、そ
の詳細を図14のフローチャートを参照して説明する。
When the evaluation of the learning data is completed, a neuron addition check is next performed (step S70). Details of the check will be described with reference to the flowchart of FIG.

【0061】先ずニューロン番号i(i=1〜M)によ
るニューロン追加チェックのループ(ステップS71〜
S76)において、誤認識があるか否かを判断し(ステ
ップS72)、誤認識があれば誤認識データの平均値を
カテゴリー毎に求め、その平均値を結合係数としたニュ
ーロンを追加する(ステップS73)。その後、ニュー
ロンiが既定信頼性を満たすか否かを判定し(ステップ
S74)、ニューロンi又は信頼性評価対象のデータ集
合が発火するニューロンの複製を追加する(ステップS
75)。
First, a loop for checking neuron addition by the neuron number i (i = 1 to M) (steps S71 to S71)
In S76), it is determined whether or not there is a misrecognition (step S72). If there is a misrecognition, an average value of the misrecognition data is obtained for each category, and a neuron using the average value as a coupling coefficient is added (step S76). S73). Thereafter, it is determined whether or not the neuron i satisfies the predetermined reliability (step S74), and a copy of the neuron i or a neuron whose data set to be evaluated for reliability fires is added (step S74).
75).

【0062】信頼性評価では図15に示すように、ニュ
ーロンiに発火するデータ集合Siに対するニューロン
j(j≠i)の出力値分布を考える。この出力値分布が
図15に示すような正規分布NDであると仮定し、正規
分布NDが閾値θjよりも小さくなる確率を信頼性とす
る。これは図15における黒色部分BAの面積を表し、
ニューロンiに発火すべきデータがニューロンjに発火
する確率を意味している。
In the reliability evaluation, as shown in FIG. 15, the output value distribution of neuron j (j ≠ i) with respect to data set Si firing on neuron i is considered. Assuming that this output value distribution is a normal distribution ND as shown in FIG. 15, the probability that the normal distribution ND becomes smaller than the threshold value θj is defined as reliability. This represents the area of the black portion BA in FIG.
This means the probability that data to be fired on neuron i will fire on neuron j.

【0063】閾値設定後、学習データに対して識別判定
を行い、誤認識するデータがあればそれに対するニュー
ロンを追加する。そのニューロンの結合係数は、誤認識
データの紙幣の金種方向と言ったカテゴリー毎の平均値
とする。これにより認識率を向上させることが可能であ
る。また、学習データに対する信頼性評価を行い、既定
の信頼性が得られないニューロンに対しては、そのニュ
ーロン又はその評価対象ニューロン(評価対象データが
発火するニューロン)の複製を追加する。これにより、
誤認識データ判定用に新たにニューロンを設けることに
なるのでニューロンの出力値分布のばらつきが小さくな
り、信頼性が向上する。
After setting the threshold value, the discrimination judgment is performed on the learning data, and if there is any erroneously recognized data, a neuron for the data is added. The coupling coefficient of the neuron is an average value for each category of the misrecognition data, such as the banknote denomination direction. This makes it possible to improve the recognition rate. In addition, a reliability evaluation is performed on the learning data, and a duplicate of the neuron or the evaluation target neuron (a neuron firing the evaluation target data) is added to a neuron for which a predetermined reliability cannot be obtained. This allows
Since a new neuron is provided for erroneous recognition data determination, the dispersion of the output value distribution of the neuron is reduced, and the reliability is improved.

【0064】図16は誤認識データに対するニューロン
の追加を示しており、ニューロンiに誤認識した紙幣デ
ータの入力層への各入力値の平均を結合係数とするニュ
ーロンを追加する様子を示している。また、図17は既
定信頼性を満たさない場合のニューロンの追加を示して
おり、既定信頼性を満たさないニューロンi又はその評
価対象ニューロンの複製を追加している。
FIG. 16 shows the addition of a neuron to the misrecognition data, and shows how to add a neuron to the neuron i with the average of the input values of the misrecognized bill data to the input layer as the coupling coefficient. . FIG. 17 shows the addition of a neuron when the default reliability is not satisfied, and a copy of the neuron i or the evaluation target neuron that does not satisfy the default reliability is added.

【0065】次に、異なる金種データYに対するニュー
ロンiの信頼性が低い場合の、ニューロンの分割方法に
ついて説明する。ここで、ニューロンiは金種データX
を入力したとき発火するように学習されており、ニュー
ロンjは金種データYを入力したとき発火するように学
習されているものとする。
Next, a method of dividing a neuron when the reliability of the neuron i for different denomination data Y is low will be described. Here, neuron i is denomination data X
Is assumed to have been learned so as to fire when input is made, and the neuron j has been learned to be fired when the denomination data Y is input.

【0066】(分割方法1)信頼性の低いニューロンi
の複製を追加する。
(Division method 1) Low reliability neuron i
Add a duplicate.

【0067】(分割方法2)ニューロンiに対し、金種
データXを入力したときの出力値分布Di(X)と、ニ
ューロンiに対し、金種データYを入力したときの出力
値分布Di(Y)とを求め、次に、それぞれの分布の標
準偏差σi(X)及びσi(Y)を演算する。そして、
図24(B)に示すように、標準偏差σi(X)とσi
(Y)とでは、σi(Y)の方が大きい場合、金種デー
タYのばらつきが大きいと考えられるので、大きい標準
偏差を示すニューロンjの複製を追加する。
(Division Method 2) Output value distribution Di (X) when denomination data X is input to neuron i, and output value distribution Di (D) when denomination data Y is input to neuron i Y), and the standard deviations σi (X) and σi (Y) of the respective distributions are calculated. And
As shown in FIG. 24B, the standard deviations σi (X) and σi (X)
In (Y), when σi (Y) is larger, it is considered that the variation of the denomination data Y is large, so a copy of the neuron j showing a large standard deviation is added.

【0068】(分割方法3)ニューロンiに対し、金種
データXを入力したときの出力値分布Di(X)と、ニ
ューロンjに対し、金種データYを入力したときの出力
値分布Dj(Y)とを求め、次に、それぞれの分布の標
準偏差σi(X)及びσj(Y)を演算する。そして、
図24(C)、(D)に示すように、標準偏差σi
(X)とσj(Y)とでは、σj(Y)の方が大きい場
合、金種データYのばらつきが大きいと考えられるの
で、大きい標準偏差を示すニューロンjの複製を追加す
る。
(Division method 3) Output value distribution Di (X) when denomination data X is input to neuron i, and output value distribution Dj (D) when denomination data Y is input to neuron j Y), and the standard deviations σi (X) and σj (Y) of the respective distributions are calculated. And
As shown in FIGS. 24C and 24D, the standard deviation σi
(X) and σj (Y), when σj (Y) is larger, it is considered that the variation of the denomination data Y is large, so a copy of the neuron j showing a large standard deviation is added.

【0069】図3のニューロンのチェック(ステップS
70)において、その後ニューロンの追加がなければ
(ステップS80)閾値を拡張するが(ステップS9
0)、その動作を図18のフローチャートを参照して説
明する。
Check of neurons in FIG. 3 (step S
In step 70), if there is no additional neuron thereafter (step S80), the threshold is extended (step S9).
0), and its operation will be described with reference to the flowchart of FIG.

【0070】金種データXの実際のデータでは予測でき
ないようなばらつきを持つこともあり、統計的に設定さ
れた閾値を超える場合もある。このようなデータに対し
ても汎化能力を持たせるには閾値を拡張すれば良い。そ
こで、拡張する基準として信頼性評価の結果に基づき、
既定の信頼性が得られる範囲で拡張すれば、既定の信頼
性を確保した状態で認識率を向上させることが可能であ
る。図19に示す具体例では、閾値θiをθi=mi+
4.5σiに設定した後に信頼性評価を行う。その結
果、評価対象ニューロンが既定信頼性を満たす境界値を
算出し、その境界値を拡張された閾値として再設定す
る。このとき、過剰な拡張を防ぐため、mi+6.5σ
iを閾値拡張の限界値として設け、境界値が限界値より
大きければ、限界値を拡張された閾値として設定する。
The denomination data X may have a variation that cannot be predicted by actual data, and may exceed a statistically set threshold. The threshold may be extended to provide such data with generalization ability. Therefore, based on the results of reliability evaluation,
If the range is extended within a range in which the default reliability can be obtained, the recognition rate can be improved while the default reliability is secured. In the specific example shown in FIG. 19, the threshold θi is set to θi = mi +
After setting to 4.5σi, reliability evaluation is performed. As a result, the evaluation target neuron calculates a boundary value that satisfies the predetermined reliability, and resets the boundary value as an extended threshold. At this time, in order to prevent excessive expansion, mi + 6.5σ
i is set as a limit value of the threshold expansion, and if the boundary value is larger than the limit value, the limit value is set as the expanded threshold.

【0071】先ず、ニューロン番号i(i=1〜M)に
よる閾値拡張のループ(ステップS91〜S96)にお
いて、既定の信頼性を満たす閾値の境界値θBを求め
(ステップS92)、閾値拡張の限界値θLを求める
(ステップS93)。そして、境界値θBが限界値θL
より小さいか否かを判定し(ステップS94)、小さけ
れば閾値θを境界値θBに拡張し(ステップS95)、
そうでなければ閾値θを限界値θLに拡張する(ステッ
プS97)。
First, in a threshold expansion loop (steps S91 to S96) based on the neuron number i (i = 1 to M), a boundary value θB of a threshold satisfying a predetermined reliability is obtained (step S92), and the threshold expansion limit is set. The value θL is obtained (step S93). Then, the boundary value θB becomes the limit value θL.
It is determined whether or not the threshold value is smaller (step S94), and if smaller, the threshold value θ is extended to the boundary value θB (step S95),
Otherwise, the threshold value θ is extended to the limit value θL (step S97).

【0072】かくして、ニューラルネットワークの学習
が終了する。次に、入力紙幣4に対するさらに具体的な
学習、識別/判定処理の構成および動作について、詳細
に説明する。
Thus, learning of the neural network is completed. Next, a more specific configuration and operation of the learning and identification / judgment processing for the input bill 4 will be described in detail.

【0073】先ず、図25は、この発明の紙幣識別装置
100の全体のブロック構成図の1例であり、入力紙幣
4が、図示しない搬送手段によりセンサ手段2(光学セ
ンサ、磁気センサを含む)を通過するようになってお
り、その出力は、順次、センサデータ前処理補正部10
1に入力されるようになっている。
First, FIG. 25 is an example of an overall block diagram of the bill validating apparatus 100 of the present invention. An input bill 4 is transferred to a sensor means 2 (including an optical sensor and a magnetic sensor) by a transport means (not shown). , And the output is sequentially sent to the sensor data preprocessing correction unit 10.
1 is input.

【0074】次に、センサデータ前処理補正部101で
は、順次入力されたセンサデータに対し、図4〜図7に
示す圧縮処理し、更に入力データに対するオフセットや
ゲインのばらつきを減少させるために、図8に示すよう
な正規化を行う。
Next, the sensor data pre-processing correction section 101 performs the compression processing shown in FIGS. 4 to 7 on the sequentially input sensor data, and further reduces the offset and gain variations with respect to the input data. Normalization as shown in FIG. 8 is performed.

【0075】すなわち、図4は、データ前処理の処理フ
ローを示しており、図5に示すように、紙幣4の搬送に
対してセンサ2a〜2nの走査で、例えば、光学的に得
られる紙幣データに対しては、圧縮処理を行い、256
画素のセンサ出力データを32画素から成る入力データ
に変換する。
That is, FIG. 4 shows a processing flow of the data pre-processing, and as shown in FIG. The data is subjected to compression processing, and 256
The sensor output data of the pixel is converted into input data composed of 32 pixels.

【0076】この結果、演算された各平均値を画素値と
する32個のデータがその圧縮された入力データとして
得られ、センサ2a〜2nによって採取されたデータ
は、例えば図6(A)に示すような時系列データとな
り、この時系列データを8画素ずつの平均値でグラフ
(移動平均グラフ)化すると同図(B)に示すようにな
る。この圧縮処理により、ノイズ除去やデータ数の削減
に伴う識別演算時間の減少を期待でき、エッジ抽出にお
ける誤差を軽減できる。
As a result, 32 data having the calculated average value as a pixel value are obtained as the compressed input data, and the data collected by the sensors 2a to 2n is, for example, as shown in FIG. The time-series data is as shown, and when this time-series data is graphed (moving average graph) with an average value for each of eight pixels, the graph becomes as shown in FIG. By this compression processing, it is possible to expect a reduction in discrimination calculation time accompanying noise removal and a reduction in the number of data, and it is possible to reduce errors in edge extraction.

【0077】なお、圧縮処理を画像(エリア)について
行うと、図7(A)及び(B)のようになり、次に、圧
縮された入力画像に対し、オフセット及びゲインのばら
つきをなくすための正規化処理を行う。図8のSxは、
32個のモザイク化データ(0〜31)に対して平均x
オーババーと絶対値の総和(面積)を示しており、かく
して前処理されたデータを特徴量として用いて、各ニュ
ーロンの結合係数の学習及びニューラルネットワークに
よるパターン認識を行う。
When the compression processing is performed on an image (area), the result is as shown in FIGS. 7A and 7B. Next, the offset and gain of the compressed input image are eliminated. Perform normalization processing. Sx in FIG.
Average x for 32 mosaiced data (0 to 31)
The overbar and the sum (area) of the absolute values are shown. Using the data thus preprocessed as a feature amount, learning of the coupling coefficient of each neuron and pattern recognition by a neural network are performed.

【0078】すなわち、識別すべき紙幣の特徴量を、セ
ンサ2i(i=a〜n)からセンサデータ前処理補正部
101により演算処理して生成し、これらの特徴量をパ
ターン認識手段110に入力して、各金種方向毎に基準
パターンを学習し、得られた各ニューロンの結合係数を
基準パターンとして、基準パターン記憶手段116dへ
記憶する。
That is, the characteristic amounts of the bills to be identified are generated by the sensor data preprocessing correction unit 101 from the sensors 2 i (i = a to n), and these characteristic amounts are input to the pattern recognition unit 110. Then, a reference pattern is learned for each denomination direction, and the obtained coupling coefficient of each neuron is stored in the reference pattern storage means 116d as a reference pattern.

【0079】パターン認識手段110は、センサデータ
前処理補正部101、データバッファ102、入力窓パ
ターン記憶部103、ニューラルネットワーク112、
閾値参照メモリ113、モード別判定部114、基準パ
ターン記憶手段116、基準パターン学習、更新、設定
部118、制御部119からなり、モード別判定部11
4の出力は、判定結果統合部120により、統合され、
最終処理されて、外部に出力されるようになっている。
ここで、モード別判定部114には、最小値判定モード
114a、最小値判定及び閾値判定モード114b、閾
値判定モード114cが用意されている。入力窓パター
ン記憶部103では、入力窓パターン103a、入力窓
パターン103b、入力窓パターン103cが記憶され
ている。
The pattern recognition means 110 includes a sensor data pre-processing correction section 101, a data buffer 102, an input window pattern storage section 103, a neural network 112,
It comprises a threshold reference memory 113, a mode-specific determination unit 114, a reference pattern storage unit 116, a reference pattern learning and updating / setting unit 118, and a control unit 119.
4 are integrated by the determination result integration unit 120,
The final processing is performed and output to the outside.
Here, the mode-specific determination unit 114 has a minimum value determination mode 114a, a minimum value determination and threshold value determination mode 114b, and a threshold value determination mode 114c. The input window pattern storage unit 103 stores an input window pattern 103a, an input window pattern 103b, and an input window pattern 103c.

【0080】入力窓パターン103cは複数の基本単位
小領域から構成される領域を窓とし、P個の窓のうちか
ら1個の窓を選択して入力層に正規化データを入力す
る。このときの窓の大きさは、例えば10個といった入
力層のニューロンの数である。
The input window pattern 103c uses a region composed of a plurality of basic unit small regions as windows, and selects one of the P windows to input normalized data to the input layer. The size of the window at this time is the number of neurons in the input layer, for example, ten.

【0081】入力窓パターン103bは入力窓パターン
103cで全ての窓が開放されているものである。すな
わち、同時に全ての入力が入力層のニューロンに入力さ
れる。入力窓パターン103aは複数の候補となる金種
から正確に特定の1金種に識別しうる特徴が抽出される
ように設けた窓であって、適宜設けられた大きさの窓で
あり、窓の位置は固定であるが、通常出力ニューロン毎
に設けられている。
The input window pattern 103b is an input window pattern 103c in which all windows are open. That is, all inputs are simultaneously input to neurons in the input layer. The input window pattern 103a is a window provided so that a feature that can be accurately identified as a specific one denomination from a plurality of candidate denominations is extracted, and is a window of an appropriately provided size. Is fixed, but is usually provided for each output neuron.

【0082】尚、本発明では、一部特異な偽造/変造処
理された紙幣等を、正確にパターン認識し、識別、排除
するため、入力紙幣の特徴量抽出では、搬送方向に、図
5(B)に示すように、入力データをオーバーラップさ
せながら小領域1〜5のように分割して、各小領域毎の
特徴量抽出を実行するようになっており、具体的には、
搬送方向に全体を30画素まで圧縮し、これを10画素
単位のオーバーラップした小領域に分割する。ここで、
圧縮された30画素の個々は、図5に示す基本単位小領
域(第1の小領域)となる。
In the present invention, in order to accurately recognize, discriminate, and eliminate partially unique forged / falsified banknotes and the like, the feature amount extraction of the input banknote is performed in the transport direction in FIG. As shown in B), the input data is divided into small areas 1 to 5 while overlapping, and a feature amount is extracted for each small area.
The whole is compressed to 30 pixels in the transport direction, and is divided into overlapping small areas in units of 10 pixels. here,
Each of the compressed 30 pixels becomes a basic unit small area (first small area) shown in FIG.

【0083】さらに、入力紙幣の全領域に渡って入力走
査が終了した後に、上述の入力センサデータに対するオ
フセットやゲインのばらつきを減少させるための正規化
をセンサデータ前処理補正部101で行うと、入力紙幣
に対する全領域の走査が終了するまで、正規化処理が実
行できず(図23(A))、かかる入力データの補正処
理に時間がかかり、前処理時間が長期化するので、本発
明では、図23(C)に示すように、入力紙幣の全領域
を、補正1の領域と補正2の領域とに、オーバーラップ
させながら分割し、補正1の領域に対する入力走査が終
了した時点で、上述の入力センサデータに対するオフセ
ットやゲインのばらつきを減少させるための第1の正規
化を行い、この結果を利用して、第1の基準パターンの
学習、基準パターンの更新処理、および第1の基準パタ
ーンを利用したパターン認識処理を実行する。
Further, after the input scanning is completed over the entire area of the input bill, the sensor data pre-processing correction unit 101 performs normalization for reducing the offset and gain variations with respect to the input sensor data described above. Until the scanning of the entire area for the input bill is completed, the normalization processing cannot be executed (FIG. 23A), and the correction processing of the input data takes time and the preprocessing time becomes longer. As shown in FIG. 23 (C), the entire area of the input bill is divided into an area for correction 1 and an area for correction 2 while overlapping, and when input scanning for the area for correction 1 is completed, First normalization is performed to reduce the offset and gain variations with respect to the input sensor data described above, and the first reference pattern learning and reference pattern Update processing, and pattern recognition processing using the first reference pattern execution.

【0084】より具体的に、パターン学習手段110の
構成及び動作を説明すると、パターン学習手段110
は、入力紙幣の全体を、オーバーラップした領域を含む
第2の所定の小領域にそれぞれ分割して処理する点にそ
の特徴があり、基準パターンの学習では、パターン認識
手段110は、制御部119の指令のもとに、ニューラ
ルネットワーク112を初期化し、基準パターン学習、
更新、設定部118を学習モードに切り替えて、正常な
紙幣を、所定の枚数入力し、各紙幣から入力されたセン
サ出力は、センサデータ前処理補正部101に順次保存
され、各紙幣の全領域の走査、入力が終了すると、前処
理および補正処理がセンサデータ前処理補正部101で
実行され、データバッファ102に一時的に格納され
る。その後、入力窓パターン103bでフィルタリング
された特徴量が、一括してニューラルネットワーク11
2に入力され、学習が行われる。そして、各ニューロン
の結合係数が求められて、これを、基準パターンとし
て、記憶手段116dに記憶する。このとき、学習に用
いた所定枚数の正常な紙幣を入力したときの出力を求
め、この閾値より各ニューロンの閾値を決定し、この閾
値を記憶手段116bに記憶する。
More specifically, the structure and operation of the pattern learning means 110 will be described.
Is characterized in that the entire input bill is divided and processed into second predetermined small areas each including an overlapped area. In learning a reference pattern, the pattern recognition unit 110 controls the control unit 119. , The neural network 112 is initialized, the reference pattern learning,
The updating and setting unit 118 is switched to the learning mode, a predetermined number of normal banknotes are input, and sensor outputs input from each banknote are sequentially stored in the sensor data preprocessing correction unit 101, and the entire area of each banknote is When the scanning and input of are completed, the pre-processing and correction processing are executed by the sensor data pre-processing correction unit 101, and are temporarily stored in the data buffer 102. After that, the feature amounts filtered by the input window pattern 103b are collectively stored in the neural network 11.
2 and learning is performed. Then, a coupling coefficient of each neuron is obtained, and this is stored in the storage unit 116d as a reference pattern. At this time, an output when a predetermined number of normal banknotes used for learning are input is obtained, a threshold value of each neuron is determined from this threshold value, and this threshold value is stored in the storage means 116b.

【0085】尚、入力窓パターン103でフィルタリン
グした特徴量を利用して、ニューラルネットワーク11
2の入力層ニューロンには、図29(A)に示すよう
に、分割した所定の小領域毎に得られた特徴量を、位置
依存関係に応じて選択的に入力することも可能であり、
例えば、図29(A)に示す小領域1、4、7、2、
5、8の各特徴量は、入力層ニューロン3、6、9には
入力せずにニューロ演算を実行し、小領域2、5、8、
3、6、9の各特徴量は、ニューロン1、4、7には入
力せずにニューロ演算を実行すると、効果的なことが、
実験により分かった。
The neural network 11 uses the feature amount filtered by the input window pattern 103.
As shown in FIG. 29A, it is also possible to selectively input a feature amount obtained for each of the divided predetermined small regions to the input layer neurons 2 according to the positional dependence,
For example, small areas 1, 4, 7, 2, and
Each of the feature amounts 5 and 8 is subjected to a neuro operation without being input to the input layer neurons 3, 6 and 9, and the small regions 2, 5, 8,
When the neuro operation is executed without inputting the neurons 1, 4, and 7 to the feature amounts of 3, 6, and 9, it is effective that
It was found by experiment.

【0086】次に、モード別判定部114を、最小値判
定及び閾値判定モード114bに切り替え、さらに同じ
所定の正常紙幣を、順次入力して、ニューラルネットワ
ーク112の各ニューロンの追加、削除等の更新処理を
行う。その後、基準パターン学習、更新、設定部118
を学習モードに切り替えて、再度学習を行い、基準パタ
ーンおよび閾値の更新処理を行う。
Next, the mode-specific determination unit 114 is switched to the minimum value determination and threshold determination mode 114b, and the same predetermined normal banknotes are sequentially input to update the addition and deletion of each neuron of the neural network 112. Perform processing. Thereafter, reference pattern learning, updating, and setting unit 118
Is switched to the learning mode, learning is performed again, and the reference pattern and the threshold are updated.

【0087】最後に、入力窓パターン103cを適用
し、学習に用いた所定枚数の正常な紙幣を入力したとき
の出力値を求め、この出力値より各ニューロンの閾値を
決定し、この閾値を閾値記憶手段116cに記憶する。
Finally, the input window pattern 103c is applied to obtain an output value when a predetermined number of normal banknotes used for learning are input, and the threshold value of each neuron is determined from the output value. It is stored in the storage means 116c.

【0088】次に、識別処理の説明を行う。Next, the identification processing will be described.

【0089】パターン認識手段110の第1のパターン
認識処理の閾値判定モードでは、制御部119の指令の
もとに、基準パターン学習、更新、設定部118を設定
モードに切り替えて、ニューラルネットワーク112の
各ニューロンに対し、基準パターン記憶手段116dか
ら基準パターンである結合係数をそれぞれ読出し、設定
する。また、閾値記憶手段116cから閾値を読出し、
閾値参照メモリ113に設定する。その後、モード別判
定部114を、閾値判定モード114cに切り替えた
後、未知の入力紙幣を、順次、センサで走査して読み込
み、センサデータ前処理補正部101により処理された
特徴量を、データバッファ102に格納し、入力窓パタ
ーン103cにより、フィルタリング処理し、ニューラ
ルネットワーク112に入力して、各ニューロンの結合
係数との距離を求め、これを、閾値判定モード114c
で、閾値参照メモリ113に格納されている閾値と比較
し、閾値より低い距離のニューロンが発火することによ
り、未知の入力紙幣の金種、方向を判定、識別する。
In the threshold determination mode of the first pattern recognition process of the pattern recognition means 110, the reference pattern learning, update and setting section 118 is switched to the setting mode under the command of the control section 119, and the neural network 112 For each neuron, a coupling coefficient as a reference pattern is read from the reference pattern storage means 116d and set. Further, a threshold value is read from the threshold value storage means 116c,
It is set in the threshold reference memory 113. Then, after switching the mode-specific determination unit 114 to the threshold determination mode 114c, the unknown input banknotes are sequentially scanned and read by the sensor, and the feature amount processed by the sensor data preprocessing correction unit 101 is stored in the data buffer. The input signal is stored in the input window pattern 102, filtered by the input window pattern 103c, input to the neural network 112, and the distance between each neuron and the coupling coefficient is calculated.
Then, by comparing with the threshold value stored in the threshold value reference memory 113 and firing a neuron at a distance lower than the threshold value, the denomination and direction of the unknown input bill are determined and identified.

【0090】パターン認識手段110の第2のパターン
認識処理の最小値判定及び閾値判定モードでは、制御部
119の指令のもとに、基準パターン学習、更新、設定
部118を設定モードに切り替えて、ニューラルネット
ワーク112の各ニューロンに対し、基準パターン記憶
手段116dから基準パターンである結合係数をそれぞ
れ読出し、設定する。また、閾値記憶手段116bから
閾値を読出し、閾値参照メモリ113に設定する。その
後、モード別判定部114を、閾値判定モード114b
に切り替えた後、未知の入力紙幣を、順次、センサで走
査し、センサデータ前処理補正部101により処理され
た特徴量を、データバッファ102に格納し、入力窓パ
ターン103bにより、フィルタリング処理し、ニュー
ラルネットワーク112に入力して、各ニューロンの結
合係数との距離を求め、これを、閾値参照メモリ113
と比較し、閾値より低い距離であり、かつ、距離が最小
となるニューロンが発火することにより、未知の入力紙
幣の金種、方向を判定、識別する。
In the minimum value judgment and threshold judgment modes of the second pattern recognition processing of the pattern recognition means 110, the reference pattern learning, update and setting section 118 is switched to the setting mode under the command of the control section 119, and For each neuron of the neural network 112, a coupling coefficient as a reference pattern is read from the reference pattern storage means 116d and set. Further, the threshold value is read from the threshold value storage means 116 b and set in the threshold value reference memory 113. Thereafter, the mode-specific determination unit 114 is set to the threshold determination mode 114b.
After switching to, the unknown input banknotes are sequentially scanned by the sensor, the feature amount processed by the sensor data preprocessing correction unit 101 is stored in the data buffer 102, and the input window pattern 103b performs a filtering process. The distance is input to the neural network 112 and the distance between each neuron and the coupling coefficient is obtained.
As a result, the denomination and the direction of the unknown input bill are determined and identified by firing the neuron whose distance is lower than the threshold value and whose distance is the smallest.

【0091】パターン認識手段110の第3のパターン
認識処理の最小値判定モードでは、制御部119の指令
のもとに、基準パターン学習、更新、設定部118を設
定モードに切り替えて、ニューラルネットワーク112
の各ニューロンに対し、基準パターン記憶手段116d
から基準パターンである結合係数をそれぞれ読出し、設
定する。その後、モード別判定部114を、閾値判定モ
ード114aに切り替えた後、未知の入力紙幣を、順
次、センサで走査し、センサデータ前処理補正部101
により処理された特徴量を、データバッファ102に格
納し、入力窓パターン103aにより、フィルタリング
処理し、ニューラルネットワーク112に入力して、各
ニューロンの結合係数との距離を求め、これを、最小値
判定モード114aにおいて、距離が最小となるニュー
ロンが発火することにより、未知の入力紙幣の金種、方
向を判定、識別する。図26では、上述した第1のパタ
ーン認識と第2のパターン認識と第3のパターン認識と
がカスケードに行われている様子を示している。実際の
紙幣識別の際には、第1のパターン認識処理の演算結果
と、第2のパターン認識処理の演算結果と、第3のパタ
ーン認識処理の演算結果とを、判定結果統合手段120
により比較し、それぞれのパターン認識手段110の演
算結果が、全て同一の場合や、多数決で同一の結果が得
られた場合に、この同一演算結果を、紙幣識別装置10
0の最終結果として、外部に出力する。
In the minimum value determination mode of the third pattern recognition process of the pattern recognition means 110, the reference pattern learning, update and setting section 118 is switched to the setting mode under the command of the control section 119, and the neural network 112 is switched to the setting mode.
, The reference pattern storage means 116d
, A coupling coefficient as a reference pattern is read and set. Then, after switching the mode-specific determination unit 114 to the threshold determination mode 114a, unknown input bills are sequentially scanned by the sensor, and the sensor data pre-processing correction unit 101
Are stored in the data buffer 102, filtered by the input window pattern 103a, input to the neural network 112, and the distance between each neuron and the coupling coefficient is determined. In the mode 114a, the denomination and direction of the unknown input bill are determined and identified by firing the neuron whose distance is the minimum. FIG. 26 shows a state in which the above-described first pattern recognition, second pattern recognition, and third pattern recognition are performed in a cascade. At the time of actual bill discrimination, the calculation result of the first pattern recognition process, the calculation result of the second pattern recognition process, and the calculation result of the third pattern recognition process are combined with the determination result integrating means 120.
When the operation results of the respective pattern recognition units 110 are all the same or when the same result is obtained by majority decision, the same operation result is
It is output to the outside as the final result of 0.

【0092】かかる紙幣識別装置100の動作を、図2
7によりデータ処理の流れに沿って説明すると、各基準
パターンの学習、更新処理は、パターン認識手段110
において、全て終了しているものとして、パターン認識
処理を用い、次のように行う。第1の実施例では、先
ず、パターン認識手段110の第1のパターン認識処理
に基づき、図27(A)、(B)、(C)を実施する。
図27(A)では、入力窓パターン103cを用いて領
域1に対するフィルタリング処理を行うとともに、閾値
判定モード114cを選択することによって、領域1に
対応する閾値が閾値記憶手段116cから閾値参照メモ
リ113に格納される。そして、領域1の特徴量がニュ
ーラルネットワーク112に入力される。この特徴量入
力と各ニューロンの結合係数との距離を求め、閾値参照
メモリ113に格納されている閾値と比較し、閾値より
低い距離のニューロンが発火することにより、未知の入
力紙幣の金種、方向を判定、識別する。このとき、一つ
の小領域のみでは、必ずしも1つのニューロンが発火す
るとは限らず、また、1つのニューロンが発火したとし
ても、一部の特徴量での結果であり、金種、方向を確定
するには不十分である。よって、ここで発火した1つあ
るいは複数のニューロンは、最終的に決定される金種、
方向の候補として残し、他の発火しなかったニューロン
については、閾値参照メモリ値を0とし、演算結果が結
果に反映されないようにする。
The operation of the bill validator 100 will be described with reference to FIG.
7, the learning and updating of each reference pattern are performed by the pattern recognition unit 110.
It is assumed that all the processes have been completed, and a pattern recognition process is performed as follows. In the first embodiment, first, FIGS. 27A, 27B, and 27C are performed based on the first pattern recognition processing of the pattern recognition unit 110. FIG.
In FIG. 27A, the filtering process for the region 1 is performed using the input window pattern 103c, and the threshold value corresponding to the region 1 is stored in the threshold value reference memory 113 from the threshold value storage unit 116c by selecting the threshold value determination mode 114c. Is stored. Then, the feature amount of the area 1 is input to the neural network 112. The distance between the feature input and the coupling coefficient of each neuron is obtained and compared with a threshold stored in the threshold reference memory 113. By firing a neuron whose distance is shorter than the threshold, the denomination of the unknown input banknote, Judge and identify the direction. At this time, only one neuron does not necessarily fire one neuron, and even if one neuron fires, it is a result of some feature amounts, and the denomination and direction are determined. Is not enough. Thus, the one or more neurons fired here are the final denomination,
The threshold reference memory value is set to 0 for other non-firing neurons, which are left as direction candidates, so that the calculation result is not reflected in the result.

【0093】次に、図27(B)では、入力窓パターン
103cにおいて、窓を移動することで、別の領域であ
る領域2に対するフィルタリング処理を行うとともに、
領域2に対応する閾値が閾値記憶手段116cから閾値
参照メモリ113に格納される。ここで、領域1に対す
る判定で発火しなかったニューロンに対応する閾値参照
メモリの値は更新せず、0のままにしておく。このと
き、領域1の特徴量がニューラルネットワーク112に
入力され、この入力と各ニューロンの結合係数との距離
を求め、これを、閾値参照メモリ113に格納されてい
る閾値と比較し、閾値より低い距離のニューロンが発火
することにより、未知の入力紙幣の金種、方向を判定、
識別する。
Next, in FIG. 27 (B), by moving the window in the input window pattern 103c, a filtering process is performed on the area 2 which is another area.
The threshold value corresponding to the area 2 is stored in the threshold value reference memory 113 from the threshold value storage unit 116c. Here, the value of the threshold reference memory corresponding to the neuron that has not fired in the determination for the area 1 is not updated, and is kept at 0. At this time, the feature amount of the area 1 is input to the neural network 112, the distance between this input and the coupling coefficient of each neuron is calculated, and this is compared with the threshold value stored in the threshold value reference memory 113. By firing the neuron of the distance, the denomination and direction of the unknown input bill are determined,
Identify.

【0094】領域1の場合と同様に、ここで発火した1
つあるいは複数のニューロンを最終的に決定される金
種、方向の候補として残し、他の発火しなかったニュー
ロンについては、閾値参照メモリを0とし、演算結果が
反映されないようにする。さらに、入力窓パターン10
3cにおいて、順次窓を移動しつつ判定を行い、金種、
方向の候補を絞っていき、最終的に図27(C)に示す
ように、領域Pまで窓を移動したときの判定結果を第1
の実施例の判定結果として判定統合部120に記憶す
る。
As in the case of the area 1, the 1
One or more neurons are left as candidates for the denomination and direction to be finally determined, and for the other neurons that have not fired, the threshold reference memory is set to 0 so that the calculation result is not reflected. Further, the input window pattern 10
In 3c, the judgment is performed while sequentially moving the window,
The candidates for the directions are narrowed down, and finally, as shown in FIG.
The determination result is stored in the determination integration unit 120 as the determination result of the embodiment.

【0095】次に、第2の実施例、図28(F)を実施
する。図28(F)では、入力窓パターン103bを用
いて、紙幣全体に対するフィルタリング処理を行う、す
なわち、紙幣の全特徴量が入力され、閾値判定モード1
14bで、全領域に対応する閾値が閾値記憶手段116
bより閾値参照メモリ113に格納される。このとき、
紙幣全体の特徴量がニューラルネットワーク112に入
力されるが、図27の(C)で閾値参照メモリに0が入
っているものについては更新をしない様にする。そし
て、この入力と各ニューロンの結合係数との距離を求
め、閾値参照メモリ113に格納されている閾値と比較
し、閾値より低い距離のニューロンが発火することによ
り、未知の入力紙幣の金種、方向を判定、識別する。そ
して、この判定結果と判定統合部120に記憶されてい
る値とが一致する場合、判定統合部120は記憶してい
る値を保持し、一致しない場合、判定統合部120は判
定結果をリジェクトとして出力する。
Next, a second embodiment, FIG. 28 (F), will be implemented. In FIG. 28F, filtering processing is performed on the entire bill using the input window pattern 103b, that is, all the feature amounts of the bill are input, and the threshold determination mode 1 is used.
At 14b, the threshold values corresponding to all the areas are stored in the threshold value storage means 116.
b is stored in the threshold reference memory 113. At this time,
The feature amount of the whole bill is input to the neural network 112, but the one in which 0 is stored in the threshold reference memory in FIG. 27C is not updated. Then, the distance between this input and the coupling coefficient of each neuron is obtained and compared with the threshold value stored in the threshold value reference memory 113. By firing the neuron whose distance is shorter than the threshold value, the denomination of the unknown input bill is calculated. Judge and identify direction. Then, when the determination result matches the value stored in the determination integration unit 120, the determination integration unit 120 holds the stored value, and when they do not match, the determination integration unit 120 determines that the determination result is rejected. Output.

【0096】この第2の実施例の変形例として、図27
(G)を実施することもできる。すなわち、図27の
(C)にて絞られたニューロンを解放し、閾値参照メモ
リに0が入っているのをそのまま継承せず全てを候補と
して使用可能にする。入力窓パターン103bを用い
て、紙幣全体に対するフィルタリング処理を行う、すな
わち、紙幣の全特徴量が入力され、閾値判定モード11
4bで、全領域に対応する閾値が閾値記憶手段116b
より閾値参照メモリ113に格納される。このとき、紙
幣全体の特徴量がニューラルネットワーク112に入力
され、この入力と各ニューロンの結合係数との距離を求
め、閾値参照メモリ113に格納されている閾値と比較
し、閾値より低い距離のニューロンが発火することによ
り、未知の入力紙幣の金種、方向を判定、識別する。そ
して、この判定結果と判定統合部120に記憶されてい
る値とが一致する場合、判定統合部120は記憶してい
る値を保持し、一致しない場合、判定統合部120は判
定結果をリジェクトとして出力する。
As a modification of the second embodiment, FIG.
(G) can also be performed. That is, the neurons narrowed down in (C) of FIG. 27 are released, and all of them can be used as candidates without inheriting the fact that 0 is stored in the threshold reference memory. Using the input window pattern 103b, a filtering process is performed on the entire banknote, that is, all the feature amounts of the banknote are input, and the threshold determination mode 11
4b, the threshold values corresponding to all the areas are stored in the threshold value storage means 116b.
It is stored in the threshold reference memory 113. At this time, the feature amount of the entire bill is input to the neural network 112, the distance between this input and the coupling coefficient of each neuron is calculated, and the distance is compared with the threshold stored in the threshold reference memory 113. By firing, the denomination and direction of the unknown input bill are determined and identified. Then, when the determination result matches the value stored in the determination integration unit 120, the determination integration unit 120 holds the stored value, and when they do not match, the determination integration unit 120 determines that the determination result is rejected. Output.

【0097】さらに、判定統合部120に記憶されてい
る値が示す金種と結合係数が類似する異金種がある場
合、これらの金種を対象とした第3の実施例、図28を
実施する。図28では、入力窓パターン103aは、実
施対象である金種が正確に識別されうる特徴が抽出され
るように、入力をフィルタリング処理する為に設けられ
ている。そして最小値判定モード114aを採用し、実
施対象である金種に対応したニューロンに対する閾値参
照メモリには1が格納され、その他の閾値参照メモリに
は0が格納される。このとき、入力窓パターン103a
でフィルタリング処理された特徴量がニューラルネット
ワーク112に入力され、この入力と実施対象である金
種に対応した各ニューロンの結合係数との距離を求め、
各距離の中で最小となるニューロンが発火することによ
り、実施対象金種を唯一の金種に判定、識別する。そし
て、この判定結果が判定統合部120に記憶されている
値と一致する場合、正式な判定結果として出力し、一致
しない場合、判定統合部120は判定結果をリジェクト
として出力する。
Further, when there are different denominations whose coupling coefficients are similar to the denominations indicated by the values stored in the judgment integration unit 120, the third embodiment and FIG. I do. In FIG. 28, the input window pattern 103a is provided for filtering the input so as to extract a feature that can accurately identify the denomination to be implemented. Then, the minimum value determination mode 114a is adopted, and 1 is stored in the threshold reference memory for the neuron corresponding to the denomination to be implemented, and 0 is stored in the other threshold reference memories. At this time, the input window pattern 103a
Is input to the neural network 112, and the distance between the input and the coupling coefficient of each neuron corresponding to the denomination to be implemented is determined.
By firing the smallest neuron in each distance, the execution target denomination is determined and identified as a unique denomination. If the determination result matches the value stored in the determination integration unit 120, it is output as a formal determination result, and if not, the determination integration unit 120 outputs the determination result as a reject.

【0098】続いて、ニューラルネットワーク112の
各ニューロンに対し、図28(E)に示すような類似パ
ターンニューロンテーブルを予め作成しておき、上述の
第1の実施例の結果残った、複数の候補の金種、方向の
ニューロン、及び、類似パターンニューロンテーブルに
登録されているニューロンを、閾値参照メモリ113に
閾値を設定することにより活性状態にし、これらのニュ
ーロンに対し、第2の実施例を実行する。こうすること
で、損傷等により変形、変質してしまった正常な紙幣
が、第1の実施例によって、変形、変質した部分が属す
る領域において候補外として判定された場合も、第2の
実施例において識別の対象となり、入力された紙幣を正
当な金種、方向として判定できるようになる。 このよ
うに、一部特異な偽造/変造処理された紙幣を、正確に
パターン認識し、識別、排除できる。また、損傷が進行
した正常な紙幣のパターン認識の識別率を向上させ、正
確に損傷紙幣とパターン認識し、識別、排除できる。
Subsequently, a similar pattern neuron table as shown in FIG. 28E is created in advance for each neuron of the neural network 112, and a plurality of candidate neurons remaining as a result of the first embodiment are obtained. The denomination, direction neurons, and neurons registered in the similar pattern neuron table are activated by setting a threshold value in the threshold reference memory 113, and the second embodiment is executed for these neurons. I do. In this manner, even if a normal banknote that has been deformed or deteriorated due to damage or the like is determined as a non-candidate in the region to which the deformed or deteriorated portion belongs according to the first embodiment, And the input banknote can be determined as a valid denomination and direction. In this manner, partially unique forged / falsified banknotes can be accurately pattern-recognized, identified, and eliminated. In addition, it is possible to improve the identification rate of pattern recognition of a normal banknote that has been damaged, and to accurately recognize a pattern as a damaged banknote, and identify and eliminate the banknote.

【0099】[0099]

【発明の効果】以上のように、本発明によれば、先ず画
像等のセンサデータの小領域部分を入力してパターン認
識し、次に、全体を一括入力してパターン認識するとい
ったことによる多段階のパターン認識、及び判定に使用
するニューロンを限定して判定処理することにより、一
部分が特異な偽造/変造紙幣であっても正確にパターン
認識し、異常な紙幣として排除することができる。ま
た、損傷が進行した正常な紙幣のパターン認識の識別率
を向上させるとともに、正確に損傷紙幣をパターン認識
し、排除することも可能である。
As described above, according to the present invention, first, a small area portion of sensor data such as an image is input to perform pattern recognition, and then the whole is collectively input to perform pattern recognition. By performing the determination processing with limiting the neurons used for the pattern recognition and determination at the stage, even if the part is a unique counterfeit / falsified banknote, the pattern can be accurately recognized and eliminated as an abnormal banknote. In addition, it is possible to improve the identification rate of pattern recognition of a normal banknote that has been damaged, and to accurately recognize and eliminate a damaged banknote in pattern.

【0100】さらに、ニューラルネットワークによる多
段階に亘る小領域の画像データを入力した場合の判定結
果をフィードバックし徐徐に候補となるニューロンの数
を減らして行くステップを有する判定処理を行うことに
より、また、最初に仮決定した金種候補に対して間違い
が発生し易い類似の候補を追加したニューロンに、全領
域の画像データを入力することによって判定結果を得る
ようにして紙葉類の識別力を向上することができる。
Further, by performing a determination process including a step of feeding back a determination result when image data of a small region over multiple stages by a neural network is input and gradually reducing the number of candidate neurons, By inputting image data of the entire area to a neuron to which a similar candidate that is likely to be erroneous with respect to the initially determined denomination candidate is added, a discrimination result is obtained by inputting image data of the entire region. Can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に用いる競合型ニューラルネットワーク
の基本構造を示す図である。
FIG. 1 is a diagram showing a basic structure of a competitive neural network used in the present invention.

【図2】本発明の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the present invention.

【図3】本発明の全体的な動作例を示すフローチャート
である。
FIG. 3 is a flowchart showing an overall operation example of the present invention.

【図4】データ前処理の動作例を示すフローチャートで
ある。
FIG. 4 is a flowchart illustrating an operation example of data preprocessing.

【図5】紙幣のデータ採取の様子を示す図である。FIG. 5 is a diagram showing a state of data collection of a bill.

【図6】モザイク化処理(時系列データ)を説明するた
めの図である。
FIG. 6 is a diagram for explaining a mosaic processing (time-series data).

【図7】モザイク化処理(画像)を説明するための図で
ある。
FIG. 7 is a diagram for explaining a mosaic processing (image).

【図8】正規化処理を説明するための図である。FIG. 8 is a diagram illustrating a normalization process.

【図9】閾値作成の処理例を示すフローチャートであ
る。
FIG. 9 is a flowchart illustrating an example of a process for creating a threshold.

【図10】閾値の設定を説明するための図である。FIG. 10 is a diagram for explaining setting of a threshold.

【図11】閾値の調整を説明するための図である。FIG. 11 is a diagram for explaining adjustment of a threshold.

【図12】ニューロン削除の処理例を示すフローチャー
トである。
FIG. 12 is a flowchart illustrating a processing example of neuron deletion.

【図13】学習データの評価の処理例を示すフローチャ
ートである。
FIG. 13 is a flowchart illustrating an example of a process of evaluating learning data.

【図14】ニューロン追加のチェック処理例を示すフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an example of a neuron addition check process.

【図15】競合型ニューラルネットワークの信頼性評価
を説明するための図である。
FIG. 15 is a diagram for explaining reliability evaluation of a competitive neural network.

【図16】誤認識データに対するニューロンの追加を説
明するための図である。
FIG. 16 is a diagram for explaining the addition of neurons to erroneously recognized data.

【図17】既定信頼性を満たさない場合のニューロンの
追加を説明するための図である。
FIG. 17 is a diagram for explaining addition of a neuron when the default reliability is not satisfied.

【図18】閾値拡張の処理例を示すフローチャートであ
る。
FIG. 18 is a flowchart illustrating a processing example of threshold value extension;

【図19】閾値の拡張設定を説明するための図である。FIG. 19 is a diagram for explaining extension setting of a threshold.

【図20】LVQ法の概念を説明するための図である。FIG. 20 is a diagram for explaining the concept of the LVQ method.

【図21】一部特異な紙幣の識別処理例を示す図であ
る。
FIG. 21 is a diagram illustrating an example of processing for identifying a partially unique bill.

【図22】損傷紙幣の類似紙幣への誤識別の処理例を示
す図である。
FIG. 22 is a diagram illustrating a processing example of erroneously identifying a damaged banknote as a similar banknote.

【図23】入力データ補正処理例を示す図である。FIG. 23 is a diagram illustrating an example of input data correction processing.

【図24】ニューロン分割例を示す図である。FIG. 24 is a diagram illustrating an example of neuron division.

【図25】紙幣識別装置の全体のブロック図の1例であ
る。
FIG. 25 is an example of an overall block diagram of the bill validator.

【図26】識別装置のデータ処理の1例を示す図であ
る。
FIG. 26 is a diagram illustrating an example of data processing of the identification device.

【図27】識別装置の処理の1例を示す図である。FIG. 27 is a diagram illustrating an example of processing of the identification device.

【図28】連想ニューロンテーブルの処理の1例を示す
図である。
FIG. 28 is a diagram illustrating an example of processing of an associative neuron table.

【図29】入力層ニューロンと、分割した小領域の特徴
量の関係を示す1例である。
FIG. 29 is an example showing a relationship between input layer neurons and feature amounts of divided small regions.

【符号の説明】[Explanation of symbols]

1、114 判定部 2,3 センサ 4 紙幣 102 入力データ前処理補正部 110 パターン認識手段 112 ニューラルネットワーク 116 基準パターン記憶手段 118 学習、更新、設定部 120 判定結果統合部 1, 114 determination unit 2, 3 sensor 4 banknote 102 input data preprocessing correction unit 110 pattern recognition unit 112 neural network 116 reference pattern storage unit 118 learning, updating, setting unit 120 determination result integration unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 漁 邦広 兵庫県姫路市下手野一丁目3番1号 グロ ーリー工業株式会社内 Fターム(参考) 3E041 AA02 AA03 AA04 AA05 BA11 BB02 BB03 BC03 CA01 CA08 CA09 CB03 CB04 5L096 AA06 BA03 BA18 FA37 FA41 GA51 HA08 HA11 JA11 LA05 ────────────────────────────────────────────────── ─── Continued from the front page (72) Inventor Kunihiro 1-3-1 Shimoteno, Himeji-shi, Hyogo Glory Industries Co., Ltd. F-term (reference) 3E041 AA02 AA03 AA04 AA05 BA11 BB02 BB03 BC03 CA01 CA08 CA09 CB03 CB04 5L096 AA06 BA03 BA18 FA37 FA41 GA51 HA08 HA11 JA11 LA05

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】識別すべき紙幣の特徴量を入力し基準パタ
ーンを学習し、その後、入力された未知の紙幣を前記基
準パターンを用いてパターン認識する紙幣識別方法にお
いて、前記未知の紙幣のセンシングを行い所定の第1の
小領域毎に抽出された前記未知の紙幣の各特徴量を前記
第1の小領域よりも大きい第2の小領域に集合させる第
1のステップと、前記第2の小領域の各々に対応して設
けられ、且つ該当紙幣の金種・方向の候補として選択可
能な基準パターンと前記第2の小領域を構成する前記第
1の小領域の特徴量とを比較してパターン認識する第2
のステップと前記パターン認識の結果前記未知の紙幣が
該当する金種、方向の候補を決定するとともに、該当し
ない金種、方向を候補の中から除外する第3のステップ
と、前記第2のステップと第3のステップを前記第2の
小領域を替えて全領域に亘って繰り返し実行し、金種、
方向の中から前記第2のステップの結果を得て該未知の
紙幣の候補として最終的に残った紙幣の金種、方向を記
憶する第4のステップと、 前記未知の紙幣の全体分の前記第1の所定の小領域の特
徴量と前記基準パターンの全てと同時に比較してパター
ン認識を行い候補として得られた紙幣の金種、方向の候
補を記憶する第5のステップと、 前記第4のステップ及び前記第5のステップで記憶され
た紙幣の金種、方向の候補に、それぞれ、共通の候補が
あった場合に、この共通候補の紙幣の金種、方向を、当
該未知の紙幣の金種、方向として外部に出力する第6の
ステップとを含むことを特徴とする紙幣の識別方法。
1. A bill identifying method for inputting a feature amount of a bill to be identified, learning a reference pattern, and then recognizing the inputted unknown bill using the reference pattern. Performing a first step of collecting the characteristic amounts of the unknown banknotes extracted for each predetermined first small area into a second small area larger than the first small area; and A comparison is made between a reference pattern provided corresponding to each of the small areas and selectable as a denomination / direction candidate of the banknote and a feature amount of the first small area constituting the second small area. Pattern recognition 2
And the third step of determining candidates for the denomination and direction to which the unknown bill applies as a result of the pattern recognition, and excluding non-applicable denominations and directions from the candidates, and the second step And the third step are repeatedly executed over the entire area by replacing the second small area,
A fourth step of obtaining the result of the second step from among the directions and storing the denomination of the banknote finally left as a candidate for the unknown banknote, and the direction; A fifth step of simultaneously comparing the feature amount of the first predetermined small area with all of the reference patterns, performing pattern recognition, and storing banknote denomination and direction candidates obtained as candidates; If there is a common candidate for each of the banknote denomination and direction candidates stored in the step and the fifth step, the denomination and direction of this common candidate banknote are And a sixth step of outputting the denomination and direction to the outside.
【請求項2】 前記パターン認識に、LVQ(Learning
Vector Quantization)法によるニューラルネットワーク
を使用した請求項1に記載の紙幣の識別方法。
2. An LVQ (Learning) is used for the pattern recognition.
The method for identifying bills according to claim 1, wherein a neural network is used by a Vector Quantization method.
【請求項3】 識別すべき紙幣の特徴量を入力し基準パ
ターンを学習し、その後、入力された未知の紙幣を前記
基準パターンを用いてパターン認識する紙幣識別方法に
おいて、 前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用し、 出力層ニューロンに発火すべき金種・方向を設定し、 前記識別すべき紙幣のセンシングを行い紙幣の全体を、
所定の第1の小領域に分割すると共に、該ニューラルネ
ットワークの入力層ニューロンに前記第1の小領域毎に
抽出された特徴量を全て入力し、パターンマッチングに
おける基準パターンを結合係数として学習し記憶させる
第1のステップと、前記識別すべき紙幣の第1の小領域
毎に抽出された前記学習すべき紙幣の各特徴量を前記第
1の小領域よりも大きい第2の小領域に集合させ、前記
ニューラルネットワークの入力層ニューロンに前記第2
の小領域の特徴量を、小領域を替えて全領域に亘って繰
り返し入力して、前記基準パターンとの距離を演算し、
該当金種、方向の出力層ニューロンが発火するように閾
値を設定する第2のステップと、前記第1の小領域毎に
抽出された特徴量の紙幣の全体分を前記ニューラルネッ
トワークに同時に入力して、前記基準パターンとの距離
を演算し、該当金種、方向の出力層ニューロンが発火す
るように閾値を設定する第3のステップと、前記未知の
紙幣の全体を、前記第1の小領域に分割すると共に、前
記第1の小領域毎に抽出された前記未知の紙幣の各特徴
量を前記第2の小領域に集合させ、前記ニューラルネッ
トワークの入力層ニューロンに前記第2の小領域の特徴
量を、小領域を替えて全領域に亘って繰り返し入力し
て、前記基準パターンとの距離を演算し、候補となる紙
幣の金種、方向を演算すると共に、前記基準パターンと
の距離が所定の閾値以上の出力層ニューロンを非活性化
させる第1のパターン認識をする第4のステップと、 前記未知の紙幣の全体分の第1の小領域毎に抽出された
特徴量を全て前記ニューラルネットワークに同時に入力
して、候補となる紙幣の金種、方向を演算する第2のパ
ターン認識をする第5のステップと、前記第4及び第5
のステップの演算結果を比較し、同一候補が抽出された
場合に、この同一候補の紙幣の金種、方向を出力する第
6のステップとからなることを特徴とする紙幣の識別方
法。
3. A banknote identification method for inputting a feature amount of a banknote to be identified, learning a reference pattern, and thereafter performing pattern recognition of the input unknown banknote using the reference pattern. (Learning Vector Quantiz
ation) method, the denomination and the direction to be fired in the output layer neuron are set, the bill to be identified is sensed, and the whole bill is
In addition to dividing into predetermined first small regions, all the feature amounts extracted for each of the first small regions are input to the input layer neurons of the neural network, and a reference pattern in pattern matching is learned and stored as a coupling coefficient. A first step of causing each feature amount of the banknote to be learned extracted for each first subregion of the banknote to be identified to be collected in a second subregion larger than the first subregion. The input layer neurons of the neural network
The feature amount of the small area is repeatedly input over the entire area while changing the small area, and the distance from the reference pattern is calculated,
A second step of setting a threshold value so that an output layer neuron of a corresponding denomination and direction is fired, and simultaneously inputting the entire amount of the feature amount banknote extracted for each of the first small areas to the neural network. A third step of calculating a distance from the reference pattern and setting a threshold value so that the output layer neuron of the corresponding denomination and direction is fired; And the feature amounts of the unknown banknotes extracted for each of the first small areas are aggregated in the second small area, and the input layer neurons of the neural network are assigned to the second layer. The feature amount is repeatedly input over the entire area, replacing the small area, calculating the distance to the reference pattern, calculating the denomination and direction of the candidate banknote, and calculating the distance from the reference pattern. Predetermined threshold A fourth step of performing a first pattern recognition for inactivating the upper output layer neuron; and simultaneously extracting all the feature amounts extracted for each of the first small regions of the entire unknown bill into the neural network. A fifth step of inputting and performing a second pattern recognition for calculating the denomination and direction of a candidate banknote;
And a sixth step of outputting the denomination and direction of the banknote of the same candidate when the same candidate is extracted by comparing the calculation results of the above steps.
【請求項4】 識別すべき紙幣の特徴量を入力し基準パ
ターンを学習し、その後、入力された未知の紙幣を前記
基準パターンを使用してパターン認識する紙幣識別方法
において、 前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用し、 出力層ニューロンに発火すべき金種・方向を設定し、 前記識別すべき紙幣のセンシングを行い紙幣の全体を、
所定の第1の小領域に分割すると共に、該ニューラルネ
ットワークの入力層ニューロンに前記第1の小領域毎に
抽出された特徴量を全て入力し、 パターンマッチングにおける基準パターンを結合係数と
して学習し記憶させる第1のステップと、前記識別すべ
き紙幣の第1の小領域毎に抽出された前記識別すべき紙
幣の各特徴量を前記第1の小領域よりも大きい第2の小
領域に集合させ、前記ニューラルネットワークの入力層
ニューロンに前記第2の小領域の特徴量を、小領域を替
えて全領域に亘って繰り返し入力して、前記基準パター
ンとの距離を演算し、該当金種、方向の出力層ニューロ
ンが発火するように閾値を設定する第2のステップと、
前記第1の小領域毎に抽出された特徴量の紙幣の全体分
を前記ニューラルネットワークに同時に入力して、前記
基準パターンとの距離を演算し、該当金種、方向の出力
層ニューロンが発火するように閾値を設定する第3のス
テップと、 前記未知の紙幣の全体を、前記第1の小領域に分割する
と共に、前記第1の小領域毎に抽出された前記未知の紙
幣の各特徴量を前記第2の小領域に集合させ、前記ニュ
ーラルネットワークの入力層ニューロンに前記第2の小
領域の特徴量を、小領域を替えて全領域に亘って繰り返
し入力して、前記基準パターンとの距離を演算し、候補
となる紙幣の金種、方向を演算すると共に、前記基準パ
ターンとの距離が所定の閾値以上の出力層ニューロンを
非活性化させる第1のパターン認識をする第4のステッ
プと、 第1の小領域毎に抽出された前記未知の紙幣全体分の特
徴量を、前記第1のパターン認識手段により出力層ニュ
ーロンが非活性化されたニューロンを含む前記ニューラ
ルネットワークに同時入力して、候補となる紙幣の金
種、方向を演算する第2のパターン認識をする第5のス
テップと、 前記第4及び第5のステップの演算結果を比較し、同一
候補が抽出された場合に、この同一候補の紙幣の金種、
方向を出力する第6のステップとからなることを特徴と
する紙幣の識別方法。
4. A banknote identification method for inputting a feature amount of a banknote to be identified and learning a reference pattern, and thereafter recognizing the input unknown banknote using the reference pattern. LVQ (Learning Vector Quantiz
ation) method, the denomination and the direction to be fired in the output layer neuron are set, the bill to be identified is sensed, and the whole bill is
The neural network is divided into predetermined first small areas, and all the feature amounts extracted for each of the first small areas are input to an input layer neuron of the neural network, and a reference pattern in pattern matching is learned and stored as a coupling coefficient. A first step of causing each feature amount of the bill to be identified extracted for each first small area of the bill to be identified to be collected in a second small area larger than the first small area. The feature amount of the second small area is repeatedly input to the input layer neuron of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A second step of setting a threshold such that the output layer neurons of
Simultaneously inputting the entire amount of the bill of the feature amount extracted for each of the first small areas to the neural network, calculating the distance from the reference pattern, and firing the output layer neuron of the corresponding denomination and direction. Setting the threshold value as described above, and dividing the entirety of the unknown banknote into the first small areas, and extracting each feature amount of the unknown banknote extracted for each of the first small areas. Are gathered in the second sub-region, and the feature value of the second sub-region is repeatedly input to the input layer neurons of the neural network over the entire sub-region by changing the sub-region. A fourth step of calculating a distance, calculating a denomination and a direction of a candidate banknote, and performing a first pattern recognition for deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value. When, Simultaneously inputting the feature amount of the entire unknown banknote extracted for each first small area to the neural network including neurons whose output layer neurons have been deactivated by the first pattern recognition means, The fifth step of performing the second pattern recognition for calculating the denomination and direction of the candidate banknotes is compared with the calculation results of the fourth and fifth steps, and when the same candidate is extracted, Denominations of banknotes of the same candidate,
And a sixth step of outputting a direction.
【請求項5】識別すべき紙幣の特徴量を入力し基準パタ
ーンを学習し、その後、入力された未知の紙幣を前記基
準パターンを使用してパターン認識する紙幣識別方法に
おいて、 前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用し、 出力層ニューロンに発火すべき金種・方向を設定し、 該ニューラルネットワークの入力層ニューロンには、前
記識別すべき紙幣のセンシングを行い所定の第1の小領
域毎に抽出された特徴量を全て入力し、 パターンマッチングにおける基準パターンを結合係数と
して学習し記憶させる第1のステップと、前記学習すべ
き紙幣の第1の小領域毎に抽出された前記学習すべき紙
幣の各特徴量を前記第1の小領域よりも大きい第2の小
領域に集合させ、前記ニューラルネットワークの入力層
ニューロンに前記第2の小領域の特徴量を、小領域を替
えて全領域に亘って繰り返し入力して、前記基準パター
ンとの距離を演算し、該当金種、方向の出力層ニューロ
ンが発火するように閾値を設定する第2のステップと、
前記学習すべき紙幣の全体を、前記第1の小領域に分割
すると共に、第1の小領域毎に抽出された特徴量を全て
前記ニューラルネットワークに同時に入力して、前記基
準パターンとの距離を演算し、該当金種、方向の出力層
ニューロンが発火するように閾値を設定する第3のステ
ップと、前記未知の紙幣の全体を、前記第1の小領域に
分割すると共に、前記第1の小領域毎に抽出された前記
未知の紙幣の各特徴量を前記第2の小領域に集合させ、
前記ニューラルネットワークの入力層ニューロンに前記
第2の小領域の特徴量を、小領域を替えて全領域に亘っ
て繰り返し入力して、前記基準パターンとの距離を演算
し、候補となる紙幣の金種、方向を演算すると共に、前
記基準パターンとの距離が所定の閾値以上の出力層ニュ
ーロンを非活性化させる第1のパターン認識をする第4
のステップと、第1の小領域毎に抽出された前記未知の
紙幣全体分の特徴量を、前記ニューラルネットワークに
同時に入力して、候補となる紙幣の金種、方向を演算す
る第2のパターン認識をする第5のステップと、 前記未知の紙幣の第1の小領域毎に抽出された前記学習
すべき紙幣の各特徴量を前記第1の小領域よりも大きい
領域であって、候補となる金種に対し識別しうる特徴を
有する第3の小領域に集合させ、前記ニューラルネット
ワークの入力層ニューロンに前記第3の小領域の特徴量
を入力して、前記基準パターンとの距離を演算し、前記
基準パターンとの距離が最も近い出力層ニューロンを識
別結果とする第3のパターン認識をする第6のステップ
と、前記第4及び第5及び第6のステップの演算結果を
比較し、同一候補が抽出された場合に、この同一候補の
紙幣の金種、方向を出力する第7のステップとからなる
ことを特徴とする紙幣の識別方法。
5. A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and then the input unknown banknote is pattern-recognized using the reference pattern. LVQ (Learning Vector Quantiz
A denomination and a direction to be fired in an output layer neuron are set by using a neural network based on the method of the present invention. A first step of inputting all the feature amounts extracted for each area and learning and storing a reference pattern in pattern matching as a coupling coefficient, and the learning extracted for each first small area of the banknote to be learned. The feature amounts of the bills to be collected are collected in a second small region larger than the first small region, and the feature amount of the second small region is changed to the input layer neuron of the neural network by replacing the small region. A second input for repeatedly inputting over the entire area, calculating a distance from the reference pattern, and setting a threshold value so that an output layer neuron of a corresponding denomination and direction fires. And the step,
The entire banknote to be learned is divided into the first small areas, and all the feature amounts extracted for each first small area are simultaneously input to the neural network, and a distance from the reference pattern is set. A third step of calculating and setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires; and dividing the entirety of the unknown bill into the first small area, Gathering each characteristic amount of the unknown bill extracted for each small area in the second small area,
The feature amount of the second small area is repeatedly input to the input layer neuron of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A fourth pattern for calculating a seed and a direction and performing a first pattern recognition for inactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value;
And a second pattern for simultaneously inputting the feature amounts of the entire unknown banknote extracted for each of the first small areas to the neural network and calculating the denomination and direction of the candidate banknotes A fifth step of recognizing, each of the feature amounts of the banknote to be learned extracted for each of the first small regions of the unknown banknote is a region larger than the first small region, and a candidate The denominations are collected in a third sub-region having a distinguishable characteristic, the feature amount of the third sub-region is input to the input layer neuron of the neural network, and the distance from the reference pattern is calculated. And comparing the sixth step of performing third pattern recognition with the output layer neuron closest to the reference pattern as the identification result with the calculation results of the fourth, fifth, and sixth steps, Same candidate is extracted And a seventh step of outputting the denomination and direction of the same candidate banknote when the banknote is identified.
【請求項6】 識別すべき紙幣の特徴量を入力し基準パ
ターンを学習し、その後、入力された未知の紙幣を前記
基準パターンからパターン認識するとともに、前記パタ
ーン認識に、LVQ(Learning Vector Quantization)法
によるニューラルネットワークを使用し、このニューラ
ルネットワークの入力層ニューロンには、分割した所定
の小領域毎に、得られた特徴量を、位置依存関係に応じ
て選択的に入力し、ニューロ演算する紙幣識別装置にお
いて、紙幣のセンシングを行い紙幣の全体を、所定の第
1の小領域に分割し特徴量を抽出する特徴量抽出手段
と、所定の枚数の学習用紙幣を処理し、識別すべき紙幣
のそれぞれに対し、前記特徴量抽出手段により得られた
各小領域毎の特徴量を、前記ニューラルネットワークの
入力層ニューロンに順次入力して、前記基準パターンを
それぞれ所定のニューロンに記憶させる第1の学習手段
と、前記特徴量抽出手段により第1の小領域毎に抽出さ
れた前記識別すべき紙幣の各特徴量を前記第1の小領域
よりも大きい第2の小領域に集合させ、紙幣の全領域に
対する特徴量を、前記ニューラルネットワークの入力層
ニューロンに同時に入力して、前記基準パターンをそれ
ぞれ所定のニューロンに記憶させる第2の学習手段と、
前記未知の紙幣から前記特徴量抽出手段により得られた
特徴量を前記第2の小領域に集合させ、前記ニューラル
ネットワークの入力層ニューロンに順次入力して、前記
基準パターンとの距離を演算し、候補となる紙幣の金
種、方向を演算すると共に、前記基準パターンとの距離
が所定の閾値以上の出力層ニューロンを非活性化させる
第1のパターン認識手段と、 前記特徴量抽出手段により第1の小領域毎に抽出された
前記未知の紙幣全体分の特徴量を、前記第1のパターン
認識手段により出力層ニューロンが非活性化されたニュ
ーロンを含む前記ニューラルネットワークに同時に入力
して、前記基準パターンとの距離を演算し、この距離が
所定の閾値以内の出力層ニューロンは、全て紙幣の金
種、方向の候補として選択可能な第2のパターン認識手
段と、 前記第1及び第2のパターン認識手段の演算結果を比較
し、同一候補が抽出された場合に、この同一候補の紙幣
の金種、方向を出力する演算結果統合手段とを具えたこ
とを特徴とする紙幣の識別装置。
6. A reference pattern is learned by inputting a feature amount of a bill to be identified. Thereafter, the inputted unknown bill is recognized from the reference pattern, and an LVQ (Learning Vector Quantization) is used for the pattern recognition. The input layer neurons of the neural network are selectively input into the input layer neurons of the divided small regions in accordance with the positional dependency, and the banknotes for which the neural operation is performed are used. In the identification device, a banknote to be recognized is processed by sensing a banknote and dividing the entire banknote into a first predetermined region to extract a feature amount, and processing a predetermined number of learning banknotes. Are sequentially input to the input layer neurons of the neural network with the feature amount of each small region obtained by the feature amount extraction means. A first learning unit for storing the reference pattern in a predetermined neuron; and a feature amount of the banknote to be identified extracted for each first small region by the feature amount extracting unit. A second learning step of collecting the reference patterns into predetermined neurons by simultaneously collecting feature amounts for all the banknote regions into the input layer neurons of the neural network and collecting the reference patterns into predetermined neurons; Means,
The feature amounts obtained by the feature amount extraction means from the unknown banknotes are collected in the second small area, sequentially input to the input layer neurons of the neural network, and the distance from the reference pattern is calculated, A first pattern recognition unit that calculates a denomination and a direction of a candidate banknote and that deactivates an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value; The feature amounts of the entire unknown banknote extracted for each of the small regions are simultaneously input to the neural network including neurons whose output layer neurons have been deactivated by the first pattern recognition means, and The output layer neurons in which the distance to the pattern is calculated and the distance is within a predetermined threshold value are all the second patterns that can be selected as banknote denomination and direction candidates. Recognizing means, and calculating result integrating means for comparing calculation results of the first and second pattern recognition means and outputting a denomination and a direction of a banknote of the same candidate when the same candidate is extracted. A bill discriminating device characterized by the following.
【請求項7】 識別すべき紙幣の特徴量を入力し基準パ
ターンを学習し、その後、入力された未知の紙幣を前記
基準パターンからパターン認識する紙幣識別方法におい
て、 前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用し、 出力層ニューロンに発火すべき金種・方向を設定し、 該ニューラルネットワークの入力層ニューロンには、前
記識別すべき紙幣のセンシングを行い所定の第1の小領
域毎に抽出された特徴量を全て入力し、 パターンマッチングにおける基準パターンを結合係数と
して学習し記憶させる第1のステップと、前記学習すべ
き紙幣の第1の小領域毎に抽出された前記学習すべき紙
幣の各特徴量を前記第1の小領域よりも大きい第2の小
領域に集合させ、前記ニューラルネットワークの入力層
ニューロンに前記第2の小領域の特徴量を、小領域を替
えて全領域に亘って繰り返し入力して、前記基準パター
ンとの距離を演算し、該当金種、方向の出力層ニューロ
ンが発火するように閾値を設定する第2のステップと、
前記学習すべき紙幣の全体を、前記第1の小領域に分割
すると共に、第1の小領域毎に抽出された特徴量を全て
前記ニューラルネットワークに同時に入力して、前記基
準パターンとの距離を演算し、該当金種、方向の出力層
ニューロンが発火するように閾値を設定する第3のステ
ップと、 予め類似した候補のニューロンを、それぞれ登録してお
く連想ニューロンテーブルを設ける第4のステップと、
前記未知の紙幣の第1の小領域毎に抽出された前記未知
の紙幣の各特徴量を前記第1の小領域よりも大きい第2
の小領域に集合させ、前記ニューラルネットワークの入
力層ニューロンに前記第2の小領域の特徴量を、小領域
を替えて全領域に亘って繰り返し入力して、前記基準パ
ターンとの距離を演算し、候補となる紙幣の金種、方向
を演算すると共に、前記基準パターンとの距離が所定の
閾値以上の出力層ニューロンを非活性化させる第1のパ
ターン認識をする第5のステップと、 前記未知の紙幣の全体を、第2の所定の小領域に分割す
ると共に、各小領域を一括処理して、得られた各特徴量
を、前記第1のパターン認識手段により出力層ニューロ
ンが非活性化されたニューロンを含む前記ニューラルネ
ットワークで、かつ、前記連想ニューロンテーブルの候
補ニューロンに登録されているニューロンは全て活性化
させた状態のニューラルネットワークに同時に入力し
て、前記基準パターンとの距離を演算し、この距離が所
定の閾値以内の出力層ニューロンは、全て紙幣の金種、
方向の候補として選択可能な第2のパターン認識する第
6のステップと、 前記第5及び第6のステップの演算結果を比較し、同一
候補が抽出された場合に、この同一候補の紙幣の金種、
方向を出力する第7のステップとを有することを特徴と
する紙幣の識別方法。
7. A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and then the input unknown banknote is pattern-recognized from the reference pattern. Vector Quantiz
A denomination and a direction to be fired in an output layer neuron are set by using a neural network based on the method of the present invention. A first step of inputting all the feature amounts extracted for each area and learning and storing a reference pattern in pattern matching as a coupling coefficient, and the learning extracted for each first small area of the banknote to be learned. The feature amounts of the bills to be collected are collected in a second small region larger than the first small region, and the feature amount of the second small region is changed to the input layer neuron of the neural network by replacing the small region. A second input for repeatedly inputting over the entire area, calculating a distance from the reference pattern, and setting a threshold value so that an output layer neuron of a corresponding denomination and direction fires. And the step,
The entire banknote to be learned is divided into the first small areas, and all the feature amounts extracted for each first small area are simultaneously input to the neural network, and a distance from the reference pattern is set. A third step of calculating and setting a threshold value so that the output layer neuron of the corresponding denomination and direction is fired; a fourth step of providing an associative neuron table for registering previously similar candidate neurons, respectively; ,
Each feature amount of the unknown bill extracted for each of the first small areas of the unknown bill is set to a second value larger than the first small area.
The feature amount of the second small area is repeatedly input to the input layer neurons of the neural network over the entire area while changing the small area, and the distance from the reference pattern is calculated. A fifth step of calculating a denomination and a direction of a candidate banknote and performing a first pattern recognition for deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value; Is divided into second predetermined small areas, and each of the small areas is collectively processed, and the obtained feature amounts are used to deactivate the output layer neurons by the first pattern recognition means. The neural network including the activated neurons and the neurons registered in the candidate neurons of the associative neuron table are all activated. Simultaneously, the distance from the reference pattern is calculated, and the output layer neurons whose distance is within a predetermined threshold value are all denominations of banknotes,
A sixth step of recognizing a second pattern that can be selected as a direction candidate is compared with the calculation results of the fifth and sixth steps. If the same candidate is extracted, the money of the bill of the same candidate is extracted. seed,
And a seventh step of outputting a direction.
【請求項8】 識別すべき紙幣の特徴量を入力し基準パ
ターンを学習し、その後、入力された未知の紙幣を前記
基準パターンからパターン認識する紙幣識別方法におい
て、 前記パターン認識に、LVQ(Learning Vector Quantiz
ation)法によるニューラルネットワークを使用し、 出力層ニューロンに発火すべき金種・方向を設定し、 該ニューラルネットワークの入力層ニューロンには、前
記識別すべき紙幣のセンシングを行い所定の第1の小領
域毎に抽出された特徴量を全て入力し、 パターンマッチングにおける基準パターンを結合係数と
して学習し記憶させる第1のステップと、前記学習すべ
き紙幣の第1の小領域毎に抽出された前記学習すべき紙
幣の各特徴量を前記第1の小領域よりも大きい第2の小
領域に集合させ、前記ニューラルネットワークの入力層
ニューロンに前記第2の小領域の特徴量を、小領域を替
えて全領域に亘って繰り返し入力して、前記基準パター
ンとの距離を演算し、該当金種、方向の出力層ニューロ
ンが発火するように閾値を設定する第2のステップと、
前記学習すべき紙幣の全体を、前記第1の小領域に分割
すると共に、前記第1の小領域毎に抽出された特徴量を
全て前記ニューラルネットワークに同時に入力して、前
記基準パターンとの距離を演算し、該当金種、方向の出
力層ニューロンが発火するように閾値を設定する第3の
ステップと、 予め類似した候補のニューロンを、それぞれ登録してお
く連想ニューロンテーブルを設ける第4のステップと、
前記未知の紙幣の前記第1の小領域毎に抽出された前記
未知の紙幣の各特徴量を前記第1の小領域よりも大きい
第2の小領域に集合させ、前記ニューラルネットワーク
の入力層ニューロンに前記第2の小領域の特徴量を、小
領域を替えて全領域に亘って繰り返し入力して、前記基
準パターンとの距離を演算し、候補となる紙幣の金種、
方向を演算すると共に、前記基準パターンとの距離が所
定の閾値以上の出力層ニューロンを非活性化させる第1
のパターン認識をする第5のステップと、 前記未知の紙幣の全体を、前記第2の小領域に分割する
と共に、得られた各小領域を一括処理して、得られた各
特徴量を、前記第1のパターン認識手段により出力層ニ
ューロンが非活性化されたニューロンを含む前記ニュー
ラルネットワークで、かつ、前記連想ニューロンテーブ
ルの候補ニューロンに登録されているニューロンを全て
活性化させた状態のニューラルネットワークに同時に入
力して、前記基準パターンとの距離を演算し、この距離
が所定の閾値以内の出力層ニューロンは、全て紙幣の金
種、方向の候補として選択可能な第2のパターン認識す
る第6のステップと、 前記未知の紙幣の第1の小領域毎に抽出された前記学習
すべき紙幣の各特徴量を前記第1の小領域よりも大きい
領域であって、候補となる金種に対し識別しうる特徴を
有する第3の小領域に集合させ、前記ニューラルネット
ワークの入力層ニューロンに前記第3の小領域の特徴量
を入力して、前記基準パターンとの距離を演算し、前記
基準パターンとの距離が最も近い出力層ニューロンを識
別結果とする第3のパターン認識をする第7のステップ
と、 前記第5及び第6及び第7のステップの演算結果を比較
し、同一候補が抽出された場合に、この同一候補の紙幣
の金種、方向を出力する第8のステップとを有すること
を特徴とする紙幣の識別方法。
8. A banknote identification method in which a feature amount of a banknote to be identified is input and a reference pattern is learned, and thereafter, the input unknown banknote is pattern-recognized from the reference pattern. Vector Quantiz
A denomination and a direction to be fired in an output layer neuron are set by using a neural network based on the method of the present invention. A first step of inputting all the feature amounts extracted for each area and learning and storing a reference pattern in pattern matching as a coupling coefficient, and the learning extracted for each first small area of the banknote to be learned. The feature amounts of the bills to be collected are collected in a second small region larger than the first small region, and the feature amount of the second small region is changed to the input layer neuron of the neural network by replacing the small region. A second input for repeatedly inputting over the entire area, calculating a distance from the reference pattern, and setting a threshold value so that an output layer neuron of a corresponding denomination and direction fires. And the step,
The entire banknote to be learned is divided into the first small areas, and all the feature amounts extracted for each of the first small areas are simultaneously input to the neural network, and a distance from the reference pattern is set. And setting a threshold value so that the output layer neuron of the corresponding denomination and direction fires, and a fourth step of providing an associative neuron table for registering previously similar candidate neurons, respectively. When,
Collecting each feature amount of the unknown bill extracted for each of the first small areas of the unknown bill into a second small area larger than the first small area; and inputting neurons of the neural network The feature amount of the second small area is repeatedly input over the entire area while changing the small area, and the distance from the reference pattern is calculated.
Calculating a direction and deactivating an output layer neuron whose distance from the reference pattern is equal to or greater than a predetermined threshold value;
A fifth step of performing pattern recognition of the above, and the entirety of the unknown banknote is divided into the second small areas, and the obtained small areas are collectively processed, and the obtained feature amounts are The neural network including a neuron in which an output layer neuron is inactivated by the first pattern recognition unit, and a neural network in which all neurons registered as candidate neurons in the associative neuron table are activated. At the same time, the distance from the reference pattern is calculated, and all the output layer neurons whose distance is within a predetermined threshold value are recognized as the second pattern that can be selected as a denomination and a direction candidate of the banknote. The steps of: extracting each feature amount of the banknote to be learned extracted for each first small area of the unknown banknote in an area larger than the first small area; And collecting the feature amounts of the third sub-region into an input layer neuron of the neural network, and collecting the reference amount of the reference pattern. A seventh step of calculating a distance between the reference pattern and the output pattern neuron whose distance to the reference pattern is the shortest, and performing a third pattern recognition using the output layer neuron as an identification result; and calculating the fifth, sixth, and seventh steps. Comparing the results and, when the same candidate is extracted, outputting the denomination and the direction of the same candidate banknote in an eighth step.
JP2000149556A 2000-05-22 2000-05-22 Method and device for discriminating paper money Pending JP2001331839A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000149556A JP2001331839A (en) 2000-05-22 2000-05-22 Method and device for discriminating paper money

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000149556A JP2001331839A (en) 2000-05-22 2000-05-22 Method and device for discriminating paper money

Publications (1)

Publication Number Publication Date
JP2001331839A true JP2001331839A (en) 2001-11-30

Family

ID=18655394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000149556A Pending JP2001331839A (en) 2000-05-22 2000-05-22 Method and device for discriminating paper money

Country Status (1)

Country Link
JP (1) JP2001331839A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004023403A1 (en) * 2002-08-30 2004-03-18 Fujitsu Limited Device, method and program for identifying paper sheet_____
WO2005001757A1 (en) * 2003-06-30 2005-01-06 National University Corporation Kagawa University Information processor, state judging unit and diagnostic unit, information processing method, state judging method and diagnosing method
JP2007198918A (en) * 2006-01-26 2007-08-09 Matsushita Electric Works Ltd Abnormality monitoring method, and abnormality monitor
WO2008002077A2 (en) * 2006-06-30 2008-01-03 Inpeg Co., Ltd. Method for correcting note image in damaged note
JP2008117090A (en) * 2006-11-01 2008-05-22 Kyushu Institute Of Technology Data processor, data processing method and program
JP2009501965A (en) * 2005-06-23 2009-01-22 マイクロソフト コーポレーション Handwriting recognition using neural network
JP2009516246A (en) * 2005-11-15 2009-04-16 ベルナデット ガーナー Neural network training method
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
JP2009251800A (en) * 2008-04-03 2009-10-29 Glory Ltd Paper-sheet stain detection apparatus and method
JP2012150709A (en) * 2011-01-20 2012-08-09 Toshiba Corp Paper sheet processing apparatus and dictionary creation method
EP3745319A1 (en) 2019-05-29 2020-12-02 Fujitsu Limited Optimization apparatus and optimization method
US20210264711A1 (en) * 2020-02-26 2021-08-26 Glory Global Solutions (International) Limited Cash handling machine

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7097022B2 (en) 2002-08-30 2006-08-29 Fujitsu Limited Device, method and program for paper discrimination
CN1653492B (en) * 2002-08-30 2010-05-12 富士通株式会社 Device and method for identifying paper sheet
WO2004023403A1 (en) * 2002-08-30 2004-03-18 Fujitsu Limited Device, method and program for identifying paper sheet_____
US7464063B2 (en) 2003-06-30 2008-12-09 Caterpillar Japan Ltd. Information processor, state judging unit and diagnostic unit, information processing method, state judging method and diagnosing method
WO2005001757A1 (en) * 2003-06-30 2005-01-06 National University Corporation Kagawa University Information processor, state judging unit and diagnostic unit, information processing method, state judging method and diagnosing method
JP2009501965A (en) * 2005-06-23 2009-01-22 マイクロソフト コーポレーション Handwriting recognition using neural network
JP2009516246A (en) * 2005-11-15 2009-04-16 ベルナデット ガーナー Neural network training method
JP2013020638A (en) * 2005-11-15 2013-01-31 Garner Bernadette Method for determining whether input vector is known or unknown by neuron
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
JP2007198918A (en) * 2006-01-26 2007-08-09 Matsushita Electric Works Ltd Abnormality monitoring method, and abnormality monitor
WO2008002077A3 (en) * 2006-06-30 2008-02-21 Inpeg Co Ltd Method for correcting note image in damaged note
WO2008002077A2 (en) * 2006-06-30 2008-01-03 Inpeg Co., Ltd. Method for correcting note image in damaged note
JP2008117090A (en) * 2006-11-01 2008-05-22 Kyushu Institute Of Technology Data processor, data processing method and program
JP2009251800A (en) * 2008-04-03 2009-10-29 Glory Ltd Paper-sheet stain detection apparatus and method
JP2012150709A (en) * 2011-01-20 2012-08-09 Toshiba Corp Paper sheet processing apparatus and dictionary creation method
EP3745319A1 (en) 2019-05-29 2020-12-02 Fujitsu Limited Optimization apparatus and optimization method
US11526740B2 (en) 2019-05-29 2022-12-13 Fujitsu Limited Optimization apparatus and optimization method
US20210264711A1 (en) * 2020-02-26 2021-08-26 Glory Global Solutions (International) Limited Cash handling machine

Similar Documents

Publication Publication Date Title
JP5044567B2 (en) Medium item confirmation device and self-service device
EP1484719B1 (en) Currency validation
JP5213649B2 (en) Paper sheet processing apparatus and paper sheet processing program
KR101830769B1 (en) Soiled banknote discrimination method and the ATM the method applied thereto
EP3518191A1 (en) Rapid landmark-based media recognition
JP2001331839A (en) Method and device for discriminating paper money
JP4105694B2 (en) Paper piece discrimination apparatus, paper piece discrimination method and program
JP4427132B2 (en) Paper sheet identification method using competitive neural network
CN110506300B (en) Paper sheet identification system
JP3753779B2 (en) Banknote sorter
KR100309195B1 (en) Note/card handling apparatus
JPH08221632A (en) Genuineness judging method for printed pattern
US20210264711A1 (en) Cash handling machine
KR102163107B1 (en) Bill discrimination system using deep learning
EP3410409B1 (en) Media security validation
JP4832054B2 (en) Identification device
JP3187698B2 (en) Paper sheet recognition device
EP3703018B1 (en) Cash-handling machine
JP4306027B2 (en) Paper sheet authenticity discrimination device
JPH097023A (en) Paper sheet discrimination device
JP2635994B2 (en) Banknote recognition device
JP2001056876A (en) Method for identifying denomination and counterfeit of medium by using neural network
JP3192970B2 (en) Paper sheet identification method
JPH04248695A (en) Paper money distinguishing device
JPH05324838A (en) Pattern recognizing device