JPH1196431A - Method for judging unknown pattern sheet paper picture in neuro identification and device therefor - Google Patents

Method for judging unknown pattern sheet paper picture in neuro identification and device therefor

Info

Publication number
JPH1196431A
JPH1196431A JP25561797A JP25561797A JPH1196431A JP H1196431 A JPH1196431 A JP H1196431A JP 25561797 A JP25561797 A JP 25561797A JP 25561797 A JP25561797 A JP 25561797A JP H1196431 A JPH1196431 A JP H1196431A
Authority
JP
Japan
Prior art keywords
pattern
neural network
density function
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25561797A
Other languages
Japanese (ja)
Inventor
Fumiaki Takeda
史章 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP25561797A priority Critical patent/JPH1196431A/en
Publication of JPH1196431A publication Critical patent/JPH1196431A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To exclude an unknown picture pattern from an object to be discriminated by expressing the picture of the learning pattern of sheet paper with a multi-dimensional Gaussian density function in an identification space, and judging the picture of the paper sheet on a threshold plane. SOLUTION: The picture of cash 11 is processed by a picture collecting part 12 constituted of an image sensor so that a slab value can be obtained, and the cash 11 is relatively identified by a neural network 10 so that a certain pattern can be obtained, and the value of a multi-dimensional Gaussian density function corresponding to this judgment pattern is calculated by an arithmetic means 13 based on the slab value. When the multi-dimensional Gaussian density function is a high value in the same way as the learning pattern of the cash 11, it is judged that the cash evaluated by a comparison judging means 14 is within the range of the pattern of the cash applied at the time of learning. Then, the picture of the paper sheet is expressed with the multi-dimensional Gaussian density function, and judged on the threshold plane so that a learning pattern and a non-learning pattern can be identified for the inputted cash, and the cash of the non-learning pattern is excluded.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、紙幣、小切手、商
品券、証券等の画像パタ−ンを有する紙葉類の種類認識
をニュ−ロ識別機(ニュ−ラルネットワ−ク若しくはニ
ュ−ラルコンピュ−タ)を用いて行う場合のニュ−ロ識
別における未知パターン紙葉類画像の判定方法及び装置
に関し、特に画像デ−タに対して多次元ガウス密度関数
を用いた部分空間モデルによる未知パターン紙葉類画像
の判定方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuro discriminator (neural network or neural computer) for recognizing the type of paper sheets having image patterns such as banknotes, checks, gift certificates, and securities. The present invention relates to a method and an apparatus for judging an unknown pattern paper sheet image in neuro discrimination in the case of using an unknown pattern paper by using a multi-dimensional Gaussian density function for image data. The present invention relates to a method and an apparatus for determining a leaf image.

【0002】[0002]

【従来の技術】紙幣、小切手、商品券、証券等のような
画像パタ−ンを印刷された紙葉類の種類の認識若しくは
識別をニュ−ロ識別機(ニュ−ラルネットワ−ク若しく
はニュ−ラルコンピュ−タ)を用いて行う場合、未学習
(未教示)紙葉類の画像パタ−ンを入力して認識する
と、単にニュ−ラルネットワ−クの学習結果からシグモ
イド関数による出力を得るのみであれば、その反応強度
に差があるにも拘らず、無理にでも既学習パタ−ンのど
れに近似しているかの結果を出力せざるを得ないように
なっている。このため、通常は未学習紙葉類に対して
は、正確な結果が得られないという不具合があった。つ
まり、ニュ−ラルネットワ−クは学習した紙葉類(ここ
では紙幣を例に挙げる)に対しては優れた相対識別能力
を発揮する。しかしながら、教示していない未学習の紙
幣に関してはニュ−ラルネットワ−クの反応レベルにス
レッショルドを設定することと、テンプレ−トマッチン
グを後処理に併用することとで排除してきた。具体的に
はニュ−ラルネットワ−クでは与えられた紙幣の相対識
別を行い、後処理で再度ニュ−ラルネットワ−クで判別
されたパタ−ンに基づき、その入力値をテンプレ−ト或
いはスレッショルドにより学習した紙幣のパタ−ンの範
囲内であるか否かをチェックしていた。これにより、学
習では与えなかった未学習パタ−ンの紙幣を統計的に排
除していた。
2. Description of the Related Art A neuro-identifying machine (neural network or neural network) recognizes or identifies the type of paper sheet on which an image pattern such as a bill, a check, a gift certificate, a security, etc. is printed. In the case of using a computer, if an image pattern of an unlearned (untaught) sheet is input and recognized, it is only necessary to obtain an output by a sigmoid function from the learning result of the neural network. For example, in spite of the difference in the reaction strength, the user is forced to output a result indicating which one of the learned patterns is approximated even if it is forced. For this reason, there is a problem that an accurate result cannot be normally obtained for unlearned paper sheets. That is, the neural network exhibits excellent relative discrimination ability with respect to the learned paper sheets (here, banknotes are taken as an example). However, unlearned banknotes that have not been taught have been eliminated by setting a threshold on the reaction level of the neural network and using template matching in post-processing. Specifically, in the neural network, the given banknotes are identified relative to each other, and the input value is learned by a template or threshold based on the pattern determined by the neural network again in post-processing. It was checked whether or not it was within the range of the pattern of the bills. In this way, the banknotes of the unlearned pattern that were not given in the learning were statistically excluded.

【0003】一方、識別力の向上のために、本出願人に
よる特願平8−70868号で説明しているように、通
常有り得ないと考えられる画像デ−タが判別に供するデ
−タ中に含まれていた場合には、即刻該当紙幣を認識分
類対象から除外するようにしたトラップ処理(入力値の
妥当性確認)がなされている。従来のトラップ処理で
は、ニュ−ロ識別機に入力される各スラブ値が存在する
範囲を正規分布するものとして所定範囲外をトラップ処
理で排除していた。
On the other hand, in order to improve the discriminating power, as described in Japanese Patent Application No. 8-70868 filed by the present applicant, image data which is usually considered impossible cannot be used for discrimination. Is included, a trap process (confirmation of validity of input values) is performed so that the corresponding banknote is immediately excluded from recognition and classification. In the conventional trap processing, the range in which each slab value input to the neuro discriminator exists is assumed to be normally distributed, and the outside of the predetermined range is excluded by the trap processing.

【0004】図12はかかるニュ−ラルネットワ−クの
概要構成を示しており、階層構造の分離演算部12は大
別すると入力層(16ユニット)、隠れ層(16ユニッ
ト)及び出力層(7ユニット)の3層から成っている。
入力層は前処理部からの各マスクの種類に1対1に対応
するようにニュ−ロ素子が設けられており、各マスク種
類により前処理されたスラブ値(マスク処理された後の
画素数の総和)を対応するニュ−ロ素子に入力する。隠
れ層は少なくとも1つのニュ−ロ素子の層から成り、入
力層の情報を分離演算して出力層に伝達する役割を果た
している。この隠れ層が多くなればそれだけ、入力層の
各ニュ−ロ素子の変動に対しても不変に各パタ−ンの各
々に分離して演算できる。出力層には、識別すべきカテ
ゴリ−に1対1に対応するようにニュ−ロ素子が設けら
れている。そして、学習により完成したニュ−ロ素子間
の重み係数による出力ユニット値を出力ユニット数個分
算出する。この複数個の出力ユニット値(0〜1の間の
値を採る)の最大値(通常検査紙幣の金種の出力ユニッ
トで0.99位)と、準最大値(2番目の金種の候補で
0.2以下)とを抽出し、最大値がスレッショルドTH
1(通常0.6)よりも大きいかどうかを判断し、小さ
いときには、学習デ−タから除く。そして、(最大値−
準最大値)がスレッショルドTH2(通常0.4)より
大きいかどうかを判断し、(最大値−準最大値)が小さ
い場合には排除し、大きい場合には最大値を有するユニ
ットのパタ−ンを評価紙幣の判別パタ−ンであると決定
するようにしている。
FIG. 12 shows a schematic configuration of such a neural network. The separation operation section 12 having a hierarchical structure is roughly divided into an input layer (16 units), a hidden layer (16 units), and an output layer (7 units). ) Consists of three layers.
The input layer is provided with a neuro element so as to correspond to each mask type from the preprocessing unit on a one-to-one basis, and a slab value preprocessed by each mask type (the number of pixels after the mask processing) To the corresponding neuro element. The hidden layer is composed of at least one neuro element layer, and plays a role of separating and calculating information of the input layer and transmitting it to the output layer. As the number of hidden layers increases, the calculation can be performed separately for each of the patterns invariably with respect to the fluctuation of each neuro element of the input layer. In the output layer, neuro elements are provided so as to correspond one-to-one to categories to be identified. Then, the output unit values for several output units are calculated based on the weight coefficients between the neuro elements completed by the learning. The maximum value of the plurality of output unit values (takes a value between 0 and 1) (0.99 rank in the output unit of the normal denomination denomination) and the semi-maximum value (second denomination candidate) Is 0.2 or less), and the maximum value is the threshold TH.
It is determined whether it is larger than 1 (normally 0.6), and if smaller, it is excluded from the learning data. And (maximum value-
It is determined whether the (sub-maximum value) is larger than the threshold TH2 (usually 0.4). If (maximum value-sub-maximum value) is small, it is excluded. If it is large, the pattern of the unit having the maximum value is determined. Is determined as a discrimination pattern of the evaluation bill.

【0005】[0005]

【発明が解決しようとする課題】上述のようなニュ−ラ
ルネットワ−クによる判別方法では、ニュ−ラルネット
ワ−クで柔軟性(汚れ、破れ、経年変化の紙幣を識別す
る能力、更に種々の紙幣搬送ノイズが紙幣デ−タに付加
された場合においても正しく紙幣を識別する能力)のあ
る識別を行っているにも拘らず、後処理で結果的に目的
紙幣の識別能力を低下させることになっていた。つま
り、従来のニュ−ラルネットワ−クによる識別における
後処理では、判別されたパタ−ンの入力値を、テンプレ
−ト或いはスレッショルドで線形的に学習パタ−ンの範
囲内か否かをチェックしていた。従って、学習紙幣の画
像パターンと画像パタ−ンが異なる未学習紙幣は排除さ
れるが、学習紙幣でもその損傷の程度が大きくなって元
の画像とかけ離れると排除されていた。
According to the above-described method for discriminating by a neural network, the neural network is flexible (the ability to identify dirt, tears, aging bills, and various kinds of bill transporting). Even if noise is added to the bill data, the discriminating ability with the ability to correctly discriminate bills is performed, but the discrimination ability of the target bill is eventually reduced in the post-processing. Was. In other words, in the post-processing in the conventional neural network discrimination, it is checked whether the input value of the discriminated pattern falls within the range of the learning pattern linearly with a template or a threshold. Was. Therefore, although unlearned banknotes having an image pattern different from the image pattern of the learning banknote are excluded, the learning banknote is also excluded when the degree of damage is large and the learning banknote is far from the original image.

【0006】一般に入力情報をベクトルで表現すると、
その入力デ−タがあるパタ−ンのデ−タと見做せるかど
うかを判断するパタ−ン識別において、教示出力(学
習)とモデル出力(識別)の誤差2乗和を最小にするよ
うにバックプロパゲ−ションで学習するいわゆる多層パ
−セプトロン(階層型ニュ−ラルネットワ−ク、バック
プロパゲ−ションネットワ−ク)が広く用いられてい
る。多層パ−セプトロンはカテゴリ−の異なるデ−タの
間を非線形に分離する曲面を形成するのには非常に適し
ているが、デ−タの分布中心から遠く離れたデ−タ(未
学習デ−タ)に対しても、いずれかのパターンであるか
のような出力を示すため、誤識別を誘発する危険性を有
している。
Generally, when input information is represented by a vector,
In pattern discrimination for determining whether or not the input data can be regarded as data of a certain pattern, the sum of squared errors between the teaching output (learning) and the model output (discrimination) is minimized. A so-called multilayer perceptron (hierarchical neural network, backpropagation network) for learning by backpropagation is widely used. Although the multi-layer perceptron is very suitable for forming a curved surface that non-linearly separates data of different categories, data far from the center of distribution of data (unlearned data). -), There is a danger of inducing erroneous identification because the output is as if it were any pattern.

【0007】図13は、従来のテンプレ−トによる未学
習パタ−ンの排除を示しており、斜線領域が目的のパタ
ーンのテンプレ−トによる排除領域である。図14に示
すように特定パタ−ンの識別平面内での領域で学習デー
タ或いは未学習データを区別している。図15におい
て、100はニュ−ラルネットワ−クによる識別曲面を
示しており、この識別曲面100は開曲面であり、どこ
かで必ず未学習パターンと学習パターンの領域に分類し
てしまう問題点を有している。尚、図15はニューラル
ネットワークが形成する識別空間を示しており、その中
で各学習パターンがどのように位置しているかを示して
いる。その特定パターンに着目し、スラブ値を特定識別
平面内で図示したのが図15である。特に図15はニュ
ーラルネットワークで判定されたパターンに対して、そ
れが学習パターンか未学習パターンであるか、既知であ
る学習パターンの領域を基にチェックしている。また、
これをさらに特定のニューラルネットワークの入力値で
あるスラブ値に着目し、詳細に示したのが図13で、図
14の領域の包含関係の特定のスラブ値が学習パターン
間でどの様な位置関係にあるかを示している。この図で
未学習パターンは、ニューラルネットワークデータで判
定された目的パターン及び学習パターンの更に遠方に位
置することになる。
FIG. 13 shows the elimination of an unlearned pattern by a conventional template. The hatched area is an exclusion area by a template of a target pattern. As shown in FIG. 14, learning data or unlearned data is distinguished in an area of the specific pattern within the identification plane. In FIG. 15, reference numeral 100 denotes an identification surface by a neural network. This identification surface 100 is an open surface, and has a problem that it is always classified into an unlearned pattern and a learning pattern area somewhere. doing. FIG. 15 shows an identification space formed by the neural network, and shows how each learning pattern is located in the identification space. Paying attention to the specific pattern, FIG. 15 illustrates the slab value in the specific identification plane. In particular, FIG. 15 checks whether a pattern determined by the neural network is a learned pattern or an unlearned pattern, based on a known learning pattern area. Also,
FIG. 13 shows this in detail by focusing on the slab value which is an input value of a specific neural network. FIG. 14 shows how the specific slab value of the inclusion relation of the region in FIG. Is shown. In this figure, the unlearned pattern is located farther away from the target pattern and the learned pattern determined by the neural network data.

【0008】このような従来のニュ−ロ識別機でイタリ
アニュ−ロ(イタリア紙幣で学習したニューラルネット
ワーク)、フランスニュ−ロ(フランス紙幣で学習した
ニューラルネットワーク)、スペインニュ−ロ(スペイ
ン紙幣で学習したニューラルネットワーク)に対して、
評価紙幣をイタリア(8金種×4方向)、フランス(5
金種×4方向)、スペイン(7金種×4方向)、白紙
(しわあり、しわなし)として未学習パタ−ンの排除率
を実際に実施したところ、下記表1のようになった。
[0008] With such a conventional neuro discriminator, Italian neuro (neural network learned with Italian banknote), French neuro (neural network learned with French banknote), Spanish neuro (with Spanish banknote). Learned neural network)
Evaluation banknotes of Italy (8 denominations × 4 directions), France (5
When the rejection rate of the unlearned pattern was actually carried out for the denomination of 4 kinds of denominations, Spain (4 directions of 7 denominations), and blank paper (wrinkled, no wrinkles), the following Table 1 is obtained.

【0009】[0009]

【表1】 この表1からも明らかなように、従来のテンプレート或
いはスレッショルドによるトラップ処理を併用したニュ
−ロ識別機では未学習パタ−ンの紙幣を100%確実に
排除できるものではなかった。
[Table 1] As is clear from Table 1, the conventional discrimination device using the template or the trapping process using the threshold value cannot completely eliminate 100% of the banknotes in the unlearned pattern.

【0010】上述の如きニュ−ラルネットワ−ク識別で
の致命的ともいえる問題を解決するためには統計的な手
法が考えられるが、従来では変数毎に統計的検定を用い
た例はあるが、変数間の従属性を考慮に入れないと、柔
軟性のない識別を行わざるを得なくなっている。しかし
ながら、紙幣等は1枚の版から印刷するのが通常であ
り、パタ−ンがばらつく原因は必ずしもランダムではな
く、各要素間に大きな相関のあることが多い。
To solve the problem which can be said to be fatal in the neural network identification as described above, a statistical method can be considered. Conventionally, there is an example using a statistical test for each variable. Without taking into account the dependencies between the variables, inflexible discrimination has to be performed. However, bills and the like are usually printed from a single plate, and the causes of pattern variations are not always random, and there is often a large correlation between the elements.

【0011】本発明は上述のような事情よりなされたも
のであり、本発明の目的は、ニュ−ロ識別において、未
学習紙葉類のような未知の画像パタ−ンに対しても確実
に判別対象から排除できるように、或いは判別結果から
除外するようにした未知パタ−ン紙葉類画像の判定方法
及び装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a method for reliably discriminating an unknown image pattern such as an unlearned paper sheet in neuro discrimination. An object of the present invention is to provide a method and an apparatus for determining an unknown pattern paper sheet image which can be excluded from a determination target or excluded from a determination result.

【0012】[0012]

【課題を解決するための手段】本発明はニュ−ロ識別に
おける未知パタ−ン紙葉類画像の判定方法に関し、本発
明の上記目的は、複数種の紙葉類を搬送させてセンサで
収集した画像デ−タに対して、複数のマスクで処理して
求めたスラブ値をニュ−ラルネットワ−クに入力して前
記紙葉類の種別を判別するニュ−ロ識別において、前記
紙葉類の学習パタ−ンの画像を識別空間において多次元
ガウス密度関数で表現すると共に、識別時に、ニュ−ロ
識別機に入力された紙葉類の画像を前記多次元ガウス密
度関数で表現してスレッショルド平面で判定することに
より、入力された紙葉類に対して学習パタ−ン及び未学
習パタ−ンを識別し、前記未学習パタ−ンの紙幣を排除
することによって達成される。前記多次元ガウス密度関
数をn次元の下記数5で表現することにより、より効果
的に達成される。
SUMMARY OF THE INVENTION The present invention relates to a method of judging an image of an unknown pattern in neuro discrimination, and an object of the present invention is to convey a plurality of types of sheets and collect them by a sensor. The slab value obtained by processing the obtained image data with a plurality of masks is input to a neural network to determine the type of the paper sheet. The image of the learning pattern is represented by a multi-dimensional Gaussian density function in the discrimination space, and the image of the paper sheet input to the neuro discriminator at the time of discrimination is represented by the multi-dimensional Gaussian density function and a threshold plane. Is determined by identifying the learning pattern and the unlearned pattern with respect to the input paper sheet, and eliminating the banknote of the unlearned pattern. It is more effectively achieved by expressing the multidimensional Gaussian density function by the following equation 5 of n dimensions.

【0013】また、実現手段として本発明をニューラル
ネットワークの後処理として使用する場合、前記ニュ−
ラルネットワ−クで判定された紙葉類に対応する画像パ
タ−ンに対して前記多次元ガウス密度関数を演算し、前
記未学習パタ−ンの紙幣を排除するようにしてもよく、
或いは、本発明をニュ−ラルネットワークの前処理とし
て使用する場合、前記スラブ値で前記各画像デ−タに対
する前記多次元ガウス密度関数を演算し、前記未学習パ
タ−ンを排除して前記学習パタ−ンのみを前記ニュ−ラ
ルネットワ−クに入力するようにしてもよい。
Further, when the present invention is used as a post-processing of a neural network as a realizing means, the above-mentioned neural network is used.
The multidimensional Gaussian density function may be calculated for the image pattern corresponding to the paper sheet determined by the ral network, and the banknote of the unlearned pattern may be excluded.
Alternatively, when the present invention is used as preprocessing of a neural network, the multidimensional Gaussian density function for each of the image data is calculated using the slab values, and the unlearned pattern is eliminated to perform the learning. Only the pattern may be input to the neural network.

【0014】更に、本発明は、複数種の紙葉類を搬送さ
せてセンサで収集した画像デ−タに対して、複数のマス
クで処理して求めたスラブ値をニュ−ラルネットワ−ク
に入力して前記紙葉類の種別を判別するニュ−ロ識別機
に関し、本発明の上記目的は、前記ニュ−ラルネットワ
−クで判別された紙葉類に対応する画像パタ−ンに対し
て多次元ガウス密度関数を演算する演算手段と、前記演
算手段で演算された前記多次元ガウス密度関数の値が所
定のスレッショルド値以上となったときに前記判定の結
果をそのまま出力する比較判定手段とを具備するか、或
いは、前記スラブ値で前記各画像デ−タに対して多次元
ガウス密度関数を演算する演算手段と、前記演算手段で
演算された前記多次元ガウス密度関数の値が所定のスレ
ッショルド値以上となったときに前記画像デ−タのスラ
ブ値のみを前記ニュ−ラルネットワ−クに入力する比較
判定手段とを具備することによっても達成される。
Further, according to the present invention, a slab value obtained by processing a plurality of types of paper sheets by a plurality of masks on image data collected by a sensor is input to a neural network. The object of the present invention is to provide a neuro discriminator for discriminating the type of the paper sheet, and to provide a multi-dimensional image pattern corresponding to the paper sheet determined by the neural network. Computing means for computing a Gaussian density function, and comparison determining means for directly outputting the result of the determination when the value of the multidimensional Gaussian density function computed by the computing means is equal to or greater than a predetermined threshold value. Or calculating means for calculating a multidimensional Gaussian density function for each of the image data with the slab value, and calculating a value of the multidimensional Gaussian density function calculated by the calculating means with a predetermined threshold value that's all Since when the image de - data of the slab values only the news - Rarunettowa - also achieved by having a comparison judgment means for inputting a click.

【0015】[0015]

【発明の実施の形態】本発明は画像パタ−ンを印刷され
た紙葉類について全て同様に適用できるが、ここでは紙
幣について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention can be applied to all paper sheets on which an image pattern is printed.

【0016】多層パ−セプトロンは従来最も広くパタ−
ン識別に使用されているニュ−ラルネットワ−クであ
る。これは、識別したいパタ−ン間の境界面の分離には
非常に優れた学習能力を持つが、上述した如く学習パタ
−ンの外側の未知パタ−ンに対しては、従来の識別手法
と同様に、必ずしもニュ−ラルネットワ−クで排除でき
るとは限らないという問題がある。そこで、本発明では
学習パタ−ンと未知パタ−ンとを正確に識別して未知パ
タ−ンを識別対象から排除するのに、確率密度関数(例
えば多次元ガウス密度関数)を推定併用することにより
上記問題を解決している。本発明では各パタ−ン毎の主
成分に着目し、高速に未知パタ−ンを検出して、ニュ−
ラルネットワ−クの識別結果をより信頼のおけるものと
している。
The multilayer perceptron has hitherto been the most widely used pattern
This is a neural network used for network identification. This method has a very good learning ability for separating a boundary surface between patterns to be identified. However, as described above, for an unknown pattern outside the learning pattern, the conventional identification method is used. Similarly, there is a problem that it cannot always be eliminated by a neural network. Therefore, in the present invention, a probability density function (for example, a multidimensional Gaussian density function) is estimated and used in order to accurately identify a learning pattern and an unknown pattern and to eliminate the unknown pattern from identification targets. Solves the above problem. The present invention focuses on the principal component of each pattern, detects unknown patterns at high speed, and
The identification result of the ral network is made more reliable.

【0017】従来の線形的な識別処理は多次元的なもの
ではなく、特定の1次元或いは2次元の識別平面内だけ
の学習パタ−ンと未学習パタ−ンの包含関係だけの議論
であった(図13、図15参照)。これに対し、本発明
では、学習紙幣の各パタ−ンがそれぞれ識別空間におい
て多次元ガウス密度関数で構成される部分空間を形成す
ると仮定し、この多次元ガウス密度関数で学習パタ−ン
の識別空間を近似する。概念的には図1に示すように、
3次元空間において富士山型の立体(多次元ガウス密度
関数による部分空間)が1つの識別パタ−ンを形成し、
未学習パタ−ン(白色楕円形)はその遥か裾野に位置し
ている。つまり、学習パタ−ンによる識別空間を多次元
ガウス密度関数で近似することにより、学習デ−タはこ
の多次元ガウス密度関数の値が高い値を示し、未学習パ
タ−ンはガウス密度関数の値が小さくなる。従って、ニ
ュ−ラルネットワ−クによって未学習紙幣のデ−タが学
習パタ−ンの識別領域のいずれかに分類されたとして
も、多次元ガウス密度関数の値を算出することにより、
図2に示すようにスレッショルド平面101で学習パタ
−ンと未学習パタ−ンとを明確に区別することができ
る。
The conventional linear discrimination processing is not multidimensional, but is a discussion of only the inclusion relationship between a learning pattern and an unlearned pattern only in a specific one-dimensional or two-dimensional discrimination plane. (See FIGS. 13 and 15). On the other hand, in the present invention, it is assumed that each pattern of the learning bill forms a subspace composed of a multidimensional Gaussian density function in the discrimination space, and the learning pattern is discriminated by the multidimensional Gaussian density function. Approximate space. Conceptually, as shown in FIG.
Mt. Fuji-shaped solid (subspace by multidimensional Gaussian density function) forms one discrimination pattern in three-dimensional space,
The unlearned pattern (white oval) is located at the far bottom. That is, by approximating the discriminant space by the learning pattern with the multidimensional Gaussian density function, the learning data shows a high value of the multidimensional Gaussian density function, and the unlearned pattern shows the value of the Gaussian density function. The value decreases. Therefore, even if the data of the unlearned banknote is classified into any of the identification areas of the learning pattern by the neural network, the value of the multidimensional Gaussian density function is calculated,
As shown in FIG. 2, the threshold plane 101 makes it possible to clearly distinguish a learned pattern from an unlearned pattern.

【0018】図3に示すように本発明を後処理として使
用する場合、紙幣11の画像をイメ−ジセンサ等で成る
画像収集部12で処理してスラブ値を得、これをニュ−
ラルネットワ−ク10に入力し、ニュ−ラルネットワ−
ク10はで紙幣11を相対識別してある判定パタ−ンを
得、この判定パタ−ンに対応する多次元ガウス密度関数
の値を前記スラブ値を基に演算手段13で計算する。こ
の場合の多次元ガウス密度関数が紙幣11の学習パタ−
ンと同様に高い値であれば、比較判定手段14は評価し
た紙幣が学習時に与えた紙幣のパタ−ンの範囲内である
と判断し、ニュ−ラルネットワ−ク10の判別結果を最
終判別結果とする。尚、この際の確率密度に必要なパラ
メ−タは事前に学習デ−タから求められ、更にニュ−ラ
ルネットワ−ク10が判定したパタ−ンについてのみ計
算してチェックすればよい。
As shown in FIG. 3, when the present invention is used as post-processing, an image of a bill 11 is processed by an image collection unit 12 composed of an image sensor or the like to obtain a slab value.
Input to the neural network 10 and the neural network
The bank 10 obtains a judgment pattern in which the banknotes 11 are relatively identified with each other, and the value of the multidimensional Gaussian density function corresponding to this judgment pattern is calculated by the calculating means 13 based on the slab value. The multidimensional Gaussian density function in this case is the learning pattern of the bill 11.
If the value is as high as the value of the banknote, the comparison determining means 14 determines that the evaluated banknote is within the range of the pattern of the banknote given at the time of learning, and determines the result of the discrimination of the neural network 10 as the final discrimination result. And The parameters required for the probability density at this time are obtained in advance from the learning data, and only the patterns determined by the neural network 10 need to be calculated and checked.

【0019】また、図4に示すように本発明を前処理と
して使用する場合、画像収集部22で得られる全ての学
習パタ−ンに対する多次元ガウス密度関数の値を、各ス
ラブ値を基に演算手段23で計算する。この場合、全て
の多次元ガウス密度関数の値が紙幣21の学習パタ−ン
のそれよりも遥かに小さな値であれば、比較判定手段2
4は評価紙幣は学習に与えたどの紙幣でもないと判断
し、この時点でニュ−ラルネットワ−ク20での識別は
行わず、評価紙幣を排除する。つまり、ニュ−ラルネッ
トワ−ク20への識別動作を行わせない制御が可能とな
る。
When the present invention is used as preprocessing as shown in FIG. 4, the values of the multidimensional Gaussian density function for all the learning patterns obtained by the image collecting unit 22 are calculated based on each slab value. The calculation is performed by the calculating means 23. In this case, if all the values of the multidimensional Gaussian density function are much smaller than those of the learning pattern of the banknote 21, the comparison and judgment means 2
No. 4 judges that the evaluation banknote is not any of the banknotes given to the learning, and at this time, the discrimination in the neural network 20 is not performed, and the evaluation banknote is excluded. That is, it is possible to control the neural network 20 so that the identification operation is not performed.

【0020】次に、本発明を理解しやすくするために、
図5を参照して2次元空間における識別の概念を説明す
る。編み掛けで示す2つの領域110及び120はニュ
−ラルネットワ−クなどで得られる識別曲線(分離曲
面)102により分けられた領域を示し、ニュ−ラルネ
ットワ−クの隠れユニット出力は分離曲面から離れるに
従って次第に“0”又は“1”に漸近する。ニュ−ラル
ネットワ−クの最終出力は隠れユニットの出力に定数を
乗算して加えた重み付き和をシグモイド関数に入れたも
のである。従って、図5のような場合、識別曲線102
から離れるに従ってニュ−ラルネットワ−クは“1”
(又は“0”)に近い値を出力し、恰もそのパタ−ンで
あることを強く主張するような出力を行う。紙幣から特
徴量を抽出し、その特徴量を用いて金種判別するような
場合には、同じ種類の紙幣の特徴量はパタ−ンをなすこ
とが想定される。複数種類の紙幣で識別モデルを学習す
ると、宇宙空間にある星雲のように学習デ−タが存在
し、ニュ−ラルネットワ−クはそれら学習デ−タの境界
面をうまく生成する。しかし、その外側に、考慮に入れ
ていなかった別の金種の紙幣デ−タ(例えば外国紙幣や
旧紙幣等)の存在領域があるかも知れない。図5の場
合、紙幣デ−タから得られる分類に関して、信頼のおけ
る領域は楕円形A及びBの中だけである。そこから遠く
離れた領域はどちらのパターンの紙幣デ−タでもない
か、或いは別のパタ−ンの紙幣デ−タに対応する部分で
ある。このように別のパターンが種々ある場合、予めパ
タ−ンの存在領域を想定しておくことができない。しか
し、あるパタ−ンのデ−タの密集領域にどの程度近いか
ということは、確率密度関数で示すことができる。学習
デ−タから確率密度関数を求める方法は、単純な分布の
場合にはガウス分布を最尤推定により求め、そのガウス
分布を用いることが考えられる。単純なガウス密度関数
を用いることができれば、指数計算を省略することがで
きるため、極めて高速な判定計算が可能となるからであ
る。
Next, in order to facilitate understanding of the present invention,
The concept of identification in a two-dimensional space will be described with reference to FIG. Two regions 110 and 120 shown by knitting indicate regions divided by an identification curve (separation surface) 102 obtained by a neural network or the like, and the hidden unit output of the neural network increases as the distance from the separation surface increases. It gradually approaches "0" or "1". The final output of the neural network is a sigmoid function with a weighted sum obtained by multiplying the output of the hidden unit by a constant. Therefore, in the case as shown in FIG.
As the distance from the neural network increases, the neural network becomes "1".
(Or "0") is output, and an output is made that strongly asserts that the pattern is the same. In the case where a feature amount is extracted from a bill and a denomination is determined using the feature amount, it is assumed that the feature amounts of bills of the same type form a pattern. When learning a discrimination model using a plurality of types of banknotes, learning data exists like a nebula in outer space, and the neural network successfully creates a boundary surface between the learning data. However, there may be an area outside of this area where other denomination banknote data (for example, foreign banknotes, old banknotes, etc.) were not taken into account. In the case of FIG. 5, the reliable area is only in the ellipses A and B with respect to the classification obtained from the bill data. A region far away therefrom is a portion corresponding to neither pattern of banknote data or banknote data of another pattern. As described above, when there are various other patterns, it is not possible to presuppose the existence area of the pattern. However, the degree to which the data of a certain pattern is close to the dense area can be represented by a probability density function. As a method of obtaining a probability density function from learning data, in the case of a simple distribution, a Gaussian distribution may be obtained by maximum likelihood estimation, and the Gaussian distribution may be used. This is because if a simple Gaussian density function can be used, the exponent calculation can be omitted, and extremely high-speed determination calculation can be performed.

【0021】ところで、紙幣識別のように、様々な要因
による劣化や移動、回転により変化した情報から元の画
像の属するパタ−ンを識別する問題は産業的若しくは工
業的応用では一般的である。特に高速で大量のデ−タを
識別しなければならない場合には、搬送機構や撮像方法
による制約を強く受けるため、単純なパタ−ンマッチン
グで識別できるようなきれいな画像を得ることは期待で
きないことが多い。従来は紙幣自動分類機における紙幣
の金種判別において、マスクを用いたニュ−ラルネット
ワ−クによる識別手法と遺伝的アルゴリズムによるマス
クの最適化を行っていた。即ち、先ずCCD等のイメ−
ジセンサから得られる画像デ−タを粗いメッシュ状のデ
−タに集約(矩形領域内のピクセル値を加算)する。た
とえ集約デ−タであっても、メッシュ状のデ−タを全て
用いるとニュ−ラルネットワ−クへの入力点数が多くな
り、また、相関の高い冗長なデ−タとなるため、学習デ
−タ以外のデ−タへの汎化性が低くなる。そこで、本発
明でも、遺伝的アルゴリズムを用いて、判定に貢献する
度合いの高い点を抽出するマスクから得られるスラブ値
を複数個求め、それをニュ−ラルネットワ−クに入れて
判定する方法を採用している(特願平8−70868参
照)。
Incidentally, the problem of identifying the pattern to which the original image belongs from information changed by deterioration, movement or rotation due to various factors, such as bill identification, is common in industrial or industrial applications. In particular, when a large amount of data must be identified at high speed, a clear image that can be identified by simple pattern matching cannot be expected because of the strong restrictions imposed by the transport mechanism and imaging method. There are many. Conventionally, in the denomination of banknotes in an automatic banknote sorting machine, an identification method by a neural network using a mask and optimization of the mask by a genetic algorithm have been performed. That is, first, an image such as a CCD
The image data obtained from the sensor is aggregated into coarse mesh data (pixel values in a rectangular area are added). Even if aggregated data is used, if all mesh data is used, the number of input points to the neural network increases, and redundant data with high correlation is obtained. Generalization to data other than data is reduced. Therefore, the present invention also employs a method in which a plurality of slab values obtained from a mask for extracting points having a high degree of contribution to determination are obtained by using a genetic algorithm, and the obtained values are put into a neural network for determination. (See Japanese Patent Application No. 8-70868).

【0022】ここで、紙幣の識別動作について説明する
と、ニュ−ラルネットワ−クのニュ−ロ演算を用いて紙
幣の金種、方向を識別する。識別機のイメ−ジセンサか
らの画像デ−タは画像処理部で処理され、ニュ−ロ識別
するために用いるパラメ−タは予めメモリに格納されて
おり、CPU等よりのコマンドにより必要なデ−タのみ
が画像処理部及びニュ−ラルネットワ−クに読み出され
る。識別機での識別処理は図6のフロ−に従って行われ
るが、先ずニュ−ラルネットワ−クでニュ−ロ演算が行
われ(ステップS30)、識別の判定処理を行い(ステ
ップS40)、紙幣の濃淡トラップを処理することによ
り、今回識別した紙幣のスラブ値列が該当パタ−ンの自
己認識領域を示す濃淡トラップの範囲内に収まっている
か否かを判断し(ステップS41、S42)、紙幣の正
損を識別する場合は正損ニュ−ロ演算を行い(ステップ
S43)、正損判定の処理を行う(ステップS44)。
トラップとはニュ−ロ演算で学習したもの以外を除外す
る機構を示し、識別機は紙幣のパタ−ン毎に自己認識で
きる領域のデ−タにより自分の判定が正しいか否かを判
断する。
Here, the operation of recognizing a bill will be described. The denomination and the direction of the bill are identified by using a neural operation of a neural network. Image data from the image sensor of the discriminator is processed by an image processing unit, and parameters used for neuro discrimination are stored in a memory in advance, and necessary data is issued by a command from a CPU or the like. Only the data is read out to the image processing unit and the neural network. The discriminating process in the discriminating machine is performed according to the flow shown in FIG. 6. First, a neuro operation is performed in a neural network (step S30), and discriminating judgment process is performed (step S40). By processing the trap, it is determined whether or not the slab value sequence of the banknote identified this time falls within the range of the density trap indicating the self-recognition area of the pattern (steps S41 and S42). When the loss is identified, a damage neuro operation is performed (step S43), and a damage determination process is performed (step S44).
The trap is a mechanism for excluding the ones that have been learned by the neuro operation, and the discriminator judges whether or not the judgment of itself is correct based on the data of the self-recognizable area for each bill pattern.

【0023】ニュ−ロ演算は、画像処理で求めた入力値
(スラブ値)とメモリから読み込んだウエイトデ−タに
ついてマトリクス演算を行い、そのマトリクス演算結果
に対してシグモイド計算をイメ−ジセンサについて行う
(図12参照)。ニュ−ロ演算は図7に示すフロ−に従
って行われ、先ず入力層から中間層までのマトリクス演
算が下記数1に従って行われる(ステップS31)。
In the neuro operation, a matrix operation is performed on the input value (slab value) obtained by the image processing and the weight data read from the memory, and a sigmoid calculation is performed on the image sensor on the matrix operation result ( See FIG. 12). The neuro operation is performed according to the flow shown in FIG. 7. First, the matrix operation from the input layer to the intermediate layer is performed according to the following equation (step S31).

【0024】[0024]

【数1】x=Wo・slab 但し、Woは入力層から中間層への重み係数行列、sl
abはスラブ値(画像処理で作成)である。
X = Wo · slab where Wo is a weight coefficient matrix from the input layer to the intermediate layer, sl
ab is a slab value (created by image processing).

【0025】次に、中間層の出力値moutを下記数2
に従って計算する(ステップS32)。
Next, the output value mout of the intermediate layer is expressed by the following equation (2).
(Step S32).

【0026】[0026]

【数2】 mout=1/[1+exp{(−x+θ)/Tn}] 但し、θはスレッショルド、Tnはニュ−ラルネットワ
−クの温度勾配である。
Mout = 1 / [1 + exp {(− x + θ) / Tn}] where θ is a threshold and Tn is a temperature gradient of a neural network.

【0027】上記数2のシグモイド関数の計算で中間層
の出力値列moutが得られると、中間層から出力層ま
でのマトリクス演算を下記数3に従って行う(ステップ
S33)。
When the output value sequence mout of the intermediate layer is obtained by the calculation of the sigmoid function of the above equation 2, a matrix operation from the intermediate layer to the output layer is performed according to the following equation 3 (step S33).

【0028】[0028]

【数3】x=W1・mout 但し、W1は中間層から出力層への重み係数行列であ
る。
X = W1 · mout where W1 is a weight coefficient matrix from the intermediate layer to the output layer.

【0029】上記数3のマトリクス演算の後に、下記数
4によってシグモイド計算を行い、出力層の出力値列n
outを得る(ステップS34)。
After the matrix operation of the above equation (3), a sigmoid calculation is performed by the following equation (4), and the output value sequence n of the output layer is calculated.
out is obtained (step S34).

【0030】[0030]

【数4】 nout=1/[1+exp{(−x+θ)/Tn}] ここにおいて、上述の識別機におけるニュ−ロ演算は本
出願人による特開平7−22087号で提案している手
法を用いている。
Nout = 1 / [1 + exp {(− x + θ) / Tn}] Here, the neuro operation in the above-described discriminator uses the method proposed in Japanese Patent Application Laid-Open No. Hei 7-22087 by the present applicant. ing.

【0031】本発明では図1で示しているように紙幣の
学習パタ−ンを多次元ガウス密度関数で表現し、図2に
示すようにスレッショルド平面101で学習パタ−ンと
未学習パタ−ンとを区別するが、使用するデ−タをn次
元ベクトルとする。確率密度関数による種別毎の帰属度
を求めるために多次元ガウス密度関数を用い,入力デ−
タであるスラブ値ベクトルX(1パタ−ンは50個で構
成)がn次元ガウス密度関数p(x)を持つものとす
る。これを数5で示す。
In the present invention, the learning pattern of a banknote is represented by a multidimensional Gaussian density function as shown in FIG. 1, and the learning pattern and the unlearned pattern are represented by a threshold plane 101 as shown in FIG. And the data to be used is an n-dimensional vector. A multidimensional Gaussian density function is used to determine the degree of membership for each type using the probability density function.
It is assumed that a slab value vector X (one pattern is composed of 50) has an n-dimensional Gaussian density function p (x). This is shown in Equation 5.

【0032】[0032]

【数5】 但し、mは分布の中心を示す平均のベクトル、Mは共分
散行列であり、正定値行列であると仮定する。また、肩
字Tはベクトルの転置を示す。
(Equation 5) Here, it is assumed that m is a mean vector indicating the center of the distribution, M is a covariance matrix, and is a positive definite matrix. The superscript T indicates transposition of a vector.

【0033】あるパタ−ンが該当種類のパタ−ンである
ことを棄却するかどうか、つまり図2に示すように学習
パタ−ンと未学習パタ−ンとを区別することは、統計的
検定法により適当なスレッショルド定数εを決めて、下
記数6が成立するかどうかで決定すればよい。
Whether a pattern is rejected as a pattern of the corresponding type, that is, discrimination between a learned pattern and an unlearned pattern as shown in FIG. 2 is a statistical test. An appropriate threshold constant ε may be determined by the method and may be determined based on whether or not the following equation 6 holds.

【0034】[0034]

【数6】p(x)<ε 次に、紙幣デ−タから実際に確率モデルを生成する方法
について説明する。イメ−ジセンサで収集処理された紙
幣デ−タをN個使用することにし、その紙幣デ−タをベ
クトルデ−タX={x(1),・・・,x(N)}とす
る。そして、当該金種のベクトルデ−タXの尤度関数
(下記数7)
P (x) <ε Next, a method of actually generating a probability model from bill data will be described. N banknote data collected and processed by the image sensor are used, and the banknote data is set to vector data X = {x (1),..., X (N)}. Then, the likelihood function of the vector data X of the denomination (Equation 7 below)

【数7】 を最大化するパラメ−タ推定値m´及びM´は最尤推定
値と呼ばれ、それぞれ下記数8及び数9で求めることが
できる。
(Equation 7) The parameter estimated values m 'and M' that maximize are called maximum likelihood estimated values and can be obtained by the following equations 8 and 9, respectively.

【0035】[0035]

【数8】 (Equation 8)

【数9】 n次元ガウス密度関数p(x)がスレッショルド定数ε
より小さいとき、デ−タxはこのパタ−ンに属さないベ
クトルであると判断したいのであるから、このときのn
次元ガウス密度関数p(x)は
(Equation 9) n-dimensional Gaussian density function p (x) is a threshold constant ε
If it is smaller, it is desired to judge that the data x is a vector that does not belong to this pattern.
The dimensional Gaussian density function p (x) is

【数10】 で表され、これは定数Sを用いて下記数11のように書
き替えることができる。つまり、ある評価紙幣デ−タの
ベクトルが下記数12を満たせば学習パタ−ンであり、
満たさなければ未学習パタ−ンであると判断できる。
(Equation 10) This can be rewritten as the following equation 11 using the constant S. That is, if the vector of a certain evaluation bill data satisfies the following expression 12, it is a learning pattern,
If not, it can be determined that the pattern is unlearned.

【0036】[0036]

【数11】 [Equation 11]

【数12】 ここで得られるパラメータ推定値の行列M´のランク
(行列を構成する要素(小行列)の独立性を示す指標と
しての独立した自由度)は次元数Nよりも小さい値に落
ちていて、前記数7が計算できない可能性がある。その
理由は次のようなことが考えられる。
(Equation 12) The rank of the matrix M ′ of the parameter estimation values obtained here (independent degrees of freedom as indices indicating the independence of the elements (small matrices) constituting the matrix) falls to a value smaller than the number of dimensions N. Equation 7 may not be able to be calculated. The reason may be as follows.

【0037】(1)パラメータ推定値の行列M´の定義
からどんなデ−タを持って来ても、行列M´のランクは
デ−タの個数Nを超えることはない。従って、デ−タ数
がベクトルの次元数Nよりも低ければランク落ちが起こ
ることは必須である。
(1) The rank of the matrix M 'does not exceed the number N of data no matter what data is obtained from the definition of the matrix M' of parameter estimation values. Therefore, if the number of data is lower than the number of dimensions N of the vector, it is essential that a rank drop occurs.

【0038】(2)撮像過程における位置ずれなどに起
因する劣化は、アフィン変換で記述され得る劣化である
と考えられる。デ−タを領域毎に集約して使用していれ
ば劣化は多少複雑になるが、こうした要因によって増す
デ−タのランクは余り大きくない。
(2) It is considered that the deterioration due to the displacement during the imaging process is the deterioration that can be described by affine transformation. If the data is used collectively for each area, the deterioration becomes somewhat complicated, but the rank of the data increased by such factors is not so large.

【0039】(3)デ−タの要素が一次従属になってい
る。例えば全ての要素の値の和を、画像全体の濃度を示
す値として特徴ベクトルの1つの要素としているような
場合は、明らかにランクは1つ下がる。
(3) Data elements are linearly dependent. For example, when the sum of the values of all the elements is used as one element of the feature vector as a value indicating the density of the entire image, the rank is obviously lowered by one.

【0040】以上の理由(1)〜(3)より、実験を重
ねて多くのデ−タを取得することが容易な場合には、で
きるだけ多くのデ−タを収集してランクを増やすことが
望ましい。そのため、ベクトルデ−タXが形成する部分
空間を求め、その部分空間上の尤度関数を再定義する必
要がある。
For the reasons (1) to (3) above, if it is easy to obtain many data by repeating experiments, it is necessary to collect as much data as possible to increase the rank. desirable. Therefore, it is necessary to find the subspace formed by the vector data X and redefine the likelihood function on the subspace.

【0041】ここでは、パラメータ推定値の行列M´の
対角化を行うことによりベクトルデ−タXが形成する部
分空間を求め、その部分空間上における確率密度関数を
求めることにより、デ−タの帰属度を求めることにす
る。つまり、この方法では、パタ−ンベクトルXの要素
の線形結合により次元数Nより少ない個数の特徴パタ−
ンを生成し、その特徴パタ−ンを用いて判定を行う。
Here, the subspace formed by the vector data X is obtained by diagonalizing the matrix M 'of the parameter estimation values, and the probability density function on the subspace is obtained to obtain the data. We will calculate the degree of belonging. That is, in this method, the number of feature patterns smaller than the number of dimensions N is determined by linear combination of the elements of the pattern vector X.
And a determination is made using the characteristic pattern.

【0042】共分散行列Mの固有値をλ1≧λ2≧・・
・≧λnとし、これら固有値に対応する長さ1の固有ベ
クトルをu1,u2,・・・,uNとする。このデ−タ
を表現するのに重要な軸を選択するために許容される条
件数をTmと設定し、
The eigenvalue of the covariance matrix M is defined as λ1 ≧ λ2 ≧
.Gamma..lamda.n, and eigenvectors of length 1 corresponding to these eigenvalues are u1, u2,..., UN. The condition number allowed to select an axis important for expressing this data is set as Tm,

【数13】p=max(i)[Mathematical formula-see original document] p = max (i)

【数14】λi/λ1>1/Tm とすると、固有値λi及び固有ベクトルuiの関係からAssuming that λi / λ1> 1 / Tm, the relationship between the eigenvalue λi and the eigenvector ui is

【数15】 M´・uj=λj・uj j=1,・・・,p と記述できる。ここで得られたujはデ−タ分布の第j
主成分である。従って、(N×p)行列U=[u1,u
2,・・・,up]とすると下記数16が成り立つ。
[Mathematical formula-see original document] M'.uj = [lambda] j.ujj = 1,. The obtained uj is the j-th data distribution.
It is the main component. Therefore, the (N × p) matrix U = [u1, u
2,..., Up], the following equation 16 holds.

【0043】[0043]

【数16】M´・U=U・Λp Λp=diag(λ1,λ2,・・・,λp) U(n×p)は直交行列でUU=Iなので、UM´
U=Λpとなる。ここで得られたp次元部分空間の軸を
y1,y2,・・・,ypとすると、デ−タxは
M ′ · U = U · ΛpΛp = diag (λ1, λ2,..., Λp) Since U (n × p) is an orthogonal matrix and U T U = I, U T M ′
U = Λp. Assuming that the axes of the p-dimensional subspace obtained here are y1, y2,..., Yp, the data x is

【数17】y=U(x−m´) と変換され、yの確率密度関数は下記数18となる。Equation 17] is converted y = U T (x-m' ), the probability density function of y is the following Equation 18.

【0044】[0044]

【数18】 これより下記数19となる。(Equation 18) From this, the following equation 19 is obtained.

【0045】[0045]

【数19】 以上より、数12の条件は下記数20を満たすというこ
とと等価である。尚、S´はある定数で、実験により誤
識別が少ないように設定するべき値である。
[Equation 19] From the above, the condition of Expression 12 is equivalent to satisfying the following Expression 20. Note that S ′ is a certain constant, and is a value that should be set so as to minimize erroneous identification through experiments.

【0046】[0046]

【数20】 上記アルゴリズムは予め条件数Tmを決めておき、学習
課程ではオフラインで図8の計算を行う。即ち、先ずパ
ラメ−タ推定値m´及びM´の計算を数8及び数9に従
って行い(ステップS1)、パラメ−タ推定値M´の固
有値を求め、大きいものからλ1≧λ2≧・・・≧λn
≧0と並べ(ステップS2)、固有値λiに対応した固
有ベクトルもそれに対応して求めu1,u2,・・・,
unとする(ステップS3)。次に、条件数Tmを満た
すようにp(各成分を表すに必要な軸の数)を求め(ス
テップS4)、下記数21を求める(ステップS5)。
(Equation 20) In the above algorithm, the condition number Tm is determined in advance, and the calculation in FIG. 8 is performed offline in the learning process. That is, first, the parameter estimation values m 'and M' are calculated according to Equations 8 and 9 (Step S1), and the eigenvalues of the parameter estimation values M 'are obtained, and λ1 ≧ λ2 ≧... ≧ λn
.Gtoreq.0 (step S2), and eigenvectors corresponding to the eigenvalues .lambda.i are also determined correspondingly.
un (step S3). Next, p (the number of axes required to represent each component) is determined so as to satisfy the condition number Tm (step S4), and the following equation 21 is determined (step S5).

【0047】[0047]

【数21】 そして、学習デ−タを用いて識別率を最も高くするよう
に定数S´を決定し、スレッショルド値C=−2log
S´とする(ステップS6)。
(Equation 21) Then, a constant S 'is determined so as to maximize the discrimination rate by using the learning data, and the threshold value C = -2 log.
S ′ (Step S6).

【0048】また、評価課程ではxを評価するベクトル
として、オンラインで図9のフロ−で示す計算を行う。
即ち、先ず下記数22に従って、xを評価紙幣デ−タの
ニュ−ラルネットワ−クへの入力値(スラブ値)とした
ときのyiを求める(ステップS10)。
In the evaluation process, the calculation shown in the flow of FIG. 9 is performed online as a vector for evaluating x.
That is, first, yi when x is an input value (slab value) of the evaluation bill data to the neural network is calculated according to the following equation 22 (step S10).

【0049】[0049]

【数22】 そして、下記数23が満たされているか否かを判定する
(ステップS11)。
(Equation 22) Then, it is determined whether the following Expression 23 is satisfied (Step S11).

【0050】[0050]

【数23】 数23が満たされていれば、評価デ−タの紙幣を学習パ
タ−ンとし、このスラブ値をニュ−ラルネットワ−クに
与えて識別を行い(ステップS12)、満たされていな
ければ、評価デ−タの紙幣を未知パタ−ンとし、この紙
幣を排除する(ステップS13)。
(Equation 23) If Equation 23 is satisfied, the banknote of the evaluation data is used as a learning pattern, and this slab value is given to a neural network for identification (Step S12). The banknote of-is made an unknown pattern, and this banknote is eliminated (step S13).

【0051】ところで、極めて類似度の高い印刷物であ
るにも拘らず、紙幣のデ−タがばらつく原因の最大要因
は、紙幣が識別機に挿入され撮像される搬送過程で生じ
る位置ずれや傾きなどアフィン変換で、数式的には表現
できる劣化であると考えられる。こうした原因によって
は、デ−タのランクは殆ど増えない。もっとも、このデ
−タは画像収集時のマスク処理で出されているスラブ値
であるから、このデータはバラツキにより多少ランクが
増すが、劣化の他の要因、例えば汚れ、しわ、撮像条件
などを考慮しても、デ−タの持つ主要な成分のランクは
かなり低い。
By the way, despite the fact that the printed matter has extremely high similarity, the largest cause of the variation in the data of the bill is a displacement or an inclination caused in a conveying process in which the bill is inserted into the identification device and imaged. It is considered that the deterioration can be expressed mathematically by the affine transformation. Due to these causes, the rank of the data hardly increases. However, since this data is a slab value output in the mask processing at the time of image collection, the rank of the data is slightly increased due to variations. However, other factors such as deterioration, such as dirt, wrinkles, imaging conditions, etc. Considering this, the rank of the main components of the data is quite low.

【0052】実際の紙幣識別の例を、イタリアのリラ紙
幣に適用した例として説明する。イタリアのリラ紙幣は
1000、2000、5000、10000、(N)5
0000,(O)50000,(N)100000,
(O)100000の計8金種であり、(N)は新紙幣
を、(O)は旧紙幣をそれぞれ示している。紙幣が識別
機に挿入されるときの向きと表裏を考慮して、各金種共
4種類の画像を別々の画像であるとして扱う。A,B,
C,DはA(表)、B(Aを180度回転した表)、C
(Bの短辺の位置を変えずに裏返し)、D(Cを180
度回転)である。各金種共に80枚の紙幣から収集した
デ−タのうち、60枚をパラメ−タの学習に用いる学習
デ−タ、残りの20枚を評価用に用いる。デ−タは同時
に採取したものではなく、若干異なるイメ−ジセンサの
感度で50枚と30枚取得したもののうちそれぞれ40
枚、20枚を学習デ−タとし、残りの20枚を評価デ−
タとして用いた。更に、評価用にはイタリア紙幣を含む
16ヵ国の紙幣を追加して使用したが、表2にその金種
を示す。
An example of actual bill discrimination will be described as an example applied to Italian lira bills. Italian lira bills are 1000, 2000, 5000, 10,000, (N) 5
0000, (O) 50,000, (N) 100,000
(O) 100000 total 8 denominations, (N) shows a new bill and (O) shows an old bill. In consideration of the orientation and front and back when the bill is inserted into the discriminating machine, each denomination handles four types of images as separate images. A, B,
C and D are A (table), B (table obtained by rotating A by 180 degrees), C
(Turn over without changing the position of the short side of B), D (C is 180
Degrees). Of the data collected from 80 bills for each denomination, 60 are used for learning data used for learning parameters, and the remaining 20 are used for evaluation. The data were not collected at the same time, but were obtained from 50 and 30 images with slightly different image sensor sensitivities.
Sheets and 20 sheets as learning data, and the remaining 20 sheets as evaluation data
Used as the In addition, banknotes from 16 countries including Italian banknotes were additionally used for evaluation. Table 2 shows the denominations.

【0053】[0053]

【表2】 本実施例では、紙幣から次の手順で特徴ベクトルを抽出
した。即ち、搬送機構で高速に移動中の紙幣をイメ−ジ
センサで濃淡をサンプリングし、画像デ−タとして取り
込んで中心位置を割り出し、そこを中心に縦横を決めた
大きさの矩形領域を切り出す。その矩形領域は縦横それ
ぞれ数十個の画素が並んだ濃淡画像となっている。この
矩形領域を縦6個、横8個の計48個からなるメッシュ
状の小領域に分ける。この各々のメッシュ状小領域から
なる矩形領域に48種類のマスク処理(施すマスクパタ
ーンの最適化については、特願平8−70868号参
照)を施して、各々マスクの被覆がされていない小領域
のデータを加算して矩形領域全体で総和を求めてスラブ
値を得る。これら異なる48種類のマスクパターンを適
用して得られた48個のスラブ値と、マスクを全く施さ
ない状態で得られたスラブ値とから49次元の特徴ベク
トルを作成する。尚、ここでは紙幣の大きさに応じたス
ケ−リングは行っていないので、大きいサイズの紙幣は
中心付近のみのデ−タとなっており、搬送のときの状態
により、±15度程度紙幣が回転して入力されることが
ある。この回転に対してはソフト的な補正をすることも
可能であるが、本発明においては補正をせず、それに起
因する劣化も本発明によって吸収できるかどうかを確か
めた。
[Table 2] In the present embodiment, a feature vector is extracted from a bill by the following procedure. That is, the banknote moving at a high speed by the transport mechanism is sampled by the image sensor to sample the density, taken in as image data, the center position is determined, and a rectangular area of a size determined vertically and horizontally is cut out from the center. The rectangular area is a shaded image in which several tens of pixels are arranged vertically and horizontally. This rectangular area is divided into a mesh-like small area consisting of a total of 48, 6 in length and 8 in width. Forty-eight types of mask processing (for optimization of a mask pattern to be applied, refer to Japanese Patent Application No. 8-70868) are performed on the rectangular area composed of each mesh-shaped small area, and each of the small areas not covered by the mask is masked. Slab values are obtained by adding the data of A 49-dimensional feature vector is created from 48 slab values obtained by applying these different 48 types of mask patterns and slab values obtained without applying any mask. In this case, since the scaling according to the size of the bill is not performed, the large-sized bill is data only in the vicinity of the center. The input may be rotated. It is possible to make a soft correction to this rotation, but in the present invention, no correction was made, and it was confirmed whether the deterioration caused by the correction could be absorbed by the present invention.

【0054】ここではイタリア紙幣の各金種毎に異なる
種類のデ−タを排除するのが目的であるから、前記8種
類の紙幣についてそれぞれの金種kについて学習デ−タ
を用いて分数行列Mkを求め、それの固有値を求めた。
5000リラの学習デ−タによるパラメータ推定値の行
列M´の固有値を表3に示す。
Here, the purpose is to eliminate different types of data for each denomination of Italian banknotes. Therefore, for the eight types of banknotes, a fraction matrix using learning data for each denomination k is used. Mk was determined and its eigenvalue was determined.
Table 3 shows the eigenvalues of the matrix M 'of the parameter estimation values based on the learning data of 5000 lira.

【0055】[0055]

【表3】 そして、固有値の大きい順に固有値λiと固有ベクトル
uiを並べ、下記数24を求めた結果を図10に示す。
[Table 3] Then, the eigenvalues λi and the eigenvectors ui are arranged in descending order of the eigenvalues, and the following Expression 24 is obtained. FIG. 10 shows the result.

【0056】[0056]

【数24】 横軸は数24中の分布の中心を示す平均のベクトルmを
表し、成分の大きい直交軸から何番目まで含めるかを示
している。また、縦軸(対数軸)は数24の値を表して
いる。ここで表示しているのは5000リラ紙幣の裏の
1つの向き(C方向)のデ−タである。1枚の紙幣につ
き1本の曲線が対応する。実線は学習デ−タのもの、点
線は同じ金種の評価デ−タのもの、一点鎖線は他国紙幣
のものに対応する値である。
(Equation 24) The horizontal axis represents an average vector m indicating the center of the distribution in Equation 24, and indicates how many components from the orthogonal axis having the largest component are included. The vertical axis (logarithmic axis) represents the value of Equation 24. What is displayed here is data in one direction (direction C) on the back of the 5000 lira bill. One curve corresponds to one bill. The solid line is the value corresponding to the learning data, the dotted line is the value corresponding to the evaluation data of the same denomination, and the one-dot chain line is the value corresponding to the bill of another country.

【0057】この図10より次のような観察をすること
ができる。即ち、学習デ−タに対しては小さな値に押さ
えられており、評価デ−タでは40個以上を使用した近
辺から評価デ−タの数値が跳ね上がっている。これは学
習デ−タの中の微小な成分方向のエネルギ−は評価デ−
タのそれとは余り一致しないことを示す。他の種類の紙
幣に対しては全固有ベクトル方向で不一致が大きく、明
白に識別できている。
From FIG. 10, the following observation can be made. That is, the learning data is suppressed to a small value, and in the evaluation data, the numerical value of the evaluation data jumps from the vicinity where 40 or more pieces are used. This is because energy in the direction of minute components in the learning data is evaluation data.
It does not match that of the data. For other types of banknotes, the discrepancies are large in all the eigenvector directions, and they can be clearly identified.

【0058】そこで、軸の数を5個から40個程度にす
ると安定した結果が得られる様子が分かる。実験では、
条件数をTm=1000とおいて軸を選んだ。表4はイ
タリア紙幣によるz(z:n次元の確率密度関数相当
値)の値について、実際の判定結果を示す。
Thus, it can be seen that stable results can be obtained when the number of axes is reduced from about 5 to about 40. In the experiment,
The axis was selected with the condition number set to Tm = 1000. Table 4 shows the actual determination results of z (z: a value corresponding to an n-dimensional probability density function) by an Italian banknote.

【0059】[0059]

【表4】 表4中で、αはイタリア紙幣の同じ金種の評価デ−タ2
0個に対するn次元の確率密度関数相当値zの値(数2
3の左辺のz)の最大値、βはイタリア紙幣の他の金種
の評価デ−タ及び他国の紙幣デ−タに対する最小値を示
す。α<βならばα<C(=−2logS)<βを満た
すC(スレッショルド)を用いれば、ここで使用した全
ての評価デ−タを正しく排除することができることを示
す。notes欄に排除できない場合を示している。た
だし、これらはイタリア紙幣の新旧によるものである。
[Table 4] In Table 4, α is evaluation data 2 for the same denomination of Italian banknotes.
The value of the n-dimensional probability density function equivalent value z for 0
The maximum value of z) on the left-hand side of 3, β indicates the minimum value for evaluation data of other denominations of Italian bills and for banknote data of other countries. If α <β, it is shown that if C (threshold) that satisfies α <C (= −2 logS) <β is used, all the evaluation data used here can be correctly excluded. The case where it cannot be excluded is shown in the notes column. However, these are due to the new and old Italian banknotes.

【0060】以上の実験では条件数Tm=1000のと
き、4金種で旧紙幣でないことを決定するときに、同じ
金額の同じ向きの新紙幣が排除できないものがそれぞれ
1枚ずつであった。これは画像パタ−ンが酷似している
ために起こったものである。図11では誤識別が起こっ
た(O)100000リラに対するzの値を示す。一点
鎖線の曲線群は他国の紙幣に対する値である。また、下
の方にある実線は学習デ−タ、点線は同金種の評価デ−
タに対するものである。真ん中辺りにある一点鎖線で示
す曲線4本は同じ金額の新種類の紙幣に対する結果であ
る。これは、旧紙幣の中の1枚のグラフと交差してお
り、軸の個数によっては誤識別が起こることが分かる。
これに対しては、ある程度少ない個数(7〜25個程
度)の軸で決定した方が誤りが少ない。これは、その紙
幣の特徴は比較的少ない個数の主軸に集まっており、貢
献度が低い軸まで含めるとノイズ的成分が多くなり、判
定を誤るものと考えられる。従って、条件数Tm=10
00としたのは必ずしも適当でなく、もっと小さい値に
すれば誤識別は減少する。しかし、誤識別すると判定し
ても、これら誤識別された紙幣はそれぞれのパタ−ンの
ニュ−ラルネットワ−クによる識別ではその正規のパタ
−ンとして受理されているので、実際の運用上はニュ−
ラルネットワ−クによる識別を併用すれば正しく識別さ
れる。
In the above experiment, when the condition number Tm = 1000, when it is determined that the denomination is not an old banknote with four denominations, only one banknote of the same amount and in the same direction cannot be excluded. This occurs because the image patterns are very similar. FIG. 11 shows the value of z for 100,000 lira where (O) misidentification has occurred. The dashed-dotted curves represent values for banknotes of other countries. The solid line at the bottom is the learning data, and the dotted line is the evaluation data of the same denomination.
To the data. The four curves indicated by dashed lines in the middle are the results for a new kind of banknote of the same amount. This intersects with one graph in the old banknote, and it can be seen that erroneous identification occurs depending on the number of axes.
On the other hand, when the number of axes is determined to be relatively small (about 7 to 25), the number of errors is small. This is because the characteristics of the banknote are gathered on a relatively small number of main axes, and if an axis with a low contribution is included, the noise component increases and the judgment is erroneous. Therefore, the condition number Tm = 10
00 is not always appropriate, and a smaller value reduces false identification. However, even if it is determined that the banknotes are erroneously identified, these banknotes that have been erroneously identified are accepted as their regular patterns in the identification of each pattern by the neural network. −
If the identification by the ral network is used together, the identification will be correct.

【0061】上述の説明では紙幣について述べたが、小
切手や証券等の画像を有する紙葉類について適用でき、
正券及び真券のデ−タは既知であるが、損券及び偽券の
デ−タは原則的に未知であるので、紙葉類の損傷度判定
に有効である。また、特定個人情報は既知であるが、個
人以外は未知であるので、個人認証技術への応用が有効
である。
In the above description, banknotes have been described. However, the present invention can be applied to paper sheets having images such as checks and securities.
The data of genuine and genuine bills are known, but the data of damaged and counterfeit bills are basically unknown, which is effective for determining the degree of damage to paper sheets. In addition, specific personal information is known, but information other than individuals is unknown, so that application to personal authentication technology is effective.

【0062】[0062]

【発明の効果】以上に説明したように、本発明によれ
ば、従来の1次元或いは2次元的な入力値(スラブ値)
の範囲チェックを多次元ガウス密度関数で計算するた
め、ニュ−ラルネットワ−クの識別能力(非線形相対識
別)を維持しながら未学習パタ−ンの紙葉類を排除する
ことができる。学習パタ−ンのデ−タを用いて事前に大
部分を計算でき、その結果をパタ−ン毎のパラメ−タと
して実機に持たせることができるため、これまでのニュ
−ラルネットワ−ク識別演算の後処理部に配置するだけ
で実機での効果を向上できる。多次元ガウス密度関数が
形成する学習パタ−ンの部分空間が非線形であるため、
自己だけを知り、自己以外を非線形的に排除するいわゆ
る絶対識別が可能となる。また、ニューラルネットワー
ク識別演算の前処理部に配置することによっても、実機
での効果が得られる。
As described above, according to the present invention, according to the conventional one-dimensional or two-dimensional input value (slab value),
Since the range check is calculated by a multidimensional Gaussian density function, unlearned patterns of paper sheets can be eliminated while maintaining the discrimination ability (non-linear relative discrimination) of the neural network. Most of the neural network can be calculated in advance using the data of the learning pattern, and the result can be stored in the actual machine as a parameter for each pattern. By simply arranging it in the post-processing section, the effect on the actual machine can be improved. Because the subspace of the learning pattern formed by the multidimensional Gaussian density function is nonlinear,
So-called absolute discrimination, in which only the self is known and non-self is nonlinearly excluded, becomes possible. Also, by arranging it in the pre-processing unit of the neural network identification operation, the effect in the actual machine can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のニューラルネットワーク識別空間の原
理を模式的に示す図である。
FIG. 1 is a diagram schematically illustrating the principle of a neural network identification space according to the present invention.

【図2】本発明の判定原理を示す図である。FIG. 2 is a diagram showing a determination principle of the present invention.

【図3】本発明をニュ−ロ識別の後処理で実施する装置
例を示すブロック図である。
FIG. 3 is a block diagram showing an example of an apparatus for implementing the present invention in post-processing of neuro-identification.

【図4】本発明をニュ−ロ識別の前処理で実施する装置
例を示すブロック図である。
FIG. 4 is a block diagram showing an example of an apparatus for carrying out the present invention in neuro-identification preprocessing.

【図5】ニュ−ロ識別の判定原理を説明するための図で
ある。
FIG. 5 is a diagram for explaining a determination principle of neuro identification.

【図6】ニューロ紙幣識別の動作例を示すフロ−チャ−
トである。
FIG. 6 is a flowchart showing an operation example of neuro bill discrimination.
It is.

【図7】ニュ−ロ演算の動作例を示すフロ−チャ−トで
ある。
FIG. 7 is a flowchart showing an operation example of a neuro operation.

【図8】本発明のオフラインの学習過程の動作例を示す
フロ−チャ−トである。
FIG. 8 is a flowchart showing an operation example of an offline learning process of the present invention.

【図9】本発明のオンラインの評価過程の動作例を示す
フロ−チャ−トである。
FIG. 9 is a flowchart showing an operation example of an online evaluation process of the present invention.

【図10】イタリアの5000リラ紙幣についての評価
例を示す図である。
FIG. 10 is a diagram illustrating an example of evaluation of a 5000 lira bill in Italy.

【図11】イタリアの100000リラ紙幣についての
評価例を示す図である。
FIG. 11 is a diagram showing an evaluation example of 100,000 lira bills in Italy.

【図12】従来のニュ−ラルネットワ−クの構成例を示
す図である。
FIG. 12 is a diagram showing a configuration example of a conventional neural network.

【図13】従来の学習パタ−ンのテンプレートに対する
未学習データの排除領域を示す図である。
FIG. 13 is a diagram showing an exclusion region of unlearned data with respect to a template of a conventional learning pattern.

【図14】従来における未学習パターンの排除原理を示
す図である。
FIG. 14 is a diagram illustrating a principle of eliminating an unlearned pattern in the related art.

【図15】従来のニューラルネットワークによる未学習
パターンの分類を模式的に示す図である。
FIG. 15 is a diagram schematically showing classification of an unlearned pattern by a conventional neural network.

【符号の説明】[Explanation of symbols]

10、20 ニュ−ラルネットワ−ク 11、21 紙幣 12、22 画像収集部 13、23 演算手段 14、24 比較判定手段 100 ニュ−ラルネットワ−クによる識別曲
面 101 スレッショルド平面 102 識別曲線
10, 20 neural network 11, 21, banknote 12, 22, image collecting unit 13, 23 computing means 14, 24 comparison / determination means 100 discriminating curved surface by neural network 101 threshold plane 102 discriminating curve

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】複数種の紙葉類を搬送させてセンサで収集
した画像デ−タに対して、複数のマスクで処理して求め
たスラブ値をニュ−ラルネットワ−クに入力して前記紙
葉類の種別を判別するニュ−ロ識別において、前記紙葉
類の学習パタ−ンの画像を識別空間において多次元ガウ
ス密度関数で表現すると共に、識別時に、ニュ−ロ識別
機に入力された紙葉類の画像を前記多次元ガウス密度関
数で表現してスレッショルド平面で判定することによ
り、入力された紙葉類に対して学習パタ−ン及び未学習
パタ−ンを識別し、前記未学習パタ−ンの紙葉類を排除
するようにしたことを特徴とするニュ−ロ識別における
未知パターン紙葉類画像の判定方法。
1. A slab value obtained by processing a plurality of types of paper sheets and conveyed by a sensor with image data collected by a sensor and inputting the processed slab value to a neural network. In neuro discrimination for discriminating the type of leaf, an image of the learning pattern of the paper sheet is represented by a multidimensional Gaussian density function in a discrimination space, and input to a neuro discriminator at the time of discrimination. The image of the paper sheet is represented by the multidimensional Gaussian density function and determined by a threshold plane, whereby a learning pattern and an unlearned pattern are identified for the input paper sheet, and the unlearned pattern is identified. A method for judging an image of an unknown-pattern paper sheet in neuro-identification, wherein the paper sheets of the pattern are excluded.
【請求項2】前記多次元ガウス密度関数をn次元の下記
数5で表現した請求項1に記載のニュ−ロ識別における
未知パターン紙葉類画像の判定方法。
2. The method according to claim 1, wherein said multidimensional Gaussian density function is represented by the following equation (5) in n dimensions.
【請求項3】前記ニュ−ラルネットワ−クで判定された
紙葉類に対応する画像パタ−ンに対して前記多次元ガウ
ス密度関数を演算し、前記未学習パタ−ンの紙葉類を排
除するようにした請求項2に記載のニュ−ロ識別におけ
る未知パターン紙葉類画像のパタ−ン判定方法。
3. The multidimensional Gaussian density function is calculated for an image pattern corresponding to a paper sheet determined by the neural network to eliminate the unlearned paper sheet. 3. The method according to claim 2, wherein the pattern identification is performed on an unknown pattern paper sheet image in neuro identification.
【請求項4】前記スラブ値で前記各画像デ−タに対する
前記多次元ガウス密度関数を演算し、前記未学習パタ−
ンを排除して前記学習パタ−ンのみを前記ニュ−ラルネ
ットワ−クに入力するようにした請求項2に記載のニュ
−ロ識別における未知パターン紙葉類画像の判定方法。
4. The multidimensional Gaussian density function for each of the image data is calculated with the slab value, and the unlearned pattern is calculated.
3. The method according to claim 2, wherein only the learning pattern is input to the neural network by excluding the learning pattern.
【請求項5】複数種の紙葉類を搬送させてセンサで収集
した画像デ−タに対して、複数のマスクで処理して求め
たスラブ値をニュ−ラルネットワ−クに入力して前記紙
葉類の種別を判別するニュ−ロ識別機において、前記ニ
ュ−ラルネットワ−クで判別された紙葉類に対応する画
像パタ−ンに対して多次元ガウス密度関数を演算する演
算手段と、前記演算手段で演算された前記多次元ガウス
密度関数の値が所定のスレッショルド値以上となったと
きに前記判定の結果をそのまま出力する比較判定手段と
を具備したことを特徴とするニュ−ロ識別における未知
パターン紙葉類画像の判定装置。
5. A slab value obtained by processing a plurality of types of paper sheets and conveyed by a sensor with respect to image data collected by a sensor is input to a neural network, and the slab value is input to the neural network. A neuro discriminator for discriminating the type of leaves, a calculating means for calculating a multidimensional Gaussian density function for an image pattern corresponding to the paper sheet discriminated by the neural network; And comparing and judging means for directly outputting the judgment result when the value of the multidimensional Gaussian density function calculated by the calculating means is equal to or more than a predetermined threshold value. An unknown pattern paper sheet image determination device.
【請求項6】複数種の紙葉類を搬送させてセンサで収集
した画像デ−タに対して、複数のマスクで処理して求め
たスラブ値をニュ−ラルネットワ−クに入力して前記紙
葉類の種別を判別するニュ−ロ識別機において、前記ス
ラブ値で前記各画像デ−タに対して多次元ガウス密度関
数を演算する演算手段と、前記演算手段で演算された前
記多次元ガウス密度関数の値が所定のスレッショルド値
以上となったときに前記画像デ−タのスラブ値のみを前
記ニュ−ラルネットワ−クに入力する比較判定手段とを
具備したことを特徴とするニュ−ロ識別における未知パ
ターン紙葉類画像の判定装置。
6. A slab value obtained by processing a plurality of types of paper sheets and conveyed by a sensor with image data collected by a sensor and inputting the slab value to a neural network. A neuro discriminator for discriminating the type of leaves, a calculating means for calculating a multidimensional Gaussian density function for each of the image data with the slab value; and the multidimensional Gaussian calculated by the calculating means. A neuro-discriminating means for inputting only the slab value of the image data to the neural network when the value of the density function becomes equal to or greater than a predetermined threshold value. For determining an unknown pattern paper sheet image in the above.
JP25561797A 1997-09-19 1997-09-19 Method for judging unknown pattern sheet paper picture in neuro identification and device therefor Pending JPH1196431A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25561797A JPH1196431A (en) 1997-09-19 1997-09-19 Method for judging unknown pattern sheet paper picture in neuro identification and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25561797A JPH1196431A (en) 1997-09-19 1997-09-19 Method for judging unknown pattern sheet paper picture in neuro identification and device therefor

Publications (1)

Publication Number Publication Date
JPH1196431A true JPH1196431A (en) 1999-04-09

Family

ID=17281243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25561797A Pending JPH1196431A (en) 1997-09-19 1997-09-19 Method for judging unknown pattern sheet paper picture in neuro identification and device therefor

Country Status (1)

Country Link
JP (1) JPH1196431A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2113888A1 (en) * 2007-02-22 2009-11-04 Kabushiki Kaisha Toshiba Degree-of-stain judging device and degree-of-stain judging method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2113888A1 (en) * 2007-02-22 2009-11-04 Kabushiki Kaisha Toshiba Degree-of-stain judging device and degree-of-stain judging method
EP2113888A4 (en) * 2007-02-22 2011-11-30 Toshiba Kk Degree-of-stain judging device and degree-of-stain judging method

Similar Documents

Publication Publication Date Title
EP1484719B1 (en) Currency validation
JP5219211B2 (en) Banknote confirmation method and apparatus
JP4932177B2 (en) Coin classification device and coin classification method
Laavanya et al. Real time fake currency note detection using deep learning
Tessfaw et al. Ethiopian banknote recognition and fake detection using support vector machine
Sargano et al. An intelligent system for paper currency recognition with robust features
KR100893613B1 (en) Method and apparatus for recognizing and counting currency notes and securities having barcodes
Youn et al. Efficient multi-currency classification of CIS banknotes
Roy et al. Machine-assisted authentication of paper currency: an experiment on Indian banknotes
JP4427132B2 (en) Paper sheet identification method using competitive neural network
Zarin et al. A hybrid fake banknote detection model using OCR, face recognition and hough features
JP2001331839A (en) Method and device for discriminating paper money
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
Gebremeskel et al. Developing a Model for Detection of Ethiopian Fake Banknote Using Deep Learning
JPH1196431A (en) Method for judging unknown pattern sheet paper picture in neuro identification and device therefor
Kagehiro et al. A hierarchical classification method for us bank-notes
Patgar et al. An unsupervised intelligent system to detect fabrication in photocopy document using geometric moments and gray level co-occurrence matrix
Vishnu et al. Principal component analysis on Indian currency recognition
Nayak Fake Currency Detection Using Simple Image Processing and Machine Learning Techniques
Jadhav et al. GM,“Forged Multinational Currency Identification and Detection System using Deep Learning Algorithm,”
Sharma et al. An Offline Signature Verification System Using Neural Network Based on Angle Feature and Energy Density
Vishnu et al. Currency detection using similarity indices method
Kara et al. Detection of Fake Indian Currency Using Deep Convolutional Neural Network
Naseem et al. Counterfeit Recognition of Pakistani Currency
Nila et al. Review on Counterfeit Indian Paper Currency Recognition System