JPH05324839A - Pattern recognizing device - Google Patents

Pattern recognizing device

Info

Publication number
JPH05324839A
JPH05324839A JP4152699A JP15269992A JPH05324839A JP H05324839 A JPH05324839 A JP H05324839A JP 4152699 A JP4152699 A JP 4152699A JP 15269992 A JP15269992 A JP 15269992A JP H05324839 A JPH05324839 A JP H05324839A
Authority
JP
Japan
Prior art keywords
pattern
image
ring
neural network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4152699A
Other languages
Japanese (ja)
Inventor
Shigeru Daimatsu
繁 大松
Minoru Fukumi
稔 福見
Toshihisa Kosaka
利寿 小坂
Fumiaki Takeda
史章 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP4152699A priority Critical patent/JPH05324839A/en
Publication of JPH05324839A publication Critical patent/JPH05324839A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D5/00Testing specially adapted to determine the identity or genuineness of coins, e.g. for segregating coins which are unacceptable or alien to a currency
    • G07D5/005Testing the surface pattern, e.g. relief

Abstract

PURPOSE:To provide the pattern recognizing device which performs pattern recognition for paper money, etc., by a small-scale neural network by reducing pattern image data measured by a sensor by using plural ring-shaped masks. CONSTITUTION:This pattern recognizing device is provided with the sensor 2 which measures a pattern image of an object 1, a preprocessing part 4 which obtains plural image representative values (slab value) for the object 1 by the ring-shaped masks 41-4n, a separate arithmetic part (neural network) 5 which calculates separate arithmetic values every decision patterns by using a weight coefficient, and a decision part 6 which decides the pattern image of the object 1 from the separate arithmetic values. The weight coefficient is previously learnt with a teacher by the neural network, so the object 1 can securely be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クによって硬貨等のパターンを認識する装置に関し、特
にリング状マスクを用いて被覆することにより、パター
ン画像の回転に不変でかつパターン画像データを縮小化
して効率良く分離演算するようにしたパターン認識装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing a pattern of coins or the like by a neural network, and in particular, by covering with a ring-shaped mask, the pattern image data is invariant to rotation of the pattern image and the pattern image data is reduced. The present invention relates to a pattern recognition device that efficiently separates and calculates a pattern.

【0002】[0002]

【従来の技術】従来硬貨の真偽、金種等を識別する場
合、所定通路又は搬送路を硬貨が一定速度で通過するよ
うに規制し、通過する硬貨の所定範囲を光学的に又は磁
気的に読取るようになっている。そして、予め登録して
ある各硬貨毎の所定範囲の基準データと比較照合するこ
とによって、その照合度により硬貨を識別するようにな
っている。このため、基準データの登録時の硬貨の搬送
と、識別時の硬貨の搬送とを同一状態にしなければ高性
能な識別はむずかしい。このように従来の硬貨の識別方
法では、登録時と識別時の硬貨の搬送状態を同一に規制
する必要があり、搬送系が複雑になってしまう欠点があ
る。
2. Description of the Related Art Conventionally, when discriminating authenticity of coins, denominations, etc., coins are regulated so that they can pass through a predetermined passage or a conveying path at a constant speed, and a predetermined range of coins passing through is optically or magnetically determined. It is designed to be read. Then, by comparing and collating with reference data in a predetermined range for each coin registered in advance, the coin is identified by the degree of collation. For this reason, high-performance identification is difficult unless the coin transport at the time of registration of the reference data and the coin transport at the time of identification are in the same state. As described above, in the conventional coin identification method, it is necessary to regulate the coin delivery state at the time of registration and at the time of identification, which has a drawback that the delivery system becomes complicated.

【0003】一方、ルーメルハート(Rumelhar
t)らによる誤差逆伝播法(Error Back P
ropagation、以後BP法と略記する)の報告
以後、ニューラルネットワークの研究が、非常に活発に
行なわれている。BP法は多層フィードフォワードネッ
トワークの学習法であり、ローゼンブラット(Rose
nblatt)によるパーセプトロン型学習やADAL
INE(Adaptive Linear Neuro
n)に対するWidrow−Hoffルール(デルタル
ール)の一般形となっている。この数年間は、BP法の
改良とそれを用いた応用研究とが特に活発である。ニュ
ーラルネットワークの適用領域としては、パターン認識
関連が最も多い。この理由として、多層ネットワークの
パターン分離能力が優れていること、従来の認識技術で
は変形パターンを認識することが困難であったことなど
が挙げられる。ライド(Reid)らは前処理部に高次
のニューラルネットワークを使用して、位置ずれ、回
転、スケール変換(拡大/縮小)に不変なシステムを構
成しているが(Neural Networks,Vo
l.1,P.689−692(1989))、種々の位
置ずれに対し種々の回転等を全て与えることになりユニ
ットの組合せ的爆発が生じ、実用的とは言えない。これ
ら以外にも、ニューラルネットワークによる不変パター
ン認識システムが多数提案されているが、位置ずれ、回
転、スケール変換、濃淡に不変な性質を同時に実現し、
かつ実用的なニューラルネットワークの規模でのシステ
ムは提案されていない。
On the other hand, Rumelhar
t) et al.'s error backpropagation method (Error Back P
Since then, the research on neural networks has been very actively conducted. The BP method is a learning method for a multi-layer feedforward network, and is based on Rosenblatt (Rose
nblatt) perceptron type learning and ADAL
INE (Adaptive Linear Neuro)
It is a general form of the Widrow-Hoff rule (delta rule) for n). In recent years, improvement of the BP method and applied research using it have been particularly active. The most applicable area of the neural network is related to pattern recognition. The reason for this is that the pattern separation ability of the multilayer network is excellent, and it is difficult to recognize the modified pattern by the conventional recognition technology. Reid et al. Use a high-order neural network in the preprocessing unit to form a system that is invariant to displacement, rotation, and scale conversion (enlargement / reduction) (Neural Networks, Vo).
l. 1, P. 689-692 (1989)), various rotations and the like are given to various misalignments, and a combinatorial explosion of the unit occurs, which is not practical. In addition to these, a number of invariant pattern recognition systems using neural networks have been proposed, but they simultaneously realize positional displacement, rotation, scale conversion, and shade invariant properties,
And a system at a practical neural network scale has not been proposed.

【0004】[0004]

【発明が解決しようとする課題】位置ずれや回転に不変
なパターン認識へのもう一つのアプローチとして、位置
ずれ、回転等による影響を受けない特徴量を抽出するよ
うに入力パターンに数学的な処理を施して、識別部(例
えばBP型ニューラルネットワーク)に入力する方法が
ある。このアプローチとしては、前処理としてHoug
h変換、モーメント不変性、フーリエメリン変換などを
利用する方法があるが、予め入力画像を2値化しておか
なければならない。よって2値画像ではなく、数ビット
の濃淡レベルの画像をパターン入力として扱うために
は、これらの数学的変換の前処理として境界抽出等の画
像処理が必要であると考えられる硬貨の認識を行なう場
合、対象となる硬貨の大きさがそれぞれ異なっていれば
簡単に識別可能である。しかし、大きさがほとんど同じ
硬貨の場合には、硬貨表面の特徴(模様)により識別し
なければならない。イメージセンサで入力した画像は、
標準的な画像からランダムな角度で回転した状態となっ
ていることが多い。この回転画像を認識するためには回
転に不変なパターン認識構造が必要となるが、これまで
にこの種の問題に対して有効な実用的な手法は提案され
ていない。
As another approach to pattern recognition that is invariant to misregistration and rotation, mathematical processing is applied to an input pattern so as to extract a feature amount that is not affected by misregistration and rotation. Then, there is a method of inputting to the identification unit (for example, BP type neural network). As for this approach, Houg is used as a pretreatment.
Although there is a method of using h transform, moment invariance, Fourier Mellin transform, etc., the input image must be binarized in advance. Therefore, in order to handle an image of a gray level of several bits instead of a binary image as a pattern input, a coin is recognized which is considered to require image processing such as boundary extraction as a preprocessing of these mathematical conversions. In this case, if the target coins have different sizes, they can be easily identified. However, coins of almost the same size must be identified by the features (pattern) of the coin surface. The image input by the image sensor is
It is often in a state of being rotated at a random angle from a standard image. To recognize this rotated image, a rotation-invariant pattern recognition structure is required, but no practical method effective against this kind of problem has been proposed so far.

【0005】本出願人は、学習機能を有するニューラル
ネットワークによって貨幣を識別する貨幣識別方法及び
装置(特願平3−78513号)を提案しているが、パ
ターン画像の回転、位置ずれ等の種々の変形を想定して
前処理部でスクランブル画像によるスラブ値を作成する
ので、これにおいては前処理部で多大な計算量を必要と
する。又、従来のニューラルネットワーク構築手法で
は、識別装置のセンサから得られる情報を直接ニューラ
ルネットワークに入力している。このため、ニューラル
ネットワークでは、得られる入力情報の全てに対して情
報伝達の重みを持たなければならず、その規模も大きく
なっていた。例えば4個のセンサで32サンプルをとっ
た場合、128個のセンサ情報を有しているが、従来の
ニューラルネットワーク構築手法ではこの128個の情
報を直接ニューラルネットワークに入力し、ネットワー
ク構造を3層としても、その規模は128×64+64
×12=8960となり、その計算量は実用化の障害と
なっていた。
The applicant has proposed a currency identification method and apparatus (Japanese Patent Application No. 3-78513) for identifying currency by a neural network having a learning function. Since the slab value based on the scrambled image is created in the pre-processing unit on the assumption of the above modification, the pre-processing unit requires a large amount of calculation. Further, in the conventional neural network construction method, information obtained from the sensor of the identification device is directly input to the neural network. Therefore, in the neural network, the weight of information transmission must be given to all of the obtained input information, and the scale thereof is also large. For example, when 32 samples are taken by 4 sensors, 128 sensor information is held, but in the conventional neural network construction method, the 128 information is directly input to the neural network, and the network structure is divided into 3 layers. However, the scale is 128 × 64 + 64
X12 = 8960, and the calculation amount was an obstacle to practical use.

【0006】本発明は上述の如き事情よりなされたもの
であり、本発明の目的は、センサで計測されたパターン
画像データを複数のリング状マスクを用いて縮小化し、
小規模なニューラルネットワークで回転に不変な硬貨等
のパターン認識を行なうパターン認識装置を提供するこ
とにある。
The present invention has been made under the above circumstances, and an object of the present invention is to reduce pattern image data measured by a sensor using a plurality of ring-shaped masks,
An object of the present invention is to provide a pattern recognition device that recognizes patterns of coins and the like that are invariable in rotation with a small-scale neural network.

【0007】[0007]

【課題を解決するための手段】本発明はパターン認識装
置に関するもので、本発明の上記目的は、認識すべき対
象物のパターン画像を光学的又は磁気的に計測するセン
サと、多数の小区画を有すると共に、前記小区画のリン
グ状領域の部分を被覆した複数のリング状マスクを用い
て、前記センサで計測したパターン画像データを複数の
画像代表値に変換する前処理部と、前記複数の画像代表
値を並列入力し、予め判定パターン分類に最適に調整さ
れた重みにより、前記パターン画像の判定パターン毎に
分離演算値を算出する分離演算部と、前記分離演算値の
中で最大値又は最小値を有する判定パターンを前記対象
物のパターン画像として判定出力する判定部とを具備す
ることによって達成される。
SUMMARY OF THE INVENTION The present invention relates to a pattern recognition device, and the above object of the present invention is to provide a sensor for optically or magnetically measuring a pattern image of an object to be recognized and a large number of small sections. With a plurality of ring-shaped masks that cover the ring-shaped region of the small section, a pre-processing unit that converts the pattern image data measured by the sensor into a plurality of image representative values, and the plurality of An image representative value is input in parallel, and a separation calculation unit that calculates a separation calculation value for each judgment pattern of the pattern image by a weight optimally adjusted in advance for the judgment pattern classification, and a maximum value among the separation calculation values or This is achieved by including a determination unit that determines and outputs the determination pattern having the minimum value as the pattern image of the object.

【0008】[0008]

【作用】本発明では、学習機能を有するニューラルネッ
トワークによって硬貨等のパターン認識を行なうと共
に、センサで光学的又は磁気的に計測されたパターン画
像データを複数のリング状マスクを用いて縮小化し、複
数の画像代表値を得る。リング状マスクは多数の小区画
を有し、小区画のリング状領域は、例えば一様乱数を用
いてランダムに被覆される。このようなリング状マスク
で縮小化された画像代表値はパターン画像の回転に不変
であり、分離演算部(ニューラルネットワーク)に入力
され、予め判定パターン分類に最適に調整された重みに
より、パターン画像の判定パターン毎に分離演算値が算
出される。分離演算値の最大値(又は最小値)に従っ
て、パターン画像を判定するようになっている。これに
より、ニューラルネットワークの構成が小規模になり、
制御装置も小規模となる。また、ニューラルネットワー
クが非線形素子を含むので、パターン画像データの濃淡
方向の変動に対して認識性能が劣化しない利点があり、
従来のパターンマッチングと比較してもより実用的であ
る。
According to the present invention, a pattern of coins or the like is recognized by a neural network having a learning function, and pattern image data optically or magnetically measured by a sensor is reduced by using a plurality of ring-shaped masks. The image representative value of is obtained. The ring-shaped mask has a large number of small sections, and the ring-shaped areas of the small sections are randomly covered using, for example, uniform random numbers. The image representative value reduced by such a ring-shaped mask is invariant to the rotation of the pattern image, is input to the separation calculation unit (neural network), and the pattern image is adjusted by the weights optimally adjusted for the judgment pattern classification in advance. The separation calculation value is calculated for each of the determination patterns of. The pattern image is determined according to the maximum value (or the minimum value) of the separation calculation values. This reduces the size of the neural network configuration,
The control device is also small. In addition, since the neural network includes a non-linear element, there is an advantage that the recognition performance does not deteriorate with respect to variations in the grayscale direction of the pattern image data.
It is more practical than conventional pattern matching.

【0009】[0009]

【実施例】以下、本発明の実施例を図面を参照して説明
する。本発明は上述のようなニューラルネットワークシ
ステムを応用したものであり、このようなニューラルネ
ットワークで硬貨等のパターン認識を行なう場合、従来
は認識装置のセンサから得られる情報を直接ニューラル
ネットワークに入力していた。このため、ニューラルネ
ットワークでは、得られる入力情報の全てに対して情報
伝達の重みを持たなければならず、その規模も大きくな
っていた。このため、本発明では入力情報を縮小化する
ための複数個のリング状のマスクを前処理部に設け、そ
れぞれのリング状マスクから画像代表値(スラブ値)を
得るようにする。
Embodiments of the present invention will be described below with reference to the drawings. The present invention is an application of the above-described neural network system. When pattern recognition of coins and the like is performed by such a neural network, conventionally, information obtained from a sensor of a recognition device is directly input to the neural network. It was Therefore, in the neural network, the weight of information transmission must be given to all of the obtained input information, and the scale thereof is also large. Therefore, in the present invention, a plurality of ring-shaped masks for reducing the input information are provided in the preprocessing unit, and the image representative value (slab value) is obtained from each ring-shaped mask.

【0010】図1は本発明の硬貨識別装置の構成例を示
すブロック図であり、認識対象の硬貨1はCCD等で成
るイメージセンサ2で計測され、適宜画像処理されて入
力画像3が得られる。入力画像3はx−y座標系からr
−θ座標系に座標変換されて前処理部4内のリング状マ
スク41〜4nに入力され、各リング状マスク41〜4
nからの総和値が演算されて画像代表値SB1〜SBn
が得られる。画像代表値SB1〜SBnはニューラルネ
ットワークの分離演算部5に入力され、予め判定用硬貨
のパターン分類に最適に調整された重みにより分離演算
値SPが算出される。分離演算値SPは判定部6に入力
され、分離演算値SPの中で最大値(又は最小値)を有
するパターンが対象物の硬貨1のパターン画像として出
力される。前処理部4内のマスク41〜4nは、リング
状領域の部分を被覆したマスクであり、それぞれが異な
る径について被覆されている。
FIG. 1 is a block diagram showing a configuration example of a coin discriminating apparatus of the present invention. A coin 1 to be recognized is measured by an image sensor 2 composed of a CCD or the like, and an image is appropriately processed to obtain an input image 3. .. The input image 3 is r from the xy coordinate system.
The coordinates are converted into the −θ coordinate system and input to the ring-shaped masks 41 to 4n in the pre-processing unit 4, and the ring-shaped masks 41 to 4n.
The sum total value from n is calculated to obtain the image representative values SB1 to SBn.
Is obtained. The image representative values SB1 to SBn are input to the separation calculation unit 5 of the neural network, and the separation calculation value SP is calculated by the weight optimally adjusted in advance for the pattern classification of the determination coin. The separation calculation value SP is input to the determination unit 6, and the pattern having the maximum value (or the minimum value) in the separation calculation value SP is output as the pattern image of the coin 1 of the object. The masks 41 to 4n in the pretreatment unit 4 are masks that cover the ring-shaped region, and the masks 41 to 4n are covered with different diameters.

【0011】先ず、リング状マスクを用いた前処理部4
について説明する。本発明でリング状マスク41〜4n
を用いる理由は、次のことによる。図2に示すように8
×8のマトリックス上の“0”と“1”の2値画像にお
いて、画像の特徴量として画素値の総和であるスラブ値
(図1の例では2値画像の“1”の数)を用いた場合、
図2(A)では文字“E”を特徴づける値として“1
4”が得られ、同図(B)では文字“H”を特徴づける
値として“12”が得られる。従って、スラブ値を用い
ることによって“E”と“H”が分離可能となる。しか
しながら、異なるパターンを有する画像でもスラブ値が
等しくなる場合が存在する。例えば、図3(A)では文
字“F”のスラブ値は“10”であるが、同図(B)の
文字“K”のスラブ値も“10”であり、分離不可能と
なる。このような問題に対しては、パターン画像をx−
y直角座標系からr−θ円筒座標系に変換し、図4
(C)に示すような入力画像の画素に対応する特定のリ
ング状領域の部分が被覆されたリング状マスクを導入す
ることにより解決できる。図4(C)のマスクで図3
(A)の座標変換した画像を覆うと図4(A)に示す画
像となり、この場合のスラブ値は“4”となる。一方、
図4(C)のマスクで図3(B)の座標変換した画像を
覆うと図4(B)に示す画像となり、スラブ値は“3”
となる。このようにリング状マスクを導入することによ
り、“F”と“K”も分離可能となり、更にそのスラブ
値は回転に対して不変となる。そこで、このように種々
の画像を分離するために、図4(C)に示すようなリン
グ状マスクによって被覆される部分の位置を予め選定し
ておく。この場合、ただ一つのこのようなマスクによっ
て、種々の画像を分離できるスラブ値を生成する確率は
極めて小さい。
First, the pretreatment section 4 using a ring-shaped mask
Will be described. In the present invention, ring-shaped masks 41 to 4n
The reason for using is as follows. 8 as shown in FIG.
In the binary image of “0” and “1” on the × 8 matrix, the slab value (the number of “1” in the binary image in the example of FIG. 1) which is the sum of pixel values is used as the feature amount of the image. If
In FIG. 2A, "1" is used as a value that characterizes the character "E".
4 "is obtained, and" 12 "is obtained as a value characterizing the character" H "in the same figure (B). Therefore," E "and" H "can be separated by using the slab value. In some cases, images having different patterns have the same slab value.For example, the slab value of the character “F” is “10” in FIG. 3A, but the character “K” in FIG. The slab value of the pattern image is also “10” and cannot be separated.
The y-rectangular coordinate system is converted to the r-θ cylindrical coordinate system, and FIG.
The problem can be solved by introducing a ring-shaped mask in which a portion of a specific ring-shaped region corresponding to the pixel of the input image as shown in (C) is covered. 3 with the mask of FIG.
When the coordinate-converted image of (A) is covered, the image shown in FIG. 4A is obtained, and the slab value in this case is "4". on the other hand,
When the coordinate-converted image of FIG. 3 (B) is covered with the mask of FIG. 4 (C), the image shown in FIG. 4 (B) is obtained, and the slab value is “3”.
Becomes By introducing the ring-shaped mask in this way, "F" and "K" can be separated, and the slab value thereof is invariant to rotation. Therefore, in order to separate various images in this way, the position of the portion covered by the ring-shaped mask as shown in FIG. 4C is selected in advance. In this case, the probability of producing slab values that can separate different images with only one such mask is extremely small.

【0012】しかしながら、前述のように異なる種々の
マスクを使用することによって、同じ画像でも異なるス
ラブ値列を得ることができる。このスラブ値列のいずれ
かが画像間で異なることが多く、種々のマスクを利用す
ることによって、画像間の分離能力を確率的に高めるこ
とが可能であると推測される。なお、上述の複数の異な
るリング状マスクを使用することは、次のような物理的
な意味を有している。つまり、3次元物体を他方向から
視点を変えて観測する場合、同一の対象でも異なる情報
を得ることができる。これと同様に、種々のマスクを用
いることは2次元平面内で視点を変えて画像を観測する
ことになり、前述のように同一の画像でも異なる情報を
生成することが可能となる。この場合、前処理で入力画
像が種々の異なるリング状マスクで覆われ、被覆されな
い画素の総和がそれぞれスラブ値SB1〜SBnとな
り、入力層のニューロ素子と一対一に対応している。
However, different slab value sequences can be obtained in the same image by using various different masks as described above. It is presumed that it is possible to stochastically increase the separation capability between images by using various masks, because one of the slab value sequences often differs between images. The use of the plurality of different ring-shaped masks has the following physical meaning. That is, when observing a three-dimensional object while changing the viewpoint from another direction, different information can be obtained even for the same target. Similarly, the use of various masks changes the viewpoint in the two-dimensional plane to observe the image, and as described above, different information can be generated even in the same image. In this case, the input image is covered by various different ring-shaped masks in the pre-processing, and the sum of the pixels not covered becomes the slab values SB1 to SBn, which correspond to the neuro elements of the input layer one to one.

【0013】次に、認識の際には予め選定してある上記
リング状マスクの種類数、内容についての適性及びその
選定上の留意点を説明する。図5は、マスク41〜4n
の如きリング状マスクの効果を説明するためのものであ
り、同図(A)は入力画像が回転しない場合にスラブ値
が“6”であることを示している。そして、図5(B)
に示すように入力画像が回転しても、そのスラブ値は
“6”のままであり、入力画像の回転に対して不変のス
ラブ値を得ることができる。
Next, at the time of recognition, the number of types of the ring-shaped masks selected in advance, suitability for the contents, and points to be noted in the selection will be described. FIG. 5 shows the masks 41 to 4n.
This is for explaining the effect of such a ring-shaped mask, and FIG. 9A shows that the slab value is "6" when the input image is not rotated. And FIG. 5 (B)
Even if the input image is rotated as shown in, the slab value remains "6", and a slab value that is invariant to the rotation of the input image can be obtained.

【0014】前処理部4ではスラブ数n(マスクの種
類)とマスク41〜4nの被覆領域がパラメータとして
考えられ、リング状マスクの効果について考察する。こ
こでは、8×8のマトリックス上に描かれたアルファベ
ットA〜Lの12個の2値画像を用いてパラメータ探索
を行ない、本発明の認識能力を検討する。ただし、ニュ
ーラルネットワークの学習アルゴリズムは、次の数1で
与えられるバックプロパゲーション法を用いる。
In the preprocessing section 4, the number of slabs (type of mask) and the covered areas of the masks 41 to 4n are considered as parameters, and the effect of the ring-shaped mask will be considered. Here, a parameter search is performed using 12 binary images of alphabets A to L drawn on an 8 × 8 matrix to examine the recognition ability of the present invention. However, the learning algorithm of the neural network uses the backpropagation method given by the following equation 1.

【数1】 また、重みの修正は、各パターンの提示毎に行なう。収
束判定は、各パターン毎に得られる出力層の値と教師値
との差の2乗の総和が収束判定誤差以下になった場合、
または提示回数が最大提示回数に達した場合としてい
る。ここで、提示回数とは、A〜Lの全てのパターンに
教師を提示した場合を1回として定義する。学習データ
はA〜Lまでをニューラルネットワークに逐次的に提示
する。さらに、認識能力の評価規範として次式で与えら
れる鑑別率ESを用いる。
[Equation 1] In addition, the weight is corrected every time each pattern is presented. The convergence judgment is performed when the sum of squares of the difference between the output layer value obtained for each pattern and the teacher value is equal to or smaller than the convergence judgment error.
Alternatively, the number of presentations reaches the maximum number of presentations. Here, the number of presentations is defined as one when the teacher is presented in all the patterns A to L. The learning data sequentially presents A to L to the neural network. Further, the discrimination rate ES given by the following equation is used as the evaluation standard of the cognitive ability.

【数2】ES=正しく認識された事象の個数/全事象の
評価個数×100
[Equation 2] ES = number of correctly recognized events / evaluated number of all events × 100

【0015】次に、マスクの種類、つまりスラブ数によ
り学習状況と認識能力を検討する。まず、本発明で使用
するリング状マスクを次のように作成する。つまり、x
−y座標系からr−θ座標系に変換する入力画像と同じ
大きさの円を半径方向に4分割し、このリング状領域を
一様乱数等により任意に被覆する。ここで検討するスラ
ブ数は、2,4,6,8,10,12の6通りとする。
図6は、これら6通りのスラブ数に対する提示回数が3
0,000回に到るまでのニューラルネットワークの学
習状況を示している。横軸は教師データの提示回数を示
し、縦軸は2乗誤差を示している。図6より、スラブ数
が“2”の場合は明らかに学習が収束せず、パターン分
離が不可能である。スラブ数が“4”の場合は、ニュー
ラルネットワークの学習がある程度収束傾向を示してい
るが、誤差曲線は振動的となっている。この場合、学習
をさらに継続し、60,000回まで行なったが、2乗
誤差は1.0以下にはならなかった。スラブ数が“6”
以上の場合は、図6より学習が収束することが示され
た。また、この重みを用いてアルファベットA〜Lまで
を認識させた場合に対して、出力層の判定パターンに対
応するニューロ素子においても、スラブ数が“6”以上
の場合はその認識能力はほとんど同じであり、パターン
認識に充分な出力値を得ることが可能であることが分っ
た。従って、アルファベットの文字(A〜L)の認識に
ついてはマスクの種類は6以上あれば認識でき、分離演
算部5の入力層にはスラブ数として6とすれば足りる。
従来の入力画素64(=8×8)を入力層に入力するの
と比較すれば、極端にニューロ素子数を減少させること
ができ、それに伴って分離演算部5を簡略化できる。ま
た、認識すべき文字数や種類を増やしたときには、それ
に合せてマスク数を増やせば良い。
Next, the learning situation and the recognition ability will be examined according to the mask type, that is, the number of slabs. First, the ring-shaped mask used in the present invention is prepared as follows. That is, x
A circle having the same size as the input image to be converted from the -y coordinate system to the r-? Coordinate system is divided into four in the radial direction, and this ring-shaped area is arbitrarily covered with a uniform random number or the like. The number of slabs examined here is six, 2, 4, 6, 8, 10, and 12.
In FIG. 6, the number of presentations is 3 for these six slab numbers.
The learning status of the neural network up to 10,000 times is shown. The horizontal axis represents the number of times teacher data is presented, and the vertical axis represents the squared error. As shown in FIG. 6, when the number of slabs is “2”, learning does not converge and pattern separation is impossible. When the number of slabs is "4", the learning of the neural network shows a convergence tendency to some extent, but the error curve is oscillating. In this case, the learning was further continued up to 60,000 times, but the squared error did not become 1.0 or less. The number of slabs is "6"
In the above case, it is shown from FIG. 6 that the learning converges. Also, in the case where the alphabets A to L are recognized using this weight, the recognition ability is almost the same even in the neuro element corresponding to the determination pattern of the output layer when the number of slabs is "6" or more. It was found that it is possible to obtain an output value sufficient for pattern recognition. Therefore, in order to recognize the letters of the alphabet (A to L), it is possible to recognize if the number of mask types is 6 or more, and it is sufficient to set the number of slabs to 6 in the input layer of the separation calculation unit 5.
Compared to the conventional input pixel 64 (= 8 × 8) input to the input layer, the number of neuro elements can be extremely reduced, and the separation calculation unit 5 can be simplified accordingly. Also, when the number of characters or types to be recognized is increased, the number of masks may be increased accordingly.

【0016】次に、マスクの被覆領域に基づいて学習状
況と認識能力を検討する。まず、被覆領域の変更は乱数
の変動幅により行なう。つまり、乱数の幅[−1,1]
を基準にし、被覆領域の増加方向にそれぞれ、乱数の幅
を[−2,1],[−3,1],[−4,1]とし、被
覆領域の減少方向に乱数の幅を[−1,1],[−1,
3],[−1,4]として乱数を発生させる。ただし、
スラブ数は“6”とする。図14は乱数の幅を変化させ
た場合、提示回数が30,000回に到るまでの学習状
況を示している。横軸及び縦軸は図6と同様である。図
7から学習はマスクの被覆領域にあまり依存しないこと
が明らかとなった。また、認識能力もマスクの被覆領域
にあまり依存しないことが明らかとなった。従って、各
マスクの被覆領域についてはあまり注意を払わずに、あ
る程度無作為に被覆領域を選定し、マスクの種類を考慮
すれば良い。
Next, the learning situation and the recognition ability will be examined based on the covering area of the mask. First, the coverage area is changed by the fluctuation range of random numbers. That is, the width of the random number [-1, 1]
, The random number widths are [−2,1], [−3,1], and [−4,1] in the increasing direction of the covered area, and the random number width is [−, 1] in the decreasing direction of the covering area. 1, 1], [-1,
Random numbers are generated as 3] and [-1, 4]. However,
The number of slabs is “6”. FIG. 14 shows the learning situation when the number of presentations reaches 30,000 when the random number width is changed. The horizontal axis and the vertical axis are the same as in FIG. It is clear from FIG. 7 that learning does not depend so much on the masked area. It was also found that the recognition ability does not depend much on the masked area. Therefore, it suffices to select the covering region randomly to some extent and consider the mask type without paying much attention to the covering region of each mask.

【0017】次に、上述の前処理部4で前処理された情
報を入力して分離演算を行なう分離演算部5について説
明する。階層構造の分離演算部5は、大別すると入力
層,隠れ層,出力層の3つから成っている。入力層は、
前処理部4からの各マスクの種類に一対一に対応するよ
うにニューロ素子が設けられており、各マスク種類によ
り前処理されたスラブ値(マスク処理された後の画素数
の総和)と対応するニューロ素子に入力する。隠れ層は
少なくとも1つのニューロ素子の層から成り、入力層の
情報を分離演算して出力層に伝達する役割を果たしてい
る。この隠れ層が多くなればそれだけ、入力層の各ニュ
ーロ素子の情報の変動に対しても不変に各パターンの各
々に分離して演算することが可能となる。出力層は、識
別すべきカテゴリーに一対一に対応するようにニューロ
素子が設けられている。例えばA〜Zのアルファベット
の文字を認識するときには、出力層のニューロ素子が上
から順にA〜Zに対応しており、該当するニューロ素子
が1に最も近い値(最大値)を出力し、他のニューロ素
子は0に近い値を出力する。Aの文字と認識されたとき
には、出力層の最上位のニューロ素子が最大値を出力す
る。同様に上述の紙幣識別の際には、出力層のニューロ
素子が上から順に万円(表右方向),万円(表左方
向),万円(裏右方向),万円(裏左方向),五千円
(表右方向)………千円(裏左方向)というように、1
2のニューロ素子が一対一に対応している。そして、こ
の入力層から出力層までのニューロ素子どうしを接続し
信号を受け渡す機構をシナプスという。シナプスは、ニ
ューロ素子どうしの結合の強さを重み係数で記憶してい
る。1つのニューロ素子は、シナプスを通じ前段の層の
複数のニューロ素子から信号を受取り、経由してきたシ
ナプスが持つ重みを乗算して入力値とする。ニューロ素
子はそれが結合している全てのニューロ素子からの信号
を受取ると、入力値の総和をとる。総和の値が予めニュ
ーロ素子に設定した閾値を越えるとニューロ素子が“発
火”し、次の後段の層のニューロ素子に出力信号を送
り、この処理を繰返して出力層から情報を出力する。こ
の各々のシナプスの重みは識別対象に対応して、予めバ
ックプロバゲーション法による学習により決定されてい
る。その方法は、すでに述べた数1によって行なわれ
る。
Next, a description will be given of the separation calculation unit 5 which inputs the information preprocessed by the preprocessing unit 4 and performs the separation calculation. The separation operation unit 5 having a hierarchical structure is roughly divided into an input layer, a hidden layer, and an output layer. The input layer is
Neuro elements are provided so as to correspond one-to-one to each mask type from the pre-processing unit 4, and correspond to slab values pre-processed by each mask type (total number of pixels after mask processing). Input to the neuro element. The hidden layer is composed of at least one neuron layer, and plays a role of separating and calculating the information of the input layer and transmitting it to the output layer. As the number of hidden layers increases, it becomes possible to perform the calculation separately for each pattern invariantly with respect to the fluctuation of information of each neuro element of the input layer. The output layer is provided with neuro elements so as to correspond one-to-one to the category to be identified. For example, when recognizing the letters AZ, the neuro elements in the output layer correspond to AZ in order from the top, and the corresponding neuro element outputs a value (maximum value) closest to 1, and The neuro element of outputs a value close to 0. When the character A is recognized, the highest neuro element in the output layer outputs the maximum value. Similarly, in the above bill identification, the neuro elements of the output layer are sequentially arranged from the top in the order of 10,000 yen (front right direction), 10,000 yen (front left direction), 10,000 yen (back right direction), 10,000 yen (back left direction). ), 5,000 yen (to the right of the table) ……… 1,000 yen (to the left of the back), 1
The two neuro elements correspond one to one. The mechanism that connects the neuro elements from the input layer to the output layer and transfers signals is called a synapse. The synapse stores the strength of the coupling between the neuro elements as a weight coefficient. One neuro element receives a signal from a plurality of neuro elements in the preceding layer through a synapse, and multiplies the weight of the synapse that has passed through it as an input value. The neuro element sums the input values when it receives the signals from all the neuro elements to which it is coupled. When the total value exceeds the threshold value set in advance for the neuro element, the neuro element "fires", sends an output signal to the neuro element of the next subsequent layer, and repeats this process to output information from the output layer. The weight of each synapse is determined in advance by learning by the back propagation method, corresponding to the identification target. The method is performed by the above-mentioned equation 1.

【0018】次に判別部6について説明する。判別部6
は、分離演算部5の出力層から出力される情報を入力
し、その中から最大値(最小値とするようにしても良
い)を判別し、その最大値のニューロ素子に対応するカ
デゴリーと判別する。例えば、出力層のニューロ素子が
上からA〜Zのカデゴリーに対応している場合に、最上
位のニューロ素子から最大値の出力が出ていれば“A”
であると判別する。なお、上記実施例では入力画像を一
旦x−y座標系からr−θ座標系に変換して処理を行う
ようにしているが、この座標変換を省略して直接x−y
座標系での処理も可能である。特に、分解能の高い入力
画像の場合はr−θ座標系に変換する必要性は少なく、
x−y座標系のままリング状のマスク処理を行い得る。
また、上記実施例では、分離演算部5と判別部6とを別
々のハードウェアで構成しているが、1つのもので構成
して同様の処理をソフトプログラムで行うこともでき
る。
Next, the discrimination section 6 will be described. Discriminator 6
Inputs the information output from the output layer of the separation calculation unit 5, discriminates the maximum value (may be set to the minimum value) from the information, and discriminates it as the cadegory corresponding to the neuro element having the maximum value. To do. For example, if the neuro elements in the output layer correspond to the caddies from A to Z from the top, and if the highest neuro element outputs the maximum value, "A"
It is determined that In the above embodiment, the input image is temporarily converted from the xy coordinate system to the r-θ coordinate system for processing, but this coordinate conversion is omitted and the xy coordinate system is directly processed.
Processing in the coordinate system is also possible. Especially in the case of an input image with high resolution, there is little need to convert to the r-θ coordinate system,
A ring-shaped masking process can be performed with the xy coordinate system unchanged.
Further, in the above-described embodiment, the separation calculation unit 5 and the determination unit 6 are configured by separate hardware, but they can be configured by one and the same processing can be performed by a software program.

【0019】[0019]

【発明の効果】以上のように本発明のパターン認識装置
によれば、ニューラルネットワークを用いての学習機能
により必要な識別アルゴリズムを自己形成することがで
きる。また、本発明によれば前処理部にリング状マスク
を用いて画像代表値(スラブ値)を求めているので、ニ
ューラルネットの構成が小規模となり、制御装置が小規
模となる。また、ニューラルネットが非線形素子を含む
ので、画像データの濃淡方向の変動に対して認識性能が
劣化しにくくなる利点がある。本発明による認識能力を
考察するために、“A”から“L”のアルファベットの
2値画像を用いて従来手法と比較検討する。従来のアル
ゴリズムの構成は本発明と同様に3層構造である。しか
しながら、入力層のユニット数は入力画素数と同じ64
(=8×8)である。また、隠れ層のユニット数は32
であり、出力層のユニット数は判定パターンと同じ12
とする。ただし、従来のアルゴリズムでは隠れ層のユニ
ット数をその認識能力とユニット数を考慮して種々の実
験により決定した。本発明と従来のアルゴリズムにおい
て2乗誤差が0.01になるまで学習させたときの提示
回数は、前者が61,983回であり、後者が978回
であった。ただし、前者に対してはε=0.01,α=
0.9,β=−0.1として、後者に対してはε=0.
1,α=0.9,β=−0.1として学習を行なった。
また、両アルゴリズムにより上述の重みを用いて学習に
用いたデータを再度認識させた場合、その鑑別率ESは
いずれも100%であった。ここで、本発明の重みの個
数は8×8+8×12=160であり、一方、従来のア
ルゴリズムの重みの個数は64×32+32×12=
2,432であった。これらのことにより、本発明は収
束に時間を要するが、認識能力を損なうことなくニュー
ラルネットの規模が縮小できることが明らかになった。
As described above, according to the pattern recognition apparatus of the present invention, the necessary identification algorithm can be self-formed by the learning function using the neural network. Further, according to the present invention, since the image representative value (slab value) is obtained by using the ring-shaped mask in the preprocessing unit, the configuration of the neural network becomes small and the control device becomes small. Further, since the neural network includes the non-linear element, there is an advantage that the recognition performance is less likely to deteriorate with respect to variations in the image data in the light and shade direction. In order to consider the recognition ability according to the present invention, a comparison is made with the conventional method using a binary image of alphabets from "A" to "L". The conventional algorithm has a three-layer structure as in the present invention. However, the number of units in the input layer is 64, which is the same as the number of input pixels.
(= 8 × 8). The number of hidden layer units is 32.
And the number of units in the output layer is the same as the judgment pattern, 12
And However, in the conventional algorithm, the number of hidden layer units was determined by various experiments in consideration of the recognition ability and the number of units. In the present invention and the conventional algorithm, the number of presentations when learning was performed until the squared error became 0.01 was 61,983 times and the latter was 978 times. However, for the former, ε = 0.01 and α =
0.9, β = −0.1, and ε = 0.
Learning was performed with 1, α = 0.9 and β = −0.1.
Moreover, when the data used for learning was recognized again by using the above-mentioned weights by both algorithms, the discrimination rate ES was 100% in all cases. Here, the number of weights of the present invention is 8 × 8 + 8 × 12 = 160, while the number of weights of the conventional algorithm is 64 × 32 + 32 × 12 =
It was 2,432. From these, it was revealed that although the present invention takes time to converge, the scale of the neural network can be reduced without impairing the recognition ability.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による硬貨識別装置の構成例を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration example of a coin identifying device according to the present invention.

【図2】本発明に用いるスラブ値を説明するための図で
ある。
FIG. 2 is a diagram for explaining a slab value used in the present invention.

【図3】本発明に用いるスラブ値を説明するための図で
ある。
FIG. 3 is a diagram for explaining a slab value used in the present invention.

【図4】本発明に用いるリング状マスクを説明するため
の図である。
FIG. 4 is a diagram for explaining a ring-shaped mask used in the present invention.

【図5】リング状マスクの効果を説明するための図であ
る。
FIG. 5 is a diagram for explaining the effect of a ring-shaped mask.

【図6】種々のスラブ数に対する学習状況を示す図であ
る。
FIG. 6 is a diagram showing a learning situation for various slab numbers.

【図7】マスクの種々の被覆領域に対する学習状況を示
す図である。
FIG. 7 is a diagram showing a learning situation for various covering areas of a mask.

【符号の説明】[Explanation of symbols]

1 硬貨 2 イメージセンサ 3 入力画像 4 前処理部 5 分離演算部 6 判定部 1 coin 2 image sensor 3 input image 4 pre-processing unit 5 separation calculation unit 6 determination unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G06K 9/66 9289−5L G07D 5/00 9340−3E ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Internal reference number FI Technical display location G06K 9/66 9289-5L G07D 5/00 9340-3E

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 認識すべき対象物のパターン画像を光学
的又は磁気的に計測するセンサと、多数の小区画を有す
ると共に、前記小区画のリング状領域の部分を被覆した
複数のリング状マスクを用いて、前記センサで計測した
パターン画像データを複数の画像代表値に変換する前処
理部と、前記複数の画像代表値を並列入力し、予め判定
パターン分類に最適に調整された重みにより、前記パタ
ーン画像の判定パターン毎に分離演算値を算出する分離
演算部と、前記分離演算値の中で最大値又は最小値を有
する判定パターンを前記対象物のパターン画像として判
定出力する判定部とを具備したことを特徴とするパター
ン認識装置。
1. A sensor for optically or magnetically measuring a pattern image of an object to be recognized, and a plurality of ring-shaped masks having a large number of small sections and covering a ring-shaped region of the small sections. By using a pre-processing unit that converts the pattern image data measured by the sensor into a plurality of image representative values, and the plurality of image representative values are input in parallel, the weights optimally adjusted to the determination pattern classification in advance, A separation calculation unit that calculates a separation calculation value for each judgment pattern of the pattern image, and a judgment unit that judges and outputs a judgment pattern having a maximum value or a minimum value among the separation calculation values as a pattern image of the object. A pattern recognition device characterized by being provided.
【請求項2】 前記対象物が硬貨である請求項1に記載
のパターン認識装置。
2. The pattern recognition device according to claim 1, wherein the object is a coin.
JP4152699A 1992-05-20 1992-05-20 Pattern recognizing device Pending JPH05324839A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4152699A JPH05324839A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4152699A JPH05324839A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Publications (1)

Publication Number Publication Date
JPH05324839A true JPH05324839A (en) 1993-12-10

Family

ID=15546216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4152699A Pending JPH05324839A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Country Status (1)

Country Link
JP (1) JPH05324839A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289125B1 (en) 1994-01-20 2001-09-11 Omron Corporation Image processing device and method for indentifying an input image, and copier scanner and printer including same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289125B1 (en) 1994-01-20 2001-09-11 Omron Corporation Image processing device and method for indentifying an input image, and copier scanner and printer including same

Similar Documents

Publication Publication Date Title
US5542006A (en) Neural network based character position detector for use in optical character recognition
Aoba et al. Euro banknote recognition system using a three-layered perceptron and RBF networks
EP0737946A2 (en) Method and apparatus for the classification of an article
US5995953A (en) Method for verification of signatures and handwriting based on comparison of extracted features
Jain et al. Knowledge-based intelligent techniques in character recognition
Sargano et al. An intelligent system for paper currency recognition with robust features
Kancharla et al. Handwritten signature recognition: a convolutional neural network approach
Bird et al. Writer-independent signature verification; Evaluation of robotic and generative adversarial attacks
Arısoy Signature verification using siamese neural network one-shot learning
JP2001331839A (en) Method and device for discriminating paper money
JPH05324839A (en) Pattern recognizing device
Al-Gawda et al. Yemeni mobile counterfeit detection system using support vector machines, fuzzy logic and image processing techniques
JP3332952B2 (en) Coin identification device
JPH05324838A (en) Pattern recognizing device
Pawar A survey on signature verification approaches
Shiraishi et al. Classification system with capability to reject unknowns
Alsuhimat et al. Offline signature recognition via convolutional neural network and multiple classifiers
Nastoulis et al. Banknote recognition based on probabilistic neural network models.
JPH05324837A (en) Pattern recognizing device
Shabbir et al. Offline signature verification using feature learning and one-class classification
Shekar et al. Offline Signature verification using CNN and SVM classifier
JP3168214B2 (en) Money identification method and device
Darwish et al. Distance and fuzzy classifiers alliance: The solution to off-line Arabic signature verification system for forensic science
Kara et al. Detection of Fake Indian Currency Using Deep Convolutional Neural Network
Kim et al. Recognition of passports using FCM-based RBF network