JPH05324837A - Pattern recognizing device - Google Patents

Pattern recognizing device

Info

Publication number
JPH05324837A
JPH05324837A JP4152693A JP15269392A JPH05324837A JP H05324837 A JPH05324837 A JP H05324837A JP 4152693 A JP4152693 A JP 4152693A JP 15269392 A JP15269392 A JP 15269392A JP H05324837 A JPH05324837 A JP H05324837A
Authority
JP
Japan
Prior art keywords
pattern
rod
image
value
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4152693A
Other languages
Japanese (ja)
Inventor
Shigeru Daimatsu
繁 大松
Fumiaki Takeda
史章 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP4152693A priority Critical patent/JPH05324837A/en
Publication of JPH05324837A publication Critical patent/JPH05324837A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the pattern recognizing device which performs pattern recognition for paper money, etc., by a small-scale neural network without reference to an up-down or right-left position shift by reducing pattern image data measured by a sensor by using plural rod type masks. CONSTITUTION:This pattern recognizing device is provided with the sensor 2 which measures a pattern image of an object 1, a preprocessing part 4 which obtains plural image representative values (slab value) for the object 1 by the rod type masks 41-4n, a separate arithmetic part (neural network) 5 which calculates separate arithmetic values every decision patterns by using a weight coefficient, and a decision part 6 which decides the pattern image of the object 1 from the separate arithmetic values. The weight coefficient is previously learnt with a teacher by the neural network, so the object 1 can securely be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クによって貨幣(硬貨、紙幣)、文字等のパターンを認
識する装置に関し、特に棒状マスクを用いて被覆するこ
とにより、パターン画像の位置ずれに不変でかつパター
ン画像データを縮小化して効率良く分離演算するように
したパターン認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for recognizing patterns of coins (coins, banknotes), characters, etc. by a neural network, and in particular, by covering with a rod-shaped mask, it is possible to keep the positional deviation of the pattern image unchanged. In addition, the present invention relates to a pattern recognition device that reduces the size of pattern image data and efficiently performs separation calculation.

【0002】[0002]

【従来の技術】従来、貨幣,文字等のパターンを認識す
るのにニューラルネットワークを用いたものとしては、
図12に示すようなものがある。図12の認識装置は、
被識別対象1の文字等をイメージセンサ2で読取って入
力画像3を得る。図12の入力画像3の場合、縦,横各
8分割なので、D(i.j)(但しi=1〜8、j=1
〜8)の64画素の入力情報として取得する。そして、
この64個の各画素データを分離演算部5に直接入力す
る。このとき、分離演算部5の入力層のニューロ素子
は、各画素に対応した64個が必要となる。そして、こ
の入力情報に基づいてニューラルネットワークを用いて
パターンの認識を行なうようになっている。
2. Description of the Related Art Conventionally, a neural network for recognizing patterns such as currency and characters is as follows.
There is one as shown in FIG. The recognition device of FIG.
The input image 3 is obtained by reading the characters or the like of the identification target 1 with the image sensor 2. In the case of the input image 3 in FIG. 12, since it is divided into eight vertically and horizontally, D (i.j) (where i = 1 to 8 and j = 1
8 to 64) as input information of 64 pixels. And
The 64 pieces of pixel data are directly input to the separation calculation unit 5. At this time, 64 neuro elements corresponding to each pixel are required as the neuro elements in the input layer of the separation calculation unit 5. Then, a pattern is recognized using a neural network based on this input information.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来の認識装置では、分離演算部5に入力する情報数が入
力画像3の画素数だけ必要であるため、入力層のニュー
ロ素子も画素数と同じ数が必要となってくる。従って、
多数のニューロ素子を有する入力層を設けなければなら
ず、それに対応して隠れ層も多数のニューロ素子を設け
る必要があり、結局、非常に大がかりな分離演算部5を
用いなければパターン認識を行ない得なかった。
However, in such a conventional recognition device, since the number of pieces of information to be input to the separation calculation unit 5 is the same as the number of pixels of the input image 3, the neuro element of the input layer also has the number of pixels. Will need the same number as. Therefore,
It is necessary to provide an input layer having a large number of neuro elements, and correspondingly, a large number of neuro elements must be provided in the hidden layer as well, and eventually pattern recognition is performed unless a very large-scale separation operation unit 5 is used. I didn't get it.

【0004】本発明は上述の如き事情よりなされたもの
であり、本発明の目的は、分離演算部の入力層に入力す
る入力情報数(以下、スラブ数という)の数を減少させ
ても、確実にパターンの認識を行ない得るようにして、
分離演算部の縮小化を実現すると共に、位置ずれが生じ
ても確実に認識可能なパターン認識装置を提供すること
にある。
The present invention has been made under the circumstances as described above, and an object of the present invention is to reduce the number of input information (hereinafter referred to as slab number) input to the input layer of the separation calculation unit. Make sure you can recognize the pattern,
It is an object of the present invention to provide a pattern recognition device that can realize a reduction in size of a separation calculation unit and can reliably recognize a positional deviation.

【0005】[0005]

【課題を解決するための手段】本発明はパターン認識装
置に関するもので、本発明の上記目的は、認識すべき対
象物のパターン画像を光学的又は磁気的に計測するセン
サと、多数の矩形状小区画を有すると共に、前記矩形状
小区画の棒状領域を被覆した複数の棒状マスクを用い
て、前記センサで計測したパターン画像データを複数の
画像代表値に変換する前処理部と、前記複数の画像代表
値を並列入力し、予め判定パターン分類に最適に調整さ
れた重みにより、前記パターン画像の判定パターン毎に
分離演算値を算出する分離演算部と、前記分離演算値の
中で最大値又は最小値を有する判定パターンを前記対象
物のパターン画像として判定出力する判定部とを具備す
ることによって達成される。
DISCLOSURE OF THE INVENTION The present invention relates to a pattern recognition device, and an object of the present invention is to provide a sensor for optically or magnetically measuring a pattern image of an object to be recognized and a large number of rectangular shapes. With a plurality of rod-shaped masks that cover the rod-shaped area of the rectangular small partition with a small section, a pre-processing unit that converts the pattern image data measured by the sensor into a plurality of image representative values, and the plurality of An image representative value is input in parallel, and a separation calculation unit that calculates a separation calculation value for each judgment pattern of the pattern image by a weight optimally adjusted in advance for the judgment pattern classification, and a maximum value among the separation calculation values or This is achieved by including a determination unit that determines and outputs the determination pattern having the minimum value as the pattern image of the object.

【0006】[0006]

【作用】本発明では、学習機能を有するニューラルネッ
トワークによって貨幣等のパターン認識を行なうと共
に、センサで光学的又は磁気的に計測されたパターン画
像データを複数の棒状マスクを用いて縮小化し、複数の
画像代表値を得る。棒状マスクは多数の矩形状小区画を
有し、矩形状小区画の棒状領域の複数個が被覆される。
このような棒状マスクで縮小化された画像代表値は、パ
ターン画像の位置ずれに不変であり分離演算部(ニュー
ラルネットワーク)に入力され、予め判定パターン分類
に最適に調整された重みにより、パターン画像の判定パ
ターン毎に分離演算値が算出される。分離演算値の最大
値(又は最小値)に従って、パターン画像を判定するよ
うになっている。これにより、ニューラルネットワーク
の構成が小規模になると共に、制御装置が小規模とな
る。
According to the present invention, pattern recognition of currency or the like is performed by a neural network having a learning function, and pattern image data optically or magnetically measured by a sensor is reduced by using a plurality of rod-shaped masks. Obtain the image representative value. The rod-shaped mask has a large number of rectangular small sections, and a plurality of rod-shaped regions of the rectangular small sections are covered.
The image representative value reduced by such a rod-shaped mask is invariable to the positional deviation of the pattern image and is input to the separation calculation unit (neural network), and the pattern image is adjusted by the weight optimally adjusted for the judgment pattern classification in advance. The separation calculation value is calculated for each of the determination patterns of. The pattern image is determined according to the maximum value (or the minimum value) of the separation calculation values. As a result, the structure of the neural network becomes small and the control device becomes small.

【0007】[0007]

【実施例】本発明はニューラルネットワークで貨幣等の
パターン認識を行なう場合、従来は認識装置のセンサか
ら得られる情報を直接ニューラルネットワークに入力し
ていた。このため、ニューラルネットワークでは、得ら
れる入力情報の全てに対して情報伝達の重みを持たなけ
ればならず、その規模も大きくなっていた。このため、
本発明では入力情報を縮小化するための複数の棒状マス
クを前処理部に設け、それぞれの棒状マスクから画像代
表値(スラブ値)を得るようにする。棒状マスクは多数
の矩形状小区画を有し、水平方向又は数垂直方向に対し
て棒状の領域が複数個被覆された構造を有している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present invention, when pattern recognition of currency or the like is performed by a neural network, information obtained from a sensor of a recognition device has been directly input to the neural network. Therefore, in the neural network, the weight of information transmission must be given to all of the obtained input information, and the scale thereof is also large. For this reason,
In the present invention, a plurality of rod-shaped masks for reducing the input information are provided in the preprocessing unit, and the image representative value (slab value) is obtained from each rod-shaped mask. The rod-shaped mask has a large number of rectangular small sections, and has a structure in which a plurality of rod-shaped regions are covered in the horizontal direction or several vertical directions.

【0008】以下、本発明の実施例を図面を参照して説
明する。図1は本発明の貨幣識別装置の構成例を示すブ
ロック図であり、認識対象の紙幣1はCCD等で成るイ
メージセンサ2で計測され、適宜画像処理されて入力画
像3が得られる。入力画像3は前処理部4内のマスク4
1〜4nに入力され、各マスク41〜4nからの総和値
が演算されて画像代表値SB1〜SBnが得られる。画
像代表値SB1〜SBnはニューラルネットワークの分
離演算部5に入力され、予め判定用紙幣のパターン分類
に最適に調整された重みにより分離演算値SPが算出さ
れる。分離演算値SPは判定部6に入力され、分離演算
値SPの中で最大値(又は最小値)を有するパターンが
対象物の紙幣1のパターン画像として出力される。前処
理部4内のマスク41〜4nは複数個の矩形状小区画を
有し、小区画の垂直方向或いは水平方向への棒状領域が
例えば一様乱数でランダムに被覆された棒状領域のマス
クであり、それぞれが異なる棒状領域について被覆され
ている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a currency identifying device of the present invention. A banknote 1 to be recognized is measured by an image sensor 2 composed of a CCD or the like, and an image is appropriately processed to obtain an input image 3. The input image 3 is the mask 4 in the preprocessing unit 4.
1 to 4n, the sum values from the masks 41 to 4n are calculated, and the image representative values SB1 to SBn are obtained. The image representative values SB1 to SBn are input to the separation calculation unit 5 of the neural network, and the separation calculation value SP is calculated by the weight optimally adjusted in advance for the pattern classification of the judgment bill. The separation calculation value SP is input to the determination unit 6, and the pattern having the maximum value (or the minimum value) in the separation calculation value SP is output as the pattern image of the bill 1 of the object. The masks 41 to 4n in the pre-processing unit 4 have a plurality of rectangular sub-sections, and the bar-shaped areas in the vertical or horizontal direction of the sub-sections are masks of bar-shaped areas randomly coated with, for example, uniform random numbers. Yes, each is coated for a different rod-shaped area.

【0009】まず、棒状マスクを用いた前処理部4につ
いて説明する。本発明で棒状マスク41〜4nを用いる
理由は、次のことによる。図2に示すように8×8のマ
トリックス上の“0”と“1”の2値画像において、画
像の特徴量として画素値の総和であるスラブ値(図1の
場合では2値画像の“1”の数)を用いた場合、図2
(A)では文字“E”を特徴づける値として“14”が
得られ、同図(B)では文字“H”を特徴づける値とし
て“12”が得られる。従って、スラブ値を用いること
によって“E”と“H”が分離可能となる。しかしなが
ら、異なるパターンを有する画像でもスラブ値が等しく
なる場合が存在する。例えば、図3(A)では文字
“F”のスラブ値は“10”であるが、同図(B)の文
字“K”のスラブ値も“10”であり、分離不可能とな
る。このような問題に対しては、図4(C)に示すよう
な入力画像の画素に対応する特定の棒状領域が被覆され
た棒状マスクを導入することにより解決できる。図4
(C)のマスクで図3(A)の画像を覆うと図4(A)
に示す画像となり、この場合のスラブ値は“8”とな
る。一方、図4(C)のマスクで図3(B)の画像を覆
うと図4(B)に示す画像となり、スラブ値は“9”と
なる。このように棒状マスクを導入することにより、
“F”と“K”も分離可能となる。そこで、このように
種々の画像を分離するために、図4(C)に示すような
予めマスク内の複数の棒状の被覆される部分の位置を選
定しておく。この場合、ただ一つのこのようなマスクに
よって、種々の画像を分離できるスラブ値を生成する確
率は極めて小さい。しかしながら、前述のように異なる
種々のマスクを使用することによって、同じ画像でも異
なるスラブ値列を得ることができる。このスラブ値列の
いずれかが画像間で異なることが多く、種々の棒状マス
クを利用することによって、画像間の分離能力を確率的
に高めることが可能である。なお、上述の複数の異なる
棒状マスクを使用することは、次のような物理的な意味
を有している。つまり、3次元物体を他方向から視点を
変えて観測する場合、同一の対象でも異なる情報を得る
ことができる。これと同様に、種々のマスクを用いるこ
とは2次元平面内で視点を変えて画像を観測することに
なり、前述のように同一の画像でも異なる情報を生成す
ることが可能となる。この場合、前処理で入力画像が種
々の異なる棒状マスクで覆われ、被覆されない画素の総
和がそれぞれに対応したスラブ値SB1〜SBnとな
り、入力層のニューロ素子と一対一に対応している。さ
らに、出力層のユニット値は判定パターンに対応してい
る。
First, the pretreatment section 4 using a rod-shaped mask will be described. The reason why the rod-shaped masks 41 to 4n are used in the present invention is as follows. As shown in FIG. 2, in a binary image of “0” and “1” on an 8 × 8 matrix, a slab value that is the sum of pixel values as a feature amount of the image (in the case of FIG. If the number of 1 ") is used, FIG.
"A" is obtained as a value characterizing the character "E" in (A), and "12" is obtained as a value characterizing the character "H" in FIG. Therefore, "E" and "H" can be separated by using the slab value. However, there are cases where the slab values are the same even in images having different patterns. For example, in FIG. 3A, the slab value of the character "F" is "10", but the slab value of the character "K" in FIG. 3B is also "10", and the characters cannot be separated. Such a problem can be solved by introducing a rod-shaped mask in which a specific rod-shaped region corresponding to a pixel of the input image as shown in FIG. 4C is covered. Figure 4
When the image in FIG. 3A is covered with the mask in FIG.
In this case, the slab value is "8". On the other hand, when the image of FIG. 3 (B) is covered with the mask of FIG. 4 (C), the image shown in FIG. 4 (B) is obtained, and the slab value is “9”. By introducing a rod-shaped mask in this way,
"F" and "K" can also be separated. Therefore, in order to separate various images in this manner, the positions of a plurality of rod-shaped covered portions in the mask as shown in FIG. 4C are selected in advance. In this case, the probability of producing slab values that can separate different images with only one such mask is extremely small. However, different slab value sequences can be obtained in the same image by using different masks as described above. It is often the case that one of the slab value sequences differs between images, and by using various rod-shaped masks, it is possible to stochastically enhance the separation capability between images. The use of the plurality of different rod-shaped masks described above has the following physical meaning. That is, when observing a three-dimensional object while changing the viewpoint from another direction, different information can be obtained even for the same target. Similarly, the use of various masks changes the viewpoint in the two-dimensional plane to observe the image, and as described above, different information can be generated even in the same image. In this case, the input image is covered by various different rod-shaped masks in the pre-processing, and the sum of the pixels not covered becomes the corresponding slab values SB1 to SBn, which correspond to the neuro elements of the input layer one to one. Further, the unit value of the output layer corresponds to the judgment pattern.

【0010】図5は、マスク41〜4nの如き垂直方向
の棒状マスクの効果を示しており、同図(A)の下移動
入力画像と同図(B)の上移動入力画像に対して同一な
スラブ値“5”を得ることができ、入力画像が上下の垂
直方向ずれを生じても不変なスラブ値を得ることができ
る。図6は水平方向の棒状マスクの効果を示しており、
同図(A)の左移動入力画像と同図(B)の右移動入力
画像に対して同一なスラブ値“6”を得ることができ、
入力画像が左右の水平方向ずれを生じても不変なスラブ
値を得ることができる。図7は垂直方向の棒状マスク4
A1〜4Anを有する前処理部4Aと、水平方向の棒状
マスク4B1〜4Bnを有する前処理部4Bとを設けた
貨幣識別装置の例を示している。
FIG. 5 shows the effect of vertical bar masks such as the masks 41 to 4n, which are the same for the downward movement input image of FIG. 5A and the upward movement input image of FIG. It is possible to obtain a slab value of "5", and it is possible to obtain a slab value that does not change even if the input image is vertically displaced in the vertical direction. Figure 6 shows the effect of a horizontal bar mask,
The same slab value “6” can be obtained for the left-moving input image of FIG. 11A and the right-moving input image of FIG.
It is possible to obtain an invariable slab value even if the input image is horizontally shifted from side to side. FIG. 7 shows a vertical bar mask 4
It shows an example of a currency identification device provided with a preprocessing unit 4A having A1 to 4An and a preprocessing unit 4B having horizontal bar masks 4B1 to 4Bn.

【0011】次に、認識の際には予め選定してある上記
棒状マスクの種類数、内容についての適性及びその選定
上の留意点を説明する。前処理部4(4A,4B)では
マスクの種類41〜4nとそのマスク41〜4n(4A
1〜4An、4B1〜4Bn)内の被覆領域がパラメー
タとして考えられる。ここでは、8×8のマトリックス
上に描かれたアルファベットA〜Lの12個の2値画像
を用いてパラメータ探索を行ない、本発明の認識能力を
検討する。ただし、ニューラルネットワークの学習アル
ゴリズムは、次の数1で与えられるバックプロパゲーシ
ョン法を用いる。
Next, at the time of recognition, the number of types of the rod-shaped masks selected in advance, suitability for the contents, and points to be noted in the selection will be described. In the preprocessing unit 4 (4A, 4B), the mask types 41 to 4n and the masks 41 to 4n (4A
1 to 4An, 4B1 to 4Bn) are considered as parameters. Here, a parameter search is performed using 12 binary images of alphabets A to L drawn on an 8 × 8 matrix to examine the recognition ability of the present invention. However, the learning algorithm of the neural network uses the backpropagation method given by the following equation 1.

【数1】 また、重みの修正は、各パターンの提示毎に行なう。収
束判定は、各パターン毎に得られる出力層の値と教師値
との差の2乗の総和が収束判定誤差以下になった場合、
または提示回数が最大提示回数に達した場合としてい
る。ここで、提示回数とは、A〜Lの全てのパターンに
教師を提示した場合を1回として定義する。学習データ
はA〜Lまでをニューラルネットワークに逐次的に提示
する。さらに、認識能力の評価規範として次式で与えら
れる鑑別率ESを用いる。
[Equation 1] In addition, the weight is corrected every time each pattern is presented. The convergence judgment is performed when the sum of squares of the difference between the output layer value obtained for each pattern and the teacher value is equal to or smaller than the convergence judgment error.
Alternatively, the number of presentations reaches the maximum number of presentations. Here, the number of presentations is defined as one when the teacher is presented in all the patterns A to L. The learning data sequentially presents A to L to the neural network. Further, the discrimination rate ES given by the following equation is used as the evaluation standard of the cognitive ability.

【数2】ES=正しく認識された事象の個数/全事象の
評価個数×100
[Equation 2] ES = number of correctly recognized events / evaluated number of all events × 100

【0012】マスクの種類、つまりスラブ数により学習
状況と認識能力を検討する。まず、本発明で使用する棒
状マスクを次のように作成する。つまり、入力画像のマ
トリクスの行数或いは列数と同じ8の一様乱数を[−
1,1]の区間で発生し、その中で負の乱数値に対応す
る番号の行或いは列領域を被覆する。このような方法で
一様乱数の初期値を変えることにより、種々の棒状マス
クを作成する。ここで検討するスラブ数は、2,3,
4,5,6,7の6通りとする。図8は、これら6通り
のスラブ数に対する提示回数が30,000回に到るま
でのニューラルネットワークの学習状況を示している。
横軸は教師データの提示回数を示し、縦軸は2乗誤差を
示している。図8より、スラブ数が“2”の場合は明ら
かに学習が収束せず、パターン分離が不可能である。ス
ラブ数が“3”の場合は、ニューラルネットワークの学
習がある程度収束傾向を示しているが、誤差曲線は振動
的となっている。この場合、学習をさらに継続し、6
0,000回まで行なったが、2乗誤差は1.0以下に
はならなかった。スラブ数が“4”以上の場合は、図8
より学習が収束することが示された。また、この重みを
用いてアルファベットA〜Lまでを認識させた場合に対
して、出力層の判定パターンに対応するユニット値にお
いても、スラブ数が“4”以上の場合はその認識能力は
ほとんど同じであり、パターン認識に充分な出力値を得
ることが可能であることが分った。従って、アルファベ
ットの文字(A〜L)の認識についてはマスクの種類は
4以上あれば認識でき、分離演算部5の入力層にはスラ
ブ数として4以上とすれば足りる。従来の入力画素64
(=8×8)を入力層に入力するのと比較すれば、極端
にニューロ素子数を減少させることができ、それに伴っ
て分離演算部5を簡略化できる。また、認識すべき文字
数の種類を増やしたときには、それに合せてマスク数を
増やせば良い。
The learning situation and the recognition ability are examined according to the type of mask, that is, the number of slabs. First, the rod-shaped mask used in the present invention is prepared as follows. That is, a uniform random number of 8 which is the same as the number of rows or columns of the matrix of the input image is [-
, 1], and covers the row or column region of the number corresponding to the negative random number value therein. Various rod-shaped masks are created by changing the initial value of uniform random numbers by such a method. The number of slabs examined here is 2, 3,
There are 6 ways of 4, 5, 6, 7. FIG. 8 shows the learning state of the neural network until the number of presentations reaches 30,000 for these six slab numbers.
The horizontal axis represents the number of times teacher data is presented, and the vertical axis represents the squared error. As shown in FIG. 8, when the number of slabs is “2”, learning does not converge and pattern separation is impossible. When the number of slabs is "3", the learning of the neural network shows a convergence tendency to some extent, but the error curve is oscillating. In this case, continue learning, and
The operation was repeated up to 10,000 times, but the squared error did not fall below 1.0. If the number of slabs is "4" or more,
It was shown that the learning converged. Further, in the case where the alphabets A to L are recognized by using this weight, even in the unit value corresponding to the determination pattern of the output layer, the recognition ability is almost the same when the number of slabs is "4" or more. It was found that it is possible to obtain an output value sufficient for pattern recognition. Therefore, in order to recognize the letters of the alphabet (A to L), it is possible to recognize if the mask type is 4 or more, and it is sufficient for the input layer of the separation calculation unit 5 to have 4 or more slabs. Conventional input pixel 64
Compared with the case where (= 8 × 8) is input to the input layer, the number of neuro elements can be extremely reduced, and the separation calculation unit 5 can be simplified accordingly. When the number of characters to be recognized is increased, the number of masks may be increased accordingly.

【0013】次に、マスクの被覆領域に基づいて学習状
況と認識能力を説明する。まず、被覆領域の変更は乱数
の変動幅により行なう。つまり、乱数の幅[−1,1]
を基準にし、被覆領域の増加方向にそれぞれ、乱数の幅
を[−2,1],[−3,1],[−4,1]とし、被
覆領域の減少方向に乱数の幅を[−1,1],[−1,
3],[−1,4]として乱数を発生させる。ただし、
スラブ数は“4”とする。図9は乱数の幅を変化させた
場合、提示回数が30,000回に到るまでの学習状況
を示している。横軸及び縦軸は図8と同様である。図9
から学習はマスクの被覆領域にあまり依存しないことが
明らかとなった。また、認識能力もマスクの被覆領域に
あまり依存しないことが明らかとなった。従って、各棒
状マスクの被覆領域についてはあまり注意を払わずにあ
る程度無作為に被覆領域を選定し、マスクの種類を考慮
すれば良い。
Next, the learning situation and the recognition ability will be described based on the masked area. First, the coverage area is changed by the fluctuation range of random numbers. That is, the width of the random number [-1, 1]
, The random number widths are [−2,1], [−3,1], and [−4,1] in the increasing direction of the covered area, and the random number width is [−, 1] in the decreasing direction of the covering area. 1, 1], [-1,
Random numbers are generated as 3] and [-1, 4]. However,
The number of slabs is "4". FIG. 9 shows the learning situation when the number of presentations reaches 30,000 when the width of the random number is changed. The horizontal axis and the vertical axis are the same as in FIG. Figure 9
From this, it is clear that learning does not depend much on the masked area. It was also found that the recognition ability does not depend much on the masked area. Therefore, it suffices to select the covering region of each rod-shaped mask at random to some extent and pay attention to the mask type without paying much attention to the covering region of each rod-shaped mask.

【0014】上述のようなマスクを用いてのスラブ数の
削減は文字の場合に限らず、紙幣のような濃淡模様のパ
ターンについても可能である。0〜255の濃淡画像で
ある紙幣データを用いて、本発明の有効性を検証する。
ただし、ここで扱う紙幣データは図10に示すようなセ
ンサレイアウトから採取される時系列データであり、経
験的に紙幣の特徴を代表するものとなっている。図中の
点線の方形は個々のセンサが紙幣の搬送によりセンシン
グする領域を示している。ここでは、以下の2つの場合
について行なう。一つは紙幣時系列データ(以下、時系
列データとする)を本発明に入力する場合であり、もう
一つは時系列データをセンサ毎に次の数3でフーリエ変
換し、そのパワースペクトル(以下、フーリエパワース
ペクトルとする)を本発明に入力する場合である。
The number of slabs can be reduced by using the mask as described above not only in the case of characters but also in a light and shade pattern such as a bill. The effectiveness of the present invention is verified using the banknote data that is a grayscale image of 0 to 255.
However, the banknote data handled here is time-series data collected from a sensor layout as shown in FIG. 10, and is empirically representative of the characteristics of banknotes. The dotted rectangles in the figure indicate the areas where individual sensors sense by transporting banknotes. Here, the following two cases will be performed. One is the case of inputting time series data of banknotes (hereinafter referred to as time series data) to the present invention, and the other is Fourier transform of the time series data by the following equation 3 for each sensor, and the power spectrum ( Hereinafter, a Fourier power spectrum) is input to the present invention.

【数3】 なお、f(k)のフーリエ変換をF(n)、すなわち、
F(n)=A(n)+jB(n)とする。ここで、時系
列データのフーリエパワースペクトルを採用するのは次
の理由に基づいている。つまり、実験で扱った紙幣識別
機においても紙幣は8枚/秒以上で識別され、その搬送
速度は600mm/秒以上である。この識別装置により
採取されるデータは、紙幣の搬送による種々の誤差を含
んだものとなっており、特にサンプルずれによる誤差の
比重は大きいと予想される。したがって、時系列データ
のフーリエパワースペクトルを用いればこの誤差を除去
することができ、識別能力の向上につながるからであ
る。本発明の構成は、時系列データを用いる場合と、そ
のフーリエパワースペクトルを用いる場合のいずれに対
してもスラブ数を16とする。したがって、ニューラル
ネットワークの入力層のユニット数は16となり、また
隠れ層のユニット数は入力層と同じ16とする。出力層
のユニット値は判定パターンに対応し、その個数は12
である。これは、識別の対象を偽造紙幣を含まない真の
紙幣とし、1万円,五千円,千円の3金種の各々に対し
て、表正立,表倒立,裏倒立,裏正立の4搬送方向へ分
類することを意味している。なお、時系列データ及びフ
ーリエパワースペクトルを用いた場合のスラブ数の決定
は、種々の実験により学習の収束性とユニット数を考慮
して決定している。これらの条件下で紙幣識別を行なっ
た結果を図18に示す。ただし、図中でFFTデータは
フーリエパワースペクトルを意味している。図11から
明らかなように、時系列データ及びそのフーリエパワー
スペクトルを本発明へ適用した場合、どちらのデータに
おいても学習を2乗誤差が0.01になるまで収束させ
ることができた。ここで、図11の横軸及び縦軸は教師
の提示回数と2乗誤差をそれぞれ示している。また、こ
れらの重みを用いて学習データとは別の3金種4搬送方
向の合計12パターンの紙幣データ各10枚を識別した
場合、鑑別率ESはいずれも100%であった。
[Equation 3] The Fourier transform of f (k) is F (n), that is,
F (n) = A (n) + jB (n). Here, the reason why the Fourier power spectrum of the time series data is adopted is based on the following reason. That is, even in the bill validator handled in the experiment, bills are identified at 8 sheets / sec or more, and the transport speed is 600 mm / sec or more. The data collected by this identification device contains various errors due to the conveyance of banknotes, and it is expected that the weight of the errors due to sample deviation will be particularly large. Therefore, this error can be removed by using the Fourier power spectrum of the time-series data, which leads to improvement of the discrimination ability. In the configuration of the present invention, the number of slabs is 16 both when using time series data and when using its Fourier power spectrum. Therefore, the number of units in the input layer of the neural network is 16, and the number of units in the hidden layer is the same as that of the input layer. The unit value of the output layer corresponds to the judgment pattern, and the number is 12
Is. This is a true banknote that does not include counterfeit banknotes as the target of identification, and for each of the three denominations of 10,000 yen, 5,000 yen, and 1,000 yen, upright, upside down, upside down, upside down It means that it is classified into four conveyance directions. Note that the number of slabs when the time series data and the Fourier power spectrum are used is determined in consideration of the convergence of learning and the number of units by various experiments. FIG. 18 shows the result of bill identification performed under these conditions. However, in the figure, the FFT data means the Fourier power spectrum. As is apparent from FIG. 11, when time series data and its Fourier power spectrum were applied to the present invention, learning could be converged until the square error was 0.01 in both data. Here, the horizontal axis and the vertical axis in FIG. 11 represent the number of times the teacher has presented and the squared error, respectively. Further, when 10 pieces of banknote data each having a total of 12 patterns in 3 denominations and 4 conveyance directions different from the learning data were identified using these weights, the discrimination rate ES was 100% in all cases.

【0015】従って、紙幣の識別においてはマスクの種
類が16あれば確実に識別が可能であり、分離演算部5
の入力層にはスラブ数として16以上とすれば足りる。
従来の場合では図12の構成で、入力画素128(=4
×32)を入力層に入力していたのと比較すれば、極端
にニューロ素子数を減少させることができ、それに伴っ
て分離演算部を簡略化できる。なお、上述のスラブ数1
6の場合に限らずに、スラブ数を多少減らしても学習速
度が低下するが識別は可能であり、スラブ数を増やせば
より確実な識別が可能である。又上述の1万円,五千
円,千円の3金種×4搬送方向の識別に限らず、外国の
紙幣の種類を増やしても可能であり、それに応じてスラ
ブ数(マスク数)を増やすことも容易にできる。
Therefore, when the banknotes are identified, if there are 16 kinds of masks, they can be identified with certainty, and the separation calculation unit 5
It is sufficient for the input layer to have 16 or more slabs.
In the conventional case, the input pixel 128 (= 4
Compared with the case where x32) is input to the input layer, the number of neuro elements can be extremely reduced, and the separation calculation unit can be simplified accordingly. The number of slabs mentioned above is 1
Not only in the case of 6, the learning speed decreases even if the number of slabs is slightly reduced, but the identification is possible, and more reliable identification is possible if the number of slabs is increased. Moreover, the number of slabs (the number of masks) can be increased according to the number of foreign banknotes as well as the identification of the three denominations of 10,000 yen, 5,000 yen and 1,000 yen × 4 conveying directions. You can easily increase it.

【0016】次に、上述の前処理部4で前処理された情
報を入力して分離演算を行なう分離演算部5について説
明する。階層構造の分離演算部5は、大別すると入力
層,隠れ層,出力層の3つから成っている。入力層は、
前処理部4からの各マスクの種類に一対一に対応するよ
うにニューロ素子が設けられており、各マスク種類によ
り前処理されたスラブ値(マスク処理された後の画素数
(総和)を対応するニューロ素子に入力する。隠れ層は
少なくとも1つのニューロ素子の層から成り、入力層の
情報を分離演算して出力層に伝達する役割を果たしてい
る。この隠れ層が多くなればそれだけ、入力層の各ニュ
ーロ素子の情報の変動に対しても不変に各パターンの各
々に分離して演算することが可能となる。出力層は、識
別すべきカテゴリーに一対一に対応するようにニューロ
素子が設けられている。例えばA〜Zのアルファベット
の文字を認識するときには、出力層のニューロ素子が上
から順にA〜Zに対応しており、該当するニューロ素子
が1に最も近い値(最大値)を出力し、他のニューロ素
子は0に近い値を出力する。Aの文字を認識するときに
は、出力層の最上位のニューロ素子が最大値を出力す
る。同様に上述の紙幣識別の際には、出力層のニューロ
素子が上から順に万円(表右方向),万円(表左方
向),万円(裏右方向),万円(裏左方向),五千円
(表右方向),………,千円(裏左方向)というよう
に、12のニューロ素子が一対一に対応している。そし
て、この入力層から出力層までのニューロ素子どうしを
接続し信号を受け渡す機構をシナプスという。シナプス
は、ニューロ素子どうしの結合の強さを重み付け関数で
記憶している。1つのニューロ素子は、シナプスを通じ
前段の層の複数のニューロ素子から信号を受取り、経由
してきたシナプスが持つ重みを乗算して入力値とする。
ニューロ素子は、それが結合している全てのニューロ素
子からの信号を受取ると、入力値の総和をとる。総和の
値が予めニューロ素子に設定した閾値を越えるとニュー
ロ素子が“発火”し、次の後段の層のニューロ素子に出
力信号を送り、この処理を繰返して出力層から情報を出
力する。この各々のシナプスの重みは識別対象に対応し
て、予めバックプロバゲーション法による学習により決
定されている。その方法はすでに述べた数1によって行
なわれる。
Next, a description will be given of the separation operation unit 5 which inputs the information preprocessed by the preprocessing unit 4 and performs the separation operation. The separation operation unit 5 having a hierarchical structure is roughly divided into an input layer, a hidden layer, and an output layer. The input layer is
Neuro elements are provided so as to correspond to the mask types from the pre-processing unit 4 in a one-to-one manner, and the pre-processed slab value (the number of pixels after mask processing (total sum) is supported by each mask type. The hidden layer is made up of at least one neuron layer, and plays a role of separating the information of the input layer and transmitting it to the output layer. The more hidden layers, the more the input layer It is possible to separate and operate each pattern invariantly with respect to changes in the information of each neuro element of the output layer.The output layer is provided with neuro elements so as to correspond one-to-one to the category to be identified. For example, when recognizing the letters of the alphabets A to Z, the neuro elements in the output layer correspond to A to Z in order from the top, and the corresponding neuro element has a value closest to 1. (Maximum value) and other neuro elements output values close to 0. When recognizing the letter A, the highest neuro element in the output layer outputs the maximum value. In this case, the neuro elements of the output layer are in order from the top, 10,000 yen (front right direction), 10,000 yen (front left direction), 10,000 yen (back right direction), 10,000 yen (back left direction), 5,000 yen (front There are 12 neuro elements in a one-to-one correspondence, such as right direction), ………, 1,000 yen (back left direction), and connect the neuro elements from this input layer to the output layer to output signals. The transfer mechanism is called a synapse.The synapse stores the strength of coupling between neuro elements by a weighting function.One neuro element receives a signal from a plurality of neuro elements in the preceding layer through the synapse and passes through it. Input value by multiplying the weight of the synapse To.
The neuro element sums the input values when it receives signals from all the neuro elements to which it is coupled. When the total value exceeds the threshold value set in advance for the neuro element, the neuro element "fires", sends an output signal to the neuro element of the next subsequent layer, and repeats this process to output information from the output layer. The weight of each synapse is determined in advance by learning by the back propagation method, corresponding to the identification target. The method is performed by the above-mentioned equation 1.

【0017】次に、判別部6について説明する。判別部
6は、分離演算部5の出力層から出力される情報を入力
し、その中から最大値(最小値とするようにしても良
い)を判別し、その最大値のニューロ素子に対応するカ
デゴリーと判別する。例えば、出力層のニューロ素子が
上からA〜Zのカデゴリーに対応している場合に、最上
位のニューロ素子から最大値の出力が出ていれば“A”
であると判別する。なお、説明の便宜上、文字,紙幣の
パターンについて主に説明したが、効果の表面模様も同
様に可能であり、その他のパターンについても可能であ
ることは勿論のことである。
Next, the discrimination section 6 will be described. The discriminator 6 inputs the information output from the output layer of the separation calculator 5, discriminates the maximum value (may be the minimum value) from the information, and corresponds to the neuro element having the maximum value. Distinguish from Cadegory. For example, if the neuro elements in the output layer correspond to the caddies from A to Z from the top, and if the highest neuro element outputs the maximum value, "A"
It is determined that For convenience of explanation, the patterns of characters and banknotes have been mainly described, but it goes without saying that the effect surface pattern is also possible and other patterns are also possible.

【0018】[0018]

【発明の効果】以上のように本発明のパターン認識装置
によれば、ニューラルネットワークを用いての学習機能
により必要な識別アルゴリズムを自己形成することがで
きる。また、本発明によれば前処理部に水平方向、垂直
方向の棒状マスクを用いて画像代表値(スラブ値)を求
めているので、ニューラルネットの構成が小規模とな
り、制御装置が小規模となる。また、ニューラルネット
が非線形素子を含むので、画像データの濃淡方向の変動
に対して認識性能が劣化しにくくなる利点がある。更
に、棒状マスクにより位置ずれに対し不変なニューラル
ネットを用いたパターン認識を実現することができる。
本発明による認識能力を考察するために、“A”から
“L”のアルファベットの2値画像を用いて従来手法と
比較検討する。従来のアルゴリズムの構成は本発明と同
様に3層構造である。しかしながら、入力層のユニット
数は入力画素数と同じ64(=8×8)である。また、
隠れ層のユニット数は32であり、出力層のユニット数
は判定パターンと同じ12とする。ただし、従来のアル
ゴリズムでは隠れ層のユニット数をその認識能力とユニ
ット数を考慮して種々の実験により決定した。本発明と
従来のアルゴリズムにおいて2乗誤差が0.01になる
まで学習させたときの提示回数は、前者が61,983
回であり、後者が978回であった。ただし、前者に対
してはε=0.01,α=0.9,β=−0.1とし
て、後者に対してはε=0.1,α=0.9,β=−
0.1として学習を行なった。また、両アルゴリズムに
より上述の重みを用いて学習に用いたデータを再度認識
させた場合、その鑑別率ESはいずれも100%であっ
た。ここで、本発明の重みの個数は8×8+8×12=
160であり、一方、従来のアルゴリズムの重みの個数
は64×32+32×12=2,432であった。これ
らのことにより、本発明は収束に時間を要するが、認識
能力を損なうことなくニューラルネットの規模が縮小で
きることが明らかになった。
As described above, according to the pattern recognition apparatus of the present invention, the necessary identification algorithm can be self-formed by the learning function using the neural network. Further, according to the present invention, since the image representative value (slab value) is obtained by using the horizontal and vertical bar masks in the preprocessing unit, the neural network has a small configuration and the control device has a small scale. Become. Further, since the neural network includes the non-linear element, there is an advantage that the recognition performance is less likely to deteriorate with respect to variations in the image data in the light and shade direction. Furthermore, the rod-shaped mask can realize pattern recognition using a neural network that is invariant to positional deviation.
In order to consider the recognition ability according to the present invention, a comparison is made with the conventional method using a binary image of alphabets from "A" to "L". The conventional algorithm has a three-layer structure as in the present invention. However, the number of units in the input layer is 64 (= 8 × 8), which is the same as the number of input pixels. Also,
The number of units in the hidden layer is 32, and the number of units in the output layer is 12, which is the same as the determination pattern. However, in the conventional algorithm, the number of hidden layer units was determined by various experiments in consideration of the recognition ability and the number of units. In the present invention and the conventional algorithm, the number of presentations when learning is performed until the squared error reaches 0.01 is 61,983 for the former.
And the latter was 978 times. However, for the former, ε = 0.01, α = 0.9, β = −0.1, and for the latter, ε = 0.1, α = 0.9, β = −.
Learning was performed with 0.1. Moreover, when the data used for learning was recognized again by using the above-mentioned weights by both algorithms, the discrimination rate ES was 100% in all cases. Here, the number of weights of the present invention is 8 × 8 + 8 × 12 =
160, while the number of weights in the conventional algorithm was 64 × 32 + 32 × 12 = 2,432. From these, it was revealed that although the present invention takes time to converge, the scale of the neural network can be reduced without impairing the recognition ability.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるパターン認識装置の構成例を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration example of a pattern recognition device according to the present invention.

【図2】本発明に用いるスラブ値を説明するための図で
ある。
FIG. 2 is a diagram for explaining a slab value used in the present invention.

【図3】本発明に用いるスラブ値を説明するための図で
ある。
FIG. 3 is a diagram for explaining a slab value used in the present invention.

【図4】本発明に用いる棒状マスクを説明するための図
である。
FIG. 4 is a diagram for explaining a rod-shaped mask used in the present invention.

【図5】垂直方向の棒状マスクを説明するための図であ
る。
FIG. 5 is a diagram for explaining a rod-shaped mask in the vertical direction.

【図6】水平方向の棒状マスクを説明するための図であ
る。
FIG. 6 is a diagram for explaining a horizontal rod-shaped mask.

【図7】本発明による貨幣識別装置の他の例を示すブロ
ック図である。
FIG. 7 is a block diagram showing another example of the currency identifying device according to the present invention.

【図8】種々のスラブ数に対する学習状況を示す図であ
る。
FIG. 8 is a diagram showing learning situations for various slab numbers.

【図9】マスクの種々の被覆領域に対する学習状況を示
す図である。
FIG. 9 is a diagram showing a learning situation for various covering areas of a mask.

【図10】紙幣データと採取方法を説明するための図で
ある。
FIG. 10 is a diagram for explaining banknote data and a collection method.

【図11】紙幣の時系列データとフーリエパワースペク
トルデータを用いた場合の本発明と従来手法によるニュ
ーテルネットワークの学習状況を示す図である。
FIG. 11 is a diagram showing a learning situation of a Nutel network according to the present invention and a conventional method when time series data of banknotes and Fourier power spectrum data are used.

【図12】従来のパターン認識装置の構成例を示すブロ
ック図である。
FIG. 12 is a block diagram showing a configuration example of a conventional pattern recognition device.

【符号の説明】[Explanation of symbols]

1 紙幣(被識別対象) 2 イメージセンサ 3 入力画像 4,4A,4B 前処理部 5 分離演算部 6 判定部 1 banknote (identification target) 2 image sensor 3 input image 4, 4A, 4B pre-processing unit 5 separation calculation unit 6 determination unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G07D 5/00 9340−3E 7/00 H 9340−3E ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI Technical display location G07D 5/00 9340-3E 7/00 H 9340-3E

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 認識すべき対象物のパターン画像を光学
的又は磁気的に計測するセンサと、多数の矩形状小区画
を有すると共に、前記矩形状小区画の棒状領域を被覆し
た複数の棒状マスクを用いて、前記センサで計測したパ
ターン画像データを複数の画像代表値に変換する前処理
部と、前記複数の画像代表値を並列入力し、予め判定パ
ターン分類に最適に調整された重みにより、前記パター
ン画像の判定パターン毎に分離演算値を算出する分離演
算部と、前記分離演算値の中で最大値又は最小値を有す
る判定パターンを前記対象物のパターン画像として判定
出力する判定部とを具備したことを特徴とするパターン
認識装置。
1. A sensor for optically or magnetically measuring a pattern image of an object to be recognized, a plurality of rectangular small sections, and a plurality of rod-shaped masks covering a rod-shaped region of the rectangular small sections. By using a pre-processing unit that converts the pattern image data measured by the sensor into a plurality of image representative values, and the plurality of image representative values are input in parallel, the weights optimally adjusted to the determination pattern classification in advance, A separation calculation unit that calculates a separation calculation value for each judgment pattern of the pattern image, and a judgment unit that judges and outputs a judgment pattern having a maximum value or a minimum value among the separation calculation values as a pattern image of the object. A pattern recognition device characterized by being provided.
【請求項2】 前記対象物が紙幣又は硬貨である請求項
1に記載のパターン認識装置。
2. The pattern recognition device according to claim 1, wherein the object is a bill or a coin.
【請求項3】 前記棒状領域が水平方向である第1の棒
状マスクと、前記棒状領域が垂直方向である第2の棒状
マスクとを具備している請求項1に記載のパターン認識
装置。
3. The pattern recognition device according to claim 1, further comprising a first rod-shaped mask in which the rod-shaped region is horizontal, and a second rod-shaped mask in which the rod-shaped region is vertical.
JP4152693A 1992-05-20 1992-05-20 Pattern recognizing device Pending JPH05324837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4152693A JPH05324837A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4152693A JPH05324837A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Publications (1)

Publication Number Publication Date
JPH05324837A true JPH05324837A (en) 1993-12-10

Family

ID=15546078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4152693A Pending JPH05324837A (en) 1992-05-20 1992-05-20 Pattern recognizing device

Country Status (1)

Country Link
JP (1) JPH05324837A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016153984A (en) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ Neural network processor, neural network processing method, detection device, detection method, and vehicle
JP2020030821A (en) * 2019-08-14 2020-02-27 大日本印刷株式会社 Specification device, specification method and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016153984A (en) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ Neural network processor, neural network processing method, detection device, detection method, and vehicle
JP2020030821A (en) * 2019-08-14 2020-02-27 大日本印刷株式会社 Specification device, specification method and computer program

Similar Documents

Publication Publication Date Title
US5729623A (en) Pattern recognition apparatus and method of optimizing mask for pattern recognition according to genetic algorithm
JP6878575B2 (en) Banknote management methods, systems, programs and recording media
JP5175210B2 (en) Media confirmation device and confirmation method
EP1484719B1 (en) Currency validation
JP5344668B2 (en) Method for automatically confirming securities media item and method for generating template for automatically confirming securities media item
JP3705619B2 (en) Banknote authentication system
US20080123931A1 (en) Automated recognition of valuable media
EP0742538A2 (en) Method and apparatus for the classification of an article
KR100893613B1 (en) Method and apparatus for recognizing and counting currency notes and securities having barcodes
JP3366438B2 (en) Paper type identification method
JP4427132B2 (en) Paper sheet identification method using competitive neural network
JP3321267B2 (en) Mask Optimization Method Using Genetic Algorithm in Pattern Recognition
JP2001331839A (en) Method and device for discriminating paper money
JPH05324837A (en) Pattern recognizing device
JP3351639B2 (en) Neuro-discriminating / fault separation device for paper sheets by random mask method
JPH05324838A (en) Pattern recognizing device
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
Sajal et al. A machine vision based automatic system for real time recognition and sorting of Bangladeshi bank notes.
JP3332952B2 (en) Coin identification device
JPH05324839A (en) Pattern recognizing device
JPH09134464A (en) Device for recognizing paper sheets
JP4306027B2 (en) Paper sheet authenticity discrimination device
JPH04106692A (en) Discrimination processing method for paper sheet
JPH10198762A (en) Pattern recognition and limited character string recognition system using neuro, and character pattern sorting device
JPH0573753A (en) Sheet paper recognition processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20031209

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031222

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080109

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 4

Free format text: PAYMENT UNTIL: 20080109

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20100109

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110109

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees