JPH0573753A - Sheet paper recognition processing method - Google Patents

Sheet paper recognition processing method

Info

Publication number
JPH0573753A
JPH0573753A JP3018274A JP1827491A JPH0573753A JP H0573753 A JPH0573753 A JP H0573753A JP 3018274 A JP3018274 A JP 3018274A JP 1827491 A JP1827491 A JP 1827491A JP H0573753 A JPH0573753 A JP H0573753A
Authority
JP
Japan
Prior art keywords
coordinates
image
paper sheet
scanning direction
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3018274A
Other languages
Japanese (ja)
Inventor
Naohiro Watanabe
尚洋 渡辺
Taketo Sekiguchi
武人 関口
Kunikazu Suzuki
邦和 鈴木
Shunji Sakai
俊二 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP3018274A priority Critical patent/JPH0573753A/en
Publication of JPH0573753A publication Critical patent/JPH0573753A/en
Pending legal-status Critical Current

Links

Landscapes

  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the method which is strong against transverse deviation, skew, or the like of sheet paper and quickly recognizes paper with a high reliability. CONSTITUTION:The almost all surface of paper 1 is read with plural light sources 3a and 3b different by wavelength to obtain picture signals different by levels. Features of correlations between these signals are extracted to obtain a specific feature picture corresponding to the pattern on the surface of sheet paper 1. Next, the feature picture distribution is obtained with the distance from teh center or the centroid of this feature picture as a parameter based on this feature picture. Thus, the feature picture distribution obtained from the feature picture even is not changed in the case of skew of sheet paper 1. Consequently, sheet paper is recognized without an influence of not only positional devication but also skew.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、紙幣や有価証券等の紙
葉類の種類や真偽を認識するための紙葉類認識処理方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a paper sheet recognition processing method for recognizing the type and authenticity of paper sheets such as bills and securities.

【0002】[0002]

【従来の技術】一般に金融機関等において、預貯金や振
込処理等を自動化するために、自動入出金機が設置され
ている。このような自動入出金機に、顧客によって紙幣
が投入されると、その内部の紙幣鑑別部によって紙幣の
種類や真偽の識別が行なわれる。この識別処理において
は、まず、紙幣の搬送方向に平行な1本又は複数本のラ
インに沿って、光学的あるいは磁気的なパターンを読取
る。光学的パターンは、紙幣の視覚的な模様により金種
毎に一定の特徴を持つ。また、磁気的パターンも紙幣上
のインク等による磁性分布により同様の特徴を持つ。検
出されたパターンは、アナログ信号であるが、ライン上
の多数の点において、所定の閾値と比較され2値化され
る。こうして得られたパルス列を、カウンタ回路により
カウントし、そのカウント値を辞書データと比較する。
そして、検出された全てのラインについて、このカウン
ト値が辞書データと近似していれば、紙幣の種類及び真
偽を識別できる。
2. Description of the Related Art Generally, in a financial institution or the like, an automatic depositing / dispensing machine is installed in order to automate deposit / saving and transfer processing. When a customer inserts a banknote into such an automatic depositing / dispensing machine, the banknote discriminating section therein identifies the type and authenticity of the banknote. In this identification processing, first, an optical or magnetic pattern is read along one or a plurality of lines parallel to the banknote transport direction. The optical pattern has certain characteristics for each denomination due to the visual pattern of the bill. The magnetic pattern also has the same characteristics due to the magnetic distribution of ink on the bill. The detected pattern, which is an analog signal, is compared with a predetermined threshold value and binarized at many points on the line. The pulse train thus obtained is counted by the counter circuit, and the count value is compared with the dictionary data.
If the count value is close to the dictionary data for all the detected lines, the type and authenticity of the bill can be identified.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した従
来の技術においては、通常、紙幣上の特定のラインに沿
った部分的な領域の特徴を抽出して、その領域から検出
されたパターンの識別のみを行なっている。従って、こ
のような検出領域以外のごく限られた小面積の部分だけ
について紙幣の偽造が行なわれた場合には、その紙幣を
真券と識別してしまうこともある。即ち、紙幣の部分的
な貼り合わせ等が行なわれた場合に、そのような偽造を
見破れない可能性があった。また、紙幣の識別の信頼度
を高めるために、紙幣の外形寸法や厚み等の各種のパラ
メータを検出し、種々の角度から紙幣の種類及び真偽を
識別する方法もある。しかしながら、このような方法で
は、これらのパラメータのうちの1つでも規格範囲を外
れているものがあれば、その紙幣は偽券と判定される。
従って、偽券と判定される率が増大し、実用面で問題が
ある。勿論、このような問題は、紙幣の鑑定に限らず、
証券類その他種々の紙葉類の鑑定にも、同様に生じる。
By the way, in the above-mentioned conventional technique, usually, the characteristics of a partial region along a specific line on a banknote are extracted, and the pattern detected from the region is identified. Only doing. Therefore, when a banknote is forged only in a portion having a very small area other than the detection area, the banknote may be identified as a genuine banknote. That is, there is a possibility that such forgery cannot be detected when the banknotes are partially stuck together. Further, in order to increase the reliability of bill identification, there is also a method of detecting various parameters such as external dimensions and thickness of bills and identifying the type and authenticity of bills from various angles. However, in such a method, if even one of these parameters is out of the standard range, the bill is determined to be a counterfeit bill.
Therefore, the rate of determination as a fake bill increases, which is a problem in practical use. Of course, this kind of problem is not limited to bill appraisal,
The same applies to the appraisal of securities and various types of paper sheets.

【0004】一方、自動入出金機の処理の高速化を図る
ため、搬送路上の紙葉類を高速で走行させる必要が生じ
ている。ところが、紙葉類をあまり高速で走行させる
と、紙葉類が所定のガイドラインに沿って進みにくくな
り、紙幣の横ずれや斜行が生じやすくなる。従って、紙
葉類の読取りが前述した特定のラインからずれて行なわ
れたり、特定のラインに沿わずに斜めの方向に行なわれ
たりすることが多くなる。この結果、紙葉類の認識率が
低下してしまった。これらの問題を解決するためには、
先ず、紙葉類のできるだけ広範囲な部分を、高い解像度
で読取って識別の基準とし、小面積の偽造や貼り合わせ
等も検出できるようにすることが好ましい。また、でき
るだけ信頼性の高い1つの基準を用いて、種類や真偽の
識別をすることが認識率向上のために好ましい。
On the other hand, in order to speed up the processing of the automatic depositing / dispensing machine, it is necessary to run the paper sheets on the conveying path at high speed. However, if the paper sheets are made to travel at a too high speed, it becomes difficult for the paper sheets to follow the predetermined guideline, and the banknotes are likely to be laterally offset or skewed. Therefore, the reading of the paper sheets is often performed deviating from the above-described specific line, or is performed in an oblique direction without following the specific line. As a result, the recognition rate of paper sheets has decreased. To solve these problems,
First, it is preferable that the widest possible portion of the paper sheet is read at a high resolution and used as a reference for identification so that forgery or bonding of a small area can be detected. In addition, it is preferable to identify the type and authenticity by using one criterion having the highest reliability in order to improve the recognition rate.

【0005】更に、紙葉類の一部を読取る方法では、紙
葉類の搬送に横ずれや斜行があれば、検出データに変動
を生じ、誤認識が発生し得るので、これを解決するた
め、紙葉類の多少の横ずれや斜行に対しても、何等影響
を受けることのない識別処理が望まれる。本発明は以上
の点に着目してなされたもので、横ずれや斜行等にも強
く、紙葉類の認識を高い信頼性で迅速に行なえるように
した紙葉類認識処理方法を提供することを目的とするも
のである。
Further, in the method of reading a part of a paper sheet, if there is a lateral deviation or skew in the conveyance of the paper sheet, the detection data may fluctuate and erroneous recognition may occur. It is desired that the identification process is not affected even when the paper sheet is slightly misaligned or skewed. The present invention has been made in view of the above points, and provides a paper sheet recognition processing method that is strong against lateral misalignment, skewing, and the like, and that can recognize paper sheets quickly with high reliability. The purpose is that.

【0006】[0006]

【課題を解決するための手段】本発明の第1の方法は、
紙葉類の紙面をそれぞれ波長の異なる複数の光源を用い
て代わる代わる照射して、読取られた画素毎に、各波長
に対する反射光強度の相関関係の特徴を抽出して数値化
すると共に、前記読取られた画素全体について、前記数
値化された各データを2次元座標で構成された出力画像
領域の中で紙葉類画像の主走査方向座標及び副走査方向
座標上における端部座標を検出し、当該端部座標から前
記紙葉類画像の中心点座標を検出し、前記特徴画像から
その特徴として表われた画素の座標と前記中心点座標と
の距離を算出し、その距離の大きさの順に付した1次元
系列に当該距離に当てはまる特徴画像の出力を積分して
特徴画像分布を抽出し、当該特徴画像分布の形状を予め
用意された基準分布形状と比較して、前記紙葉類の認識
を行なうことを特徴とするものである。
The first method of the present invention comprises:
The paper surface of the paper sheet is alternately irradiated by using a plurality of light sources each having a different wavelength, and for each read pixel, the characteristics of the correlation of the reflected light intensity with respect to each wavelength are extracted and digitized, and For each of the read pixels, the digitized data is detected in the output image area formed by the two-dimensional coordinates to detect the end coordinates on the main scanning direction coordinate and the sub scanning direction coordinate of the paper sheet image. , Detecting the center point coordinates of the paper sheet image from the edge coordinates, calculating the distance between the coordinates of the pixel represented as the feature and the center point coordinate from the characteristic image, and determining the distance magnitude. The output of the feature image that applies to the distance is integrated into the sequentially assigned one-dimensional sequence to extract the feature image distribution, and the shape of the feature image distribution is compared with a previously prepared reference distribution shape, Specializing in recognition It is an.

【0007】また、第2の方法は、紙葉類の紙面をそれ
ぞれ波長の異なる複数の光源を用いて代わる代わる照射
して、読取られた画素毎に、各波長に対する反射光強度
の相関関係の特徴を抽出して数値化すると共に、前記数
値化された全データにより形成される特徴画像を、主走
査方向座標と副走査方向座標とにそれぞれ投影して各画
素数分布をそれぞれ求め、当該主走査方向の画素数分布
の重心座標を求めるとともに、当該副走査方向の画素数
分布の重心座標を求め、当該主走査方向の重心座標と、
当該副走査方向の重心座標とを組み合わせて前記特徴画
像の全体重心座標とし、前記特徴画像上の各画素の座標
と当該全体重心座標との距離を求め、その距離の大きさ
の順に付した1次元系列に当該距離に当てはまる特徴画
像の出力を積分して特徴画像分布を抽出し、当該特徴画
像分布の形状を予め用意された基準分布形状と比較し
て、前記紙葉類の認識を行なうことを特徴とするもので
ある。
In the second method, the paper surface of the paper sheet is alternately irradiated with a plurality of light sources having different wavelengths, and the correlation of the reflected light intensity with respect to each wavelength is read for each read pixel. The features are extracted and digitized, and the feature image formed by all the digitized data is projected on the main scanning direction coordinates and the sub scanning direction coordinates to obtain respective pixel number distributions, While obtaining the barycentric coordinates of the pixel number distribution in the scanning direction, the barycentric coordinates of the pixel number distribution in the sub-scanning direction are obtained, and the barycentric coordinates in the main scanning direction,
The total barycentric coordinates of the characteristic image are combined with the barycentric coordinates in the sub-scanning direction, the distance between the coordinates of each pixel on the characteristic image and the total barycentric coordinates is obtained, and the distances are given in order of magnitude 1. Detecting the characteristic image distribution by integrating the output of the characteristic image corresponding to the distance in the dimensional series, and comparing the shape of the characteristic image distribution with a reference distribution shape prepared in advance to recognize the paper sheet. It is characterized by.

【0008】[0008]

【実施例】以下、本発明の実施例について図面を参照し
て詳細に説明する。図1は、本発明の紙葉類認識処理方
法の実施例の構成図である。図において、この装置は、
読取り部10と、認識部20とから構成されている。読
取り部10は、装置にセットされた紙葉類1の紙面を光
学的に読取り、その画像信号を出力するものである。認
識部20は、読取り部10から出力された画像信号に基
づいて、認識対象となる特徴画像を抽出し、予め用意さ
れたデータと比較して紙葉類の認識をするものである。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a configuration diagram of an embodiment of a paper sheet recognition processing method of the present invention. In the figure, this device is
It is composed of a reading unit 10 and a recognition unit 20. The reading unit 10 optically reads the paper surface of the paper sheet 1 set in the apparatus and outputs the image signal thereof. The recognition unit 20 extracts a characteristic image as a recognition target based on the image signal output from the reading unit 10 and compares it with data prepared in advance to recognize the paper sheet.

【0009】読取り部10には、紙幣や有価証券等の、
識別を必要とする紙葉類1がセットされる。この紙葉類
1の上方には、その画像信号を読取るためにイメージラ
インセンサ2が配置されている。このイメージラインセ
ンサ2は、紙葉類1の幅に対し十分長い幅を持ち、その
解像度は、例えば400DPI(1インチ当たり 400ドットの
読取り密度)とする。
The reading unit 10 stores bills, securities, etc.
The paper sheet 1 requiring identification is set. An image line sensor 2 is arranged above the paper sheet 1 to read the image signal. The image line sensor 2 has a width sufficiently longer than the width of the paper sheet 1, and its resolution is, for example, 400 DPI (reading density of 400 dots per inch).

【0010】また、紙葉類1の上方には、このイメージ
ラインセンサ2と平行に、それぞれ波長の大きく異なる
ライン状の光源3a,3bが配置されている。これらの
光源3a,3bは、この実施例の場合、イメージライン
センサ2の左右にほぼ対称位置に配置されている。波長
の大きく異なる光源としては、例えば、白色光源に赤色
フィルタと青色フィルタをそれぞれ取付けたもの、ある
いは赤外光専用光源と紫外光専用光源といったものを使
用する。尚、紙葉類1は、図の矢印4に示す方向に搬送
されるものとし、光源3a,3bは、紙葉類1が搬送さ
れる間、それぞれ代わる代わる紙葉類1を照射して、ほ
ぼ同一位置の異なる性質の反射光を、イメージラインセ
ンサ2が読取るよう構成されている。
Further, above the paper sheet 1, parallel to the image line sensor 2, line-shaped light sources 3a and 3b having wavelengths greatly different from each other are arranged. In the case of this embodiment, these light sources 3a and 3b are arranged substantially symmetrically to the left and right of the image line sensor 2. As the light sources having widely different wavelengths, for example, a white light source to which a red filter and a blue filter are attached, or a light source dedicated to infrared light and a light source dedicated to ultraviolet light are used. In addition, the paper sheet 1 is assumed to be conveyed in the direction shown by an arrow 4 in the figure, and the light sources 3a and 3b irradiate the alternative paper sheet 1 while the paper sheet 1 is conveyed, The image line sensor 2 is configured to read the reflected light having different properties at substantially the same position.

【0011】また、読取り領域は、セットされる紙葉類
1の領域よりもはるかに大きく、セットされる紙葉類1
の横ずれや斜行が発生しても、十分に読取り領域に納め
られるようになっている。そして、紙葉類以外の部分は
常にイメージラインセンサ2の信号出力が0となるよう
に設定している。即ち、紙葉類1が示す領域以外の部分
は光源3a及び光源3bの照射光が反射しないように構
成されている。認識部20は、特徴画像抽出処理部21
と、中心点座標検出処理部22と、特徴画像分布抽出処
理部23と、比較判別処理部24とから構成されてい
る。この認識部20は、具体的には、画像信号を受入れ
て格納するメモリと、その画像信号を演算処理するプロ
セッサ等から構成される。
Further, the reading area is much larger than the area of the sheet 1 to be set, and the sheet 1 to be set 1
Even if the paper is laterally offset or skewed, it can be sufficiently accommodated in the reading area. The signal output of the image line sensor 2 is always set to 0 in the parts other than the paper sheets. That is, the portions other than the region indicated by the paper sheet 1 are configured so that the irradiation light from the light sources 3a and 3b is not reflected. The recognition unit 20 includes a feature image extraction processing unit 21.
And a center point coordinate detection processing section 22, a characteristic image distribution extraction processing section 23, and a comparison / discrimination processing section 24. Specifically, the recognition unit 20 includes a memory that receives and stores an image signal, a processor that performs arithmetic processing on the image signal, and the like.

【0012】図1の読取り部10は、次のように動作す
る。先ず、光源3aのみが点灯し、イメージラインセン
サ2が紙葉類1の反射光を受光し、1ライン分の多値デ
ィジタル信号Daを得る。次に、光源3aが消灯し光源
3bが点灯して、紙葉類1の同一箇所の反射光をイメー
ジラインセンサ2が受光し、同様の多値ディジタル信号
Dbを得る。その後、紙葉類1は、矢印4方向に搬送さ
れ、再び光源3aが点灯し、次のラインの読取りを行な
う。この読取りライン間隔は、イメージラインセンサ2
の解像度と同程度に選定する。こうして、多値ディジタ
ル信号Da,Dbが認識部20に入力すると、この認識
部20は次のような動作を行なう。
The reading section 10 of FIG. 1 operates as follows. First, only the light source 3a is turned on, the image line sensor 2 receives the reflected light of the paper sheet 1, and the multi-value digital signal Da for one line is obtained. Next, the light source 3a is turned off and the light source 3b is turned on, and the image line sensor 2 receives the reflected light at the same location on the paper sheet 1 and obtains a similar multilevel digital signal Db. After that, the paper sheet 1 is conveyed in the direction of the arrow 4, the light source 3a is turned on again, and the next line is read. This reading line interval is determined by the image line sensor 2
Select the same resolution as. Thus, when the multivalued digital signals Da and Db are input to the recognition unit 20, the recognition unit 20 performs the following operation.

【0013】先ず、特徴画像抽出処理部21は、信号D
a,Dbの相関関係の特徴を抽出して数値化する。即
ち、信号Daは、光源3aの波長に対する特徴的な反射
光強度に従った信号パターンとなる。一方、信号Db
は、光源3bの波長に対する特徴的な反射光強度に従っ
た信号パターンとなる。従って、両者は、紙葉類1の画
像により、著しく異なる場合と、あまり相違がない場合
とに分かれる。この実施例では、そのような特徴画像を
2値画像として抽出する。
First, the characteristic image extraction processing section 21 determines the signal D
Features of the correlation between a and Db are extracted and digitized. That is, the signal Da has a signal pattern according to the characteristic reflected light intensity with respect to the wavelength of the light source 3a. On the other hand, the signal Db
Is a signal pattern according to the characteristic reflected light intensity with respect to the wavelength of the light source 3b. Therefore, depending on the image of the paper sheet 1, they are classified into a case where they are significantly different and a case where they are not so different. In this embodiment, such a characteristic image is extracted as a binary image.

【0014】図2は、上記反射光強度の相関関係を示す
グラフである。図において、横軸に信号Daをとり縦軸
に信号Dbをとると、読取られたある特定の画素の反射
光強度に着目すれば、その画素の特徴は、図の領域3
1,32あるいは33の何れかに存在する。図のハッチ
ングを付した領域31,32は、それぞれ何れか一方の
反射光強度が、他方に比べて著しく大きい特徴ある領域
である。一方、図の白抜きの領域33は、何れの反射光
強度も、ほぼ同レベルの特徴の無い領域である。そこ
で、信号Da,Dbから特徴の現われる領域31,32
と、特徴の現われない領域33を区別するために、境界
線34,35を引く。この境界線34により定まるレベ
ルをスレショルドレベルTHL1 と呼び、境界線35に
より定まるレベルをスレショルドレベルTHL2 と呼ぶ
ことにする。尚、それぞれの画素に着目すれば、信号D
aの値に対応して、信号Dbがそれぞれ定まっており、
信号Daは信号Dbへ写像できる。
FIG. 2 is a graph showing the correlation of the reflected light intensity. In the figure, when the signal Da is plotted on the horizontal axis and the signal Db is plotted on the vertical axis, focusing on the reflected light intensity of a specific pixel that has been read, the feature of that pixel is that the region 3
It exists in either 1, 32 or 33. The hatched areas 31 and 32 in the figure are characteristic areas in which the intensity of the reflected light of either one is significantly larger than that of the other. On the other hand, the white area 33 in the figure is an area where there is almost no characteristic of the reflected light intensity at any level. Therefore, the regions 31 and 32 where the features appear from the signals Da and Db
Boundary lines 34 and 35 are drawn in order to distinguish the regions 33 in which the features do not appear. The level defined by the boundary line 34 will be referred to as a threshold level THL1, and the level defined by the boundary line 35 will be referred to as a threshold level THL2. If attention is paid to each pixel, the signal D
The signal Db is determined corresponding to the value of a,
The signal Da can be mapped to the signal Db.

【0015】従って、信号Dbは、信号Daの写像値
(関数値)であり、スレショルドレベルTHL1 及びT
HL2 は、次の (1),(2)式により定義された関数式とな
る。ここで、fは、信号DaとDbの相関を表わす関数
(ファンクション)である。またinv fは、信号Dbと
信号Daを交換した関数fの逆関数である。 THL1 :Db=f(Da) (1) THL2 :Db=inv f(Da) (2) この関数fと関数inv fとは、図2のグラフにおいて、
Da=Dbとなる図の対角線を中心に、対象的な位置関
係を持っている。このfは、例えば、次の (3)あるいは
(4) 式で表わすことができる。尚、 (4)式でα<1とし
たのは、Da=Dbの直線の両側にある直線が、互いに
交差しないようにするためである。 Db=Da+α (3) 但し、αは任意の整数α<0 Db=αDa (4) 但し、αは任意の実数1>α>0 ここで、以下の実施例では、例えば、(3) 式に示した関
数をスレショルドレベルとして設定した場合の説明を行
なう。
Therefore, the signal Db is the mapping value (function value) of the signal Da, and the threshold levels THL1 and THL1.
HL2 is a functional expression defined by the following expressions (1) and (2). Here, f is a function representing the correlation between the signals Da and Db. Inv f is the inverse function of the function f in which the signal Db and the signal Da are exchanged. THL1: Db = f (Da) (1) THL2: Db = inv f (Da) (2) This function f and the function inv f are as shown in the graph of FIG.
There is a symmetrical positional relationship centered on the diagonal line of the diagram where Da = Db. This f is, for example, the following (3) or
It can be expressed by equation (4). It should be noted that α <1 in the equation (4) is set so that the straight lines on both sides of the straight line Da = Db do not intersect with each other. Db = Da + α (3) where α is an arbitrary integer α <0 Db = αDa (4) where α is an arbitrary real number 1>α> 0 Here, in the following embodiments, for example, the formula (3) is used. The case where the indicated function is set as the threshold level will be described.

【0016】再び図1へ戻って、以上説明したように、
図1の特徴画像抽出処理部21は、読取られた画素毎
に、各波長に対する反射光強度の相関関係の特徴を抽出
して数値化する。例えば、波長λaによる反射光から得
た信号Da、及び、波長λbによる反射光から得た信号
Dbに、大きな相対差がある場合、その特徴点は、図2
に示すハッチングの領域31あるいは32に属する。一
方、両信号Da,Dbに相対差があまりない場合、領域
33に属する。特徴画像抽出処理部21は、信号Da,
Dbの (3)式における写像関係から、各画素の特徴が、
次の (5)式あるいは (6)式の集合に属するかを判断す
る。 E1:{Db<Da+α ∪ Da <Db+α} (5) E2:{Db≧Da+α ∩ Da ≧Db+α} (6) 式(5) が、図2の領域31,32に特徴点のある集合E
1であり、式(6) が領域33に特徴点のある集合E2で
ある。そして、集合E1に属する場合には“1”、即ち
黒ビット、集合E2に属する場合には“0”、即ち白ビ
ットというように数値化を行なう。このようにして読取
られた紙葉類の全面について、その画素に対応する数値
化データを得て、特徴画像が抽出される。この特徴画像
は、一旦、出力画像領域の大きさの図示しないバッファ
メモリに格納される。
Returning to FIG. 1 again, as explained above,
The characteristic image extraction processing unit 21 of FIG. 1 extracts and digitizes the characteristic of the correlation of the reflected light intensity with respect to each wavelength for each read pixel. For example, when there is a large relative difference between the signal Da obtained from the reflected light of the wavelength λa and the signal Db obtained from the reflected light of the wavelength λb, the characteristic point is as shown in FIG.
Belongs to the hatched area 31 or 32. On the other hand, when there is not much relative difference between the two signals Da and Db, it belongs to the region 33. The characteristic image extraction processing unit 21 uses the signals Da,
From the mapping relationship in the equation (3) of Db, the feature of each pixel is
It is judged whether it belongs to the set of the following formula (5) or (6). E1: {Db <Da + α ∪ Da <Db + α} (5) E2: {Db ≧ Da + α ∩ Da ≧ Db + α} (6) Equation (5) is a set E with feature points in regions 31 and 32 in FIG.
1 and the equation (6) is a set E2 having a feature point in the area 33. When it belongs to the set E1, it is digitized as "1", that is, black bit, and when it belongs to the set E2, it is digitized as "0", that is, white bit. The digitized data corresponding to the pixels of the entire surface of the paper sheet thus read is obtained and the characteristic image is extracted. This characteristic image is temporarily stored in a buffer memory (not shown) having the size of the output image area.

【0017】本発明のこの方法は、上記信号DaとDb
との相関関係が、紙葉類の紙面に描かれた模様により、
大きく異なることを利用している。この場合、上記 (1)
式及び (2)式で定義されたスレショルドレベルは、信号
Da,Dbの相関関係を定める重要な要素であり、紙葉
類の真偽を識別する有力なポイントとなる。従って、ス
レショルドレベルTHL1 及びTHL2は、種々の試験
を行なった上で、特徴画像が真券と偽券で大きく異なる
ように設定されるべきものとなる。
This method of the present invention uses the signals Da and Db described above.
By the pattern drawn on the paper surface of the paper, the correlation with
It takes advantage of the big difference. In this case, (1) above
The threshold level defined by the equations (2) and (2) is an important factor that determines the correlation between the signals Da and Db, and is an important point for identifying the authenticity of the paper sheet. Therefore, the threshold levels THL1 and THL2 should be set such that the characteristic image is greatly different between a genuine note and a counterfeit note after performing various tests.

【0018】図3は、中心座標検出処理の概念図であ
る。中心座標検出処理部22は、出力画像領域内に存在
する矩形の紙葉類座標の中心点を検出するものである。
図3は横軸に主走査座標Xを、縦軸に副走査座標Yを導
入した出力画像領域を示す。図3中には、セットされた
矩形の紙葉類の画像が読取り部10の図示しない紙葉類
走行系によって発生する横ずれや斜行の量にかかわらず
に出力画像領域内に収まっている。この出力画像領域内
の2次元座標上で紙葉類画像の端部座標を検出し、その
端部座標から紙葉類画像の中心点を検出する。紙葉類が
セットされたとき、紙葉類以外の部分では、出力信号D
a及び出力信号Dbが、出力画像領域の主走査座標X上
で一番最初に0よりも大きくなった点、及び出力画像領
域の主走査座標X上で一番最後に0よりも大きくなった
点を紙葉類座標の主走査方向の端部座標として検出す
る。また、出力画像領域の副走査座標Y上で一番最初に
0よりも大きくなった点、及び出力画像領域の副走査座
標Y上で一番最後に0よりも大きくなった点を紙葉類座
標の副走査方向の端部座標として検出する。検出するた
めの信号は、出力信号Da及び出力信号Dbのいずれか
を用いるものである。図3において主走査座標X上で紙
葉類座標の最も左端となる座標をMINX 、紙葉類座標
の最も右端となる座標をMAXX とし、副走査座標Y上
では紙葉類座標の最も上端となる座標をMINY 、紙葉
類座標の最も下端となる座標をMAXY とする。そし
て、これらの端部座標MINX 、MAXX 、MINY 及
びMAXY の値から次のようにして中心点座標MX 、M
Yが求められる。 MX =(MINX +MAXX )/2 MY =(MINY +MAXY )/2 この紙葉類画像の中心点座標(MX,MY)は矩形の紙葉類
画像の対角線の交点と一致するものである。
FIG. 3 is a conceptual diagram of the central coordinate detecting process. The central coordinate detection processing unit 22 detects the central point of rectangular paper sheet coordinates existing in the output image area.
FIG. 3 shows the output image area in which the horizontal axis represents the main scanning coordinate X and the vertical axis represents the sub scanning coordinate Y. In FIG. 3, the image of the set rectangular paper sheet is contained in the output image area regardless of the amount of lateral deviation or skew generated by the paper sheet traveling system (not shown) of the reading unit 10. The edge coordinates of the paper sheet image are detected on the two-dimensional coordinates in the output image area, and the center point of the paper sheet image is detected from the edge coordinates. When the paper sheet is set, the output signal D
a and the output signal Db became the first point on the main scanning coordinate X of the output image area to become larger than 0, and the last point on the main scanning coordinate X of the output image area to become larger than 0. The point is detected as the end coordinate of the paper sheet coordinate in the main scanning direction. Further, the first point on the sub-scanning coordinate Y of the output image area that becomes larger than 0 and the last point on the sub-scanning coordinate Y of the output image area that becomes larger than 0 are the paper sheets. The coordinates are detected as the end coordinates in the sub-scanning direction. The signal for detection uses either the output signal Da or the output signal Db. In FIG. 3, the leftmost coordinate of the paper sheet coordinate on the main scanning coordinate X is MINX, the rightmost coordinate of the paper sheet coordinate is MAXX, and the uppermost coordinate of the paper sheet coordinate on the sub-scanning coordinate Y. Is the minimum coordinate, and the lowest coordinate of the paper sheet coordinate is MAXY. Then, based on the values of the end coordinates MINX, MAXX, MINY and MAXY, the center point coordinates MX, M are calculated as follows.
Y is required. MX = (MINX + MAXX) / 2 MY = (MINY + MAXY) / 2 The center point coordinates (MX, MY) of this paper sheet image coincide with the intersection of the diagonal lines of the rectangular paper sheet image.

【0019】特徴画像分布抽出処理部23は、まず、特
徴画像抽出処理部21によって抽出され、一旦バッファ
メモリに格納された特徴画像F(x,y)から副走査方
向Yの順に主走査方向Xへ順次走査してその座標から、
中心点座標検出処理部22によって検出された紙葉類画
像の中心点座標(MX,MY)までの距離rを求める。次
に、その距離rの大きさの順に付した特徴画像の黒ビッ
ト数の一次元系列ΦR(r)を出力する。即ち、紙葉類画像
の中心点座標(MX,MY)から任意の座標(x,y)まで
の距離rがなす同心円上に存在する特徴画像F(x,
y)の値を積分していくものである。紙葉類画像の中心
点から特徴画像F(x,y)までの距離rは、図示の式
により求められる。この場合、少数点以下を四捨五入し
た整数値を用いている。紙葉類画像の中心点座標(MX,
MY)を同心円の中心としてその同心円の半径r(紙葉類
画像の中心点座標からの距離)がなす円上に存在する黒
ビットの特徴画像の積分値ΦR(r)は、図示の式より次式
(7)に示す通りとなる。 ΦR(r)=ΣΣF(x,y) (7) ここで、Fは、特徴画像における2値の極性値であり、
黒ビットは“1”、白ビットは“0”となる。x,y
は、各画素の位置座標であり、xはその主走査方向座標
値、yは副走査方向座標値である。また、ΣΣは座標
(MX,MY)を中心とした同心円上のすべての点での極性
値Fの総和を求めることを意味する。即ち、上記式 (7)
は、紙葉類画像の中心点座標(MX,MY)からの距離rを
半径とする円上に存在する特徴画像F(x,y)の積分
値を表わす。
The characteristic image distribution extraction processing unit 23 is first extracted by the characteristic image extraction processing unit 21, and is temporarily stored in the buffer memory. From the characteristic image F (x, y) in the sub-scanning direction Y in the main scanning direction X. Scan sequentially to the coordinates,
The distance r to the center point coordinates (MX, MY) of the paper sheet image detected by the center point coordinate detection processing unit 22 is obtained. Next, the one-dimensional sequence ΦR (r) of the number of black bits of the feature image, which is attached in the order of the size of the distance r, is output. That is, the characteristic image F (x, which exists on the concentric circle formed by the distance r from the center point coordinates (MX, MY) of the paper sheet image to arbitrary coordinates (x, y)
The value of y) is integrated. The distance r from the center point of the paper sheet image to the characteristic image F (x, y) is obtained by the equation shown. In this case, the integer value rounded off to the nearest whole number is used. Center point coordinates (MX,
MY) is the center of the concentric circle, and the integrated value ΦR (r) of the characteristic image of the black bit existing on the circle formed by the radius r of the concentric circle (distance from the center point coordinates of the paper sheet image) is The following formula
It will be as shown in (7). ΦR (r) = ΣΣF (x, y) (7) where F is a binary polarity value in the feature image,
The black bit is "1" and the white bit is "0". x, y
Is the position coordinate of each pixel, x is the coordinate value in the main scanning direction, and y is the coordinate value in the sub scanning direction. Further, ΣΣ means that the sum of the polarity values F at all points on the concentric circle centered on the coordinate (MX, MY) is obtained. That is, the above equation (7)
Represents the integral value of the characteristic image F (x, y) existing on a circle having a radius r from the center point coordinates (MX, MY) of the paper sheet image.

【0020】比較判別処理部24は、特徴画像分布抽出
処理部23によって抽出された特徴画像分布系列ΦR(r)
の分布形状を予め記憶された分布形状と比較し、対象と
する紙葉類の真偽、種類及び表裏を一括して認識する。
The comparison / discrimination processing unit 24 has a characteristic image distribution series ΦR (r) extracted by the characteristic image distribution extraction processing unit 23.
The distribution shape of is compared with the distribution shape stored in advance, and the authenticity, type, and front and back of the target paper sheet are collectively recognized.

【0021】特徴画像分布系列ΦR(r)は、特徴画像F
(x,y)における紙葉類画像が出力画像領域の中で位
置ずれや斜行を起こしても、中心画像抽出処理部22に
よって検出された中心点座標(MX,MY)が位置ずれに対
応し、また中心点座標(MX,MY)から特徴画像F(x,
y)までの距離rを同心円の半径とすることにより斜行
ずれに対応しているので、常に安定して得られるもので
ある。即ち、紙葉類が示す幅よりもはるかに大きな読取
領域が読取部で設定されているため、セットされた紙葉
類が位置ずれや斜行を起こしても特徴画像分布系列ΦR
(r)の分布形状になんら影響を与えない。基準となる比
較データは1次元配列で構成された黒ビット分布系列Φ
R(r)のみでよく、簡単なパターンマッチングを行なうこ
とによって対象とする紙葉類の真偽、種類及び表裏が一
括して認識できるものである。この方法によれば、1つ
の検出手段で検出された解像度の高い出力画像から位置
ずれや斜行の影響を受けずに高速で高精度な認識処理が
行なえる。
The characteristic image distribution series ΦR (r) is the characteristic image F
Even if the paper sheet image at (x, y) is displaced or skewed in the output image area, the center point coordinates (MX, MY) detected by the central image extraction processing unit 22 correspond to the displacement. From the center point coordinates (MX, MY), the feature image F (x,
By setting the distance r to y) to be the radius of the concentric circle, skew deviation can be dealt with, so that it can always be obtained stably. That is, since the reading area that is much larger than the width indicated by the paper sheets is set in the reading unit, even if the set paper sheets are misaligned or skewed, the characteristic image distribution series ΦR
It has no effect on the distribution shape of (r). The reference comparison data is a black bit distribution series Φ composed of a one-dimensional array.
Only R (r) is required, and the authenticity, type, and front and back of the target paper sheet can be collectively recognized by performing simple pattern matching. According to this method, it is possible to perform high-speed and high-accuracy recognition processing from an output image with high resolution detected by one detection means without being affected by positional deviation or skew.

【0022】以上説明した本発明による特徴画像抽出処
理方法は、式(5) 及び(6) を基に信号Da及び信号Db
の相関から特徴として表われたものと特徴として表われ
ないものとに分別して2値化して、その2値の特徴画像
についてその黒ビット分布系列ΦR(r)を求めていたが、
抽出する特徴画像は2値でなく、多値として扱うことも
できる。この場合の特徴画像分布抽出処理を説明する。
図2にTHL1及びTHL2によって分別された領域のうち、信
号Da及び信号Dbのそれぞれの出力関係から領域31
及び領域32に属した場合のみが特徴画像とみなす。即
ち、図2の出力信号相関図において領域31及び領域3
2のみに属した信号Da及び信号Dbを特徴による出力
信号とするものである。これは、前述の2値の特徴画像
抽出処理における考え方と同じものであるが、出力デー
タの形状が異なる。信号Da及び信号Dbが式(5) を満
たす場合のみ特徴画像F(x,y)を求める。これによ
り、読取位置における主走査座標をx、副走査座標をy
とすると、その読取位置における信号Da及び信号Db
から特徴画像F(x,y)は式(5) を満たすことを条件
として F(x,y)=|Da−Db| 但し、|Da−Db|>|α| となる。即ち、信号Da及び信号Dbの出力関係が式
(5) を満たすときのみ式(7) によって特徴画像F(x,
y)に値が割り当てられる。信号Da及び信号Dbの出
力関係が式(5) を満たさない場合は特徴画像F(x,
y)の値は0である。以後、紙葉類画像の中心点を検出
し、その中心点からの距離rがなす円上に存在する特徴
画像F(x,y)を積分した特徴画像分布系列ΦR(r)を
求める。以後の処理は、前述の2値の特徴画像における
処理とほぼ同じ方法で認識を行なうものである。
The characteristic image extraction processing method according to the present invention described above is based on the equations (5) and (6).
The black bit distribution series ΦR (r) was obtained for the binary feature image by binarizing the features represented by the correlation and the features not represented by the correlation.
The feature image to be extracted can be treated as multivalued instead of binary. The characteristic image distribution extraction processing in this case will be described.
Of the regions classified by THL1 and THL2 in FIG. 2, the region 31 is determined from the output relationship of the signals Da and Db.
And if it belongs to the area 32, it is regarded as a characteristic image. That is, in the output signal correlation diagram of FIG.
The signal Da and the signal Db belonging to only 2 are used as the output signals due to the characteristics. This is the same as the idea in the binary feature image extraction processing described above, but the shape of the output data is different. The characteristic image F (x, y) is obtained only when the signals Da and Db satisfy the equation (5). As a result, the main scanning coordinate at the reading position is x and the sub scanning coordinate is y.
Then, the signal Da and the signal Db at the reading position are
Therefore, the characteristic image F (x, y) is F (x, y) = | Da−Db | where | Da−Db |> | α | That is, the output relationship between the signal Da and the signal Db is expressed by
Only when the condition (5) is satisfied, the feature image F (x,
A value is assigned to y). When the output relationship between the signals Da and Db does not satisfy the equation (5), the characteristic image F (x,
The value of y) is 0. After that, the center point of the paper sheet image is detected, and the feature image distribution series ΦR (r) is obtained by integrating the feature images F (x, y) existing on the circle formed by the distance r from the center point. In the subsequent processing, recognition is performed by the same method as the processing on the binary characteristic image described above.

【0023】次に、本発明の他の方法による実施例を説
明する。図4は、本発明の他の方法の実施例の構成図で
ある。読取り部10は、セットされた紙葉類を光学的に
読み取り、画像信号を出力するものであり、認識部2
0′は読み取り部10から出力された画像信号から認識
を対象とする特徴画像を抽出し、その分布形状を予め記
憶された基準の分布形状と比較し、紙葉類の真偽、種類
及び表裏を認識するものである。読取り部10は、前述
した最初の実施例と同様の構成であるので、重複する説
明を省略する。認識部20′は、特徴画像抽出処理部2
1と、重心画像検出処理部25と、特徴画像分布抽出処
理部26と、比較判別処理部27とから構成されてい
る。このうち、特徴画像抽出処理部21は、前述した最
初の実施例と同様の構成であるので、重複する説明を省
略する。重心座標検出処理部25は、特徴画像抽出処理
部21によって出力された2値の特徴画像を対象として
その2次元座標における水平方向即ち主走査方向及び垂
直方向即ち副走査方向へ黒ビットを投影して黒ビット分
布を求め、その黒ビット数分布から重心座標を検出す
る。
Next, an embodiment according to another method of the present invention will be described. FIG. 4 is a block diagram of an embodiment of another method of the present invention. The reading unit 10 optically reads the set paper sheets and outputs an image signal, and the recognition unit 2
0'extracts a characteristic image to be recognized from the image signal output from the reading unit 10 and compares the distribution shape thereof with a reference distribution shape stored in advance to determine whether the paper sheet is true, false, kind or front and back. Is to recognize. The reading unit 10 has the same configuration as that of the first embodiment described above, and thus duplicated description will be omitted. The recognition unit 20 'includes the feature image extraction processing unit 2
1, a center-of-gravity image detection processing unit 25, a characteristic image distribution extraction processing unit 26, and a comparison / discrimination processing unit 27. Among them, the characteristic image extraction processing unit 21 has the same configuration as that of the first embodiment described above, and thus the duplicate description will be omitted. The center-of-gravity coordinate detection processing unit 25 projects a black bit in the two-dimensional coordinates of the binary characteristic image output by the characteristic image extraction processing unit 21 in the horizontal direction, that is, the main scanning direction and the vertical direction, that is, the sub-scanning direction. Then, the black bit distribution is obtained, and the barycentric coordinates are detected from the black bit number distribution.

【0024】図4の垂直方向即ち副走査方向の読み取り
幅YWの中に存在する任意の座標yにおいて、その水平
方向即ち主走査方向の読み取り幅XWに存在する黒ビッ
ト数を計算し、計算された黒ビットの累積値が座標yに
おける黒ビット数分布となる。座標yにおける黒ビット
数分布ΦY(y)は次式のようになる。 ΦY(y)=ΣF(x,y) ここで、xは主走査方向の座標、XWは主走査方向の読
み取り幅であり、F(x,y)は主走査方向の座標x、
副走査方向の座標yにおける2値の特徴画像の極性値で
あり、黒ビットが1、白ビットが0である。同様にし
て、主走査方向の座標xにおける黒ビット分布系列ΦX
(x)は次式のようになる。 ΦX(x)=ΣF(x,y) ここで、YWは副走査方向における読み取り幅である。
At an arbitrary coordinate y existing in the reading width YW in the vertical direction, that is, the sub-scanning direction in FIG. 4, the number of black bits existing in the reading width XW in the horizontal direction, that is, the main scanning direction is calculated and calculated. The cumulative value of the black bits is the black bit number distribution at the coordinate y. The black bit number distribution ΦY (y) at the coordinate y is as follows. ΦY (y) = ΣF (x, y) where x is the coordinate in the main scanning direction, XW is the reading width in the main scanning direction, and F (x, y) is the coordinate x in the main scanning direction.
The polarity value of the binary characteristic image at the coordinate y in the sub-scanning direction, where the black bit is 1 and the white bit is 0. Similarly, the black bit distribution series ΦX at the coordinate x in the main scanning direction
(x) is as follows. ΦX (x) = ΣF (x, y) where YW is the reading width in the sub-scanning direction.

【0025】次に、上述で求められた黒ビット分布系列
ΦX(x), ΦY(y)から重心座標GX,GY を求める。図5
は、重心分割処理の説明図である。図5において、ま
ず、特徴画像が示す主走査方向座標xの範囲を対象とし
て次式に示すように、特徴画像の黒ビット分布系列ΦX
(x)の1次モーメントの和をその範囲の黒ビットの和で
除算することによって黒ビット分布系列ΦX(x)における
重心座標GX を求める。 GX =ΣΦX(x)x /ΣΦX(x) 次に、副走査方向座標Yの範囲を対象として黒ビット分
布系列ΦY(y)における重心座標GY を求める。 GY =ΣΦY(y)y /ΣΦY(y)
Next, the barycentric coordinates GX, GY are calculated from the black bit distribution series ΦX (x), ΦY (y) calculated as described above. Figure 5
FIG. 13 is an explanatory diagram of a centroid dividing process. In FIG. 5, first, the black bit distribution series ΦX of the feature image is expressed as shown in the following equation for the range of the coordinate x in the main scanning direction indicated by the feature image.
The barycentric coordinate GX in the black bit distribution series ΦX (x) is obtained by dividing the sum of the first moments of (x) by the sum of the black bits in the range. GX = ΣΦX (x) x / ΣΦX (x) Next, the barycentric coordinate GY in the black bit distribution series ΦY (y) is obtained for the range of the coordinate Y in the sub-scanning direction. GY = ΣΦY (y) y / ΣΦY (y)

【0026】特徴画像分布抽出処理部26は特徴画像抽
出処理部21によって抽出され、一旦バッファメモリに
格納された特徴画像F(x,y)から副走査方向yの順
に主走査方向xへ順次走査する。そして、重心座標検出
処理部25によって検出された特徴画像F(x,y)の
重心座標 (GX,GY)から特徴画像F(x,y)の中で特
徴として表われた画素の座標 (X,Y)までの距離rがなす
同心円上に存在する特徴画像F(x,y)の値を積分し
ていく。特徴画像F(x,y)の重心座標 (GX,GY)か
ら特徴画像F(x,y)までの距離rは、図中の式によ
り求められ、小数点以下を四捨五入した数値とされる。
特徴画像F(x,y)の重心座標 (GX,GY)を同心円の
中心点としてその同心円の半径rがなす円上に存在する
黒ビットの特徴画像の積分値ΦR(r)は次式により求めら
れる。 ΦR(r)=ΣF(x,y) 即ち、特徴画像F(x,y)の重心座標 (GX,GY)から
距離rの同心円上にどれだけの特徴画像F(x,y)の
積分値ΦR(r)が存在するかを出力するものである。比較
判別処理部27は、特徴画像分布抽出処理部26によっ
て抽出された特徴画像分布系列ΦR(r)の分布形状を予め
記憶された分布形状と比較し、対象とする紙葉類の真
偽、種類及び表裏を一括して認識する。
The characteristic image distribution extraction processing unit 26 is sequentially scanned in the main scanning direction x from the characteristic image F (x, y) extracted by the characteristic image extraction processing unit 21 and temporarily stored in the buffer memory in the sub-scanning direction y. To do. Then, from the barycentric coordinates (GX, GY) of the characteristic image F (x, y) detected by the barycentric coordinate detection processing unit 25, the coordinates (X) of the pixel represented as the feature in the characteristic image F (x, y) are calculated. , Y), the values of the characteristic image F (x, y) existing on a concentric circle formed by the distance r to (Y, Y) are integrated. The distance r from the barycentric coordinates (GX, GY) of the characteristic image F (x, y) to the characteristic image F (x, y) is calculated by the equation in the figure, and is a value rounded to the nearest whole number.
The integral value ΦR (r) of the black-bit feature image existing on the circle formed by the radius r of the concentric circle with the center of gravity coordinates (GX, GY) of the feature image F (x, y) as the center point of the concentric circle is Desired. ΦR (r) = ΣF (x, y) That is, the integral value of the number of characteristic images F (x, y) on the concentric circle of the distance r from the barycentric coordinates (GX, GY) of the characteristic image F (x, y). It outputs whether ΦR (r) exists. The comparison / discrimination processing unit 27 compares the distribution shape of the characteristic image distribution series ΦR (r) extracted by the characteristic image distribution extraction processing unit 26 with a pre-stored distribution shape to determine whether the target paper sheet is true or false, Recognize the type and front and back together.

【0027】特徴画像分布系列ΦR(r)は、特徴画像F
(x,y)における紙葉類画像が出力画像領域の中で位
置ずれや斜行を起こしても、重心画像抽出処理部25に
よって検出された重心座標(GX,GY)が位置ずれに対応
し、また重心座標(GX,GY)から特徴画像F(x,y)
までの距離rを同心円の半径とすることにより斜行に対
応しているので、常に安定して得られるものである。即
ち、紙葉類が示す幅よりもはるかに大きな読取領域が読
取部で設定されているため、セットされた紙葉類が位置
ずれや斜行を起こしても特徴画像分布系列ΦR(r)の分布
形状になんら影響を与えない。基準となる辞書データは
1次元系列で構成された黒ビット分布系列ΦR(r)のみで
よく、簡単なパターンマッチングを行なうことによって
対象とする紙葉類の真偽、種類及び表裏が高精度で認識
できるものである。この方法によれば、解像度の高い出
力画像から位置ずれや斜行の影響を受けずに高速で高精
度な認識処理が行なえる。
The characteristic image distribution sequence ΦR (r) is the characteristic image F
Even if the paper sheet image at (x, y) causes misalignment or skew in the output image area, the barycentric coordinates (GX, GY) detected by the barycentric image extraction processing unit 25 correspond to the misalignment. , And the feature image F (x, y) from the barycentric coordinates (GX, GY)
Since the skew r is dealt with by setting the distance r to the radius of the concentric circle, it is possible to always obtain a stable value. That is, since the reading area that is much larger than the width indicated by the paper sheets is set in the reading unit, even if the set paper sheets are misaligned or skewed, the characteristic image distribution series ΦR (r) It has no effect on the distribution shape. The reference dictionary data is only the black bit distribution series ΦR (r) composed of a one-dimensional series. By performing simple pattern matching, the authenticity of the target paper sheet, the type, and the front and back are highly accurate. It is recognizable. According to this method, it is possible to perform high-speed and high-accuracy recognition processing from an output image having a high resolution without being affected by misalignment or skew.

【0028】以上説明した本発明による特徴画像抽出処
理方法は、前述した最初の実施例における式(5) 及び
(6) を基に信号Da及び信号Dbの相関から特徴として
表われたものと特徴として表われないものとに分別して
2値化して、その2値の特徴画像についてその黒ビット
分布系列ΦR(r)を求めていたが、抽出する特徴画像は2
値でなく、多値として扱うこともできる。この場合の特
徴画像分布抽出処理については、前述した最初の実施例
について説明したものと同様であるので、重複する説明
を省略する。
The characteristic image extraction processing method according to the present invention described above is based on the equation (5) and the equation (5) in the first embodiment described above.
On the basis of (6), the correlation between the signal Da and the signal Db is divided into those which are expressed as features and those which are not expressed, and binarized, and the black bit distribution series ΦR ( r), but the feature image to be extracted is 2
It can be handled as multi-valued instead of value. The characteristic image distribution extraction processing in this case is the same as that described in the first embodiment described above, and thus redundant description will be omitted.

【0029】尚、本発明の方法は、紙葉類の全面に亙
り、その読取りを行なって識別を行なうことが原則であ
るが、例えば紙葉類の特定の領域に限定して本発明を実
施したとしても、高い識別力でこれを識別することが可
能である。また、上記実施例では、光源を2個とした
が、光源を3個以上複数設け、その相関関係を求めるよ
うにすれば、更に、高精度な識別も可能となる。
In the method of the present invention, in principle, the entire sheet is read and read to identify the sheet. However, for example, the present invention is carried out only in a specific area of the sheet. Even if it does, it is possible to identify it with high identification power. Further, in the above-mentioned embodiment, the number of light sources is two, but if three or more light sources are provided and the correlation between them is obtained, more accurate identification can be performed.

【0030】[0030]

【発明の効果】以上説明した本発明の方法によれば、紙
葉類の、識別を必要とする全領域の画像を読取って、中
心又は重心からの距離により特徴画像分布を求めるよう
にしたので、特徴画像分布を紙葉類の位置ずれや斜行に
影響しないものとすることができ、常に安定した紙葉類
の認識をすることができる。従って、紙葉類の認識を高
い信頼性で迅速に行なうことができ、自動入出金機等に
おいて、処理の高速化を図ることができる。
According to the method of the present invention described above, the image of the entire area of the paper sheet requiring identification is read, and the characteristic image distribution is obtained from the distance from the center or the center of gravity. The characteristic image distribution can be set so as not to affect the positional deviation and skew of the paper sheet, and the paper sheet can always be stably recognized. Therefore, the recognition of the paper sheets can be performed quickly with high reliability, and the processing speed can be increased in the automatic depositing / dispensing machine or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の紙葉類認識処理方法の実施例の構成図
である。
FIG. 1 is a configuration diagram of an embodiment of a paper sheet recognition processing method of the present invention.

【図2】信号出力相関図である。FIG. 2 is a signal output correlation diagram.

【図3】中心座標検出処理の概念図である。FIG. 3 is a conceptual diagram of central coordinate detection processing.

【図4】本発明の他の方法の実施例の構成図である。FIG. 4 is a block diagram of an embodiment of another method of the present invention.

【図5】重心分割処理の説明図である。FIG. 5 is an explanatory diagram of a centroid dividing process.

【符号の説明】[Explanation of symbols]

1 紙葉類 2 イメージラインセンサ 3a,3b 光源 4 搬送方向 10 読取り部 20、20′ 認識部 21 特徴画像抽出処理部 22 中心点座標検出処理部 23 特徴画像分布抽出処理部 24 比較判別処理部 25 重心座標検出処理部 26 特徴画像分布抽出処理部 27 比較判別処理部 DESCRIPTION OF SYMBOLS 1 Paper sheet 2 Image line sensor 3a, 3b Light source 4 Conveyance direction 10 Reading unit 20, 20 'Recognition unit 21 Characteristic image extraction processing unit 22 Center point coordinate detection processing unit 23 Characteristic image distribution extraction processing unit 24 Comparison discrimination processing unit 25 Centroid coordinate detection processing unit 26 Feature image distribution extraction processing unit 27 Comparison determination processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂井 俊二 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Shunji Sakai 1-7-12 Toranomon, Minato-ku, Tokyo Oki Electric Industry Co., Ltd.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 紙葉類の紙面をそれぞれ波長の異なる複
数の光源を用いて代わる代わる照射して、 読取られた画素毎に、各波長に対する反射光強度の相関
関係の特徴を抽出して数値化すると共に、 前記読取られた画素全体について、前記数値化された各
データを2次元座標で構成された出力画像領域の中で紙
葉類画像の主走査方向座標及び副走査方向座標上におけ
る端部座標を検出し、 当該端部座標から前記紙葉類画像の中心点座標を検出
し、 前記特徴画像からその特徴として表われた画素の座標と
前記中心点座標との距離を算出し、その距離の大きさの
順に付した1次元系列に当該距離に当てはまる特徴画像
の出力を積分して特徴画像分布を抽出し、 当該特徴画像分布の形状を予め用意された基準分布形状
と比較して、前記紙葉類の認識を行なうことを特徴とす
る紙葉類認識処理方法。
1. The paper surface of a paper sheet is alternately irradiated by using a plurality of light sources having different wavelengths, and the characteristic of the correlation of the reflected light intensity with respect to each wavelength is extracted for each read pixel and the numerical value is extracted. In addition to converting the digitized data into the output image area formed by the two-dimensional coordinates, the edges of the paper sheet image on the main scanning direction coordinates and the sub scanning direction coordinates of the entire read pixels. The partial coordinates are detected, the center point coordinates of the paper sheet image are detected from the edge coordinates, and the distance between the coordinates of the pixel represented as the feature and the center point coordinate is calculated from the characteristic image, The feature image distribution is extracted by integrating the output of the feature images corresponding to the distance to the one-dimensional sequence assigned in the order of the magnitude of the distance, and the shape of the feature image distribution is compared with a reference distribution shape prepared in advance. Recognition of the paper sheets Paper sheet recognition method and performing.
【請求項2】 紙葉類の紙面をそれぞれ波長の異なる複
数の光源を用いて代わる代わる照射して、 読取られた画素毎に、各波長に対する反射光強度の相関
関係の特徴を抽出して数値化すると共に、 前記数値化された全データにより形成される特徴画像
を、主走査方向座標と副走査方向座標とにそれぞれ投影
して各画素数分布をそれぞれ求め、 当該主走査方向の画素数分布の重心座標を求めるととも
に、 当該副走査方向の画素数分布の重心座標を求め、 当該主走査方向の重心座標と、当該副走査方向の重心座
標とを組み合わせて前記特徴画像の全体重心座標とし、 前記特徴画像上の各画素の座標と当該全体重心座標との
距離を求め、その距離の大きさの順に付した1次元系列
に当該距離に当てはまる特徴画像の出力を積分して特徴
画像分布を抽出し、 当該特徴画像分布の形状を予め用意された基準分布形状
と比較して、前記紙葉類の認識を行なうことを特徴とす
る紙葉類認識処理方法。
2. The paper surface of the paper sheet is alternately irradiated by using a plurality of light sources having different wavelengths, and the characteristic of the correlation of the reflected light intensity with respect to each wavelength is extracted for each read pixel and the numerical value is extracted. In addition, the characteristic image formed by all the digitized data is projected on the main scanning direction coordinates and the sub scanning direction coordinates to obtain each pixel number distribution, and the pixel number distribution in the main scanning direction is obtained. And the barycentric coordinates of the pixel number distribution in the sub-scanning direction, and the barycentric coordinates in the main scanning direction and the barycentric coordinates in the sub-scanning direction are combined to obtain the barycentric coordinates of the feature image. The distance between the coordinates of each pixel on the characteristic image and the coordinates of the entire center of gravity is obtained, and the output of the characteristic image that fits the distance is integrated into a one-dimensional sequence in the order of the distance size to obtain the characteristic image distribution. A paper sheet recognition processing method, which comprises extracting and comparing the shape of the characteristic image distribution with a reference distribution shape prepared in advance to recognize the paper sheet.
JP3018274A 1991-01-18 1991-01-18 Sheet paper recognition processing method Pending JPH0573753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3018274A JPH0573753A (en) 1991-01-18 1991-01-18 Sheet paper recognition processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3018274A JPH0573753A (en) 1991-01-18 1991-01-18 Sheet paper recognition processing method

Publications (1)

Publication Number Publication Date
JPH0573753A true JPH0573753A (en) 1993-03-26

Family

ID=11967069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3018274A Pending JPH0573753A (en) 1991-01-18 1991-01-18 Sheet paper recognition processing method

Country Status (1)

Country Link
JP (1) JPH0573753A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004077366A1 (en) * 2003-02-28 2004-09-10 Kabushiki Kaisha Nippon Conlux Sheet identifying device and method
WO2004097753A1 (en) * 2003-04-25 2004-11-11 Kabushiki Kaisha Nippon Conlux Sheet identifying device and method
CN104299313A (en) * 2014-11-04 2015-01-21 浙江大学 Paper money identification method, device and system
WO2020021957A1 (en) * 2018-07-25 2020-01-30 グローリー株式会社 Paper sheet processing device and paper sheet processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004077366A1 (en) * 2003-02-28 2004-09-10 Kabushiki Kaisha Nippon Conlux Sheet identifying device and method
GB2417773A (en) * 2003-02-28 2006-03-08 Nippon Conlux Co Ltd Sheet identifying device and method
WO2004097753A1 (en) * 2003-04-25 2004-11-11 Kabushiki Kaisha Nippon Conlux Sheet identifying device and method
JP2004326547A (en) * 2003-04-25 2004-11-18 Nippon Conlux Co Ltd Method and apparatus for identifying sheet of paper
GB2419942A (en) * 2003-04-25 2006-05-10 Nippon Conlux Co Ltd Sheet identifying device and method
KR100704852B1 (en) * 2003-04-25 2007-04-09 가부시끼가이샤 닛본 콘럭스 Sheet identifying device and method
CN104299313A (en) * 2014-11-04 2015-01-21 浙江大学 Paper money identification method, device and system
WO2020021957A1 (en) * 2018-07-25 2020-01-30 グローリー株式会社 Paper sheet processing device and paper sheet processing method

Similar Documents

Publication Publication Date Title
EP1437692B1 (en) Bill serial number reading device and bill serial number reading method
US8942461B2 (en) Method for a banknote detector device, and a banknote detector device
JP4286790B2 (en) Paper sheet identification method and paper sheet identification apparatus
JPH09282517A (en) Identifying method for paper sheets
JPH11175797A (en) Paper sheet discriminating device
WO2002033665A1 (en) Denomination identification
JP7227818B2 (en) Banknote identification device, banknote handling device, and banknote identification method
JP2004265036A (en) Paper sheet identification device and method
JPH11154254A (en) Sheet paper discriminating device
JPH0573753A (en) Sheet paper recognition processing method
JPH09330449A (en) Medium identifying device
JP2599320B2 (en) Paper sheet recognition device
JP2002092683A (en) Device for discriminating between true and false medium
CN112840383A (en) Banknote inspection device, banknote inspection method, and banknote inspection program
JPH06318246A (en) Paper sheets recognizing device
US7844098B2 (en) Method for performing color analysis operation on image corresponding to monetary banknote
WO2008140275A1 (en) Apparatus for media recognition and method for media kind distinction with the same
JP3359986B2 (en) Coin recognition device
CN109410420B (en) Image detection method and device and bill discriminator
JPH0644437A (en) Recognizing device for paper sheet etc
JP3640219B2 (en) Banknote recognition device
JPH11219460A (en) Method for processing inclined image
JPH10198837A (en) Paper sheet discriminating device
JPH06318245A (en) Paper sheets recognizing device
JPH04106692A (en) Discrimination processing method for paper sheet