JPH0562045A - Paper sheet recognition device - Google Patents

Paper sheet recognition device

Info

Publication number
JPH0562045A
JPH0562045A JP25048291A JP25048291A JPH0562045A JP H0562045 A JPH0562045 A JP H0562045A JP 25048291 A JP25048291 A JP 25048291A JP 25048291 A JP25048291 A JP 25048291A JP H0562045 A JPH0562045 A JP H0562045A
Authority
JP
Japan
Prior art keywords
paper sheet
boundary point
image
image data
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25048291A
Other languages
Japanese (ja)
Other versions
JP2599320B2 (en
Inventor
Naohiro Watanabe
尚洋 渡▲邉▼
Taketo Sekiguchi
武人 関口
Shunji Sakai
俊二 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP25048291A priority Critical patent/JP2599320B2/en
Publication of JPH0562045A publication Critical patent/JPH0562045A/en
Application granted granted Critical
Publication of JP2599320B2 publication Critical patent/JP2599320B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

PURPOSE:To obtain the high-speed and highly reliable device excellent in the prevention of positional deviation and oblique deviation by reading the image of the entire area requiring the recognition of a paper sheet, extracting a certain amount of statistics from the gradation image and determining a binarized threshold. CONSTITUTION:An oblique deviation correction part 3, when it reads the data of a paper sheet 1 with a scanner 2 while carrying the paper sheet 1 in a prescribed direction, removes the relative distortion between the paper sheet 1 and the scanner 2. After the inclination of the read image is corrected by the oblique deviation correction part 3, necessary and minimum gradation image data are segmented by an effective area determination part 5 and the segmented data becomes the object of a processing. The gradation image data are binary coded and the image of its border point is obtained. The obtained border point image is compared with a border point image preliminarily prepared for identification to recognize the type of the paper sheet 1 and whether or not the paper sheet 1 is genuine. With such recognition by means of the border point image, high recognition rate can be obtained. And since check is performed for the segmented absolute minimum data, high speed processing can be obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は紙幣、有価証券、債券な
どの種類や真偽を認識するために使用される紙葉類認識
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a paper sheet recognition apparatus used for recognizing types and authenticity of bills, securities, bonds and the like.

【0002】[0002]

【従来の技術】金融機関などにおいて、預貯金や振込処
理などを自動化するために、自動入出金機(ATM)や
自動取引装置などが設置されている。この自動入出金機
等では、顧客によって紙幣が投入されると、紙幣の種類
や真偽の認識が行われる。この処理は、紙幣鑑別部によ
って行われるが、ここではまず、紙幣の搬送方向に平行
な1本または複数本のラインに沿って、光学的あるいは
磁気的なパターンを読み取る。光学的パターンは、紙幣
の模様により金種ごとに一定の特徴をもつ。また、磁気
的パターンも同様の特徴をもつ。検出されたパターン
は、アナログ信号であるが、読み取ったライン上の多数
の点において、所定のしきい値と比較され2値化され
る。こうして得られたパルス列を、カウンタ回路により
カウントし、そのカウント値を辞書データと比較する。
検出されたすべてのラインについて、このカウント値が
辞書データの中のいずれかと近似していれば、紙幣の種
類および真偽や表裏、方向等を認識できる。
2. Description of the Related Art In a financial institution, an automatic deposit / withdrawal machine (ATM), an automatic transaction device, etc. are installed in order to automate deposit / saving and transfer processing. In this automatic depositing / dispensing machine, when a customer inserts a bill, the type and authenticity of the bill is recognized. This processing is performed by the bill validator, but here, first, an optical or magnetic pattern is read along one or more lines parallel to the bill transport direction. The optical pattern has certain characteristics for each denomination due to the pattern of the bill. The magnetic pattern also has the same characteristics. The detected pattern, which is an analog signal, is compared with a predetermined threshold value and binarized at many points on the read line. The pulse train thus obtained is counted by the counter circuit, and the count value is compared with the dictionary data.
If the count value is close to any of the dictionary data for all the detected lines, it is possible to recognize the type, authenticity, front / back, direction, etc. of the bill.

【0003】[0003]

【発明が解決しようとする課題】ところで、上記のよう
な従来方法は、通常、紙幣上の特定のラインに沿った部
分的な領域の特徴を抽出して、その認識を行っている。
従って、小面積の偽造が、その検出領域以外に存在する
ような場合には、真券と認識してしまう場合もある。こ
れは、例えば、紙幣の部分的な貼り合わせなどが行われ
た場合に生じる。また、認識の信頼度を高めるために、
紙幣の外形寸法や厚みなどを検出し、種々の角度から紙
幣の種類、真偽を認識する方法もある。しかしながら、
このような方法では、たとえ1つでもパラメータが規格
範囲を外れていれば、偽券と判定される。従って、この
ような場合、偽券と判定される率が増大し、実用面で問
題がある。もちろん、このような問題は、紙幣の鑑定に
限らず、証券類、そのほか種々の紙葉類の鑑定にも、同
様に相通じるところがある。
By the way, in the conventional method as described above, the feature of a partial region along a specific line on a bill is usually extracted and recognized.
Therefore, when a small-area forgery exists outside the detection area, it may be recognized as a genuine note. This occurs when, for example, banknotes are partially pasted together. In addition, in order to increase the reliability of recognition,
There is also a method of detecting the outer size and thickness of a bill and recognizing the type and authenticity of the bill from various angles. However,
In such a method, if even one parameter is out of the standard range, it is determined to be a fake bill. Therefore, in such a case, the rate of determination as a fake bill increases, which is a problem in practical use. Of course, such a problem is not limited to the appraisal of banknotes, and is similarly applicable to the appraisal of securities and other various paper sheets.

【0004】これらの問題を解決するためには、まず、
紙葉類のできるだけ広範囲な部分を、高い解像度で読み
取って認識の基準とし、小面積の偽造や貼り合わせなど
も検出できるようにすることが好ましい。また、できる
だけ信頼性の高い1つの基準を用いて、種類や真偽の認
識を行うことが認識率向上のために好ましい。しかし、
読み取るべきデータ量が多いと、データ処理に長時間を
要し、高速で照合を行うことが困難になる。従って、銀
行等に設けた自動取引装置への採用には問題がある。さ
らに、紙葉類の一部を読み取る方法では、紙葉類の搬送
に位置ずれがあれば、検出データに変動を生じ、誤認識
が発生しうる。これを解決するためには、紙葉類の多少
の位置ずれに対しても、何らの影響を受けることのない
認識処理が望まれる。本発明は、以上の点に着目してな
されたもので、位置ずれや斜行ずれなどにも強く、高速
かつ信頼性の高い紙葉類認識装置を提供することを目的
とするものである。
In order to solve these problems, first,
It is preferable that the widest possible area of the paper sheet is read at a high resolution and used as a reference for recognition so that counterfeiting or bonding of a small area can be detected. Further, it is preferable to recognize the type and authenticity by using one criterion having the highest reliability in order to improve the recognition rate. But,
If the amount of data to be read is large, it takes a long time to process the data, making it difficult to perform collation at high speed. Therefore, there is a problem in adoption in an automatic transaction device provided in a bank or the like. Further, in the method of reading a part of the paper sheet, if the paper sheet is misaligned in its transportation, the detection data may fluctuate, resulting in erroneous recognition. In order to solve this, a recognition process is desired that is not affected by any positional deviation of paper sheets. The present invention has been made in view of the above points, and an object of the present invention is to provide a paper sheet recognition apparatus that is resistant to positional deviation, skew deviation, and the like, and has high speed and high reliability.

【0005】[0005]

【課題を解決するための手段】本発明の紙葉類認識装置
は紙葉類上のデータを読み取るスキャナと、前記紙葉類
のデータ読み取り時、紙葉類の搬送状態からその斜行角
度を検出し、前記スキャナの読み取り信号を斜行補正し
てバッファメモリに書き込む斜行補正部と、前記バッフ
ァメモリに書き込まれた濃淡画像データを解析して、前
記バッファメモリ中の前記紙葉類の端部位置と中心位置
を抽出し、前記濃淡画像データの有効領域を決定する有
効領域決定部と、前記バッファメモリの中から、前記有
効領域の濃淡画像データを読み出して、その濃度の頻度
分布より2値化用閾値を決定し、前記紙葉類の占める濃
淡画像データを2値化する2値化処理部と、前記2値化
された画像データから、白/黒境界点を抽出した境界点
画像を得る境界点抽出部と、前記境界点画像と、予め用
意された基準となる複数の境界点画像とを比較して、一
致率分布を作成する照合部と、前記照合部の出力に基づ
いて、前記紙葉類の種類、真偽を認識する認識部とを備
えたことを特徴とするものである。
A paper sheet recognition apparatus according to the present invention includes a scanner for reading data on a paper sheet, and a skew angle of the paper sheet when the data is read from the transportation state of the paper sheet. The skew correction unit that detects the skew of the read signal of the scanner and writes the skew signal in the buffer memory, and the grayscale image data written in the buffer memory is analyzed to detect the edge of the paper sheet in the buffer memory. A gray level image data of the valid area is read out from the valid area determining unit that extracts the partial position and the central position and determines the valid area of the gray level image data, and from the buffer memory. A binarization processing unit that determines a binarization threshold value and binarizes the grayscale image data that the paper sheet occupies, and a boundary point image in which white / black boundary points are extracted from the binarized image data. Boundary point to get An output unit, the boundary point image, and a comparison unit that compares a plurality of boundary point images that are prepared in advance to create a matching rate distribution, and the paper sheet based on the output of the matching unit. It is characterized in that it is provided with a recognition unit for recognizing the type and authenticity.

【0006】[0006]

【作用】この装置は斜行補正部により読み取り画像の傾
きを補正した後、有効領域決定部によって必要最小限の
濃淡画像データを切り出して処理対象とする。この濃淡
画像データは2値化され、さらにその境界点画像を得
る。これを識別のために予め用意された境界点画像と比
較し、紙葉類の種類や真偽を認識する。境界点画像によ
る認識によれば認識率が高く、必要最小限のデータを切
り出して照合を行うため、高速処理も可能となる。
In this apparatus, the skew correction unit corrects the inclination of the read image, and the effective area determination unit cuts out the minimum necessary grayscale image data for processing. The grayscale image data is binarized, and the boundary point image is obtained. This is compared with a boundary point image prepared in advance for identification, and the type and authenticity of the paper sheet are recognized. According to the recognition by the boundary point image, the recognition rate is high, and the minimum necessary data is cut out and collation is performed, so that high-speed processing is also possible.

【0007】[0007]

【実施例】以下、本発明を図の実施例を用いて詳細に説
明する。図1は本発明の紙葉類認識装置実施例を示すブ
ロック図である。まず、本発明の認識対象となる紙葉類
1は、例えば紙幣や有価証券、債券などである。このよ
うな紙葉類1には、光学的あるいは磁気的なデータが記
録されている。本発明の装置は、このようなデータをス
キャナ2を用いて読み取る構成とされている。なお、以
下の実施例では紙葉類を例えば紙幣とし、これに印刷さ
れた光学的な情報を、スキャナ2を用いて読み取る例を
上げて説明する。この場合、スキャナ2は、例えばイメ
ージラインセンサなどから構成される。
The present invention will be described in detail below with reference to the embodiments shown in the drawings. FIG. 1 is a block diagram showing an embodiment of a paper sheet recognition apparatus of the present invention. First, the paper sheet 1 to be recognized by the present invention is, for example, a banknote, a securities, a bond, or the like. Optical or magnetic data is recorded on such a paper sheet 1. The apparatus of the present invention is configured to read such data using the scanner 2. In the following embodiments, an example will be described in which the paper sheets are bills and the optical information printed on the bills is read using the scanner 2. In this case, the scanner 2 is composed of, for example, an image line sensor or the like.

【0008】斜行補正部3は、紙葉類1を所定の方向に
搬送しながら、スキャナ2を用いてそのデータを読み取
った場合に、紙葉類1とスキャナ2との相対的な傾きに
よるデータの歪を除去する部分である。その具体的な構
成は後で説明するが、斜行補正部3はバッファメモリ4
に対し、斜行補正したデータを書き込む。バッファメモ
リ4には上記のようにして紙葉類を読み取った濃淡画像
データが格納される。しかしながら、この場合、紙葉類
1の周辺に配置された背景などのイメージも同時に読み
取られる。従って、これらを除去し必要最小限のデータ
を取り出すために有効領域決定部5が設けられている。
この動作等も後で詳細に説明するが、バッファメモリ4
に格納された有効な濃淡画像データが2値化部6により
2値化される。そして境界点抽出部7は後で説明する境
界点画像を求める。この境界点画像は、紙幣の種類や表
裏、方向などによって一定の特徴をもつ。従って、照合
部9において、予め用意された基準境界点画像8と、境
界点抽出部7の出力する境界点画像を比較し、その結果
を認識部10に出力して紙葉類1の種類、真偽、表裏、
方向などを認識する。以上が本発明の装置の概略構成お
よび動作である。
The skew feeding correcting unit 3 detects the relative inclination between the sheet 1 and the scanner 2 when the data is read by the scanner 2 while the sheet 1 is conveyed in a predetermined direction. This is the part that removes data distortion. Although the specific configuration will be described later, the skew feeding correction unit 3 includes the buffer memory 4
On the other hand, the skew-corrected data is written. The buffer memory 4 stores the grayscale image data obtained by reading the paper sheets as described above. However, in this case, an image such as a background arranged around the paper sheet 1 is also read at the same time. Therefore, the effective area determination unit 5 is provided to remove these and extract the minimum necessary data.
The operation of the buffer memory 4 will be described later in detail.
The effective grayscale image data stored in the binarization section 2 is binarized by the binarization unit 6. Then, the boundary point extraction unit 7 obtains a boundary point image described later. This boundary point image has certain characteristics depending on the type of banknote, front and back, direction, and the like. Therefore, in the collation unit 9, the prepared reference boundary point image 8 is compared with the boundary point image output by the boundary point extraction unit 7, and the result is output to the recognition unit 10 to determine the type of the paper sheet 1, Authenticity, front and back,
Recognize the direction etc. The above is the schematic configuration and operation of the apparatus of the present invention.

【0009】以下、本発明の装置の各部の具体的な構成
および動作を順に説明する。図2に本発明の装置のスキ
ャナ2と斜行補正部3の具体的な実施例を示すブロック
図を図示した。図2には、紙葉類1の搬送路上に配置し
たイメージラインセンサ21と、フォトセンサ22およ
びA/D変換部23、斜行角度検出部24、斜行補正部
3、バッファメモリ4および位置検出部27が示されて
いる。イメージラインセンサ21は、よく知られたCC
Dなどによる光学的イメージ読み取り素子群から構成さ
れる。その出力は、A/D変換部23によりディジタル
化され、斜行補正部3に入力する。フォトセンサ22
は、紙葉類1の搬送路上における傾きを検出し、斜行角
度検出部24は、その出力に基づいて、紙葉類1が搬送
路に対しどの程度傾いているかを演算により求める構成
とされている。
The specific construction and operation of each part of the apparatus of the present invention will be described below in order. FIG. 2 is a block diagram showing a specific embodiment of the scanner 2 and the skew feeding correction unit 3 of the apparatus of the present invention. In FIG. 2, the image line sensor 21 arranged on the conveyance path of the paper sheet 1, the photo sensor 22, the A / D conversion unit 23, the skew feeding angle detection unit 24, the skew feeding correction unit 3, the buffer memory 4, and the position. The detector 27 is shown. The image line sensor 21 is a well-known CC
It is composed of an optical image reading element group such as D. The output is digitized by the A / D conversion unit 23 and input to the skew feeding correction unit 3. Photo sensor 22
Is configured to detect the inclination of the paper sheet 1 on the conveyance path, and the skew angle detection unit 24 calculates, based on the output, how much the paper sheet 1 is inclined with respect to the conveyance path. ing.

【0010】図3に斜行補正部の動作説明図を示す。図
において、紙葉類1はイメージラインセンサ21に対
し、矢印22に示す方向に搬送される。この場合、顧客
による紙幣の投入方向などのばらつきによって、図のよ
うに紙葉類1は、イメージラインセンサ21に対し、所
定の傾きをもつことがある。この傾きを検出するため
に、一対の光検出素子、P1 、P2 が、イメージライン
センサ21に対して平行に配列されている。この光検出
素子P1 、P2 は、例えば幅Pw だけ離れて配置されて
いるものとする。
FIG. 3 shows an operation explanatory diagram of the skew feeding correcting portion. In the figure, the sheet 1 is conveyed to the image line sensor 21 in the direction indicated by the arrow 22. In this case, the sheet 1 may have a predetermined inclination with respect to the image line sensor 21 as shown in the figure due to variations in the bill insertion direction of the customer. In order to detect this inclination, a pair of photodetector elements, P1 and P2, are arranged in parallel with the image line sensor 21. The photodetectors P1 and P2 are assumed to be arranged, for example, separated by a width Pw.

【0011】紙葉類1が、図3に示すようにイメージラ
インセンサ21に対し所定の傾きをもって挿入される
と、両光検出素子P1 、P2 のそれぞれの検出信号に時
間的な差が発生する。この場合の検出時間差に搬送速度
をかければ、搬送量の差Pt が得られる。これらのデー
タを用いれば、図12に示す式S1を用いて斜行角度を
求めることができる。なお、図12から図18には、以
下に順に説明を進める本発明の装置各部の演算動作を、
その役割と具体的な演算式を用いて例示するようにし
た。イメージラインセンサ21は、紙葉類1の反射光あ
るいは通過光の光学的なアナログパターンを読み取る。
この信号は図2に示すA/D変換部23によって、ディ
ジタル形式の濃淡画像データに変換される。図2に示す
斜行角度検出部24は、先に説明した要領で斜行角度を
演算し、斜行補正部3にその制御信号を入力する。これ
によってバッファメモリ4には、斜行補正された濃淡画
像データが格納される。この場合、読み取られた濃淡画
像データの主走査アドレスをi0 、副走査アドレスをj
0 とし、バッファメモリ4に書き込むべき主走査アドレ
スをi1 、副走査アドレスをj1 とすると、その換算は
図12に示した演算式S2によって行うことができる。
図2に示すバッファメモリ4にはこのようにして、紙葉
類1の読み取りにより得られた濃淡画像データが傾斜の
ない形で格納される。
When the paper sheet 1 is inserted into the image line sensor 21 with a predetermined inclination as shown in FIG. 3, a time difference occurs between the detection signals of the two photodetection elements P1 and P2. .. If the conveyance speed is added to the detection time difference in this case, the conveyance amount difference Pt is obtained. By using these data, the skew angle can be obtained by using the formula S1 shown in FIG. 12 to 18, the arithmetic operation of each part of the device of the present invention, which will be described in order below,
The role and the specific arithmetic expression are used for illustration. The image line sensor 21 reads an optical analog pattern of reflected light or passing light of the paper sheet 1.
This signal is converted into grayscale image data in digital format by the A / D conversion unit 23 shown in FIG. The skew angle detection unit 24 shown in FIG. 2 calculates the skew angle in the manner described above, and inputs the control signal to the skew correction unit 3. As a result, the skew-corrected grayscale image data is stored in the buffer memory 4. In this case, the main scanning address of the read grayscale image data is i0 and the sub-scanning address is j.
If 0, the main scanning address to be written in the buffer memory 4 is i1, and the sub-scanning address is j1, the conversion can be performed by the arithmetic expression S2 shown in FIG.
In this way, the grayscale image data obtained by reading the sheet 1 is stored in the buffer memory 4 shown in FIG.

【0012】なお、上記スキャナ2は、紙葉類1の全体
を読み取ることが可能なように、認識対象となる紙葉類
1の対角線以上の読み取り可能長をもつことが好まし
い。さて、こうして上記バッファメモリ4に読み込まれ
た濃淡画像データには、紙葉類の周辺やその背景部分に
あるもののデータも含まれる。これらのデータを含めて
その後の処理を行おうとすると、処理速度の高速化を図
れない。そこで、まず図2に示した位置検出部27が、
バッファメモリ4中の該当する濃淡画像データの位置を
検出する。
It is preferable that the scanner 2 has a readable length equal to or larger than a diagonal line of the sheet 1 to be recognized so that the entire sheet 1 can be read. By the way, the grayscale image data thus read into the buffer memory 4 includes the data of the periphery of the paper sheet or the background portion thereof. If an attempt is made to perform subsequent processing including these data, the processing speed cannot be increased. Therefore, first, the position detection unit 27 shown in FIG.
The position of the corresponding grayscale image data in the buffer memory 4 is detected.

【0013】図4に位置検出部動作説明図を示す。図に
示すように、バッファメモリ4には図のような範囲で濃
淡画像データ51が格納される。そして、濃淡画像デー
タ51の中央部分にある白抜き部分52が認識対象とな
る紙葉類の濃淡画像データの領域である。図2に示した
位置検出部27は、図2に示した斜行補正部3がバッフ
ァメモリ4に対し濃淡画像データを書き込む際に、図4
に示す紙葉類の端部位置のアドレスIs 、Ie 、Js 、
Jeを検出する。また、さらに演算によって、紙葉類に
対応する濃淡画像データの中心位置座標Ip 、Jp を検
出する。この方法として位置検出部は、バッファメモリ
の主走査方向の全幅Iw と副走査方向の全幅Jw につい
て、それぞれ濃淡画像データに基づく濃度波形を求め
る。図4の右側と下側に示したものがこの波形である。
そして、これらの波形に基づいて、しきい値Mt を設定
する。このしきい値Mtは、最大濃度と最低濃度の中間
の値に設定する。そしてIs 、Ie 、Js 、Je の初期
値を、それぞれ図12の演算式S3に示すように、Iw
,0,Jw ,0に設定する。そして、斜行補正部3が
バッファメモリ4に濃淡画像データを順に書き込むたび
に、図13に示すS4からS7の更新式を順次更新して
いく。
FIG. 4 is a diagram for explaining the operation of the position detecting section. As shown in the drawing, the grayscale image data 51 is stored in the buffer memory 4 in the range shown in the drawing. Then, the white portion 52 at the center of the grayscale image data 51 is the grayscale image data area of the paper sheet to be recognized. The position detecting unit 27 shown in FIG. 2 has a structure shown in FIG. 4 when the skew feeding correcting unit 3 shown in FIG. 2 writes the grayscale image data into the buffer memory 4.
Addresses Is, Ie, Js of the end position of the paper sheet shown in
Detect Je. Further, by further calculation, the center position coordinates Ip and Jp of the grayscale image data corresponding to the paper sheet are detected. As this method, the position detecting section obtains the density waveform based on the grayscale image data for the total width Iw in the main scanning direction and the total width Jw in the sub scanning direction of the buffer memory. This waveform is shown on the right side and the lower side of FIG.
Then, the threshold value Mt is set based on these waveforms. This threshold Mt is set to an intermediate value between the maximum density and the minimum density. Then, the initial values of Is, Ie, Js, and Je are respectively Iw as shown in the arithmetic expression S3 of FIG.
, 0, Jw, 0. Then, each time the skew feeding correction unit 3 sequentially writes the grayscale image data in the buffer memory 4, the update formulas of S4 to S7 shown in FIG. 13 are sequentially updated.

【0014】例えばS4の更新式は、画素(i,j)の
出力値M(i,j)がしきい値Mtより小さくなったと
き、主走査座標アドレスiとIs とを比較して、主走査
座標アドレスiの方が小さければ、端部位置変数Is に
主走査座標アドレスiの値を割り当てる。以下Ie の更
新式、Js の更新式、Je の更新式についても全く同様
の対応する演算を行う。
For example, the update formula of S4 is such that when the output value M (i, j) of the pixel (i, j) becomes smaller than the threshold value Mt, the main scanning coordinate address i is compared with Is and the main scanning coordinate address i is compared with Is. If the scanning coordinate address i is smaller, the value of the main scanning coordinate address i is assigned to the end position variable Is. In the following, exactly the same corresponding operations are performed for the update formula of Ie, the update formula of Js, and the update formula of Je.

【0015】上記のような処理によって、斜行補正部3
がバッファメモリ4に対し、全ての濃淡画像データを書
き込み終わったとき、紙葉類の右上および左下の座標が
それぞれ(Is ,Js ),(Ie ,Je )として検出さ
れる。さらにその後、図2に示す位置検出部27は紙葉
類の中心位置を抽出する。この場合の演算式は図13の
S8に示すとおりである。こうして求められた中心位置
座標(Ie ,Je )は、紙葉類1の読み取り位置ずれに
対応する。従って、この中心位置座標を基準にしてバッ
ファメモリ4中の有効領域が決定される。
By the above-described processing, the skew feeding correction unit 3
When all the grayscale image data have been written to the buffer memory 4, the upper right and lower left coordinates of the paper sheet are detected as (Is, Js) and (Ie, Je), respectively. After that, the position detector 27 shown in FIG. 2 extracts the center position of the paper sheet. The arithmetic expression in this case is as shown in S8 of FIG. The center position coordinates (Ie, Je) thus obtained correspond to the reading position shift of the paper sheet 1. Therefore, the effective area in the buffer memory 4 is determined on the basis of the center position coordinates.

【0016】図5に有効領域決定部動作説明図を示す。
図1に示す有効領域決定部5は、図4に示した位置検出
部27の出力結果に基づいて、バッファメモリ4中の有
効領域を決定する。この場合、まず紙葉類の濃淡画像デ
ータの中心位置座標Ic 、Jc を基準とする。そして、
図5に示す白抜き部分の領域を、実際に読み取った紙葉
類の濃淡画像データが含まれる領域とすると、これより
例えば一回り広い横幅Bw 縦幅Bh の領域を有効領域に
決定する。この幅は例えば、装置が実際に認識対象とす
る紙葉類の最大のものの占める領域に設定される。例え
ば紙幣の認識を行う場合には、千円券、五千円券、万円
券の3種類の紙幣を認識することになるが、この場合、
最大の大きさの万円券を認識できる領域を常に切り出す
ようにする。
FIG. 5 is a diagram for explaining the operation of the effective area determining section.
The effective area determination unit 5 shown in FIG. 1 determines the effective area in the buffer memory 4 based on the output result of the position detection unit 27 shown in FIG. In this case, first, the center position coordinates Ic and Jc of the grayscale image data of the paper sheet are used as a reference. And
Assuming that the white area shown in FIG. 5 is an area including the grayscale image data of the actually read paper sheet, an area having a width Bw and a vertical width Bh, which is slightly wider than this, is determined as the effective area. This width is set to, for example, the area occupied by the largest paper sheet actually recognized by the apparatus. For example, when recognizing banknotes, three types of banknotes, 1,000-yen, 5,000-yen, and 10,000-yen, will be recognized. In this case,
Always cut out the area where the largest 10,000 yen note can be recognized.

【0017】こうして切り出された濃淡画像データは、
図1に示す2値化部6によって2値化処理される。図6
に2値化部ブロック図を示す。この回路は、バッファメ
モリ4から読み出されたデータをもとに、濃度分布を作
成する濃度分布作成部61と、しきい値決定部62およ
び、濃淡画像データの2値化処理を行う2値化変換部6
3から構成される。ここでバッファメモリ4には、図1
4のS9に示す格子上に配列されたIw ×Jw 個の濃淡
画像データMが格納されている。濃度分布作成部61
は、このバッファメモリ4から先に説明した有効領域の
濃淡画像データを読み出し、その濃淡値が発生した頻度
を表す濃度分布系列を作成する。即ち、濃度分布作成部
61は、図14のS10に示した濃淡画像データMのみ
を読み出す。この濃淡画像データを2値化するために
は、紙葉類ごとの紙質、印刷濃度などの変動や、スキャ
ナのイメージラインセンサの経時変化などの変動にとら
われないよう、適切なしきい値を決定することが望まし
い。そのしきい値の決定のため、この実施例では濃度分
布系列一次モーメント平均値を算出し、これを最適しき
い値MthIに決定する。一次モーメント平均値は図1
4のS11に示すような演算により求められる。
The grayscale image data thus cut out is
Binarization processing is performed by the binarization unit 6 shown in FIG. Figure 6
A block diagram of the binarization unit is shown in FIG. This circuit is based on the data read from the buffer memory 4, a density distribution creating unit 61 for creating a density distribution, a threshold value determining unit 62, and a binary value for binarizing the grayscale image data. Conversion unit 6
It consists of 3. Here, in the buffer memory 4, FIG.
4, Iw × Jw grayscale image data M arranged on the grid shown in S9 is stored. Concentration distribution creating unit 61
Reads the grayscale image data of the effective area described above from the buffer memory 4 and creates a density distribution series representing the frequency of occurrence of the grayscale value. That is, the density distribution creating unit 61 reads only the grayscale image data M shown in S10 of FIG. In order to binarize the grayscale image data, an appropriate threshold value is determined so as not to be affected by changes in the paper quality, print density, etc. for each sheet, and changes over time in the image line sensor of the scanner. Is desirable. In order to determine the threshold value, in this embodiment, the average value of the first moment of concentration distribution series is calculated, and this is determined as the optimum threshold value MthI. Figure 1 shows the average value of the first moment
4 is calculated by the calculation shown in S11.

【0018】図7に2値化部動作説明図を示す。この図
7の縦軸には濃度分布系列Mhstをとり、横軸にはモ
ーメントmをとった。この場合、一次モーメント平均値
MthIをしきい値に決定するほか、この濃度分布系列
Mhstの分布形状が2つのピークをもつ場合には、そ
のピークの谷となる部分、Mstをしきい値とするよう
にしてもよい。また、この濃淡値と読み出す画素数との
分散値を求め、これによってしきい値を決定するように
してもよい。これらのいずれの方法によりしきい値を求
めるかは、実際に対象となる紙葉類の性質などによって
経験的に求められる。
FIG. 7 is a diagram for explaining the operation of the binarizing unit. In FIG. 7, the vertical axis represents the concentration distribution series Mhst, and the horizontal axis represents the moment m. In this case, the first-order moment average value MthI is determined as a threshold value, and when the distribution shape of this concentration distribution series Mhst has two peaks, the valley portion of the peak, Mst, is set as the threshold value. You may do it. Further, the threshold value may be determined by obtaining a variance value between the gray value and the number of pixels to be read. Which of these methods is used to determine the threshold value is empirically determined depending on the nature of the paper sheet that is actually the target.

【0019】なお、こうして求められたしきい値は、ま
ず第一段階としての紙葉類の真偽判定に使用される。即
ち、紙葉類をコピーして作成した偽造紙葉類が読み込ま
れた場合に、そのしきい値は本物の紙葉類によるしきい
値と比べて著しく相違する。即ち、紙葉類の紙質や印刷
濃度などの各種の変動により生じるしきい値のばらつき
は、図7に示すMstとMspの範囲内に納まる。従っ
て、図14に示すS12の式を紙葉類の第一段階におけ
る真偽判定用に使用し、もし、しきい値がこの範囲に含
まれない場合、紙葉類は偽物であるとして処理を中断す
る。なお、このようにしきい値が一定の範囲に納まるよ
うに、スキャナによる照射光源の波長を適切に選定する
ことが好ましい。
The threshold value thus obtained is first used in the authenticity determination of the paper sheet as the first step. That is, when the counterfeit paper sheet created by copying the paper sheet is read, the threshold value thereof is significantly different from the threshold value of the genuine paper sheet. That is, the variation in the threshold value caused by various variations such as the paper quality and print density of the paper sheet falls within the range of Mst and Msp shown in FIG. Therefore, the formula of S12 shown in FIG. 14 is used for authenticity determination in the first stage of the paper sheet, and if the threshold value is not included in this range, the paper sheet is treated as a counterfeit. Suspend. In addition, it is preferable to appropriately select the wavelength of the irradiation light source by the scanner so that the threshold value falls within a certain range.

【0020】なお、上記MstやMspの値は、本物の
紙葉類を数千枚あるいは数万枚について、上記の処理を
行ってその濃度分布系列から求めたしきい値により決定
する。図6に示す2値変換部63は、こうして得られた
しきい値をもとに上記濃淡画像データを2値化する。こ
の場合、読み取り画素Bは図14S13に示した内容の
ものとなる。これは、先に説明したように、実際に読み
取った紙葉類の中心位置座標から演算して決定した有効
領域にある。この範囲を図14のS14に示す。2値化
処理は図14のS15に従って行われる。即ち、読み出
された濃淡画像データを、先に決定したしきい値と比較
して、しきい値より大きい場合は1、小さい場合は0と
いう出力を得る。
The values of Mst and Msp are determined by a threshold value obtained from the density distribution series by performing the above processing on thousands or tens of thousands of real paper sheets. The binary conversion unit 63 shown in FIG. 6 binarizes the grayscale image data based on the threshold value thus obtained. In this case, the read pixel B has the content shown in S13 of FIG. As described above, this is in the effective area calculated and calculated from the center position coordinates of the actually read paper sheet. This range is shown in S14 of FIG. The binarization process is performed according to S15 of FIG. That is, the read grayscale image data is compared with the previously determined threshold value, and if the threshold value is larger than the threshold value, 1 is output, and if it is smaller, the output is 0.

【0021】次に上記のような2値化処理後の信号から
雑音を除去する。図6の2値変換部63の出力側にはこ
の雑音除去手段64が設けられている。この雑音除去
は、2値化された画像データの中に存在する孤立点など
を除去する処理である。この処理自体は、従来知られた
画像処理技術により確立されているが、その例を以下に
示す。まず2値化された画像データBの画素(x、y)
の出力値に対応して、その画素(x、y)を中心とする
周辺8画素分ηB(x、y)の出力値の和から画素
(x、y)の出力値が雑音であるか否かを判断する。こ
の演算は図15のS16およびS17に基づく。そして
画像データを副走査方向の順に主走査方向へ順次走査し
ながら、画像データBの画素ZYの出力値が0で、図1
5のS18に示す画素(x、y)を中心とする周辺画素
群の出力値の和が5以下のときは1(黒)を出力する。
また、5よりも大きいときは0(白)を出力する。この
判断は図15のS18に示すとおりである。また、画像
データBにおける画素(x、y)の出力値が1(黒)の
ときは、図15のS19に示す式により周辺画素群の出
力値の和が3以上のときは1(黒)を出力し、3より小
さいときは0(白)を出力する。
Next, noise is removed from the signal after the binarization process as described above. The noise removing unit 64 is provided on the output side of the binary conversion unit 63 in FIG. This noise removal is a process of removing isolated points and the like existing in the binarized image data. This processing itself has been established by a conventionally known image processing technique, and an example thereof is shown below. First, the pixel (x, y) of the binarized image data B
Whether the output value of the pixel (x, y) is noise is determined from the sum of the output values of the peripheral 8 pixels ηB (x, y) around the pixel (x, y) corresponding to the output value of To judge. This calculation is based on S16 and S17 of FIG. While sequentially scanning the image data in the sub-scanning direction in the main scanning direction, the output value of the pixel ZY of the image data B is 0, and
When the sum of the output values of the peripheral pixel group centered on the pixel (x, y) shown in S18 of 5 is 5 or less, 1 (black) is output.
When it is larger than 5, 0 (white) is output. This determination is as shown in S18 of FIG. Further, when the output value of the pixel (x, y) in the image data B is 1 (black), 1 (black) when the sum of the output values of the peripheral pixel groups is 3 or more according to the formula shown in S19 of FIG. Is output, and when it is smaller than 3, 0 (white) is output.

【0022】以上のように雑音を除去された2値画像は
黒の領域は黒く塗りつぶされ、直線や曲線は滑らかに表
現されたものとなる。こうして雑音を除去された画像デ
ータは、図1に示す境界点抽出部7に向けて出力され
る。この2値化された画像データは、図16のS20に
示すように格子状に配列された主走査幅Bw ×副走査幅
Bh 個の画素から構成される。ここで境界点抽出部7
は、この画像データから白と黒の境界点を抽出する。
In the binary image from which the noise has been removed as described above, the black area is painted black and the straight lines and curves are smoothly expressed. The image data from which the noise has been removed in this way is output to the boundary point extraction unit 7 shown in FIG. This binarized image data is composed of main scanning width Bw × sub scanning width Bh pixels arranged in a grid as shown in S20 of FIG. Here, the boundary point extraction unit 7
Extracts white and black boundary points from this image data.

【0023】図8に境界点抽出動作説明図を示す。図の
右上に示すのは、境界点抽出の対象となる画像データ7
1である。この画像データ71には例えば、長方形72
と円73が描かれている。この画像データをまず左側か
ら見て境界点の抽出を行う。この場合、図の画像をX方
向に走査しながら、その走査線上で黒画素の数をカウン
トする。その結果は左側のグラフにプロットする。この
動作を図のY方向に順にくり返して行うと、図8の左側
に示したようなグラフが描かれる。即ち、このグラフは
横軸に黒画素数、縦軸にY軸方向の位置を表したもので
ある。例えば図の長方形72や円73を描くための線が
1画素分の太さであるとすれば、図のように、長方形7
2の上辺と下辺については100画素、その他の部分に
ついては2画素が抽出される。また、左側から見て長方
形72と円73が重なり合った部分では4画素が抽出さ
れる。この方向とちょうど直角な方向、即ち、図の下側
から見た場合についても、同様にして境界点の抽出が行
われる。即ち、図8の下側に示されたグラフは、縦軸に
黒画素数、横軸にX方向の位置を示したものである。こ
の場合、左側から見た場合とほぼ同様の形状のグラフで
描くことができるような境界点の抽出が行われる。
FIG. 8 shows a boundary point extracting operation explanatory diagram. The upper right of the figure shows the image data 7 that is the target of boundary point extraction.
It is 1. The image data 71 includes, for example, a rectangle 72
And a circle 73 are drawn. Boundary points are extracted from the left side of the image data. In this case, the number of black pixels on the scanning line is counted while scanning the image in the figure in the X direction. The results are plotted in the graph on the left. When this operation is repeated in the Y direction in the drawing, the graph shown on the left side of FIG. 8 is drawn. That is, in this graph, the horizontal axis represents the number of black pixels and the vertical axis represents the position in the Y-axis direction. For example, if the line for drawing the rectangle 72 and the circle 73 in the figure has a thickness of one pixel, the rectangle 7
100 pixels are extracted for the upper side and the lower side of 2, and 2 pixels are extracted for the other portions. Also, four pixels are extracted in the portion where the rectangle 72 and the circle 73 overlap when viewed from the left side. Boundary points are extracted in the same manner also in a direction that is just perpendicular to this direction, that is, when viewed from the lower side of the figure. That is, the graph shown on the lower side of FIG. 8 shows the number of black pixels on the vertical axis and the position in the X direction on the horizontal axis. In this case, the boundary points are extracted so that they can be drawn with a graph having a shape similar to that seen from the left side.

【0024】なお、この動作は具体的には次のような演
算処理により行われる。まず、対象とする2値画像Nの
画素(x、y)を含めた4画素群ηN(x、y)は、図
16のS21に示すような式で表すことができる。その
出力値の和は図16のS22に示す内容となる。これか
ら2値画像Nにおける画素(x、y)の出力値が白黒の
境界点であるか否かを判断する。この判断は即ち、図1
6のS23に示すような判断で行われる。ここで、副走
査方向の順に主走査方向へ順次走査していきながら、対
象とする2値画像Nの画素(x、y)を含めた4画素群
ηN(x、y)の出力値の和が0よりも大きくかつ2以
下であれば、1(黒)を出力する。一方、この出力値の
和が0または2よりも大きければ0(白)を出力する。
Note that this operation is specifically performed by the following arithmetic processing. First, the 4-pixel group ηN (x, y) including the pixel (x, y) of the target binary image N can be expressed by the formula shown in S21 of FIG. The sum of the output values has the content shown in S22 of FIG. From this, it is determined whether or not the output value of the pixel (x, y) in the binary image N is a black and white boundary point. This judgment is as shown in FIG.
The determination is made as shown in S23 of 6. Here, while sequentially scanning in the sub-scanning direction in the main scanning direction, the sum of the output values of the 4-pixel group ηN (x, y) including the pixel (x, y) of the target binary image N is added. Is larger than 0 and 2 or less, 1 (black) is output. On the other hand, if the sum of the output values is 0 or larger than 2, 0 (white) is output.

【0025】このような処理によって境界点が抽出され
ると、その出力は図1に示す照合部9に向け出力され
る。この照合部9においては境界点抽出部7の出力と、
予め登録された複数の登録境界点画像即ち、基準となる
境界点画像との重ね合わせを行って、一致した画素数か
ら一致率を算出し、入力境界点画像の境界点画素数から
重量比率を算出し、それぞれの値の写像関係から紙葉類
の金種、表裏、方向、真偽を識別する。なお、上記境界
点画像Eは、2値画像Nと同様に、格子状に配列された
主走査幅Pw ×副走査幅Ph 個の画素から構成される。
これは図16のS24に示す。さてここで、入力する境
界点画像と比較すべき登録境界点画像の作成方法につい
て説明する。この登録境界点画像Dは、対象とする入力
境界点画像の境界点発生位置の正否を検索するための基
準となるものである。これは、同一種類の紙葉類、例え
ば万円券を一定方向に向けてこの装置に投入し、数千枚
あるいは数万枚を対象としてこれまで説明した境界点抽
出までの処理を行い、これによって得られた結果を重ね
合わせて求められる。同一種類の多数の万円券につい
て、このような境界点画像を得た場合に、その画像の境
界点の発生率分布はある一定の範囲に集中する。
When the boundary points are extracted by such processing, the output is output to the collating unit 9 shown in FIG. In the collation unit 9, the output of the boundary point extraction unit 7
A plurality of registered boundary point images that have been registered in advance, that is, a reference boundary point image, is superimposed, and the matching rate is calculated from the number of matching pixels, and the weight ratio is calculated from the number of boundary point pixels of the input boundary point image. It is calculated, and the denomination, front / back, direction, and authenticity of the paper sheet are identified from the mapping relationship of each value. The boundary point image E is composed of main scanning width Pw × sub scanning width Ph pixels arranged in a grid pattern, like the binary image N.
This is shown in S24 of FIG. Now, a method of creating a registered boundary point image to be compared with the input boundary point image will be described. The registered boundary point image D serves as a reference for searching the correctness of the boundary point occurrence position of the target input boundary point image. This is to insert the same type of paper, for example, 10,000 yen bills into this device in a certain direction, and perform the processing up to the boundary point extraction described so far for thousands or tens of thousands of sheets. It is obtained by superimposing the results obtained by. When such boundary point images are obtained for a large number of 10,000-yen tickets of the same type, the occurrence rate distribution of the boundary points of the images is concentrated in a certain range.

【0026】図9にこのような基準となるべき境界点画
像発生率分布説明図を示す。図のx軸およびy軸は万円
券の縦あるいは横方向に該当する。また、垂直に表され
た2軸のEP(x、y)は、境界点の発生率分布を示す
軸である。図のように、例えば万円券81上に描かれた
曲線82が、境界点抽出により、境界点画像として得ら
れるとすると、この部分に非常に高い確立で発生率の分
布の山83が得られる。なお、この境界点発生率EP
(x、y)はその、重ね合わせ枚数をsとした場合、図
17のS25に示すようにして求めることができる。図
を見て明らかなように、同一種類の紙葉類について共通
に得られる境界点は高い発生率で得られるが、例えば局
部的な汚れや濃度変化などによる境界点は低い発生率で
現れる。実際に比較対象として登録し、基準となる境界
点画像とするためには、このような発生率の低い境界点
画像についてはこれを除外し、図9に示した最も発生率
の高い部分の境界点画像を登録する。これによって、同
種の紙葉類についてその境界点画像との比較を行った場
合に、極めて高い一致率でかつ正確な照合処理が行え
る。
FIG. 9 is an explanatory diagram of the boundary point image occurrence rate distribution which should serve as such a reference. The x-axis and the y-axis in the figure correspond to the vertical or horizontal direction of the ten thousand yen ticket. The two-axis EP (x, y) shown vertically is an axis showing the occurrence rate distribution of boundary points. As shown in the figure, for example, if the curve 82 drawn on the ten-thousand-yen ticket 81 is obtained as a boundary point image by the boundary point extraction, a mountain 83 having a very high probability of occurrence is obtained at this portion. Be done. In addition, this boundary point occurrence rate EP
(X, y) can be obtained as shown in S25 of FIG. 17 when the number of superposed sheets is s. As is clear from the figure, the boundary points commonly obtained for the same type of paper sheets are obtained with a high incidence, but the boundary points due to, for example, local stains or density changes appear with a low incidence. In order to actually register as a comparison target and use it as a reference boundary point image, such boundary point images with a low occurrence rate are excluded, and the boundary of the portion with the highest occurrence rate shown in FIG. 9 is excluded. Register the point image. As a result, when the same type of paper sheet is compared with the boundary point image, an accurate matching process can be performed with an extremely high matching rate.

【0027】このような基準となる境界点画像は、例え
ば万円券、五千円札、千円札についてその識別を行う場
合には、それぞれの表面、裏面、挿入方向まで含めたも
のを全て登録しておく。図1に示す照合部9において
は、このような登録境界点画像と入力境界点画像との照
合を行う。ここで、登録された境界点画像Dは、入力境
界点画像Eと同様に、格子状に配列された主走査幅Bw
×副走査幅Bh 個の画素から構成される。この状態を図
17のS26に示す。ここで両者の重ね合わせを行う場
合、先に説明したように斜行補正部3から有効領域決定
部5までの処理において得られた中心位置を基準に照合
を行う。
The boundary point image as such a reference is, for example, in the case of identifying a ten-thousand-yen bill, a five-thousand-yen bill, and a one-thousand-yen bill. Register in advance. The matching unit 9 shown in FIG. 1 performs such matching between the registered boundary point image and the input boundary point image. Here, the registered boundary point image D, like the input boundary point image E, is the main scanning width Bw arranged in a grid pattern.
B. Sub-scanning width Bh. This state is shown in S26 of FIG. Here, when the two are superposed, the collation is performed with the center position obtained in the processing from the skew feeding correction unit 3 to the effective area determination unit 5 as a reference as described above.

【0028】図10は照合部の基準境界点画像選択動作
説明図を示す。図のように、基準となる境界点画像は先
に説明したとおり、表面のもの裏面のもの、また、その
挿入方向が正方向のものと逆方向のものと、一つの種類
の紙幣について4通りが登録される。図10のbはその
紙幣の挿入状態に合わせて定められた分類番号である。
また、図10のaは紙幣の外形寸法などの特徴に合わせ
て定められた分類番号である。従って、図10において
は紙葉類の幅LがA種類あるものとし、A組の境界点画
像が用意されている。ここで、予め挿入された紙幣の長
手方向の幅を測定し、先ずこれを基準とすれば、図10
に示す多くの基準境界点画像の中から、最適のaに該当
するものを一組あるいは数組選び出し、照合を行うこと
ができる。これによって不用な照合処理を省略し、処理
時間の短縮を図ることができるとともに、紙葉類の外形
寸法などの、特徴のはっきりした差異を利用して、認識
精度を高めることができる。
FIG. 10 is an explanatory view of the reference boundary point image selection operation of the collating unit. As shown in the figure, there are four types of boundary point images that can be used as a reference, as described above, one for the front side, one for the back side, and one for which the insertion direction is the forward direction and the other for the reverse direction. Is registered. Reference numeral b in FIG. 10 is a classification number determined according to the inserted state of the bill.
Further, a in FIG. 10 is a classification number determined in accordance with the features such as the outer dimensions of the bill. Therefore, in FIG. 10, it is assumed that there are A types of paper sheet widths L, and A sets of boundary point images are prepared. Here, if the width of the inserted banknote in the longitudinal direction is measured and this is used as a reference first, FIG.
It is possible to select one set or several sets corresponding to the optimum a from the many reference boundary point images shown in FIG. Thereby, unnecessary collation processing can be omitted, the processing time can be shortened, and the recognition accuracy can be improved by utilizing the distinctive features such as the outer dimensions of the paper sheets.

【0029】こうして選択された一組あるいは数組の基
準境界点画像Dの画素(x、y)の出力値に対応して、
比較されるべき入力境界点画像Eの画素(x、y)およ
びその画素x,yを中心とする周辺8画素群ηE(x、
y)は、図17のs27に示す式で表すことができる。
この出力値の和は、図17S28のとおりとなる。この
結果からE(x、y)における出力値の正否を判断す
る。登録境界点画像Dk における画素(x、y)の出力
値が1(黒)の場合は、入力境界点画像Eにおける画素
(x、y)の出力値およびその画素(x、y)を中心と
する周辺8画素群ηE(x、y)の出力値の和を検索す
る。また、登録境界点画像Dk における画素(x、y)
の出力値が0(白)の場合は、入力境界点画像Eにおけ
る画素(x、y)の出力値およびその画素(x、y)を
中心とする周辺8画素群ηE(x、y)の出力値の和を
検索しない。このようにして、4種類のそれぞれの登録
境界点画像Dk との重ね合わせによる一致画素数AGR
k を、図17のS29に従って求める。
Corresponding to the output value of the pixel (x, y) of one or several sets of reference boundary point images D thus selected,
The pixel (x, y) of the input boundary point image E to be compared and a peripheral eight pixel group ηE (x, y around the pixel x, y)
y) can be expressed by the formula shown in s27 of FIG.
The sum of the output values is as shown in FIG. 17S28. From this result, the correctness of the output value at E (x, y) is determined. When the output value of the pixel (x, y) in the registered boundary point image Dk is 1 (black), the output value of the pixel (x, y) in the input boundary point image E and the pixel (x, y) are centered. The sum of the output values of the peripheral 8 pixel group ηE (x, y) is searched. Also, the pixel (x, y) in the registered boundary point image Dk
Is 0 (white), the output value of the pixel (x, y) in the input boundary point image E and the peripheral 8 pixel group ηE (x, y) centered on the pixel (x, y) Do not search the sum of output values. In this way, the number of matching pixels AGR by superimposing the four types of registered boundary point images Dk
k is obtained according to S29 of FIG.

【0030】即ち、副走査方向の順に主走査方向へ順次
走査していきながら、登録境界点画像Dk の画素の出力
値が1(黒)のとき、入力境界点画像Eの画素の出力値
が1(黒)であるか、あるいは入力境界点画像Eの画素
の出力値が0(白)である場合で、かつ周辺8画素群η
E(x、y)の出力値の和が0でないときの何れかをみ
たす場合にのみ、一致画素数AGRk には登録境界点画
像Dk の画素の出力値1が加算される。図1に示す照合
部9は、予め登録された4種の登録境界点画像Dk につ
いて、それぞれ重ね合わせによる一致画素数AGRk を
求め、図1に示す認識部10に向けて出力する。認識部
10は、照合部9から出力される一致画素数AGRk の
登録境界点画像Dk の境界点画素数に対する比率、即ち
一致率を算出する。また、認識部10は、入力境界点画
像Eの境界点画素数の登録境界点画像Dkの境界点画素
数に対する比率、即ち重量比率を算出する。こうして、
認識部10は一致率と重量比率の写像関係から、対象と
する紙葉類の種類、表裏、真偽および方向を判断する。
That is, while sequentially scanning in the main scanning direction in the sub-scanning direction, when the output value of the pixel of the registered boundary point image Dk is 1 (black), the output value of the pixel of the input boundary point image E is 1 (black) or the output value of the pixel of the input boundary point image E is 0 (white), and the peripheral 8 pixel group η
The output value 1 of the pixel of the registered boundary point image Dk is added to the matching pixel number AGRk only when either of the cases where the sum of the output values of E (x, y) is not 0 is satisfied. The matching unit 9 shown in FIG. 1 obtains the number of matching pixels AGRk by superimposing the four types of registered boundary point images Dk registered in advance, and outputs them to the recognition unit 10 shown in FIG. The recognition unit 10 calculates the ratio of the number of matching pixels AGRk output from the collation unit 9 to the number of boundary point pixels of the registered boundary point image Dk, that is, the matching rate. The recognition unit 10 also calculates the ratio of the number of boundary point pixels of the input boundary point image E to the number of boundary point pixels of the registered boundary point image Dk, that is, the weight ratio. Thus
The recognition unit 10 determines the type, front / back, authenticity, and direction of the target paper sheet based on the mapping relationship between the coincidence rate and the weight ratio.

【0031】図11に認識部の動作説明図を示す。この
図は、横軸に重量比率Pm 、縦軸に一致率Pr をとっ
て、上記写像関係を図式化したものである。この縦軸に
おける入力境界点画像Eの一致率Pr (k)は、予め登
録されたk種類の登録境界点画像Dk それぞれの境界点
画素数に対する重ね合わせ手段による一致率画素数AG
Rk の比率である。これを図18のS30に示す。ま
た、横座標における入力境界点画像Eの重量比率Pm
(k)は、予め登録されたk種類の登録境界点画像Dk
について、それぞれの境界点画素数に対する照合部9に
よる入力境界点画像Eの境界点画素数の比率である。こ
れを図18のS31に示す。
FIG. 11 shows an operation explanatory diagram of the recognition unit. In this figure, the horizontal axis represents the weight ratio Pm and the vertical axis represents the concordance rate Pr, and the above mapping relationship is illustrated graphically. The coincidence rate Pr (k) of the input boundary point image E on the vertical axis is the coincidence rate pixel number AG by the superposing means with respect to the number of boundary point pixels of each of the k types of registered boundary point images Dk registered in advance.
It is the ratio of Rk. This is shown in S30 of FIG. Also, the weight ratio Pm of the input boundary point image E on the abscissa is shown.
(K) is a registration boundary point image Dk of k types registered in advance
Is the ratio of the number of boundary point pixels of the input boundary point image E by the matching unit 9 to the respective number of boundary point pixels. This is shown in S31 of FIG.

【0032】図11において、ハッチングを付した部分
は、対象とする紙葉類のPr とPmとの写像関係から、
種類、表裏、真偽および方向を識別するための許容され
る範囲である。対象とする紙葉類から抽出された入力境
界点画像Eと登録境界点画像Dk のそれぞれが同一種類
のとき、図18のS30およびS31に示した式から、
理論上Pm の値およびPr の値はそれぞれ1に近似す
る。これを図18のS32に示す。実際に認識を行うに
あたっては、出力されたそれぞれのPm の値およびPr
の値に対して、上記のような許容される値の範囲を定め
なければならない。
In FIG. 11, the hatched portion is defined by the mapping relationship between Pr and Pm of the target paper sheet.
It is the permissible range for identifying the type, front / back, authenticity, and direction. When the input boundary point image E and the registered boundary point image Dk extracted from the target paper sheet are of the same type, from the equations shown in S30 and S31 of FIG.
Theoretically, the values of Pm and Pr are close to 1, respectively. This is shown in S32 of FIG. In actual recognition, the output values of Pm and Pr
For the value of, the range of allowable values as described above must be defined.

【0033】図19に、このような許容範囲の決定方法
概念図を図示した。図のブロック121においてはま
ず、第0番目の登録境界点画像D0と、その同一種類の
紙葉類数千枚あるいは数万枚(この数をS枚とする)を
対象として、それぞれ抽出した入力境界点画像Eとの重
ね合わせを行う。そして図18のS30およびS31の
式から、それぞれ対象とするサンプル番号S=(0、
S)に対応して、一致率Pr (0、S)および重量比率
Pm (0、S)の値を出力する。ブロック122におい
ても、ブロック121と同様に、第1番目の登録境界点
画像D1 とその同一種の紙葉類S枚を対象として、それ
ぞれ抽出した入力境界点画像Eとの重ね合わせを行う。
そしてブロック121と同様の要領で、一致率Pr
(1、S)および重量比率Pm (1、S)の値を出力す
る。このようにして、予め登録されたk種類の登録境界
点画像番号に対応して同様の処理を施す。次にこれまで
求めたそれぞれの一致率Pr および重量比率Pm から、
それぞれ一致率の頻度分布HST(Pr )および重量比
率の頻度分布HST(Pm )を作成する。この結果を
図20に示す。また、この結果を図21に示す。これ
らの図に示すような一致率および重量比率の頻度分布が
0とならない区間を、許容される範囲に設定する。これ
は図18のS33に示す。
FIG. 19 shows a conceptual diagram of such an allowable range determining method. In the block 121 of the figure, first, the 0th registered boundary point image D0 and several thousand or several tens of thousands of sheets of the same type (this number is S sheets) are input respectively and extracted. Superimposition with the boundary point image E is performed. From the equations of S30 and S31 in FIG. 18, the target sample number S = (0,
Corresponding to S), the values of the coincidence rate Pr (0, S) and the weight ratio Pm (0, S) are output. Similarly to block 121, in block 122, the first registered boundary point image D1 and S sheets of the same type of paper sheet are overlapped with the respective extracted input boundary point images E.
Then, in the same manner as in block 121, the matching rate Pr
The values of (1, S) and the weight ratio Pm (1, S) are output. In this way, similar processing is performed corresponding to the k kinds of registered boundary point image numbers registered in advance. Next, from the respective coincidence rates Pr and weight ratios Pm thus obtained,
A frequency distribution HST (Pr) of the coincidence rate and a frequency distribution HST (Pm) of the weight ratio are prepared, respectively. The result is shown in FIG. The result is shown in FIG. A section in which the frequency distribution of the coincidence rate and the weight ratio as shown in these figures does not become 0 is set to an allowable range. This is shown in S33 of FIG.

【0034】上記のような許容範囲IVPは、本物の紙
葉類数千枚あるいは数万枚を対象として、図18に示す
S30およびS31の式により求めた値のわずかな発散
または誤差を許容する範囲である。仮に入力境界点画像
Eと登録境界点画像Dk とが異なる種類のものである場
合には、図18のS30およびS31で求めた一致率P
r と重量比率Pm との写像関係は、図11において示し
た許容される範囲以外の写像関係になる。
The allowable range IVP as described above allows a slight divergence or error of the value obtained by the equations of S30 and S31 shown in FIG. 18 for thousands of genuine sheets or tens of thousands of sheets. It is a range. If the input boundary point image E and the registered boundary point image Dk are of different types, the matching rate P obtained in S30 and S31 of FIG.
The mapping relationship between r and the weight ratio Pm is a mapping relationship outside the allowable range shown in FIG.

【0035】例えば、部分的な張り合わせによって偽造
された紙幣については、図14のS11により求めたし
きい値が変化して、これが本物の紙幣の理想的なしきい
値に変化を及ぼし、入力境界点画像Eの白黒境界点発生
位置が、画面全体にわたってずれてくる。従って、部分
的な張り合わせなどによる偽造紙葉類では、一致率Pr
と重量比率Pm との写像関係が、図11において示した
許容範囲以外の写像関係になる。これによって紙葉類の
真偽も確実に判定できる。また、紙葉類全体にわたるコ
ピーなどで作成された偽造紙葉類の場合では、上記図1
4の式11で求めたしきい値は、対象とする紙葉類ごと
の紙の質や印刷濃度などの変動、あるいはその読み取り
に使用されるイメージラインセンサの経時変動などによ
って算出できるしきい値の変化に比べると大きく異な
る。従って、しきい値決定段階で処理を中断することも
できる。上記認識部10は、登録境界点画像Dk との重
ね合わせによる一致率Pr および重量比率Pm との写像
関係が、上記許容範囲に入るか否かを判断する。そして
登録境界点画像番号kの順に、順番にその番号に対応し
た一致率Pr および重量比率Pm との写像関係が比較さ
れて、最終的にその許容範囲に属した場合に認識結果R
ESが出力される。これを図18のS34に示す。
For example, for a banknote that is counterfeited by partial pasting, the threshold value determined in S11 of FIG. 14 changes, which changes the ideal threshold value of a real banknote, and the input boundary point is changed. The black and white boundary point generation position of the image E shifts over the entire screen. Therefore, in the case of fake paper sheets that are partially stuck together, the matching rate Pr
And the weight ratio Pm have a mapping relationship other than the allowable range shown in FIG. This makes it possible to reliably determine the authenticity of the paper sheet. In the case of a fake paper sheet created by copying the entire paper sheet, the above-mentioned FIG.
The threshold value obtained by the equation 11 of 4 is a threshold value that can be calculated by the fluctuation of the paper quality or print density of each target paper sheet, or the temporal change of the image line sensor used for reading the same. It is very different from the change of. Therefore, the processing can be interrupted at the threshold value determining stage. The recognizing unit 10 determines whether or not the mapping relationship between the coincidence rate Pr and the weight ratio Pm by superposition with the registered boundary point image Dk falls within the allowable range. Then, the mapping relations between the coincidence rate Pr and the weight ratio Pm corresponding to the numbers are sequentially compared in the order of the registered boundary point image number k, and the recognition result R is finally obtained when the mapping relations fall within the allowable range.
ES is output. This is shown in S34 of FIG.

【0036】以上の結果、図1に示すスキャナ2によっ
て読み取られた紙葉類について、その中心位置を認識し
た上で境界点画像が抽出され、これが予め同一種類の多
くの紙葉類を処理することによって得られた境界点画像
と比較され、一定の許容範囲内で高い信頼性を持った認
識が行われる。本発明は以上の実施例に限定されない。
上記実施例においてそれぞれ紹介したスキャナ2、斜行
補正部3、バッファメモリ4、有効領域決定部5、2値
化部6、境界点抽出部7あるいは照合部9や認識部10
等の各ブロックは、同様の機能を持つ種々の構成のブロ
ックに置き換えて差し支えなく、また、各ブロックにお
いて実行される演算処理等は、一つの制御用コンピュー
タによって処理されてもよいし、またそれぞれ別々の制
御回路によって処理されるようにしても差し支えない。
As a result, with respect to the paper sheets read by the scanner 2 shown in FIG. 1, the boundary point image is extracted after recognizing the center position of the paper sheets, which processes many paper sheets of the same type in advance. By comparing with the boundary point image obtained by the above, highly reliable recognition is performed within a certain allowable range. The present invention is not limited to the above embodiments.
The scanner 2, the skew feeding correction unit 3, the buffer memory 4, the effective area determination unit 5, the binarization unit 6, the boundary point extraction unit 7, or the collation unit 9 and the recognition unit 10 which have been introduced in the above embodiments, respectively.
Each block such as may be replaced with a block having various configurations having the same function, and the arithmetic processing and the like executed in each block may be processed by one control computer. It may be processed by a separate control circuit.

【0037】[0037]

【発明の効果】以上説明した本発明の紙葉類認識装置
は、紙葉類の認識を必要とする全領域の画像を読み取っ
て、その濃淡画像から一定の統計量を抽出し、2値化し
たしきい値を決定するようにしたので、認識を対象とす
るデータは紙葉類の紙の質や印刷濃度に影響されないも
のとなり、常に安定した認識が可能となる。さらに、こ
のようなしきい値を用いれば、境界点発生位置の精度が
向上し、簡単な照合処理が高い信頼性で実現できる。ま
た、スキャナが読み取る領域の大きさを対象とする紙葉
類の最大対角線長以上に設定すれば、対象とする紙葉類
の位置ずれや斜行によるずれに影響されず必要な全ての
画像が抽出できる。
The above-described paper sheet recognition apparatus of the present invention reads the image of the entire area that requires the recognition of the paper sheet, extracts a certain statistical amount from the grayscale image, and binarizes it. Since the threshold value is determined, the data targeted for recognition is not affected by the quality and print density of the paper of the paper sheet, and stable recognition is always possible. Furthermore, by using such a threshold value, the accuracy of the boundary point generation position is improved, and a simple matching process can be realized with high reliability. Also, if the size of the area to be read by the scanner is set to be equal to or greater than the maximum diagonal length of the target paper sheet, all the necessary images will not be affected by the displacement of the target paper sheet and the skew displacement. Can be extracted.

【0038】また、画像データを2値化する前に、対象
とする濃淡画像からその紙葉類の中心位置を検出し、濃
淡画像からその紙葉類が占める領域を設定するようにし
たので、その後の信号処理量を減少させ、処理の高速化
を図ることができる。また、基準となる登録境界点画像
の作成における処理および、入力境界点画像の抽出にお
ける処理が、紙葉類の紙質、印刷濃度などの変動、およ
び環境温度の変動やスキャナの出力変動などがあっても
これに影響されない方法であるため、境界点発生位置の
正否を問う信頼性の高い照合処理が可能となる。また、
2値化処理手段の出力から孤立点と雑音を除去するよう
にし、境界点画像の信頼性を高めることができる。
Further, before binarizing the image data, the center position of the paper sheet is detected from the target gray image, and the area occupied by the paper sheet is set from the gray image. The amount of subsequent signal processing can be reduced, and the processing speed can be increased. In addition, the process for creating the reference registration boundary point image and the process for extracting the input boundary point image may include fluctuations in paper quality, print density, etc., environmental temperature fluctuations, and scanner output fluctuations. However, since the method is not affected by this, it is possible to perform highly reliable collation processing that asks whether the boundary point generation position is correct. Also,
By removing the isolated points and noise from the output of the binarization processing means, the reliability of the boundary point image can be improved.

【0039】さらに、対象とする紙葉類の長手方向の幅
と、予め登録された長手方向の幅の差を検出し、この差
をもとに重ね合わせに用いる登録された境界点画像の選
択を行うようにすれば、無用の照合処理を省略し、照合
処理時間の短縮を図ることができる。また、基準となる
境界点画像を同一種類の紙葉類多数枚を対象として、紙
葉類の認識と同一の動作を経て得られた境界点画像か
ら、発生率の低い部分の画像を除去するようにしたの
で、極めて高い一致率で照合が可能となる。また、識別
にあたっての基準となる尺度を一致率と重量比率との写
像関係のみにすることができ、基準を一つにすることが
可能になるため認識の信頼性を高めることができる。
Further, the difference between the longitudinal width of the target paper sheet and the previously registered longitudinal width is detected, and based on this difference, the registered boundary point image used for superimposition is selected. By performing the above, it is possible to omit unnecessary collation processing and shorten the collation processing time. Further, the boundary point image serving as a reference is targeted at a large number of sheets of the same type, and the image of the portion having a low occurrence rate is removed from the boundary point image obtained through the same operation as the recognition of the sheets. Since this is done, it is possible to perform collation with an extremely high matching rate. In addition, the scale used as a reference for identification can be only the mapping relationship between the coincidence rate and the weight ratio, and since it is possible to use only one reference, the reliability of recognition can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の紙葉類認識装置ブロック図である。FIG. 1 is a block diagram of a paper sheet recognition apparatus of the present invention.

【図2】本発明の装置のスキャナと斜行補正部ブロック
図である。
FIG. 2 is a block diagram of a scanner and a skew feeding correction unit of the apparatus of the present invention.

【図3】本発明の装置の斜行補正部動作説明図である。FIG. 3 is an operation explanatory diagram of a skew feeding correction unit of the device of the present invention.

【図4】本発明の装置の位置検出部動作説明図である。FIG. 4 is an explanatory view of the operation of the position detection unit of the device of the present invention.

【図5】本発明の装置の有効領域決定部動作説明図であ
る。
FIG. 5 is an operation explanatory diagram of an effective area determination unit of the device of the present invention.

【図6】本発明の装置の2値化部ブロック図である。FIG. 6 is a block diagram of a binarizing unit of the device of the present invention.

【図7】本発明の装置の2値化部動作説明図である。FIG. 7 is an explanatory diagram of the operation of the binarizing unit of the device of the present invention.

【図8】本発明の装置の境界点抽出動作説明図である。FIG. 8 is an explanatory diagram of a boundary point extracting operation of the device of the present invention.

【図9】本発明の装置の基準境界点画像発生率分布説明
図である。
FIG. 9 is an explanatory diagram of a reference boundary point image occurrence rate distribution of the device of the present invention.

【図10】本発明の装置の照合部の基準境界点画像選択
動作説明図である。
FIG. 10 is an explanatory diagram of a reference boundary point image selection operation of the matching unit of the device of the present invention.

【図11】本発明の装置の認識部の動作説明図である。FIG. 11 is an operation explanatory diagram of a recognition unit of the device of the present invention.

【図12】本発明の装置の演算動作説明図である。FIG. 12 is a diagram illustrating a calculation operation of the device of the present invention.

【図13】本発明の装置の演算動作説明図である。FIG. 13 is a diagram illustrating a calculation operation of the device of the present invention.

【図14】本発明の装置の演算動作説明図である。FIG. 14 is an explanatory diagram of the arithmetic operation of the device of the present invention.

【図15】本発明の装置の演算動作説明図である。FIG. 15 is a diagram illustrating a calculation operation of the device of the present invention.

【図16】本発明の装置の演算動作説明図である。FIG. 16 is a diagram illustrating a calculation operation of the device of the present invention.

【図17】本発明の装置の演算動作説明図である。FIG. 17 is a diagram illustrating a calculation operation of the device of the present invention.

【図18】本発明の装置の演算動作説明図である。FIG. 18 is a diagram illustrating a calculation operation of the device of the present invention.

【図19】本発明の装置の許容範囲の決定方法概念図で
ある。
FIG. 19 is a conceptual diagram of a method for determining an allowable range of the device of the present invention.

【図20】図19の結果説明図である。20 is an explanatory diagram of a result of FIG.

【図21】図19の結果説明図である。FIG. 21 is an explanatory diagram of a result of FIG.

【符号の説明】[Explanation of symbols]

1 紙葉類 2 スキャナ 3 斜行補正部 4 バッファメモリ 5 有効領域決定部 6 2値化部 7 境界点抽出部 8 基準境界点画像 9 照合部 10 認識部 1 paper sheet 2 scanner 3 skew correction unit 4 buffer memory 5 effective area determination unit 6 binarization unit 7 boundary point extraction unit 8 reference boundary point image 9 collation unit 10 recognition unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 紙葉類上のデータを読み取るスキャナ
と、 前記紙葉類のデータ読み取り時、紙葉類の搬送状態から
その斜行角度を検出し、前記スキャナの読み取り信号を
斜行補正してバッファメモリに書き込む斜行補正部と、 前記バッファメモリに書き込まれた濃淡画像データを解
析して、前記バッファメモリ中の前記紙葉類の端部位置
と中心位置を抽出し、前記濃淡画像データの有効領域を
決定する有効領域決定部と、 前記バッファメモリの中から、前記有効領域の濃淡画像
データを読み出して、その濃度の頻度分布より2値化用
閾値を決定し、前記紙葉類の占める濃淡画像データを2
値化する2値化処理部と、 前記2値化された画像データから、白/黒境界点を抽出
した境界点画像を得る境界点抽出部と、 前記境界点画像と、予め用意された基準となる複数の境
界点画像とを比較して、一致率分布を作成する照合部
と、 前記照合部の出力に基づいて、前記紙葉類の種類、真偽
を認識する認識部とを備えたことを特徴とする紙葉類認
識装置。
1. A scanner for reading data on a paper sheet, and at the time of reading the data of the paper sheet, the skew angle is detected from the transport state of the paper sheet, and the skew of the read signal of the scanner is corrected. And a grayscale image data written in the buffer memory is analyzed to extract the edge position and the center position of the paper sheet in the buffer memory, and the grayscale image data is written. Of the effective area determining unit that determines the effective area of the paper, and reads out the grayscale image data of the effective area from the buffer memory, determines the binarization threshold value from the frequency distribution of the density, and 2 grayscale image data
A binarization processing unit that performs binarization, a boundary point extraction unit that obtains a boundary point image in which white / black boundary points are extracted from the binarized image data, the boundary point image, and a reference prepared in advance. And a recognition unit that recognizes the type of the paper sheet and the authenticity based on the output of the matching unit. A paper sheet recognition device characterized by the above.
【請求項2】 スキャナの読み取り可能長は、認識対象
となる紙葉類のうちの最大の対角線をもつ紙葉類の対角
線長以上に設定されていることを特徴とする請求項1記
載の紙葉類認識装置。
2. The paper according to claim 1, wherein the readable length of the scanner is set to be equal to or more than the diagonal length of the paper sheet having the largest diagonal line among the paper sheets to be recognized. Leaf recognition device.
【請求項3】 バッファメモリに書き込まれた濃淡画像
データの有効領域は、認識対象となる紙葉類のうちの最
大のものの占める領域に設定されることを特徴とする請
求項1記載の紙葉類認識装置。
3. The paper sheet according to claim 1, wherein the effective area of the grayscale image data written in the buffer memory is set to an area occupied by the largest one of the paper sheets to be recognized. Class recognition device.
【請求項4】 2値化処理手段の出力から孤立点と雑音
を除去する雑音除去手段を設けたことを特徴とする請求
項1記載の紙葉類認識装置。
4. The paper sheet recognizing apparatus according to claim 1, further comprising noise removing means for removing isolated points and noise from the output of the binarization processing means.
【請求項5】 基準となる境界点画像は、同一種の紙葉
類多数枚を対象として、紙葉類の認識と同一の動作を経
て得られた境界点画像から、発生率の低い部分の画像を
除去したものであることを特徴とする請求項1記載の紙
葉類認識装置。
5. A boundary point image serving as a reference is a boundary point image obtained through the same operation as the recognition of paper sheets for a large number of sheets of the same type, and a portion having a low occurrence rate is detected. The paper sheet recognition apparatus according to claim 1, wherein the image is removed.
【請求項6】 照合対象となる紙葉類の前記境界点画像
以外の特徴量を使用して、予め用意された前記基準とな
る境界点画像のうちの該当するものを選択し、その後一
致率分布の作成を行うことを特徴とする請求項1記載の
紙葉類認識装置。
6. A feature amount other than the boundary point image of a paper sheet to be matched is used to select a corresponding one of the reference boundary point images prepared in advance, and then a matching rate is selected. The paper sheet recognition apparatus according to claim 1, wherein the distribution is created.
【請求項7】 照合対象となる紙葉類の境界点画像と、
予め用意された基準となる境界点画像の重ね合わせによ
る一致率と重量比率との写像関係が、一定範囲にあるか
否かにより紙葉類の認識を行うことを特徴とする請求項
1記載の紙葉類認識装置。
7. A boundary point image of a paper sheet to be collated,
2. The paper sheet is recognized according to whether or not the mapping relationship between the coincidence rate and the weight ratio by superimposing the boundary point images, which is a reference prepared in advance, is within a certain range. Paper sheet recognition device.
JP25048291A 1991-09-03 1991-09-03 Paper sheet recognition device Expired - Fee Related JP2599320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25048291A JP2599320B2 (en) 1991-09-03 1991-09-03 Paper sheet recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25048291A JP2599320B2 (en) 1991-09-03 1991-09-03 Paper sheet recognition device

Publications (2)

Publication Number Publication Date
JPH0562045A true JPH0562045A (en) 1993-03-12
JP2599320B2 JP2599320B2 (en) 1997-04-09

Family

ID=17208516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25048291A Expired - Fee Related JP2599320B2 (en) 1991-09-03 1991-09-03 Paper sheet recognition device

Country Status (1)

Country Link
JP (1) JP2599320B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182115A (en) * 1998-12-21 2000-06-30 Toshiba Corp Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device
US7646478B2 (en) 2006-02-10 2010-01-12 Samsung Electronics Co., Ltd. Apparatus and method for examining spectral characteristics of transmitted light through an object
US8045750B2 (en) 2006-09-29 2011-10-25 Universal Entertainment Corporation Card identifying apparatus
US8073245B2 (en) 2006-09-29 2011-12-06 Universal Entertainment Corporation Card identifying apparatus
CN111311424A (en) * 2020-03-06 2020-06-19 德联易控科技(北京)有限公司 Data analysis method and device in vehicle accident, storage medium and processor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182115A (en) * 1998-12-21 2000-06-30 Toshiba Corp Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device
US7646478B2 (en) 2006-02-10 2010-01-12 Samsung Electronics Co., Ltd. Apparatus and method for examining spectral characteristics of transmitted light through an object
US8045750B2 (en) 2006-09-29 2011-10-25 Universal Entertainment Corporation Card identifying apparatus
US8073245B2 (en) 2006-09-29 2011-12-06 Universal Entertainment Corporation Card identifying apparatus
US8306319B2 (en) 2006-09-29 2012-11-06 Universal Entertainment Corporation Card identifying apparatus
US8397980B2 (en) 2006-09-29 2013-03-19 Universal Entertainment Corporation Card identifying apparatus
CN111311424A (en) * 2020-03-06 2020-06-19 德联易控科技(北京)有限公司 Data analysis method and device in vehicle accident, storage medium and processor
CN111311424B (en) * 2020-03-06 2023-08-22 德联易控科技(北京)有限公司 Data analysis method, device, storage medium and processor in vehicle insurance accident

Also Published As

Publication number Publication date
JP2599320B2 (en) 1997-04-09

Similar Documents

Publication Publication Date Title
JP4286790B2 (en) Paper sheet identification method and paper sheet identification apparatus
US8083136B1 (en) Banking system controlled responsive to data bearing records
US20040247168A1 (en) System and method for automatic selection of templates for image-based fraud detection
US20120045112A1 (en) Method for a banknote detector device, and a banknote detector device
WO2008112132A1 (en) Document imaging and processing system
JPH11175797A (en) Paper sheet discriminating device
CN107103683B (en) Paper money identification method and device, electronic equipment and storage medium
WO2002033665A1 (en) Denomination identification
JP2002092682A (en) Method and system of detecting watermark
US9582713B2 (en) Apparatus and method for recognizing media and financial device
JP2599320B2 (en) Paper sheet recognition device
JPH06318246A (en) Paper sheets recognizing device
JP2002092683A (en) Device for discriminating between true and false medium
CN112840383A (en) Banknote inspection device, banknote inspection method, and banknote inspection program
CN108074321B (en) Image boundary extraction method and device for paper money
JPH0644437A (en) Recognizing device for paper sheet etc
EP1791081B1 (en) Method for detecting perforation on the edge of an image of a form
RU2280284C2 (en) Method for determining invalid banknotes, produced by gluing together parts of banknotes and fake banknotes
JPH06318245A (en) Paper sheets recognizing device
JPH10198837A (en) Paper sheet discriminating device
JPH11219460A (en) Method for processing inclined image
JPH0573753A (en) Sheet paper recognition processing method
KR101385388B1 (en) Apparatus for media recognition and method for media kind distinction with the same
KR102639183B1 (en) Method of recognizing magnetic ink characters in ATM
JP4306027B2 (en) Paper sheet authenticity discrimination device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees