JPH0644437A - Recognizing device for paper sheet etc - Google Patents
Recognizing device for paper sheet etcInfo
- Publication number
- JPH0644437A JPH0644437A JP4218677A JP21867792A JPH0644437A JP H0644437 A JPH0644437 A JP H0644437A JP 4218677 A JP4218677 A JP 4218677A JP 21867792 A JP21867792 A JP 21867792A JP H0644437 A JPH0644437 A JP H0644437A
- Authority
- JP
- Japan
- Prior art keywords
- paper sheet
- image data
- frequency distribution
- effective area
- buffer memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000028780 ocular motility disease Diseases 0.000 description 1
Landscapes
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、紙幣、有価証券、債権
などの紙葉類の種類や真偽を認識するために使用される
紙葉類認識装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a paper sheet recognition apparatus used for recognizing the type and authenticity of paper sheets such as banknotes, securities and bonds.
【0002】[0002]
【従来の技術】従来、金融機関などにおいて、預貯金や
振込処理などを自動化するために、自動入出金機(AT
M)や自動取引装置などが設置されている。この自動入
出金機などでは、顧客によって紙幣が投入されると、紙
幣の種類や真偽の認識が行なわれる。この処理は、紙幣
鑑別部によって行なわれるが、ここではまず、紙幣の搬
送方向に並行な1本又は複数本のラインに沿って、光学
的あるいは磁気的なパターンを読み取る。光学的パター
ンは、紙幣の模様により金種ごとに一定の特徴を持つ。
また、磁気的パターンも同様の特徴を持つ。検出された
パターンは、アナログ信号であるが、読み取ったライン
上の多数の点において、所定の閾値と比較され、2値化
される。こうして得られたパルス列を、カウンタ回路に
よりカウントし、そのカウント値を辞書データと比較す
る。そして、検出されたすべてのラインについて、この
カウント値が辞書データの中野いずれかと近似していれ
ば、紙幣の種類及び真偽や表裏などを認識できる。2. Description of the Related Art Conventionally, automatic deposit / withdrawal machines (AT) have been used to automate deposit / saving and transfer processing in financial institutions.
M) and automatic transaction equipment are installed. In this automatic depositing / dispensing machine, when a customer inserts a bill, the type and authenticity of the bill is recognized. This processing is performed by the bill validator, but here, first, an optical or magnetic pattern is read along one or more lines parallel to the bill transport direction. The optical pattern has certain characteristics for each denomination due to the pattern of the bill.
The magnetic pattern also has the same characteristics. The detected pattern, which is an analog signal, is compared with a predetermined threshold value and binarized at many points on the read line. The pulse train thus obtained is counted by the counter circuit, and the count value is compared with the dictionary data. Then, for all the detected lines, if the count value is close to any one of the Nakano in the dictionary data, it is possible to recognize the type of banknote and the authenticity or the front and back.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上述し
た従来の技術には、次のような問題があった。即ち、通
常、紙幣上の特定のラインに沿った部分的な領域の特徴
を抽出して、その認識を行なっている。従って、小面積
の偽造が、その検出領域以外に存在するような場合に
は、真券と認識してしまう場合もある。これは、例え
ば、紙幣の部分的な張り合せなどが行なわれた場合に生
じる。また、認識の信頼度を高めるために、紙幣の外形
寸法や厚みなどを検出し、種々の観点から紙幣の種類、
真偽を認識する方法もある。しかしながら、このような
方法では、たとえ1つでもパラメータが規格範囲を外れ
ていれば、偽券と判定される。従って、このような場
合、偽券と判定される率が増大し、実用面で問題があ
る。もちろん、このような問題は、紙幣の鑑定に限ら
ず、証券類、そのほか種々の紙葉類の鑑定にも、同様に
相通じるところがある。However, the above-mentioned conventional technique has the following problems. That is, usually, the feature of a partial area along a specific line on a bill is extracted and recognized. Therefore, when a small-area forgery exists outside the detection area, it may be recognized as a genuine note. This occurs, for example, when the banknotes are partially pasted together. In addition, in order to increase the reliability of recognition, the external dimensions and thickness of the banknotes are detected, and the types of banknotes from various viewpoints,
There is also a way to recognize the truth. However, in such a method, if even one parameter is out of the standard range, it is determined to be a fake note. Therefore, in such a case, the rate of determination as a fake bill increases, which is a problem in practical use. Of course, such a problem is not limited to the appraisal of banknotes, and is similarly applicable to the appraisal of securities and other various paper sheets.
【0004】これらの問題を解決するためには、まず、
紙葉類のできるだけ広範囲な部分を、高い解像度で読み
取って認識の基準とし、小面積の偽造や貼り合わせなど
も検出できるようにすることが好ましい。また、できる
だけ信頼性の高い1つの基準を用いて、種類や真偽の認
識を行なうことが認識率向上のために好ましい。しか
し、読み取るべきデータ量が多いと、データ処理に長時
間を要し、高速で照合を行なうことが困難となる。従っ
て、銀行などに設けた自動取引装置への採用は現実的で
はない。更に、紙葉類の一部を読み取る方法では、紙葉
類の搬送に位置ずれがあれば、検出データに変動を生
じ、誤認識が発生し得る。これを解決するためには、紙
葉類の多少の位置ずれに対しても、何らの影響を受ける
ことのない認識処理が望まれる。本発明は、以上の点に
着目してなされたもので、位置ずれや斜行ずれなどにも
強く、高速且つ信頼性の高い紙葉類認識装置を提供する
ことを目的とするものである。To solve these problems, first,
It is preferable that the widest possible area of the paper sheet is read at a high resolution and used as a reference for recognition so that forgery or bonding of a small area can be detected. In addition, it is preferable to recognize the type and authenticity by using one criterion having the highest reliability for improving the recognition rate. However, if the amount of data to be read is large, it takes a long time to process the data, making it difficult to perform collation at high speed. Therefore, it is not practical to use it in an automatic transaction device provided in a bank or the like. Further, in the method of reading a part of the paper sheet, if the paper sheet is misaligned in the conveyance, the detection data may fluctuate, and erroneous recognition may occur. In order to solve this, a recognition process is desired that is not affected by any positional deviation of paper sheets. The present invention has been made in view of the above points, and an object thereof is to provide a paper sheet recognizing device that is resistant to positional deviation, skew deviation, and the like, and has high speed and high reliability.
【0005】[0005]
【課題を解決するための手段】本発明の紙葉類認識装置
は、波長がそれぞれ異なる複数の光源と、当該複数の光
源により認識対象である紙葉類に対して各波長の光を代
わる代わる照射して、当該紙葉類全体を含む画像データ
を読み取るスキャナと、当該スキャナにより読み取られ
た画像データから、前記紙葉類の占める有効領域を抽出
し、バッファメモリに書き込む有効領域決定部と、前記
バッファメモリの中から、前記有効領域の画像データを
読み出して、各波長に対する濃淡画像の相関から特徴デ
ータを抽出し、当該特徴データの頻度分布を出力する特
徴抽出部と、当該特徴抽出部の出力する頻度分布形状
と、予め用意された基準となる複数の頻度分布形状とを
比較して前記紙葉類の種類及び真偽を認識する認識部と
を備えたことを特徴とするものである。In the paper sheet recognition apparatus of the present invention, a plurality of light sources having different wavelengths are used, and light of each wavelength is used for the paper sheets to be recognized by the plurality of light sources. A scanner that irradiates and reads image data including the entire paper sheet, and an effective area determination unit that extracts an effective area occupied by the paper sheet from the image data read by the scanner and writes the effective area in a buffer memory, The image data of the effective area is read from the buffer memory, the characteristic data is extracted from the correlation of the grayscale image for each wavelength, and the characteristic extraction unit outputs the frequency distribution of the characteristic data. A feature is provided that includes a recognition unit that compares the output frequency distribution shape with a plurality of prepared reference frequency distribution shapes to recognize the type and authenticity of the paper sheet. It is intended to.
【0006】[0006]
【作用】本発明の紙葉類認識装置においては、有効領域
決定部によって読み取り画像の必要最小限の濃淡画像デ
ータを切り出して処理対象とする。また、波長の異なる
複数の光源を用いて読み取り、互いに異なる画像データ
を得る。そして、それぞれの画像データの相関関係の特
徴を抽出することにより、紙葉類の紙面上の模様に応じ
た特定の特徴データが得られる。次に、この特徴データ
から頻度分布を出力し、これを識別のために予め用意さ
れた頻度分布形状と比較し、紙葉類の種類や真偽を認識
する。このように、波長の異なる濃淡画像間の相関によ
り認識するため、認識率が高くなる。また、必要最小限
のデータを切り出して照合を行なうため、高速処理も可
能となる。In the paper sheet recognition apparatus of the present invention, the minimum necessary grayscale image data of the read image is cut out by the effective area determination unit and is processed. In addition, reading is performed using a plurality of light sources having different wavelengths to obtain mutually different image data. Then, by extracting the feature of the correlation of each image data, the specific feature data corresponding to the pattern on the paper surface of the paper sheet can be obtained. Next, a frequency distribution is output from this characteristic data, and this is compared with a frequency distribution shape prepared in advance for identification to recognize the type and authenticity of the paper sheet. In this way, since the recognition is performed by the correlation between the grayscale images having different wavelengths, the recognition rate becomes high. Further, since minimum necessary data is cut out and collation is performed, high speed processing is possible.
【0007】[0007]
【実施例】以下、本発明の実施例を図面を参照して詳細
に説明する。図1は、本発明の紙葉類認識装置の一実施
例のブロック図である。図示の装置は、紙葉類1の画像
を読み取るスキャナ2と、有効領域決定部3と、バッフ
ァメモリ4と、特徴抽出部5と、認識部6とから成る。
紙葉類1は、図示の装置の認識対象であり、例えば、紙
幣や有価証券、債券などである。このような紙葉類に
は、光学的あるいは磁気的なデータが記録されている。
図示の装置は、このようなデータをスキャナ2を用いて
読み取る構成とされている。尚、以下の説明では、紙葉
類を例えば紙幣とし、これに印刷された光学的な情報
を、スキャナ2を用いて読み取る例を示す。Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the paper sheet recognition apparatus of the present invention. The illustrated apparatus includes a scanner 2 that reads an image of a paper sheet 1, an effective area determination unit 3, a buffer memory 4, a feature extraction unit 5, and a recognition unit 6.
The paper sheet 1 is a recognition target of the illustrated apparatus, and is, for example, a bill, a securities, a bond, or the like. Optical or magnetic data is recorded on such paper sheets.
The illustrated apparatus is configured to read such data using the scanner 2. In the following description, an example is shown in which the paper sheet is a banknote and the optical information printed on the banknote is read using the scanner 2.
【0008】スキャナ2は、例えばイメージラインセン
サなどから構成され、主走査方向に電気的に走査され、
副走査方向に機械的に走査される。有効領域決定部3
は、スキャナ2が読み取った画像データをバッファメモ
リ4に書き込む。バッファメモリ4は、RAM(ランダ
ム・アクセス・メモリ)等から成り、紙葉類を読み取っ
た濃淡画像データを格納する。この場合、スキャナ2で
読み取った直後は紙葉類の周辺に配置された背景などの
イメージも同時に読み取られる。このような背景等のイ
メージは、有効領域決定部3により、除去される。これ
により、必要最小限のデータを取り出し、有効な画像デ
ータの領域を決定する。特徴抽出部5は、バッファメモ
リ4に格納された有効な濃淡画像データをパラメータ演
算により特徴量に変換する。この特徴量は、紙幣の種類
や表裏などによって一定の特徴を持つ。The scanner 2 is composed of, for example, an image line sensor, and is electrically scanned in the main scanning direction.
It is mechanically scanned in the sub-scanning direction. Effective area determination unit 3
Writes the image data read by the scanner 2 in the buffer memory 4. The buffer memory 4 is composed of a RAM (random access memory) or the like, and stores the grayscale image data obtained by reading the paper sheets. In this case, immediately after being read by the scanner 2, an image such as a background arranged around the paper sheet is also read at the same time. The image such as the background is removed by the effective area determining unit 3. As a result, the minimum necessary data is taken out and the effective image data area is determined. The feature extraction unit 5 converts the effective grayscale image data stored in the buffer memory 4 into a feature amount by parameter calculation. This feature amount has a certain feature depending on the type of banknote, front and back, and the like.
【0009】認識部6は、予め用意された基準値と、特
徴抽出部5の出力する特徴データを比較し、その結果よ
り紙葉類の種類、真偽、表裏などを認識する。以下、上
述した図1に示す装置の各部の具体的な構成及び動作を
順に説明する。図2は、スキャナ2と有効領域決定部3
のより具体的な構成を示すブロック図である。この図に
は、紙葉類の搬送路上に配置したイメージラインセンサ
21と、A/D変換部22、バッファメモリ4及び有効
領域決定部3が示されている。The recognizing section 6 compares the reference value prepared in advance with the characteristic data output from the characteristic extracting section 5, and recognizes the type, authenticity, front / back, etc. of the paper sheet based on the result. Hereinafter, the specific configuration and operation of each unit of the apparatus shown in FIG. 1 will be described in order. FIG. 2 shows the scanner 2 and the effective area determination unit 3.
3 is a block diagram showing a more specific configuration of FIG. In this figure, an image line sensor 21, an A / D conversion unit 22, a buffer memory 4, and an effective area determination unit 3 which are arranged on a paper sheet conveyance path are shown.
【0010】イメージラインセンサ21は、よく知られ
たCCDなどによる光学的イメージ読み取り素子群から
構成されている。そして、それぞれ波長の異なる3本の
光源が、代わる代わる光を照射したときのイメージライ
ンセンサの出力が、A/D変換部22によりそれぞれデ
ィジタル化され、バッファメモリ4に格納される。波長
の異なる光源は、例えば、白色光源に赤色フィルタと緑
色フィルタと青色フィルタをそれぞれ取り付けたもの、
あるいは赤外光専用光源と紫外光専用光源と緑色などの
可視光専用光源等を使用する。イメージラインセンサ2
1は、紙葉類1の反射光あるいは通過光の光学的なアナ
ログパターンを読み取る。この信号は、図2に示すA/
D変換部22によって、ディジタル形式の濃淡画像デー
タに変換される。ただし、濃淡画像データは、3本の光
源それぞれに対応して、3種で構成する。The image line sensor 21 is composed of a well-known optical image reading element group such as a CCD. Then, the outputs of the image line sensor when three light sources having different wavelengths irradiate the different lights are digitized by the A / D converter 22 and stored in the buffer memory 4. Light sources with different wavelengths are, for example, white light sources with red filters, green filters, and blue filters attached,
Alternatively, a light source dedicated to infrared light, a light source dedicated to ultraviolet light, a light source dedicated to visible light such as green, or the like is used. Image line sensor 2
Reference numeral 1 reads an optical analog pattern of reflected light or passing light of the paper sheet 1. This signal is A /
The D conversion unit 22 converts the digital grayscale image data. However, the grayscale image data is composed of three types corresponding to each of the three light sources.
【0011】このようにして、バッファメモリ4に読み
込まれたそれぞれの濃淡画像データには、紙葉類1の周
辺やその背景部分にあるもののデータも含まれる。これ
らのデータを含めてその後の処理を行なおうとすると、
処理の高速化を図れない。そこで、まず、図2に示す有
効領域決定部3が、バッファメモリ4中の該当する濃淡
画像データの領域を検出する。図3は、有効領域決定部
3の動作の説明図である。図示のように、バッファメモ
リ4には、濃淡画像データが格納される。ここで、有効
な領域を決定するには、3種の濃淡画像データのうちの
一種のみを用いる。In this way, each of the grayscale image data read into the buffer memory 4 includes the data around the paper sheet 1 and in the background portion thereof. If you try to perform subsequent processing including these data,
The processing speed cannot be increased. Therefore, first, the effective area determination unit 3 shown in FIG. 2 detects the area of the corresponding grayscale image data in the buffer memory 4. FIG. 3 is an explanatory diagram of the operation of the effective area determination unit 3. As illustrated, the buffer memory 4 stores the grayscale image data. Here, only one of the three types of grayscale image data is used to determine the effective region.
【0012】濃淡画像データ31の中央部分にある白抜
き部分32が認識対象となる紙葉類1の濃淡画像データ
の領域である。図2に示す有効領域決定部3は、バッフ
ァメモリ4に対し、濃淡画像データを書き込む際に、図
3に示す紙葉類1の端部位置のアドレスXmin(y),Xma
x(y)を検出する。また、この方法として有効領域決定部
3は、バッファメモリ4の主走査方向の全幅Xw と副走
査方向の全幅Yw について、それぞれ濃淡画像データに
基づく濃度波形を求める。図3の下側に示すグラフがこ
の濃度波形である。そして、これらの波形に基づいて、
閾値Mt を設定する。この閾値Mt は、最大濃度と最低
濃度の中間の値に設定する。ここに、紙幣を載せる台等
の背景は、最大濃度となるような色にされている。A white portion 32 at the center of the grayscale image data 31 is a grayscale image data region of the paper sheet 1 to be recognized. When writing the grayscale image data into the buffer memory 4, the effective area determination unit 3 shown in FIG. 2 addresses Xmin (y), Xma of the end position of the paper sheet 1 shown in FIG.
Detect x (y). Further, as this method, the effective area determination unit 3 obtains density waveforms based on the grayscale image data for the total width Xw in the main scanning direction and the total width Yw in the sub scanning direction of the buffer memory 4. The graph shown on the lower side of FIG. 3 is this concentration waveform. And based on these waveforms,
The threshold Mt is set. The threshold Mt is set to an intermediate value between the maximum density and the minimum density. Here, the background of the table or the like on which the banknotes are placed is colored so that the maximum density is obtained.
【0013】図3の上側に示す画像を読み取る際は、イ
メージラインセンサ21を副走査方向の順に主走査方向
へ順次走査する。そして、この途中で、画素(x,y)
の濃淡出力値が閾値Mt より小さくなったとき、それが
主走査座標上で初めて起こった場合にXmin(y)の値にそ
の時点での主走査座標番号を割り当てる。また、主走査
座標上で最後に閾値Mt より小さくなったとき、Xmax
(y)の値にその時点での主走査座標番号を割り当てる。
上記のような処理によって、有効領域決定部3がバッフ
ァメモリ4に対し、すべての濃淡画像データを書き込み
終ったとき、紙葉類の領域が次に示す区間として抽出さ
れる。 Xmin(y),Xmax(y) ただし、0≦y<Yw このようにして、切り出された濃淡画像データは、図1
に示す特徴抽出部5によって特徴量に変換される。When reading the image shown on the upper side of FIG. 3, the image line sensor 21 is sequentially scanned in the main scanning direction in the order of the sub scanning direction. Then, in the middle of this, the pixel (x, y)
When the grayscale output value of the above becomes smaller than the threshold value Mt, when it occurs for the first time on the main scanning coordinates, the value of Xmin (y) is assigned the main scanning coordinate number at that time. Also, when the value finally becomes smaller than the threshold value Mt on the main scanning coordinate, Xmax
The main scanning coordinate number at that time is assigned to the value of (y).
By the above-described processing, when the effective area determination unit 3 has written all the grayscale image data in the buffer memory 4, the paper sheet area is extracted as the following section. Xmin (y), Xmax (y) where 0 ≦ y <Yw The grayscale image data cut out in this way is shown in FIG.
It is converted into a feature amount by the feature extraction unit 5 shown in FIG.
【0014】図4は、特徴抽出部5の構成を示すブロッ
ク図である。特徴抽出部5は、バッファメモリ4から読
み出されたデータを基に、特徴量を演算する特徴量演算
部41と、この特徴量の発生頻度を求める特徴量頻度分
布作成部42から構成される。ここで、バッファメモリ
4には、次式に示す格子状に配列されたXw ×Yw 個の
濃淡画像データMi,i={1,2,3} が格納されている。 M1 ={(x,y)|0≦x<XW,0≦y<Yw } M2 ={(x,y)|0≦x<XW,0≦y<Yw } M3 ={(x,y)|0≦x<XW,0≦y<Yw } 濃淡画像データMi,i={1,2,3} は、それぞれ、図2に示
すイメージラインセンサ21に設置されたそれぞれの光
源の反射光出力に対応するものである。特徴量演算部4
1は、このバッファメモリ4から前述した有効領域の濃
淡画像データを読み出し、特徴量を演算する。即ち、次
式に示す濃淡画像データを読み出す。FIG. 4 is a block diagram showing the structure of the feature extraction unit 5. The feature extraction unit 5 includes a feature amount calculation unit 41 that calculates a feature amount based on the data read from the buffer memory 4, and a feature amount frequency distribution creation unit 42 that obtains the occurrence frequency of the feature amount. . Here, the buffer memory 4 stores Xw × Yw grayscale image data Mi, i = {1,2,3} arranged in a lattice form as shown in the following equation. M1 = {(x, y) | 0≤x <XW, 0≤y <Yw} M2 = {(x, y) | 0≤x <XW, 0≤y <Yw} M3 = {(x, y) | 0 ≦ x <XW, 0 ≦ y <Yw} The grayscale image data Mi, i = {1,2,3} is the reflected light output of each light source installed in the image line sensor 21 shown in FIG. It corresponds to. Feature quantity calculation unit 4
Reference numeral 1 reads out the grayscale image data of the above-mentioned effective area from the buffer memory 4 and calculates the characteristic amount. That is, the grayscale image data shown in the following equation is read out.
【0015】 M1 ={(x,y)|0≦Xs ≦x<Xe ≦XW,0≦Ys ≦y<Ye ≦Yw } M2 ={(x,y)|0≦Xs ≦x<Xe ≦XW,0≦Ys ≦y<Ye ≦Yw } M3 ={(x,y)|0≦Xs ≦x<Xe ≦XW,0≦Ys ≦y<Ye ≦Yw } まず、画素の読み出した濃淡画像データをMi(x,y),i=
{1,2,3}として、この中で最も淡い値を選び、これを mi
nMi(x,y)とし、最も濃い値を選び、これを maxMi(x,
y)とする。画素(x,y)の読み出した濃淡画像データ
Mi(x,y),i={1,2,3}それぞれの、配分を次式に示すよう
な演算により求める。 D1(x,y)={ maxMi(x,y)−M1(x,y)}/{ maxMi(x,y)− minMi(x,y)} D2(x,y)={ maxMi(x,y)−M2(x,y)}/{ maxMi(x,y)− minMi(x,y)} D3(x,y)={ maxMi(x,y)−M3(x,y)}/{ maxMi(x,y)− minMi(x,y)}M1 = {(x, y) | 0≤Xs≤x <Xe≤XW, 0≤Ys≤y <Ye≤Yw} M2 = {(x, y) | 0≤Xs≤x <Xe≤XW , 0≤Ys≤y <Ye≤Yw} M3 = {(x, y) | 0≤Xs≤x <Xe≤XW, 0≤Ys≤y <Ye≤Yw} First, the grayscale image data read from the pixel is read. Mi (x, y), i =
As {1,2,3}, choose the lightest value among these and set this to mi
Let nMi (x, y), select the darkest value, and use this as maxMi (x,
y). The distribution of each of the read grayscale image data Mi (x, y), i = {1,2,3} of the pixel (x, y) is obtained by the calculation shown in the following equation. D1 (x, y) = {maxMi (x, y) -M1 (x, y)} / {maxMi (x, y) -minMi (x, y)} D2 (x, y) = {maxMi (x, y) -M2 (x, y)} / {maxMi (x, y) -minMi (x, y)} D3 (x, y) = {maxMi (x, y) -M3 (x, y)} / { maxMi (x, y) -minMi (x, y)}
【0016】例えば、M1(x,y)が、画素(x,y) の読み出
した濃淡画像データの中で最も濃い値 maxMi(x,y)と等
しいならば、D1(x,y)は 0.0となる。逆に、M1(x,y)
が、画素(x,y) の読み出した濃淡画像データの中で最も
淡い値 minMi(x,y)と等しいならば、D1(x,y)は 1.0と
なる。また、M1(x,y)が、画素(x,y) の読み出した濃淡
画像データの中で最も濃い値 maxMi(x,y)と、最も淡い
値 minMi(x,y)のいずれも等しくない場合では、 0.0<
D<1.0 となる。このようにして、M2(x,y)、M3(x,y)
についても同様にして、D2(x,y)、D3(x,y)を求める。
これらのデータから画素(x,y) における特徴量H(x,y)
を図5に示すような演算により求める。For example, if M1 (x, y) is equal to the darkest value maxMi (x, y) in the read grayscale image data of the pixel (x, y), D1 (x, y) is 0.0. Becomes Conversely, M1 (x, y)
Is equal to the lightest value minMi (x, y) in the grayscale image data read from the pixel (x, y), D1 (x, y) becomes 1.0. Further, M1 (x, y) is not equal to the darkest value maxMi (x, y) in the read grayscale image data of the pixel (x, y) and the lightest value minMi (x, y). In some cases, 0.0 <
D <1.0. In this way, M2 (x, y), M3 (x, y)
Similarly, D2 (x, y) and D3 (x, y) are obtained.
From these data, the feature quantity H (x, y) at pixel (x, y)
Is calculated by the calculation as shown in FIG.
【0017】ここで、それぞれ異なる波長に対応した画
像データ、M1,M2,M3 から、求める特徴量Hが対象と
する紙葉類の真偽で大きく異なるように光源の波長を選
択することが望ましい。図5は、特徴量の演算手順を説
明するフローチャートである。まず、濃淡画像データM
1(x,y)を最も濃い値 maxMi(x,y)と比較し(ステップS
1)、両者が等しいときは、続いて濃淡画像データM2
(x,y)を最も淡い値 minMi(x,y)と比較する(ステップ
S2)。この結果、両者が等しいときは、特徴量H(x,
y) ={5+D3(x,y)}/6とする(ステップS3)。
一方、両者が等しくないときは、特徴量H(x,y) ={1
−D2(x,y)}/6とする(ステップS4)。Here, it is desirable to select the wavelength of the light source from the image data M1, M2, M3 corresponding to different wavelengths so that the feature quantity H to be obtained greatly differs depending on whether the target paper sheet is true or false. . FIG. 5 is a flowchart illustrating a procedure for calculating the feature amount. First, the grayscale image data M
1 (x, y) is compared with the darkest value maxMi (x, y) (step S
1) If both are equal, then the grayscale image data M2
(x, y) is compared with the lightest value minMi (x, y) (step S2). As a result, when both are equal, the feature quantity H (x,
y) = {5 + D3 (x, y)} / 6 (step S3).
On the other hand, when they are not equal, the feature quantity H (x, y) = {1
-D2 (x, y)} / 6 (step S4).
【0018】また、濃淡画像データM1(x,y)を最も濃い
値 maxMi(x,y)と比較した結果、両者が等しくないとき
は、続いて濃淡画像データM2(x,y)を最も濃い値 maxM
i(x,y)と比較する(ステップS5)。この結果、両者が
等しいときは、続いて濃淡画像データM3(x,y)を最も淡
い値 minMi(x,y)と比較する(ステップS6)。この結
果、両者が等しいときは、特徴量H(x,y) ={1+D1
(x,y)}/6とする(ステップS7)。一方、両者が等
しくないときは、特徴量H(x,y) ={3−D3(x,y)}/
6とする(ステップS8)。更に、濃淡画像データM2
(x,y)を最も濃い値 maxMi(x,y)と比較した結果、両者
が等しくないときは、続いて濃淡画像データM1(x,y)を
最も淡い値 minMi(x,y)と比較する(ステップS9)。
この結果、両者が等しいときは、特徴量H(x,y) ={3
+D2(x,y)}/6とする(ステップS10)。一方、両
者が等しくないときは、特徴量H(x,y) ={5−D1(x,
y)}/6とする(ステップS11)。特徴量演算部41
は、上記のように特徴量H(x,y) を各画素(x,y) 毎に求
め、その特徴量H(x,y) を特徴量頻度分布作成部42へ
出力する。As a result of comparing the grayscale image data M1 (x, y) with the darkest value maxMi (x, y), when they are not equal, the grayscale image data M2 (x, y) is the darkest. Value maxM
It is compared with i (x, y) (step S5). As a result, when they are equal, the grayscale image data M3 (x, y) is compared with the lightest value minMi (x, y) (step S6). As a result, when both are equal, the feature quantity H (x, y) = {1 + D1
(x, y)} / 6 (step S7). On the other hand, when they are not equal, the feature quantity H (x, y) = {3-D3 (x, y)} /
6 (step S8). Furthermore, the grayscale image data M2
As a result of comparing (x, y) with the darkest value maxMi (x, y), if they are not equal, then compare the grayscale image data M1 (x, y) with the darkest value minMi (x, y). Yes (step S9).
As a result, when both are equal, the feature quantity H (x, y) = {3
+ D2 (x, y)} / 6 (step S10). On the other hand, when they are not equal, the feature quantity H (x, y) = {5-D1 (x,
y)} / 6 (step S11). Feature amount calculation unit 41
Calculates the feature amount H (x, y) for each pixel (x, y) as described above, and outputs the feature amount H (x, y) to the feature amount frequency distribution creating unit 42.
【0019】図6は、特徴量の頻度分布の作成の説明図
である。この図の縦軸には特徴量の発生頻度をとり、横
軸には特徴量をとっている。特徴量頻度分布作成部42
は、特徴量演算部41より出力された特徴量を各画素毎
に読み出し、特徴量頻度分布を作成していく。特徴量頻
度作成部42は、特徴量頻度分布を認識部6へ出力す
る。認識部6は、特徴量頻度分布作成部より得た図6に
示すような特徴量頻度分布を予め記憶された頻度分布形
状と比較して、その結果より紙葉類の種類、真偽、表裏
などを認識する。FIG. 6 is an explanatory diagram of creating a frequency distribution of feature quantities. In this figure, the vertical axis represents the frequency of occurrence of the characteristic amount, and the horizontal axis represents the characteristic amount. Feature quantity frequency distribution creation unit 42
Reads the feature amount output from the feature amount calculation unit 41 for each pixel and creates a feature amount frequency distribution. The feature quantity frequency creation unit 42 outputs the feature quantity frequency distribution to the recognition unit 6. The recognition unit 6 compares the feature amount frequency distribution obtained from the feature amount frequency distribution creating unit as shown in FIG. 6 with a pre-stored frequency distribution shape, and based on the result, the type of paper sheet, authenticity, front / back Etc.
【0020】[0020]
【発明の効果】以上説明したように、本発明の紙葉類認
識装置によれば、紙葉類の認識を必要とする全領域の画
像を複数の光源毎に読み取って、それぞれの画像間の相
関を表わす特徴量を抽出してその頻度分布を作成するよ
うにしたので、認識を対象とするデータは紙葉類の紙の
室や印刷濃度に影響されないものとなり、常に安定した
認識が可能となる。また、スキャナが読み取る領域の大
きさを対象とする紙葉類の領域に設定すれば、対象とす
る紙葉類の必要なすべての画像が抽出できる。この結
果、認識の信頼度の向上を図ることができる。As described above, according to the paper sheet recognizing apparatus of the present invention, the images of the entire region which requires the recognition of the paper sheets are read for each of a plurality of light sources, and the images between the respective images are read. Since the feature quantity representing the correlation is extracted and its frequency distribution is created, the data targeted for recognition will not be affected by the paper room or print density of the paper sheet, and stable recognition will always be possible. Become. Further, by setting the size of the area read by the scanner to the area of the target paper sheet, all necessary images of the target paper sheet can be extracted. As a result, the reliability of recognition can be improved.
【図1】本発明の紙葉類認識装置の一実施例のブロック
図である。FIG. 1 is a block diagram of an embodiment of a paper sheet recognition apparatus of the present invention.
【図2】スキャナと有効量決定部を示すブロック図であ
る。FIG. 2 is a block diagram showing a scanner and an effective amount determination unit.
【図3】有効領域決定部の動作の説明図である。FIG. 3 is an explanatory diagram of an operation of an effective area determination unit.
【図4】特徴量抽出部の構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of a feature quantity extraction unit.
【図5】特徴量の演算手順を説明するフローチャートで
ある。FIG. 5 is a flowchart illustrating a procedure for calculating a feature amount.
【図6】特徴量の頻度分布を示すグラフである。FIG. 6 is a graph showing a frequency distribution of feature quantities.
1 紙葉類 2 スキャナ 3 有効領域決定部 4 バッファメモリ 5 特徴抽出部 6 認識部 1 paper sheet 2 scanner 3 effective area determination unit 4 buffer memory 5 feature extraction unit 6 recognition unit
Claims (1)
波長の光を代わる代わる照射して、当該紙葉類全体を含
む画像データを読み取るスキャナと、 当該スキャナにより読み取られた画像データから、前記
紙葉類の占める有効領域を抽出し、バッファメモリに書
き込む有効領域決定部と、 前記バッファメモリの中から、前記有効領域の画像デー
タを読み出して、各波長に対する濃淡画像の相関から特
徴データを抽出し、当該特徴データの頻度分布を出力す
る特徴抽出部と、 当該特徴抽出部の出力する頻度分布形状と、予め用意さ
れた基準となる複数の頻度分布形状とを比較して前記紙
葉類の種類及び真偽を認識する認識部とを備えたことを
特徴とする紙葉類認識装置。1. A plurality of light sources having different wavelengths, and a plurality of light sources irradiate the paper sheets to be recognized with light of each wavelength in turn, and image data including the entire paper sheets is obtained. A scanner for reading, extracting an effective area occupied by the paper sheet from the image data read by the scanner, and writing the effective area in the buffer memory, an effective area determination unit, and image data of the effective area from the buffer memory. A characteristic extraction unit that reads out the characteristic data from the correlation of the grayscale image for each wavelength and outputs the frequency distribution of the characteristic data, the frequency distribution shape output by the characteristic extraction unit, and the reference prepared in advance A paper sheet recognition apparatus, comprising: a recognition unit that compares a plurality of frequency distribution shapes to recognize the type and authenticity of the paper sheet.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4218677A JPH0644437A (en) | 1992-07-24 | 1992-07-24 | Recognizing device for paper sheet etc |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4218677A JPH0644437A (en) | 1992-07-24 | 1992-07-24 | Recognizing device for paper sheet etc |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0644437A true JPH0644437A (en) | 1994-02-18 |
Family
ID=16723695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4218677A Pending JPH0644437A (en) | 1992-07-24 | 1992-07-24 | Recognizing device for paper sheet etc |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0644437A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1083473A (en) * | 1996-09-09 | 1998-03-31 | Sanyo Electric Co Ltd | Method for recognizing paper money |
WO2000033263A1 (en) * | 1998-11-27 | 2000-06-08 | Nittetsu Mining Co., Ltd. | Genuine/counterfeit discriminating method, genuine/counterfeit discrimination object, and genuine/counterfeit discriminating device |
JP2000182115A (en) * | 1998-12-21 | 2000-06-30 | Toshiba Corp | Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device |
JP2005267461A (en) * | 2004-03-19 | 2005-09-29 | Toshiba Corp | Device and method for image verification |
JP2012523628A (en) * | 2009-04-08 | 2012-10-04 | エムイーアイ インコーポレーテッド | Examine the characteristics of currency types |
WO2018016365A1 (en) * | 2016-07-21 | 2018-01-25 | グローリー株式会社 | Paper sheet identification device and paper sheet identification method |
-
1992
- 1992-07-24 JP JP4218677A patent/JPH0644437A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1083473A (en) * | 1996-09-09 | 1998-03-31 | Sanyo Electric Co Ltd | Method for recognizing paper money |
WO2000033263A1 (en) * | 1998-11-27 | 2000-06-08 | Nittetsu Mining Co., Ltd. | Genuine/counterfeit discriminating method, genuine/counterfeit discrimination object, and genuine/counterfeit discriminating device |
AU774091B2 (en) * | 1998-11-27 | 2004-06-17 | Katsuto Nakatsuka | Genuine/counterfeit discriminating method, genuine/counterfeit discrimination object, and genuine/counterfeit discriminating device |
US6987868B1 (en) | 1998-11-27 | 2006-01-17 | Nittetsu Mining Co., Ltd. | Genuine/counterfeit discriminating method, genuine/counterfeit discrimination object, and genuine/counterfeit discriminating device |
JP2000182115A (en) * | 1998-12-21 | 2000-06-30 | Toshiba Corp | Paper sheets state identifying device, paper sheets stain state identifying device, paper sheets print state identifying device and paper sheets surface and rear identifying device |
JP2005267461A (en) * | 2004-03-19 | 2005-09-29 | Toshiba Corp | Device and method for image verification |
JP4533649B2 (en) * | 2004-03-19 | 2010-09-01 | 株式会社東芝 | Image verification apparatus and image verification method |
JP2012523628A (en) * | 2009-04-08 | 2012-10-04 | エムイーアイ インコーポレーテッド | Examine the characteristics of currency types |
US8739954B2 (en) | 2009-04-08 | 2014-06-03 | Mei, Inc. | Characterizing items of currency |
WO2018016365A1 (en) * | 2016-07-21 | 2018-01-25 | グローリー株式会社 | Paper sheet identification device and paper sheet identification method |
AU2017299334B2 (en) * | 2016-07-21 | 2019-10-03 | Glory Ltd. | Paper sheet identification device and paper sheet identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8942461B2 (en) | Method for a banknote detector device, and a banknote detector device | |
US20050244046A1 (en) | Sheet media identification method and sheet media identification apparatus | |
KR19990062397A (en) | Paper discriminator | |
JP2010117803A (en) | Paper sheet processor and paper sheet processing program | |
JP4105694B2 (en) | Paper piece discrimination apparatus, paper piece discrimination method and program | |
CN106920318B (en) | Method and device for identifying paper money | |
JPH11154254A (en) | Sheet paper discriminating device | |
US20060177093A1 (en) | Sheet identifying device and method | |
JPH0644437A (en) | Recognizing device for paper sheet etc | |
CN113205633A (en) | Method and device for detecting red and blue fibers of bill, electronic equipment and storage medium | |
JP4724957B2 (en) | Medium contamination degree judging device | |
TWI326854B (en) | Verification method for determining areas within an image corresponding to monetary banknote | |
JP2599320B2 (en) | Paper sheet recognition device | |
JP2002092683A (en) | Device for discriminating between true and false medium | |
JPH06318246A (en) | Paper sheets recognizing device | |
CN108074321B (en) | Image boundary extraction method and device for paper money | |
JP3359986B2 (en) | Coin recognition device | |
WO2015172304A1 (en) | Method for making judgment by automatically selecting different feature points of bank notes | |
JPH06318245A (en) | Paper sheets recognizing device | |
JPH0573753A (en) | Sheet paper recognition processing method | |
JPH10198837A (en) | Paper sheet discriminating device | |
JPH04106692A (en) | Discrimination processing method for paper sheet | |
KR101385355B1 (en) | Apparatus for media recognition and method for media kind distinction with the same | |
CN108171864B (en) | Method and device for identifying paper money version | |
US20090260947A1 (en) | Method for performing currency value analysis operation |