JP2005316727A - Paper sheet identifying device and method - Google Patents

Paper sheet identifying device and method Download PDF

Info

Publication number
JP2005316727A
JP2005316727A JP2004133996A JP2004133996A JP2005316727A JP 2005316727 A JP2005316727 A JP 2005316727A JP 2004133996 A JP2004133996 A JP 2004133996A JP 2004133996 A JP2004133996 A JP 2004133996A JP 2005316727 A JP2005316727 A JP 2005316727A
Authority
JP
Japan
Prior art keywords
paper sheet
image data
image
template
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004133996A
Other languages
Japanese (ja)
Inventor
Satoru Tsurumaki
悟 鶴巻
Seiji Takamatsu
誠司 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Conlux Co Ltd
Original Assignee
Nippon Conlux Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Conlux Co Ltd filed Critical Nippon Conlux Co Ltd
Priority to JP2004133996A priority Critical patent/JP2005316727A/en
Publication of JP2005316727A publication Critical patent/JP2005316727A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a paper sheet identifying device for determining a paper sheet insertion direction from a photographed image of a paper sheet inserted into a device, efficiently extracting a characteristic image of the paper sheet, and accurately determining the type and identification of the paper sheet based on the extracted characteristic image even if the characteristic image formed on the paper sheet is displaced or deviated. <P>SOLUTION: An image of an area including the paper sheet characteristic image is photographed from the paper sheet inserted in the normal/reverse direction on the back/front side, a template image matching the insertion direction of the paper sheet of the characteristic image is moved on the photographed image for carrying out template matching. The insertion direction of the paper sheet is determined from the template image having the highest correlation value found by the template matching. Using the position on the photographed image matching the template image, which has the highest correlation value based on template matching using the template image matching the determined insertion direction of the paper sheet, as a base point, the characteristic image of the paper sheet is cut out from the photographed image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、紙葉類識別装置および方法に関し、特に、装置に挿入された紙葉類の撮像画像から紙葉類の挿入方向を判定し、紙葉類に形成された特徴画像の位置ずれ等の影響を受けることなく、紙葉類の特徴画像を効率良く抽出し、抽出した特徴画像に基づき紙葉類の種類および真偽を正確に判定する紙葉類識別装置および方法に関する。   The present invention relates to a paper sheet identification apparatus and method, and in particular, determines the insertion direction of a paper sheet from a captured image of a paper sheet inserted into the apparatus, and misaligns a characteristic image formed on the paper sheet. The present invention relates to a paper sheet identification apparatus and method for efficiently extracting a feature image of a paper sheet without being influenced by the above and accurately determining the type and authenticity of the paper sheet based on the extracted feature image.

一般に、紙幣、小切手または商品券等の紙葉類の種類および真偽を識別する紙葉類識別装置は、磁気センサ若しくは光センサ等を用いて装置に投入された紙葉類の特徴を磁気的または光学的に検出し、検出した紙葉類の特徴と真券の特徴とを照合することにより紙葉類の種類および真偽を識別する。   In general, a paper sheet identification device that identifies the type and authenticity of paper sheets such as banknotes, checks, gift certificates, etc., uses a magnetic sensor or optical sensor to magnetically characterize the characteristics of the paper sheets that have been input into the apparatus. Alternatively, the type and authenticity of the paper sheet are identified by optically detecting and collating the detected characteristic of the paper sheet with the characteristic of the genuine note.

例えば、光センサを用いた場合は、透過光型光センサ若しくは反射型光センサを用いて紙葉類の図柄、寸法および方向等を光学的に検出し、特徴画像として抽出して、抽出した特徴画像と紙葉類毎の真券の標準画像とを照合することにより、紙葉類の種類および真偽を識別する。   For example, when an optical sensor is used, the transmitted light type optical sensor or the reflective optical sensor is used to optically detect the pattern, size, direction, etc. of the paper sheet, and it is extracted as a feature image. The type and authenticity of the paper sheet are identified by comparing the image with the standard image of the genuine note for each paper sheet.

特徴画像と標準画像との照合は、例えばパターンマッチング等による類似度等に基づいて行われるが、検出した紙葉類の検出画像から特徴画像をどのように抽出するかによって、抽出した特徴画像と標準画像との照合処理が長時間要したり、複雑化する場合がある。   The matching between the feature image and the standard image is performed based on, for example, the similarity by pattern matching or the like. Depending on how the feature image is extracted from the detected image of the detected paper sheet, The collation process with the standard image may take a long time or may be complicated.

また、装置に挿入された紙葉類の挿入方向は、表裏、正逆等の種々の方向で挿入されるため、これらの挿入方向に対応して投入された紙葉類の検出画像から特徴画像を抽出し、抽出した特徴画像と標準画像との照合処理を行う必要がある。   In addition, since the insertion direction of the paper sheets inserted into the apparatus is inserted in various directions such as front and back, normal and reverse, a feature image is detected from the detection images of the paper sheets input corresponding to these insertion directions. And the collation processing of the extracted feature image and the standard image must be performed.

例えば特許文献1には、入力画像が標準パターンに対して回転ずれを生じさせていても、入力画像の認識を可能にする画像認識装置が提案されている。   For example, Patent Document 1 proposes an image recognition device that enables recognition of an input image even if the input image causes a rotational shift with respect to a standard pattern.

また、特許文献2には、紙葉類の搬送の多少の位置ずれや斜行ずれに対して何らの影響を受けることなく紙葉類の金種、表裏、方向、真偽を高速で識別する信頼性の高い紙葉類認識装置が提案されている。   Further, in Patent Document 2, the denomination, front / back, direction, and authenticity of a paper sheet are identified at high speed without being affected by some positional deviation or skew deviation of the conveyance of the paper sheet. A highly reliable paper sheet recognition apparatus has been proposed.

また、特許文献3には、原稿台の任意の位置と任意の角度にある原稿を検知し、検知した原稿が特定原稿であるか否かを判定する画像処理装置が提案されている。
特開平05−012446号公報 特開平05−062045号公報 特開平02−210591号公報
Patent Document 3 proposes an image processing apparatus that detects an original at an arbitrary position and an arbitrary angle on an original table and determines whether or not the detected original is a specific original.
Japanese Patent Laid-Open No. 05-012446 Japanese Patent Laid-Open No. 05-062045 Japanese Patent Laid-Open No. 02-210591

ところで、上記提案の特許文献1では、入力画像が標準パターンに対して回転ずれを生じている場合であっても標準パターンを所定の角度間隔で回転させながら回転させた標準パターンと入力画像との一致点を算出することで、入力画像の認識を可能とすることが開示されている。   By the way, in the above-mentioned proposed Patent Document 1, even if the input image has a rotational shift with respect to the standard pattern, the standard pattern rotated by rotating the standard pattern at a predetermined angular interval and the input image are used. It is disclosed that an input image can be recognized by calculating a coincidence point.

また、特許文献2においては、挿入された紙葉類の斜行角度を複数の検出素子で検出した検出信号の時間差によって算出して、算出した斜行角度に基づいて挿入された紙葉類の読み取り画像の傾きを補正した後、予め登録された基準となる境界点画像の表裏、正逆の各方向での画像と、入力された入力境界点画像との一致する画素数から紙葉類の金種、表裏、方向、真偽を識別する方法が開示されている。   In Patent Document 2, the skew angle of the inserted paper sheet is calculated based on the time difference between detection signals detected by a plurality of detection elements, and the inserted paper sheet is inserted based on the calculated skew angle. After correcting the inclination of the scanned image, the front and back of the boundary point image serving as a reference registered in advance, the image in each of the forward and reverse directions, and the number of matching pixels between the input input boundary point image and the paper sheet A method of identifying the denomination, front / back, direction, and authenticity is disclosed.

また、特許文献3においては、複写機の原稿台の任意の位置と任意の角度にある紙幣を複数回走査し、紙幣の置かれた正確な位置と角度を算出し、算出結果に応じて紙幣の特定部分の画像データを取り出し、予め登録されたパターンとの類似度に基づいて紙幣の真偽を判定する方法が開示されている。   Further, in Patent Document 3, a bill at an arbitrary angle with respect to an arbitrary position on an original table of a copying machine is scanned a plurality of times, an accurate position and angle at which the bill is placed is calculated, and a banknote is calculated according to the calculation result. A method is disclosed in which image data of a specific part is taken out and the authenticity of the banknote is determined based on the similarity with a pattern registered in advance.

しかしながら、上記提案の特許文献1乃至特許文献3においては、紙葉類の撮像画像から紙葉類の挿入方向を判定するとともに、予め登録された当該紙葉類の特徴画像に対応する画像領域を撮像画像から抽出する方法は開示されていない。   However, in the proposed Patent Document 1 to Patent Document 3, the insertion direction of the paper sheet is determined from the captured image of the paper sheet, and an image area corresponding to the pre-registered feature image of the paper sheet is determined. A method for extracting from a captured image is not disclosed.

また、紙葉類の特徴画像である透かし模様等が透かし領域に対して位置ずれ等がある場合の影響を軽減した紙葉類の種類または真偽を正確に判定する方法についても開示されていない。   In addition, there is no disclosure of a method for accurately determining the type or authenticity of a paper sheet that has reduced the influence when the watermark pattern or the like, which is a characteristic image of the paper sheet, is misaligned with respect to the watermark area. .

そこで、本発明は、紙葉類に形成された特徴画像に位置ずれ、ばらつきがある場合であっても、装置に挿入された紙葉類の撮像画像から紙葉類の挿入方向を判定し、紙葉類の特徴画像を効率良く抽出して、抽出した特徴画像に基づき紙葉類の種類および真偽を正確かつ高速に判定する紙葉類識別装置および方法を提供することを目的とする。   Therefore, the present invention determines the insertion direction of the paper sheet from the captured image of the paper sheet inserted into the apparatus, even when the feature image formed on the paper sheet is misaligned and has variations. An object of the present invention is to provide a paper sheet identification apparatus and method that efficiently extract a feature image of a paper sheet and accurately and quickly determine the type and authenticity of the paper sheet based on the extracted feature image.

上記目的を達成するため、請求項1の発明は、紙葉類の撮像画像から該紙葉類の特徴画像を切り出し、該切り出した特徴画像に基づき紙葉類の識別を行う紙葉類識別装置において、表裏、正逆のいずれかの方向で挿入された前記紙葉類から該紙葉類の前記特徴画像を含む領域の画像を撮像する撮像手段と、前記撮像手段で撮像した画像上で前記特徴画像の前記紙葉類の各挿入方向に対応するテンプレート画像とのテンプレートマッチングを行う画像マッチング手段と、前記画像マッチング手段で行うテンプレートマッチングによる最大相関値が最も大きいテンプレート画像から前記紙葉類の挿入方向を判別する挿入方向判別手段と、前記挿入方向判別手段で判別した前記紙葉類の挿入方向に対応するテンプレート画像を用いた前記画像マッチング手段による最大相関値に対応する前記撮像画像上の位置を基点として前記撮像画像から前記紙葉類の特徴画像を切り出す画像切出手段とを具備することを特徴とする。   In order to achieve the above object, the invention according to claim 1 is a paper sheet identification device that cuts out a feature image of the paper sheet from a captured image of the paper sheet and identifies the paper sheet based on the cut out feature image. In, the image pickup means for picking up an image of a region including the feature image of the paper sheet from the paper sheet inserted in either the front and back, forward and reverse direction, on the image picked up by the image pickup means An image matching unit that performs template matching with a template image corresponding to each insertion direction of the paper sheet of the feature image, and a template image having a maximum maximum correlation value by template matching performed by the image matching unit Insertion direction discriminating means for discriminating the insertion direction, and image matching using a template image corresponding to the insertion direction of the paper sheet determined by the insertion direction discrimination means Characterized by comprising the image cut-out means for cutting out the feature image of the paper sheet to a position on the captured image corresponding to the maximum correlation value by grayed unit from the captured image as a reference point.

また、請求項2の発明は、請求項1の発明において、前記特徴画像は、前記紙葉類の透かし領域の画像であり、前記画像マッチング手段は、前記撮像手段で撮像した1つの撮像画像と1つのテンプレート画像データを前記表裏、正逆の4方向に変換した4つのテンプレート画像とのテンプレートマッチングを行うことを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the feature image is an image of a watermark area of the paper sheet, and the image matching unit includes one captured image captured by the imaging unit. Template matching is performed with four template images obtained by converting one template image data into the front, back, and forward / reverse four directions.

また、請求項3の発明は、請求項1の発明において、前記特徴画像は、前記紙葉類の透かし領域の画像であり、前記画像マッチング手段は、前記撮像手段で撮像した1つの撮像画像を前記表裏、正逆の4方向に変換した4つの画像と1つのテンプレート画像データに対応する1つのテンプレート画像とのテンプレートマッチングを行うことを特徴とする。   According to a third aspect of the present invention, in the first aspect of the invention, the feature image is an image of a watermark area of the paper sheet, and the image matching unit is configured to capture one captured image captured by the imaging unit. Template matching is performed between the four images converted into the front and back and the forward and reverse four directions and one template image corresponding to one template image data.

また、請求項4の発明は、請求項2または3の発明において、前記画像マッチング手段は、前記透かし領域の画像の重心を求め、該重心の位置により前記紙葉類の挿入方向が表で正方向、裏で逆方向若しくは表で逆方向、裏で正方向のいずれかであるかを判別し、該判別した2つの方向に対して前記テンプレートマッチングを選択的に行うことを特徴とする。   According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the image matching means obtains the center of gravity of the image in the watermark area, and the insertion direction of the paper sheet is correct according to the position of the center of gravity. Whether the direction is the reverse direction on the back side, the reverse direction on the front side, or the forward direction on the back side is determined, and the template matching is selectively performed with respect to the two determined directions.

また、請求項5の発明は、紙葉類の撮像画像から該紙葉類の特徴画像を切り出し、該切り出した特徴画像に基づき紙葉類の識別を行う紙葉類識別方法であって、表裏、正逆のいずれかの方向で挿入された前記紙葉類から該紙葉類の前記特徴画像を含む領域の画像を撮像手段によって撮像し、前記撮像手段で撮像した画像上で前記特徴画像の前記紙葉類の各挿入方向に対応するテンプレート画像との画像マッチング手段によるテンプレートマッチングを行い、前記画像マッチング手段によるテンプレートマッチングによって算出した最大相関値が最も大きいテンプレート画像から前記紙葉類の挿入方向を挿入方向判別手段によって判別し、前記挿入方向判別手段で判別した前記紙葉類の挿入方向に対応するテンプレート画像を用いた前記画像マッチング手段による最大相関値が最も大きな該テンプレート画像に対応する前記撮像画像上の位置を基点として前記撮像画像から前記紙葉類の特徴画像を切り出すことを特徴とする。   The invention of claim 5 is a paper sheet identification method for cutting out a characteristic image of the paper sheet from a captured image of the paper sheet, and identifying the paper sheet based on the cut out characteristic image. An image of an area including the feature image of the paper sheet is captured by the imaging unit from the paper sheet inserted in either the forward or reverse direction, and the feature image is captured on the image captured by the imaging unit. Template matching is performed by an image matching unit with a template image corresponding to each insertion direction of the paper sheet, and the insertion direction of the paper sheet from the template image having the largest maximum correlation value calculated by template matching by the image matching unit Is determined by the insertion direction determination means, and the image map using the template image corresponding to the insertion direction of the paper sheet determined by the insertion direction determination means. Characterized in that cutting the feature image of the paper sheet from the captured image position as a base point on the captured image maximum correlation value by the quenching means corresponding to the most significant the template image.

また、請求項6の発明は、請求項5の発明において、前記特徴画像は、前記紙葉類の透かし領域の画像であり、前記画像マッチング手段は、前記撮像手段で撮像した1つの撮像画像と1つのテンプレート画像データを前記表裏、正逆の4方向に変換した4つのテンプレート画像とのテンプレートマッチングを行うことを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the invention, the feature image is an image of a watermark area of the paper sheet, and the image matching unit includes one captured image captured by the imaging unit. Template matching is performed with four template images obtained by converting one template image data into the front, back, and forward / reverse four directions.

また、請求項7の発明は、請求項5の発明において、前記特徴画像は、前記紙葉類の透かし領域の画像であり、前記画像マッチング手段は、前記撮像手段で撮像した1つの撮像画像を前記表裏、正逆の4方向に変換した4つの画像と1つのテンプレート画像データに対応する1つのテンプレート画像とのテンプレートマッチングを行うことを特徴とする。   The invention according to claim 7 is the invention according to claim 5, wherein the feature image is an image of a watermark area of the paper sheet, and the image matching means captures one captured image captured by the imaging means. Template matching is performed between the four images converted into the front and back and the forward and reverse four directions and one template image corresponding to one template image data.

また、請求項8の発明は、請求項6または7の発明において、前記画像マッチング手段は、前記透かし領域の画像の重心を求め、該重心の位置により前記紙葉類の挿入方向が表で正方向、裏で逆方向若しくは表で逆方向、裏で正方向のいずれかであるかを判別し、該判別した2つの方向に対して前記テンプレートマッチングを選択的に行うことを特徴とする。   In the invention of claim 8, in the invention of claim 6 or 7, the image matching means obtains the center of gravity of the image of the watermark region, and the insertion direction of the paper sheet is correct in the table according to the position of the center of gravity. Whether the direction is the reverse direction on the back side, the reverse direction on the front side, or the forward direction on the back side is determined, and the template matching is selectively performed with respect to the two determined directions.

本発明の紙葉類識別装置および方法によれば、予め登録された紙葉類の挿入方向に対応したテンプレート画像と挿入された紙葉類の撮像画像とのテンプレートマッチングによる相関値に基づき装置に挿入された紙葉類の挿入方向を判定し、撮像画像から紙葉類の特徴画像を抽出するので、紙葉類に形成された特徴画像の位置ずれ、ばらつきがある場合であっても、装置に挿入された紙葉類の挿入方向が正確に判定でき、撮像画像から紙葉類の特徴画像を効率良く抽出するとともに、抽出した特徴画像に基づき紙葉類の種類および真偽を正確かつ高速に判定することができるという効果を奏する。   According to the paper sheet identification apparatus and method of the present invention, the apparatus is based on a correlation value obtained by template matching between a template image corresponding to a pre-registered paper sheet insertion direction and a captured image of the inserted paper sheet. Since the insertion direction of the inserted paper sheet is determined and the characteristic image of the paper sheet is extracted from the captured image, the apparatus can be used even when the characteristic image formed on the paper sheet has misalignment or variation. Can accurately determine the insertion direction of the paper sheets inserted in the paper, efficiently extract the feature images of the paper sheets from the captured image, and accurately and quickly determine the type and authenticity of the paper sheets based on the extracted feature images There is an effect that it can be determined.

本発明に係わる紙葉類識別装置および方法は、紙葉類に形成された特定の模様に基づいて紙葉類の種類及び真偽を識別する装置において、例えば透かし模様等が形成されている有価証券や紙幣等の紙葉類の種類及び真偽を識別する際、紙葉類の撮像画像から挿入された紙葉類の挿入方向を判定し、予め登録された紙葉類の特徴画像に対応する画像領域を紙葉類の撮像画像から効率よく抽出して紙葉類に形成された特徴画像の位置ずれ等の影響を軽減するとともに、紙葉類の種類および真偽を正確に判定する装置として用いられるものである。   A paper sheet identification apparatus and method according to the present invention is an apparatus for identifying the type and authenticity of a paper sheet based on a specific pattern formed on a paper sheet, for example, a watermark pattern is formed. When identifying the type and authenticity of paper sheets such as securities and banknotes, the insertion direction of the inserted paper sheet is determined from the captured image of the paper sheet and corresponds to the pre-registered characteristic image of the paper sheet Device that efficiently extracts the image area to be extracted from the captured image of the paper sheet, reduces the influence of misalignment of the feature image formed on the paper sheet, and accurately determines the type and authenticity of the paper sheet It is used as

以下の実施例においては、透かし模様が形成された紙葉類において、透かし模様を特徴画像として紙葉類の種類及び真偽を識別する方法及び装置を例に説明する。   In the following embodiments, a method and apparatus for identifying the type and authenticity of a paper sheet using a watermark pattern as a characteristic image in a paper sheet on which a watermark pattern is formed will be described as an example.

本発明に係わる紙葉類識別装置および方法の一実施例について添付図面を参照して詳細に説明する。   An embodiment of a paper sheet identification apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係わる紙葉類識別方法を適用した紙葉類識別装置の概略的な構成を示した構成図である。   FIG. 1 is a configuration diagram showing a schematic configuration of a paper sheet identification apparatus to which a paper sheet identification method according to the present invention is applied.

図1に示すように、紙葉類識別装置1は、紙葉類識別装置1全体の制御を行う制御部2と、紙葉類の挿入口である紙葉類挿入部3と、挿入口から挿入された紙葉類を搬送する紙葉類搬送部4と、紙葉類を受け入れる紙葉類受入部5と、制御部2からの命令指示により紙葉類搬送部4を駆動制御する駆動部6と、紙葉類の種類および真偽を識別する識別部7を備えている。   As shown in FIG. 1, the paper sheet identification device 1 includes a control unit 2 that controls the entire paper sheet identification device 1, a paper sheet insertion unit 3 that is a paper sheet insertion port, and an insertion port. A paper sheet transport unit 4 that transports the inserted paper sheet, a paper sheet receiving unit 5 that receives the paper sheet, and a drive unit that drives and controls the paper sheet transport unit 4 according to an instruction from the control unit 2 6 and an identification unit 7 for identifying the type and authenticity of the paper sheet.

紙葉類挿入部3から挿入された紙葉類は、紙葉類搬送部4によって紙葉類受入部5へ搬送される途上において紙葉類の種類および真偽が識別部7により識別される。   The paper sheet inserted from the paper sheet insertion unit 3 is identified by the identifying unit 7 as to the type and authenticity of the paper sheet while being transported to the paper sheet receiving unit 5 by the paper sheet transport unit 4. .

識別部7によって紙葉類が真券と識別された場合は、制御部2の命令指示に基づき駆動部6が紙葉類搬送部4の駆動制御を行い、紙葉類を紙葉類受入部5に搬送し、紙葉類受入部5が搬送されてきた紙葉類を受け入れる。   When the identifying unit 7 identifies the paper sheet as a genuine note, the driving unit 6 controls the driving of the paper sheet conveying unit 4 based on the instruction instruction from the control unit 2, and the paper sheet is received by the paper sheet receiving unit. The paper sheet receiving unit 5 receives the paper sheet that has been transported.

また、識別部7が紙葉類を偽券と識別した場合は、制御部2の命令指示に基づき駆動部6が紙葉類搬送部4の駆動制御を行い、紙葉類を紙葉類挿入部3に搬送し、紙葉類を返却する。   When the identification unit 7 identifies the paper sheet as a fake ticket, the drive unit 6 performs drive control of the paper sheet transport unit 4 based on the instruction instruction of the control unit 2 and inserts the paper sheet. It is transported to part 3 and the paper sheets are returned.

さて、紙葉類識別装置1においては、紙葉類の種類および真偽の識別が識別部7によって行われる。   Now, in the paper sheet identification apparatus 1, the identification unit 7 performs the type and true / false identification of the paper sheet.

図2は、紙葉類識別装置1の識別部7の機能的な構成の一例を示したブロック図である。   FIG. 2 is a block diagram illustrating an example of a functional configuration of the identification unit 7 of the paper sheet identification apparatus 1.

図2に示すように、識別部7は、識別部7全体を統括制御する識別制御部70と、透過光型光センサ73と、メモリ71と、テンプレート画像データベース72と、パターンマッチング部74と、識別対象画像抽出部75と、傷・汚れ検出部76と、傷・汚れ影響補正部77から構成されている。   As shown in FIG. 2, the identification unit 7 includes an identification control unit 70 that performs overall control of the identification unit 7, a transmitted light type optical sensor 73, a memory 71, a template image database 72, a pattern matching unit 74, The identification target image extraction unit 75, the scratch / dirt detection unit 76, and the scratch / dirt effect correction unit 77 are configured.

透過光型光センサ73は、発光素子731と受光素子732とが一対を成し、互いに対向して紙葉類搬送部4を挟むような位置に紙葉類挿入部3から挿入された紙葉類の識別対象とする紙葉類の透かし領域を含む撮像領域を通る所定の走査ライン上に配置されている。   In the transmitted light type optical sensor 73, a light-emitting element 731 and a light-receiving element 732 form a pair, and a paper sheet inserted from the paper sheet insertion unit 3 at a position facing the paper sheet conveyance unit 4 facing each other. It is arranged on a predetermined scanning line passing through an imaging region including a watermark region of paper sheets to be identified.

発光素子731は、紙葉類搬送部4により搬送されてくる紙葉類の撮像領域に光を照射し、受光素子732は、当該紙葉類の撮像領域を透過した透過光を受光して、受光した透過光の光量に応じた電気信号を出力する。   The light emitting element 731 irradiates light to the image pickup area of the paper sheet conveyed by the paper sheet conveyance unit 4, and the light receiving element 732 receives the transmitted light transmitted through the image pickup area of the paper sheet, An electric signal corresponding to the amount of received transmitted light is output.

なお、透過光型光センサ73には、赤外、紫外および可視光のいずれも適用可能である。   Note that any of infrared, ultraviolet, and visible light can be applied to the transmitted light type optical sensor 73.

メモリ71は、メモリ71の所定の記憶領域に透過光型光センサ73から所定の時間間隔で出力される電気信号の信号レベルに対応したデジタル信号を、透過光型光センサ73からの出力順に対応して格納し、格納したデジタル信号の情報を連続したアドレスで割り当て、紙葉類の撮像領域の画像データ(以下、「撮像画像データ」という。)として一時的に記憶する。   The memory 71 corresponds to the digital signal corresponding to the signal level of the electrical signal output from the transmitted light type optical sensor 73 at a predetermined time interval in a predetermined storage area of the memory 71 in the order of output from the transmitted light type optical sensor 73. The stored digital signal information is assigned with continuous addresses, and temporarily stored as image data (hereinafter referred to as “captured image data”) of the imaging region of the paper sheet.

テンプレート画像データベース72には、予め真券の紙葉類を種類毎に正逆、表裏の各挿入方向で紙葉類識別装置1へ挿入し、各挿入方向に対応して撮像して取得した各画像データがテンプレート画像データとして記憶されている。   In the template image database 72, each genuine paper sheet is inserted into the paper sheet recognition apparatus 1 in each insertion direction on the front and back sides of each type, and is captured and acquired in accordance with each insertion direction. Image data is stored as template image data.

テンプレート画像データは、例えば、真券の紙葉類の種類に対応した透かし模様等の画像を正逆、表裏の各方向及び各面で撮像した各画像データが記憶されている。   The template image data stores, for example, image data obtained by capturing images of a watermark pattern or the like corresponding to the type of paper sheet of a genuine note in the forward and reverse directions, the front and back directions, and the surfaces.

パターンマッチング部74は、被検紙葉類が透過光型センサ73を通過する時に得られる入力画像データとテンプレート画像データベース72に記憶されているテンプレート画像データとのパターンマッチングを行い、テンプレート画像と最も類似する入力画像の画像領域を検索し、特定するとともに、後述する識別対象画像データと補正済識別対象画像データとのパターンマッチングによる相関値を算出して出力する。   The pattern matching unit 74 performs pattern matching between the input image data obtained when the paper sheet to be examined passes through the transmitted light sensor 73 and the template image data stored in the template image database 72. The image area of a similar input image is searched and specified, and a correlation value by pattern matching between identification target image data and corrected identification target image data described later is calculated and output.

例えば、メモリ71に一時記憶されている紙葉類の撮像画像データとテンプレート画像データベース72に記憶されているテンプレート画像データを読み出し、これら二つの画像データのパターンマッチングによる相関値を算出し、算出した相関値に基づいてテンプレート画像データと最も類似する撮像画像データの画像領域を検索し、特定する。   For example, the captured image data of the paper sheet temporarily stored in the memory 71 and the template image data stored in the template image database 72 are read out, and a correlation value by pattern matching between these two image data is calculated and calculated. Based on the correlation value, the image area of the captured image data most similar to the template image data is searched and specified.

まず、真券の紙葉類が正方向で挿入されて表面部が撮像された真券のテンプレート画像データを撮像画像データ上で移動させながらパターンマッチングによる相関値の最大値(以下、「最大相関値」という。)を算出する。   First, the maximum value of the correlation value by pattern matching (hereinafter referred to as “maximum correlation”) while moving the template image data of the genuine note in which the paper sheet of the genuine note is inserted in the positive direction and the surface portion is imaged. Value)).

次に、テンプレート画像を、正方向の挿入方向で裏面部が撮像された真券のテンプレート画像データ、逆方向の挿入方向で表面部が撮像された真券のテンプレート画像データ、逆方向の挿入方向で裏面部が撮像された真券のテンプレート画像データと順次置換え、置換えた各テンプレート画像データ毎に、前述の処理動作と同様に各テンプレート画像データを撮像画像データ上で移動させながらパターンマッチングによる最大相関値を算出する。   Next, the template image is a genuine template image data in which the back surface is imaged in the normal insertion direction, a genuine note template image data in which the front surface is imaged in the reverse insertion direction, and the reverse insertion direction. The template image data of the genuine note whose back side is imaged in step 1 is replaced sequentially, and for each template image data replaced, the maximum is obtained by pattern matching while moving each template image data on the captured image data in the same manner as the processing operation described above. A correlation value is calculated.

そして、各テンプレート画像データと撮像画像データとのパターンマッチングにより算出した最大相関値の中で最も最大の値となったテンプレート画像データ(以下、「特定テンプレート画像データ」という。)に基づいて挿入された紙葉類の正逆、表裏の挿入方向を判定するとともに、特定テンプレート画像データと撮像画像データとのパターンマッチングによる相関値が最大相関値の時の撮像画像データ上の画像領域を特定テンプレート画像データと最も類似する画像領域として特定する。   And it inserts based on the template image data (henceforth "specific template image data") which became the largest value among the maximum correlation values calculated by pattern matching with each template image data and captured image data. In addition to determining the normal / reverse and front / back insertion direction of the paper sheet, the specific template image indicates the image area on the captured image data when the correlation value by the pattern matching between the specific template image data and the captured image data is the maximum correlation value. The image area most similar to the data is specified.

識別対象画像抽出部75は、パターンマッチング部74で特定された特定テンプレート画像データと最も類似する撮像画像データ上の画像領域を識別対象画像データとして抽出し、メモリ71に記憶する。   The identification target image extraction unit 75 extracts the image area on the captured image data most similar to the specific template image data specified by the pattern matching unit 74 as identification target image data, and stores it in the memory 71.

傷・汚れ検出部76は、識別対象画像抽出部75により抽出された識別対象画像データと特定テンプレート画像データとの差を算出し、識別対象画像データ内に存在する紙葉類に付着する傷および汚れ(または、透過光型光センサに付着する傷および汚れ)を示す画像データを検出する。   The flaw / dirt detection unit 76 calculates the difference between the identification target image data extracted by the identification target image extraction unit 75 and the specific template image data, and the flaws attached to the paper sheets existing in the identification target image data. Image data indicating dirt (or scratches and dirt adhering to the transmitted light type optical sensor) is detected.

傷・汚れ影響補正部77は、傷・汚れ検出部76により検出した傷および汚れを示す画像データの影響を補正する。   The flaw / dirt influence correcting unit 77 corrects the influence of the image data indicating the flaw and dirt detected by the flaw / dirt detecting unit 76.

具体的には、例えば、識別対象画像データから傷および汚れを示す画像データを消去することで紙葉類に付着する傷および汚れ等の画像データの影響を補正する構成を適用しても良いが、このような構成とした場合は、傷および汚れを示す画像データを消去するとともに、透かし模様の画像データも消去してしまい、誤識別を発生させる可能性がある。   Specifically, for example, a configuration may be applied in which the influence of image data such as scratches and dirt adhering to paper sheets is corrected by erasing image data indicating scratches and dirt from the identification target image data. In such a configuration, the image data indicating scratches and dirt is erased and the watermark pattern image data is also erased, which may cause erroneous identification.

そこで、特定テンプレート画像データに識別対象画像データに存在する傷および汚れを示す画像データを同位置且つ同面積で貼り付けた補正済識別対象画像データに変換する構成を適用する。   Therefore, a configuration is applied in which image data indicating scratches and dirt existing in the identification target image data is converted into corrected identification target image data pasted at the same position and area in the specific template image data.

ただし、全ての傷および汚れを示す画像データの影響を補正してしまうと、透かし模様がない偽券の紙葉類の場合でも、傷および汚れを示す画像データの影響を補正することで、真券の紙葉類であると誤識別してしまうため、傷および汚れを示す画像データの影響を補正する総画素数に制限をもたせる等の構成を用いても良い。   However, if the influence of image data showing all scratches and dirt is corrected, even if it is a fake paper sheet without a watermark pattern, the effect of image data showing scratches and dirt is corrected. Since it is erroneously identified as a paper sheet of a ticket, a configuration may be used in which the total number of pixels for correcting the influence of image data indicating scratches and dirt is limited.

このように構成された識別部7が紙葉類挿入部3に挿入された紙葉類の種類および真偽を識別する場合の動作について簡単に説明する。   An operation in the case where the identification unit 7 configured as described above identifies the type and authenticity of the paper sheet inserted into the paper sheet insertion unit 3 will be briefly described.

紙葉類挿入部3から挿入された紙葉類は紙葉類搬送部4により搬送され、紙葉類が識別部7の透過光型光センサ73の配置位置に到達すると、発光素子731が紙葉類の撮像領域に光を照射し、受光素子732が当該紙葉類の撮像領域を透過した透過光を受光する。   The paper sheet inserted from the paper sheet insertion unit 3 is transported by the paper sheet transport unit 4, and when the paper sheet reaches the arrangement position of the transmitted light type optical sensor 73 of the identification unit 7, the light emitting element 731 is moved to the paper. Light is applied to the imaging region of the leaf, and the light receiving element 732 receives the transmitted light that has passed through the imaging region of the paper sheet.

透過光型光センサ73は、受光素子732が受光した透過光の光量に応じた信号レベルの電気信号を出力し、透過光型光センサ73によって出力された電気信号は、信号レベルに対応したデジタル信号に変換されてメモリ71へ入力される。   The transmitted light type optical sensor 73 outputs an electrical signal having a signal level corresponding to the amount of transmitted light received by the light receiving element 732, and the electrical signal output by the transmitted light type optical sensor 73 is digital corresponding to the signal level. It is converted into a signal and input to the memory 71.

メモリ71は、透過光型光センサ73から出力された信号レベルに対応したデジタル信号の情報を紙葉類の撮像領域の撮像画像データとして一時的に記憶する。   The memory 71 temporarily stores digital signal information corresponding to the signal level output from the transmitted light type optical sensor 73 as captured image data of the imaging region of the paper sheet.

メモリ71に紙葉類の撮像画像データが記憶されると、パターンマッチング部74がメモリ71に記憶されている紙葉類の撮像画像データとテンプレート画像データベース72に記憶されている真券の紙葉類の種類毎の正逆、表裏の各方向及び各面で撮像されて記憶された各テンプレート画像データを読み出し、撮像画像データと各テンプレート画像データとのパターンマッチングを行い、各テンプレート画像データのうちの撮像画像データと最も類似するテンプレート画像データを特定テンプレート画像データとして特定するとともに、特定テンプレート画像データと最も類似した画像領域を撮像画像データから検索し特定する。   When the captured image data of the paper sheet is stored in the memory 71, the pattern matching unit 74 stores the captured image data of the paper sheet stored in the memory 71 and the genuine paper sheet stored in the template image database 72. Read out each template image data captured and stored in forward / reverse for each type of class, each direction on the front and back and each surface, perform pattern matching between the captured image data and each template image data, and out of each template image data The template image data most similar to the captured image data is specified as the specific template image data, and the image region most similar to the specific template image data is searched and specified from the captured image data.

識別対象画像抽出部75は、パターンマッチング部74によって特定された特定テンプレート画像データと最も類似する撮像画像データの画像領域を紙葉類の識別対象画像データとして抽出し、傷・汚れ検出部76へ出力する。   The identification target image extraction unit 75 extracts the image area of the captured image data that is most similar to the specific template image data specified by the pattern matching unit 74 as the identification target image data of the paper sheet, and sends it to the scratch / dirt detection unit 76. Output.

傷・汚れ検出部76は、識別対象画像抽出部75から入力された識別対象画像データと特定テンプレート画像データとの差を算出し、識別対象画像データ内に存在する傷および汚れを示す画像データを検出して傷・汚れ影響補正部77へ出力する。   The scratch / dirt detection unit 76 calculates a difference between the identification target image data input from the identification target image extraction unit 75 and the specific template image data, and obtains image data indicating scratches and dirt existing in the identification target image data. It is detected and output to the scratch / dirt effect correction unit 77.

傷・汚れ影響補正部77は、傷・汚れ検出部76により検出され入力された傷および汚れを示す画像データの影響を補正した補正済識別対象画像データをパターンマッチング部74へ出力する。   The flaw / dirt influence correcting unit 77 outputs the corrected identification target image data corrected for the influence of the image data indicating the flaw and dirt detected and input by the flaw / dirt detecting unit 76 to the pattern matching unit 74.

パターンマッチング部74は、傷・汚れ影響補正部77から入力された補正済識別対象画像データと識別対象画像データとのパターンマッチングを行い、これら二つの画像データの相関値を算出し、識別制御部70がパターンマッチング部74によって算出された補正済識別対象画像データと識別対象画像データとのパターンマッチングによる相関値に基づき紙葉類の種類および真偽を識別する。   The pattern matching unit 74 performs pattern matching between the corrected identification target image data input from the scratch / dirt influence correction unit 77 and the identification target image data, calculates a correlation value between these two image data, and an identification control unit 70 identifies the type and authenticity of the paper sheet based on the correlation value obtained by pattern matching between the corrected identification target image data and the identification target image data calculated by the pattern matching unit 74.

以上説明した如くに動作する識別部7を有する紙葉類識別装置1が挿入された紙葉類の種類および真偽を識別し、処理する処理手順について図3及び図4に示すフローチャートを参照して説明する。   Refer to the flowcharts shown in FIGS. 3 and 4 for the processing procedure for identifying and processing the type and authenticity of the inserted paper sheet by the paper sheet identifying apparatus 1 having the identifying unit 7 operating as described above. I will explain.

紙葉類識別装置1は、紙葉類挿入部3から紙葉類が挿入されると(ステップS301でYES)、透過光型光センサ73を用いて挿入された紙葉類を撮像し(ステップS302)、撮像して取得した撮像画像データと、予め真券の紙葉類の正逆、表裏の各方向及び各面に対応した各テンプレート画像データとのテンプレートマッチングを行い、各テンプレート画像データ毎の各テンプレート画像データと撮像画像データとの最大相関値A、B、C、Dを算出する(ステップS303、S304、S305、S306)。   When a paper sheet is inserted from the paper sheet insertion unit 3 (YES in step S301), the paper sheet identification device 1 images the inserted paper sheet using the transmitted light optical sensor 73 (step S301). S302), template matching between the captured image data acquired by imaging and the template image data corresponding to each direction and each surface of the front and back, and the front and back of the genuine paper sheet is performed in advance. The maximum correlation values A, B, C, and D between the template image data and the captured image data are calculated (steps S303, S304, S305, and S306).

なお、最大相関値Aは、正方向で挿入されて表面部が撮像されたテンプレート画像データ(以下、「テンプレート画像データ(正方向表面)」という。)と撮像画像データとの最大相関値、最大相関値Bは、正方向で挿入されて裏面部が撮像されたテンプレート画像データ(以下、「テンプレート画像データ(正方向裏面)」という。)と撮像画像データとの最大相関値、最大相関値Cは、逆方向で挿入されて表面部が撮像されたテンプレート画像データ(以下、「テンプレート画像データ(逆方向表面)」という。)と撮像画像データとの最大相関値、最大相関値Dは、逆方向で挿入されて裏面部が撮像されたテンプレート画像データ(以下、「テンプレート画像データ(逆方向裏面)」という。)と撮像画像データとの最大相関値をそれぞれ示している。   The maximum correlation value A is the maximum correlation value between the template image data (hereinafter referred to as “template image data (positive direction surface)”) that is inserted in the positive direction and the surface portion is imaged, and the maximum. The correlation value B is a maximum correlation value and a maximum correlation value C between template image data (hereinafter referred to as “template image data (back in the positive direction)”) that is inserted in the positive direction and whose back surface is imaged, and the captured image data. Is the maximum correlation value between the template image data (hereinafter referred to as “template image data (reverse direction surface)”) that has been inserted in the reverse direction and whose surface portion has been imaged, and the captured image data. The maximum correlation value between the template image data (hereinafter referred to as “template image data (reverse direction reverse side)”) that is inserted in the direction and the back side is imaged and the captured image data It is shows.

算出した各最大相関値A、B、C、Dのうちの最大の値となった最大相関値を有するテンプレート画像データを特定テンプレート画像データとして設定し(ステップS307)、特定テンプレート画像データと最も類似する撮像画像データの画像領域を紙葉類の識別対象画像データとして抽出する(ステップS308)。   Template image data having the maximum correlation value that is the maximum value among the calculated maximum correlation values A, B, C, and D is set as specific template image data (step S307), and is most similar to the specific template image data. The image area of the captured image data to be extracted is extracted as image data to be identified of paper sheets (step S308).

抽出された識別対象画像データは、傷・汚れ補正及び識別処理されて(ステップS309)、挿入された紙葉類の種類及び真偽が識別される。   The extracted identification target image data is subjected to scratch / dirt correction and identification processing (step S309), and the type and authenticity of the inserted paper sheet are identified.

図4は、傷・汚れ補正及び識別処理S309の処理手順を示すフローチャートであり、図4を参照しながら傷・汚れ補正及び識別処理S309の処理手順について説明する。   FIG. 4 is a flowchart showing the processing procedure of the flaw / dirt correction and identification process S309. The processing procedure of the flaw / dirt correction and identification process S309 will be described with reference to FIG.

挿入された紙葉類の撮像画像データから識別対象画像データが抽出されると、識別対象画像データと特定テンプレート画像データとの差を算出して識別対象画像データ内に存在する傷および汚れを示す画像データを検出し(ステップS3091)、検出した傷および汚れを示す画像データの影響を補正した補正済識別対象画像データを算出する(ステップS3092)。   When the identification target image data is extracted from the captured image data of the inserted paper sheet, a difference between the identification target image data and the specific template image data is calculated to indicate scratches and dirt existing in the identification target image data Image data is detected (step S3091), and corrected identification target image data in which the influence of the detected image data indicating scratches and dirt is corrected is calculated (step S3092).

そして、補正済識別対象画像データと識別対象画像データとのパターンマッチングを行い、この二つの画像の相関値を算出する(ステップS3093)。   Then, pattern matching between the corrected identification target image data and the identification target image data is performed, and a correlation value between the two images is calculated (step S3093).

算出した相関値の値に基づいて紙葉類の真偽を判定し(ステップS3094)、紙葉類が真券と判定された場合は(ステップS3094でYES)、紙葉類を紙葉類受入部に受け入れ(ステップS3095)、処理手順を終了する。   The authenticity of the paper sheet is determined based on the calculated correlation value (step S3094). If the paper sheet is determined to be a genuine note (YES in step S3094), the paper sheet is accepted. (Step S3095), and the processing procedure ends.

また、ステップS3094において、紙葉類が偽券と判定された場合は(ステップS3094でNO)、紙葉類を紙葉類挿入部3から返却し(ステップS3096)、処理手順を終了する。   If it is determined in step S3094 that the paper sheet is a fake ticket (NO in step S3094), the paper sheet is returned from the paper sheet insertion unit 3 (step S3096), and the processing procedure is terminated.

ここで、紙葉類識別装置1の識別部7が行う本発明に係わる紙葉類識別方法について詳細に説明する。   Here, the paper sheet identification method according to the present invention performed by the identification unit 7 of the paper sheet identification apparatus 1 will be described in detail.

図5乃至図9は、識別部7が行う紙葉類の種類および真偽を識別する方法を説明するための説明図であり、図5乃至図9を参照しながら本発明に係わる紙葉類識別方法について詳細に説明する。   FIG. 5 to FIG. 9 are explanatory diagrams for explaining a method of identifying the type and authenticity of the paper sheet performed by the identification unit 7, and the paper sheet according to the present invention with reference to FIG. 5 to FIG. The identification method will be described in detail.

図5は、撮像画像データとテンプレート画像データの一例を示す図であり、図5(a)は、紙葉類識別装置1に挿入された紙葉類を透過光型光センサ73を用いて撮像して取得した撮像画像データ20を示す図、図5(b)乃至図5(e)は、真券の紙葉類を種類毎に正逆、表裏の各方向及び各面で紙葉類識別装置1に挿入し撮像して取得したテンプレート画像データ26、27、28、29を示す図である。   FIG. 5 is a diagram illustrating an example of captured image data and template image data. FIG. 5A illustrates an image of a paper sheet inserted into the paper sheet identification device 1 using a transmitted light type optical sensor 73. FIGS. 5 (b) to 5 (e) show the captured image data 20 acquired in this manner, and the genuine paper sheets are forward / reverse for each type, and the paper sheets are identified in the front and back directions and on each surface. It is a figure which shows the template image data 26, 27, 28, and 29 which were inserted in the apparatus 1 and imaged and acquired.

図5(a)に示すように、透過光型光センサ73によって撮像された紙葉類の撮像画像データ20は、例えば、画素数がL×Lのf(i、j)の各画素で構成されており、撮像画像データ20には、透かし領域21と透かし領域21以外の通常領域22が存在し、透かし領域21内には透かし模様23が存在する。   As shown in FIG. 5A, the captured image data 20 of the paper sheet imaged by the transmitted light type optical sensor 73 is composed of, for example, each pixel of f (i, j) whose number of pixels is L × L. In the captured image data 20, a watermark area 21 and a normal area 22 other than the watermark area 21 exist, and a watermark pattern 23 exists in the watermark area 21.

また、撮像画像データ20には紙葉類の傷および汚れ25が存在している。   Further, the picked-up image data 20 includes paper sheet scratches and dirt 25.

なお、図5(a)において、破線で示された透かし模様23は、真券に形成された透かし模様23の位置ずれを示したものであり、i=0、1、2、・・・、L−1、j=0、1、2、・・・、L−1である。   In FIG. 5A, a watermark pattern 23 indicated by a broken line indicates a displacement of the watermark pattern 23 formed on the genuine note, and i = 0, 1, 2,... L-1, j = 0, 1, 2,..., L-1.

また、透過光型光センサ73の受光素子732が受光する際の光量は、受光素子732が紙葉類を透過した透過光を受光するため、一般に、透かし領域21を透過する光量は、通常領域22を透過する光量より多く、透かし模様23を透過する光量は透かし領域21の光量より少なく、通常領域22を透過する光量は透かし模様23の光量より少ない。   In addition, the amount of light when the light receiving element 732 of the transmitted light type optical sensor 73 receives light is such that the light receiving element 732 receives the transmitted light that has passed through the paper sheet. The amount of light transmitted through the watermark pattern 23 is less than the amount of light transmitted through the watermark region 21, and the amount of light transmitted through the normal region 22 is less than the amount of light transmitted through the watermark pattern 23.

また、傷および汚れ25は、傷および汚れの程度によって傷および汚れを透過する光量が異なる。   Further, the amount of light transmitted through the scratches and dirt varies depending on the level of the scratches and dirt.

テンプレート画像データベース72には、予め真券の紙葉類を正逆、表裏の各方向及び各面で撮像して取得した、例えば、図5(b)乃至図5(e)に示されるような各テンプレート画像データ26、27、28、29が記憶されている。   The template image database 72 is obtained by capturing images of genuine paper sheets in the forward and reverse directions, front and back directions and surfaces in advance, for example, as shown in FIGS. 5B to 5E. Each template image data 26, 27, 28, 29 is stored.

図5(b)は、真券の紙葉類を紙葉類識別装置1に正方向で挿入し、紙葉類の表面部を撮像して取得したテンプレート画像データ(正方向表面)26を示す図であり、図5(c)は、真券の紙葉類を紙葉類識別装置1に正方向で挿入し、紙葉類の裏面部を撮像して取得したテンプレート画像データ(正方向裏面)27を示す図、図5(d)は、真券の紙葉類を紙葉類識別装置1に逆方向で挿入し、紙葉類の表面部を撮像して取得したテンプレート画像データ(逆方向表面)28を示す図、図5(e)は、真券の紙葉類を紙葉類識別装置1に逆方向で挿入し、紙葉類の裏面部を撮像して取得したテンプレート画像データ(逆方向裏面)29を示す図である。   FIG. 5B shows template image data (forward direction surface) 26 obtained by inserting a genuine paper sheet into the paper sheet identification apparatus 1 in the forward direction and imaging the surface portion of the paper sheet. FIG. 5C is a diagram illustrating template image data (backward in the forward direction) obtained by inserting a genuine paper sheet into the paper sheet identification device 1 in the forward direction and capturing an image of the back side of the paper sheet. FIG. 5D shows template image data (inverse) obtained by inserting a genuine paper sheet into the paper sheet identification device 1 in the reverse direction and imaging the surface portion of the paper sheet. FIG. 5E shows template image data obtained by inserting a genuine paper sheet into the paper sheet identification apparatus 1 in the reverse direction and capturing an image of the back surface of the paper sheet. It is a figure which shows (reverse direction back surface) 29. FIG.

なお、各テンプレート画像データ26、27、28、29は、例えば画素数がM×Nのt(i、j)の各画素で構成されており、各テンプレート画像データ26、27、28、29は、例えば、真券の紙葉類の種類に対応した透かし模様等の特徴画像の画像データが記憶され、i=0、1、2、・・・、M−1、j=0、1、2、・・・、N−1である。   Each of the template image data 26, 27, 28, 29 is composed of, for example, each pixel of t (i, j) having the number of pixels of M × N, and each of the template image data 26, 27, 28, 29 is , For example, image data of a feature image such as a watermark pattern corresponding to the type of paper sheet of a genuine note is stored, i = 0, 1, 2,..., M−1, j = 0, 1, 2. ..., N-1.

図6及び図7は、撮像画像データ20内で各テンプレート画像データ26、27、28、29のうちの最も類似性が高いテンプレート画像データを特定し、特定した特定テンプレート画像データと最も類似する画像領域を撮像画像データ20から識別対象画像データとして抽出する方法を説明する説明図である。   6 and 7 specify template image data having the highest similarity among the template image data 26, 27, 28, and 29 in the captured image data 20, and the image most similar to the specified specific template image data. It is explanatory drawing explaining the method to extract an area | region as identification object image data from the captured image data.

図6及び図7を参照しながら撮像画像データ20からテンプレート画像データと最も類似する画像領域を識別対象画像データとして抽出する方法について説明する。   A method for extracting the image area most similar to the template image data from the captured image data 20 as the identification target image data will be described with reference to FIGS.

まず、例えば、図6(a)に示すように、撮像画像データ20とテンプレート画像データ(正方向表面)26とのテンプレートマッチングにより撮像画像データ20とテンプレート画像データ(正方向表面)26との最大相関値を算出する。   First, for example, as illustrated in FIG. 6A, the maximum of the captured image data 20 and the template image data (forward surface) 26 is obtained by template matching of the captured image data 20 and the template image data (forward surface) 26. A correlation value is calculated.

撮像画像データ20とテンプレート画像データ(正方向表面)26とのテンプレートマッチングは、例えば、撮像画像データ20上でテンプレート画像データ(正方向表面)26を移動させながらパターンマッチングによる各相関値を算出し、算出した各相関値のうちの最大値である最大相関値を算出する。   For example, template matching between the captured image data 20 and the template image data (positive surface) 26 calculates each correlation value by pattern matching while moving the template image data (positive surface) 26 on the captured image data 20. The maximum correlation value that is the maximum value among the calculated correlation values is calculated.

また、例えば、テンプレート画像データ(正方向表面)26上で撮像画像データ20を移動させながらパターンマッチングによる各相関値を算出し、算出した各相関値のうちの最大値である最大相関値を算出してもよい。   Further, for example, each correlation value by pattern matching is calculated while moving the captured image data 20 on the template image data (positive surface) 26, and the maximum correlation value that is the maximum value among the calculated correlation values is calculated. May be.

撮像画像データ20上でテンプレート画像データ(正方向表面)26を移動させながらパターンマッチングによる各相関値を算出する場合を例に具体的に説明すると、撮像画像データ20の各画素f(i、j)のうちのテンプレート画像データ(正方向表面)26と同サイズ(同画素数、例えばM×N)の部分画像データを抽出する際、部分画像データの左上の画素に対応する位置を始点(u、v)とし、始点(u、v)の位置に対応した部分画像データの各画素f(u+i、v+j)とテンプレート画像データ(正方向表面)26の各画素t(i、j)とのパターンマッチングを行い、始点(u、v)の位置を撮像画像データ20内で順次移動させながら相関値を算出するようなテンプレートマッチングを行う。
撮像画像データ20とテンプレート画像データ(正方向表面)26とのテンプレートマッチングによる相関値の算出は、例えば次式で示されるような正規化相関値として算出することができる。
The case where each correlation value by pattern matching is calculated while moving the template image data (positive-direction surface) 26 on the captured image data 20 will be specifically described as an example. Each pixel f (i, j) of the captured image data 20 ), The position corresponding to the upper left pixel of the partial image data is extracted from the start point (u) when extracting the partial image data having the same size (the same number of pixels, for example, M × N) as the template image data (positive surface) 26. V), and a pattern of each pixel f (u + i, v + j) of the partial image data corresponding to the position of the start point (u, v) and each pixel t (i, j) of the template image data (positive surface) 26 Template matching is performed such that the correlation value is calculated while sequentially moving the position of the start point (u, v) in the captured image data 20.
The calculation of the correlation value by template matching between the captured image data 20 and the template image data (positive surface) 26 can be calculated as a normalized correlation value as shown by the following equation, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、R(u、v)は撮像画像上での部分画像データの始点(u、v)位置における部分画像データとテンプレート画像データ(正方向表面)26との相関値、f(u+i、v+j)は、始点(u、v)の移動に伴う部分画像データの各画素値、f’は部分画像データの画素の平均値、t(i、j)はテンプレート画像データ(正方向表面)26の各画素値、t’はテンプレート画像データ(正方向表面)26の画素の平均値をそれぞれ示している。   In the above expression, R (u, v) is a correlation value between the partial image data and the template image data (positive surface) 26 at the position of the starting point (u, v) of the partial image data on the captured image, and f ( u + i, v + j) is each pixel value of the partial image data accompanying the movement of the start point (u, v), f ′ is the average value of the pixels of the partial image data, and t (i, j) is the template image data (forward surface) ) 26 pixel values, t ′ indicates the average value of the pixels of the template image data (positive surface) 26, respectively.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上式で算出された始点(u、v)に対応した部分画像データとテンプレート画像データ(正方向表面)26との正規化相関値の算出結果は、例えば図6(b)に示すような曲線グラフ30として得ることができる。   The calculation result of the normalized correlation value between the partial image data corresponding to the start point (u, v) calculated by the above equation and the template image data (positive direction surface) 26 is, for example, a curve as shown in FIG. It can be obtained as a graph 30.

図6(b)に示すように、曲線グラフ30の横軸は、撮像画像データ20から抽出された部分画像データの始点(u、v)の位置情報を示し、縦軸は、始点(u、v)に対応した部分画像データとテンプレート画像データ(正方向表面)26との正規化相関値の値を示している。   As shown in FIG. 6B, the horizontal axis of the curve graph 30 indicates the position information of the start point (u, v) of the partial image data extracted from the captured image data 20, and the vertical axis indicates the start point (u, The normalized correlation value between the partial image data corresponding to v) and the template image data (positive-direction surface) 26 is shown.

相関値は、部分画像データとテンプレート画像データ(正方向表面)26との類似性を示しており、曲線グラフ30において、曲線グラフ30の頂点Aは、撮像画像データ20上でのテンプレート画像データ(正方向表面)26のテンプレートマッチングによる最大相関値Aを示している。   The correlation value indicates the similarity between the partial image data and the template image data (positive-direction surface) 26. In the curve graph 30, the vertex A of the curve graph 30 is the template image data (on the captured image data 20). The maximum correlation value A by the template matching of (positive-direction surface) 26 is shown.

撮像画像データ20とテンプレート画像データ(正方向表面)26とのテンプレートマッチングによる最大相関値Aが算出されると、テンプレート画像データ(正方向表面)26をテンプレート画像データ27、28、29と順次置換え、置換えた各テンプレート画像データ27、28、29と撮像画像データ20との最大相関値を前述したテンプレートマッチングにより算出する。   When the maximum correlation value A is calculated by template matching between the captured image data 20 and the template image data (forward direction surface) 26, the template image data (forward direction surface) 26 is sequentially replaced with the template image data 27, 28, and 29. The maximum correlation value between the replaced template image data 27, 28, 29 and the captured image data 20 is calculated by the template matching described above.

図6(c)に示すように、撮像画像データ20とテンプレート画像データ(正方向裏面)27とのテンプレートマッチングによる最大相関値は、図6(d)に示すような、曲線グラフ31の頂点Bとして算出され、図7(a)に示すように、撮像画像データ20とテンプレート画像データ(逆方向表面)28とのテンプレートマッチングによる最大相関値は、図7(b)に示すような、曲線グラフ32の頂点Cとして算出され、図7(c)に示すように、撮像画像データ20とテンプレート画像データ(逆方向裏面)29とのテンプレートマッチングによる最大相関値は、図7(d)に示すような、曲線グラフ33の頂点Dとして算出される。   As shown in FIG. 6C, the maximum correlation value by template matching between the captured image data 20 and the template image data (back in the positive direction) 27 is the vertex B of the curve graph 31 as shown in FIG. As shown in FIG. 7A, the maximum correlation value obtained by template matching between the captured image data 20 and the template image data (reverse surface) 28 is a curve graph as shown in FIG. As shown in FIG. 7C, the maximum correlation value obtained by template matching between the captured image data 20 and the template image data (reverse reverse side) 29 is calculated as shown in FIG. It is calculated as the vertex D of the curve graph 33.

算出した各テンプレート画像データ26、27、28、29の各最大相関値A、B、C、Dのうちの最も大きな値の最大相関値を有するテンプレート画像データを特定テンプレート画像データとして一時的に設定する。   The template image data having the largest correlation value among the maximum correlation values A, B, C, and D of the calculated template image data 26, 27, 28, and 29 is temporarily set as specific template image data. To do.

また、特定テンプレート画像データと撮像画像データ20とのテンプレートマッチングによる最大相関値となった時の撮像画像データ20上の位置における特定テンプレート画像データを重ねた画像領域を撮像画像データ20から抽出することで、図7(e)に示すような紙葉類の識別対象画像データ34が抽出される。   Further, an image region in which the specific template image data is superimposed at a position on the captured image data 20 when the maximum correlation value is obtained by template matching between the specific template image data and the captured image data 20 is extracted from the captured image data 20. As a result, paper sheet identification target image data 34 as shown in FIG. 7E is extracted.

また、テンプレート画像データ26、27、28、29の中から特定テンプレート画像データが特定されることで、特定テンプレート画像データに対応して紙葉類の正逆、表裏の各挿入方向が判定される。   Further, by specifying the specific template image data from the template image data 26, 27, 28, and 29, the normal / reverse and front / back insertion directions of the paper sheets are determined corresponding to the specific template image data. .

なお、この例の場合は、特定テンプレート画像データは、テンプレート画像データ(正方向表面)26であり、挿入された紙葉類の挿入方向は、テンプレート画像データ(正方向表面)26に対応して正方向、表面と判定される。   In this example, the specific template image data is template image data (forward surface) 26, and the insertion direction of the inserted paper sheet corresponds to the template image data (forward surface) 26. Positive direction, determined as surface.

また、正逆、表裏の各挿入方向に対応したテンプレート画像データは、例えばテンプレート画像データベース72に真券の一方向及び一面部のみのテンプレート画像データを記憶し、挿入された紙葉類の撮像画像データとテンプレートマッチングを行う際に、テンプレート画像データを左右反転、上下反転、左右反転後上下反転させたテンプレート画像を正逆、表裏の各挿入方向に対応したテンプレート画像として用いるようにしてもよい。   Further, the template image data corresponding to each insertion direction of the front and back and the front and back is, for example, stored in the template image database 72 template image data of only one direction and one side of a genuine note, and a captured image of the inserted paper sheet When performing template matching with data, a template image obtained by horizontally inverting, vertically inverting, horizontally inverting and then vertically inverting the template image data may be used as a template image corresponding to the normal and reverse insertion directions.

また、例えばテンプレート画像データベース72に真券の一方向及び一面部のみのテンプレート画像データを記憶し、挿入された紙葉類の撮像画像データを正逆、表裏の各挿入方向及び各面に対応した画像データに回転補正し、回転補正した撮像画像データとテンプレート画像データとのテンプレートマッチングを行うようにしてもよい。   Further, for example, template image data for only one direction and one side of a genuine note is stored in the template image database 72, and the captured image data of the inserted paper sheet corresponds to each insertion direction and each side of the front and back. The image data may be rotationally corrected, and template matching may be performed between the rotationally corrected captured image data and the template image data.

次に撮像画像データ20から抽出した識別対象画像データ34内に存在する傷および汚れを検出する方法について説明する。   Next, a method for detecting scratches and dirt present in the identification target image data 34 extracted from the captured image data 20 will be described.

図8は、撮像画像データ20から抽出した識別対象画像データ34内に存在する傷および汚れを示す画像データを検出する方法を示した説明図である。   FIG. 8 is an explanatory diagram showing a method for detecting image data indicating scratches and dirt existing in the identification target image data 34 extracted from the captured image data 20.

図8(a)は、特定テンプレート画像データ(正方向表面)26を示す図であり、図8(b)は、傷および汚れを含む識別対象画像データ34を示す図、図8(c)は、図8(a)に示した特定テンプレート画像データ(正方向表面)26と図8(b)に示した識別対象画像データ34との差分を算出した差分画像データ35を示す図である。   8A is a diagram showing specific template image data (positive surface) 26, FIG. 8B is a diagram showing identification target image data 34 including scratches and dirt, and FIG. 8C is a diagram. FIG. 9 is a diagram illustrating difference image data 35 obtained by calculating a difference between the specific template image data (forward-direction surface) 26 illustrated in FIG. 8A and the identification target image data 34 illustrated in FIG.

紙葉類に傷および汚れが付着している場合、または透過光型光センサ73に傷および汚れが付着している場合等、紙葉類を撮像する際に、当該傷および汚れが発光素子731からの光を遮ることで、受光素子732により取得した紙葉類の撮像領域の画像に傷および汚れによる不要な画像が撮像されてしまう。   When scratches and dirt are attached to the paper sheets, or when scratches and dirt are attached to the transmitted light type optical sensor 73, when the paper sheets are imaged, the scratches and dirt are caused by the light emitting element 731. By blocking the light from the image, an unnecessary image due to scratches and dirt is captured in the image of the imaging region of the paper sheet acquired by the light receiving element 732.

特に、紙葉類の透かし領域21内に傷および汚れが付着している場合、または透かし領域21内の透過光を遮ってしまうような透過光型光センサ73の位置に傷および汚れが付着している場合は、傷および汚れを示す画像が存在する識別対象画像データとなってしまう。   In particular, when scratches and dirt are attached in the watermark area 21 of the paper sheet, or scratches and dirt are attached to the position of the transmitted light type optical sensor 73 that blocks the transmitted light in the watermark area 21. In such a case, the identification target image data includes an image showing a scratch and a stain.

したがって、図6乃至図7に示したように、特定テンプレート画像データ(正方向表面)26と最も類似性の高い画像領域を撮像画像データ20内から抽出した識別対象画像データ34であっても、識別対象画像データ34内に傷および汚れを示す画像データが存在する場合がある。   Therefore, as shown in FIGS. 6 to 7, even if the image data 34 is the identification target image data 34 obtained by extracting the image region having the highest similarity with the specific template image data (positive-direction surface) 26 from the captured image data 20, There may be image data indicating scratches and dirt in the identification target image data 34.

そこで、図8に示すように、特定テンプレート画像データ(正方向表面)26と傷および汚れを含む識別対象画像データ34との差を算出する。   Therefore, as shown in FIG. 8, the difference between the specific template image data (positive surface) 26 and the identification target image data 34 including scratches and dirt is calculated.

図8(a)及び(b)に示すように、特定テンプレート画像データ(正方向表面)26と識別対象画像データ34とにおいて、共通な画像データは透かし模様23の画像データであり、非共通な画像データは識別対象画像データ34に存在する傷および汚れの画像データ25である。   As shown in FIGS. 8A and 8B, the common image data in the specific template image data (positive-direction surface) 26 and the identification target image data 34 is the image data of the watermark pattern 23 and is not common. The image data is flaw and dirt image data 25 present in the identification target image data 34.

したがって、特定テンプレート画像データ(正方向表面)26と識別対象画像データ34との差を算出することにより図8(c)に示すような傷および汚れを示す画像データ25の差分画像データ35を検出することができる。   Therefore, by calculating the difference between the specific template image data (positive-direction surface) 26 and the identification target image data 34, the difference image data 35 of the image data 25 showing the scratches and dirt as shown in FIG. 8C is detected. can do.

なお、傷および汚れを検出する検出式は、例えば次式で算出することができる。   The detection formula for detecting scratches and dirt can be calculated by the following formula, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、dは特定テンプレート画像データ(正方向表面)26と識別対象画像データ34との差、t(i、j)は特定テンプレート画像データ(正方向表面)26の各画素値、t’は特定テンプレート画像データ(正方向表面)26の画素の平均値、f(u+i、v+j)は識別対象画像データ34の各画素値、f’は識別対象画像データ34の画素の平均値をそれぞれ示している。   In the above equation, d is a difference between the specific template image data (positive surface) 26 and the identification target image data 34, t (i, j) is each pixel value of the specific template image data (positive surface) 26, t ′ is an average value of the pixels of the specific template image data (positive surface) 26, f (u + i, v + j) is each pixel value of the identification target image data 34, and f ′ is an average value of the pixels of the identification target image data 34. Each is shown.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

そして、検出した傷および汚れを示す画像データ25の影響を補正し、補正した図示せぬ補正済識別対象画像データと識別対象画像データ34とのパターンマッチングを行い、この二つの画像の相関値を算出することで、紙葉類の種類および真偽を識別する。   Then, the influence of the detected image data 25 indicating flaws and dirt is corrected, pattern correction between the corrected identification target image data (not shown) and the identification target image data 34 is performed, and a correlation value between the two images is obtained. By calculating, the type and authenticity of the paper sheet are identified.

具体的には、例えば、検出した識別対象画像データ34の傷および汚れを示す画像データ25を識別対象画像データ34の同位置且つ同面積に対応して特定テンプレート画像データ(正方向表面)26に貼り付けて図示せぬ補正済識別対象画像データに変換し、補正済識別対象画像データと識別対象画像データ34とのパターンマッチングを行い、この二つの画像の相関値を算出することで、紙葉類の種類および真偽を識別する。   Specifically, for example, the detected image data 25 indicating scratches and dirt of the identification target image data 34 is converted into specific template image data (positive surface) 26 corresponding to the same position and the same area of the identification target image data 34. The sheet is pasted and converted into corrected identification target image data (not shown), pattern matching between the corrected identification target image data and the identification target image data 34 is performed, and a correlation value between the two images is calculated. Identify the type and true / false of the class.

図9は、傷および汚れを示す画像データの影響を補正した補正済識別対象画像データ36と識別対象画像データ34とに基づき紙葉類の種類および真偽を識別する方法の一例を示した説明図である。   FIG. 9 illustrates an example of a method for identifying the type and authenticity of paper sheets based on the corrected identification target image data 36 and the identification target image data 34 corrected for the influence of image data indicating scratches and dirt. FIG.

図9(a)は、傷・汚れ検出部76で検出された識別対象画像データ34内に存在する傷および汚れ25を示す差分画像データ35の一例を示す図であり、図9(b)は、特定テンプレート画像データ(正方向表面)26の一例を示す図、図9(c)は、補正済識別対象画像データ36を示す図、図9(d)は、識別対象画像データ34を示す図である。   FIG. 9A is a diagram showing an example of the difference image data 35 indicating the flaws and dirt 25 existing in the identification target image data 34 detected by the flaw / dirt detection unit 76, and FIG. FIG. 9C shows an example of the specific template image data (positive-direction surface) 26, FIG. 9C shows the corrected identification target image data 36, and FIG. 9D shows the identification target image data 34. It is.

図9を参照しながら紙葉類の種類および真偽を識別する方法について説明する。   A method for identifying the type and authenticity of paper sheets will be described with reference to FIG.

例えば、図9(d)に示すように、紙葉類の撮像領域の撮像画像データから抽出した識別対象画像データ34に傷および汚れ25が存在する場合は、傷・汚れ検出部76によって図9(a)に示すような傷および汚れ25を示す差分画像データ35が検出される。   For example, as shown in FIG. 9D, if the identification target image data 34 extracted from the captured image data of the imaging region of the paper sheet has a scratch and a stain 25, the scratch / dirt detection unit 76 performs the processing shown in FIG. Difference image data 35 indicating scratches and dirt 25 as shown in (a) is detected.

傷・汚れ影響補正部77は、傷・汚れ検出部76により検出した傷および汚れ25を示す差分画像データ35を図9(b)に示した特定テンプレート画像データ(正方向表面)26に対して識別対象画像データ34に存在する傷および汚れ25と同位置且つ同面積となるように貼り付けて図9(c)に示すような補正済識別対象画像データ36へ変換する。   The scratch / dirt influence correcting unit 77 applies the difference image data 35 indicating the scratch and the stain 25 detected by the scratch / dirt detecting unit 76 to the specific template image data (forward direction surface) 26 shown in FIG. The identification target image data 34 is pasted so as to have the same position and the same area as the scratches and dirt 25 present in the identification target image data 34, and converted into corrected identification target image data 36 as shown in FIG. 9C.

そして補正済識別対象画像データ36と識別対象画像データ34とのパターンマッチングを行い、この二つの画像の相関値を算出し、算出した相関値が所定値以上の値であれば挿入された紙葉類が真券である判定し、算出した相関値が所定値以上の値でなければ偽券と判定するように識別する。   Then, pattern matching between the corrected identification target image data 36 and the identification target image data 34 is performed, and a correlation value between the two images is calculated. If the calculated correlation value is equal to or greater than a predetermined value, the inserted paper sheet It is determined that the class is a genuine note, and is determined to be a false note if the calculated correlation value is not equal to or greater than a predetermined value.

また、補正済識別対象画像データと識別対象画像データとに基づき紙葉類の種類および真偽を識別する方法とは他に、識別対象画像データと特定テンプレート画像データとの差の差分画像データに基づき紙葉類の種類および真偽を識別するような構成としてもよい。   In addition to the method of identifying the type and authenticity of the paper sheet based on the corrected identification target image data and the identification target image data, the difference image data of the difference between the identification target image data and the specific template image data is used. The configuration may be such that the type and authenticity of the paper sheet are identified based on it.

具体的には、紙葉類の撮像画像データから抽出した識別対象画像データと特定テンプレート画像データとの差の差分画像データに基づき、例えば差分画像データに傷および汚れを示す画像データが存在しない場合、差分画像データの全画素は「白」となる。   Specifically, based on the difference image data of the difference between the identification target image data extracted from the captured image data of the paper sheet and the specific template image data, for example, when there is no image data indicating scratches and dirt in the difference image data All pixels of the difference image data are “white”.

つまり、差分画像データの全画素が「白」であることを確認することで、紙葉類が真券であると識別することができる。   That is, by confirming that all the pixels of the difference image data are “white”, it is possible to identify the paper sheet as a genuine note.

しかし、実際には、識別対象画像データには何かしらの傷および汚れを示す画像が存在すると思われるので、予め紙葉類無しの状態で透過光型光センサ73によって撮像した紙葉類無しの画像データと傷・汚れ検出部76で検出した紙葉類に付着する傷および汚れを示す画像の差分画像データとをパターンマッチングすることで、紙葉類の種類および真偽を識別する構成としてもよい。   However, in actuality, it is considered that there is an image showing some kind of scratches and dirt in the identification target image data. Therefore, an image without paper sheets captured by the transmitted light type optical sensor 73 in a state without paper sheets in advance. A configuration may be adopted in which the type and authenticity of the paper sheet are identified by pattern matching between the data and the difference image data of the image indicating the scratch and dirt attached to the paper sheet detected by the scratch / dirt detection unit 76. .

また、紙葉類の種類および真偽の識別を紙葉類の種類毎に透かし領域21の形状が異なることを利用して、例えば、紙葉類の撮像画像から抽出した透かし領域の周長、円形度および面積等から紙葉類の種類および真偽を識別することも可能である。   Further, by utilizing the fact that the shape of the watermark region 21 is different for each type of paper sheet to identify the type and authenticity of the paper sheet, for example, the perimeter of the watermark region extracted from the captured image of the paper sheet, It is also possible to identify the type and authenticity of paper sheets from the circularity and area.

また、透かし領域が短手方向の中心からずれている紙葉類を識別する場合は、撮像画像から算出した透かし領域の重心に基づいて紙葉類の挿入方向を判別し、紙葉類の種類および真偽の識別処理を軽減することも可能である。   In addition, when identifying paper sheets whose watermark area is deviated from the center in the short direction, the insertion direction of the paper sheet is determined based on the center of gravity of the watermark area calculated from the captured image, and the type of paper sheet It is also possible to reduce the true / false identification process.

また、実際の紙葉類の識別処理にあたっては、本発明に係わる紙葉類識別方法のみで紙葉類の種類および真偽を識別するのではなく、他の識別要因との組み合わせで真偽判定を下しても良い。   In the actual paper sheet identification processing, the authenticity determination is not performed by identifying the type and authenticity of the paper sheet only by the paper sheet identification method according to the present invention, but by combination with other identification factors. You may defeat.

実施例1では、紙葉類を正逆、表裏の各方向及び各面で挿入して紙葉類の透かし模様等の特徴画像を各挿入方向に対応したテンプレート画像として予め登録し、挿入された紙葉類から取得した撮像画像と各挿入方向に対応したテンプレート画像とのテンプレートマッチングにより、挿入された紙葉類の挿入方向を判定するとともに、テンプレート画像と最も類似する画像領域を撮像画像から抽出する方法の一例を示した。   In the first embodiment, paper sheets are inserted in forward and reverse directions, front and back directions and surfaces, and feature images such as watermark patterns of paper sheets are registered in advance as template images corresponding to the insertion directions and inserted. The template matching between the captured image acquired from the paper sheet and the template image corresponding to each insertion direction determines the insertion direction of the inserted paper sheet and extracts the image area most similar to the template image from the captured image. An example of how to do it was shown.

次に実施例2では、挿入方向を一方向のみで挿入した紙葉類の透かし模様等の特徴画像に対応したテンプレート画像を予め登録し、挿入された紙葉類の撮像画像の透かし領域の重心に基づいて紙葉類の挿入方向を判定し、判定された挿入方向に基づいてテンプレート画像を回転補正してテンプレート画像と最も類似する画像領域を撮像画像から抽出する方法の一例について説明する。   Next, in the second embodiment, a template image corresponding to a feature image such as a watermark pattern of a paper sheet inserted in only one direction is registered in advance, and the center of gravity of the watermark area of the captured image of the inserted paper sheet is registered. An example of a method for determining the insertion direction of a paper sheet based on the image and extracting the image region most similar to the template image from the captured image by rotationally correcting the template image based on the determined insertion direction will be described.

図10は、挿入された紙葉類の撮像画像の透かし領域の重心に基づき挿入された紙葉類の挿入方向を判定し、判定された紙葉類の挿入方向に対応してテンプレート画像を回転補正して、テンプレート画像と最も類似する画像領域を撮像画像から抽出する方法が適用された識別部を備えた紙葉類識別装置の概略的な構成を示した構成図である。   FIG. 10 determines the insertion direction of the inserted paper sheet based on the center of gravity of the watermark area of the captured image of the inserted paper sheet, and rotates the template image corresponding to the determined insertion direction of the paper sheet It is the block diagram which showed schematic structure of the paper sheet identification device provided with the identification part to which the method which correct | amends and extracts the image area most similar to a template image from a captured image was applied.

図10に示すように、紙葉類識別装置100は、図1で示した紙葉類識別装置1の識別部7を識別部8と置換えた他は、紙葉類識別装置1と同様な構成であり、紙葉類識別装置100の識別部8以外の各部の動作は、紙葉類識別装置1に示した各部と同様に動作するように構成されている。   As shown in FIG. 10, the paper sheet identification device 100 has the same configuration as the paper sheet identification device 1 except that the identification unit 7 of the paper sheet identification device 1 shown in FIG. The operations of the units other than the identification unit 8 of the paper sheet identification apparatus 100 are configured to operate in the same manner as the units illustrated in the paper sheet identification apparatus 1.

したがって、紙葉類識別装置100の識別部8以外の各部の構成及び動作については、説明の便宜上、省略し、識別部8について説明する。   Therefore, the configuration and operation of each unit other than the identification unit 8 of the paper sheet identification apparatus 100 will be omitted for convenience of explanation, and the identification unit 8 will be described.

図11は、識別部8の機能的な構成の一例を示したブロック図である。   FIG. 11 is a block diagram illustrating an example of a functional configuration of the identification unit 8.

図11に示すように、識別部8は、図2で示した識別部7の機能に、撮像画像に含まれる透かし領域を抽出する機能と、抽出した透かし領域の重心を算出する機能と、算出した透かし領域の重心に基づいて挿入された紙葉類の挿入方向を判定する機能が付加されて構成されている。   As shown in FIG. 11, the identification unit 8 has a function of extracting the watermark area included in the captured image, a function of calculating the center of gravity of the extracted watermark area, and a calculation in addition to the function of the identification unit 7 illustrated in FIG. 2. A function for determining the insertion direction of the inserted paper sheet based on the center of gravity of the watermark area is added.

紙葉類識別装置100は、識別部8全体を統括制御する識別制御部80と、透過光型光センサ83と、メモリ81と、テンプレート画像データベース82と、パターンマッチング部84と、識別対象画像抽出部85と、傷・汚れ検出部86と、傷・汚れ影響補正部87と、透かし領域抽出部88と、透かし領域重心算出部89と挿入方向判定部90を備えている。   The paper sheet identification apparatus 100 includes an identification control unit 80 that performs overall control of the identification unit 8, a transmitted light type optical sensor 83, a memory 81, a template image database 82, a pattern matching unit 84, and an identification target image extraction unit. A unit 85, a scratch / dirt detection unit 86, a scratch / dirt effect correction unit 87, a watermark region extraction unit 88, a watermark region centroid calculation unit 89, and an insertion direction determination unit 90.

透過光型光センサ83は、発光素子831と受光素子832とが一対を成し、互いに対向して紙葉類搬送部4を挟むようにして、紙葉類挿入部3から挿入された紙葉類の識別対象とする紙葉類の透かし領域を含む撮像領域を通る所定の走査ライン上に配置されている。   In the transmitted light type optical sensor 83, a pair of a light emitting element 831 and a light receiving element 832 forms a pair of paper sheets inserted from the paper sheet insertion unit 3 so as to face each other and sandwich the paper sheet transport unit 4. It is arranged on a predetermined scanning line passing through an imaging area including a watermark area of a paper sheet to be identified.

発光素子831は、紙葉類搬送部4により搬送されてくる紙葉類の撮像領域に光を照射し、受光素子832は、当該紙葉類の撮像領域を透過した透過光を受光して、受光した透過光の光量に応じた電気信号を出力する。   The light emitting element 831 irradiates light to the image pickup area of the paper sheet conveyed by the paper sheet conveyance unit 4, and the light receiving element 832 receives the transmitted light that has passed through the image pickup area of the paper sheet, An electric signal corresponding to the amount of received transmitted light is output.

メモリ81は、メモリ81の所定の記憶領域に透過光型光センサ83から所定の時間間隔で出力される電気信号の信号レベルに対応したデジタル信号を、透過光型光センサ83からの出力順に対応して格納し、連続したアドレスを割り当て、紙葉類の撮像領域の撮像画像データとして一時的に記憶する。   The memory 81 corresponds to the digital signal corresponding to the signal level of the electrical signal output from the transmitted light type optical sensor 83 at a predetermined time interval in the predetermined storage area of the memory 81 in the order of output from the transmitted light type optical sensor 83. Are stored, assigned consecutive addresses, and temporarily stored as captured image data of the imaging region of the paper sheet.

透かし領域抽出部88は、メモリ81により記憶されている紙葉類の撮像画像データを読み出し、撮像画像データに含まれる透かし領域の画像データを抽出する。   The watermark area extraction unit 88 reads the captured image data of the paper stored in the memory 81 and extracts the image data of the watermark area included in the captured image data.

透かし領域重心算出部89は、透かし領域抽出部88により抽出された透かし領域画像データから透かし領域の周長、円形度および面積等を算出し、算出した透かし領域の周長、円形度および面積等に基づいて透かし領域の重心を算出する。   The watermark area centroid calculation unit 89 calculates the circumference, circularity, area, and the like of the watermark area from the watermark area image data extracted by the watermark area extraction unit 88, and calculates the circumference, circularity, area, etc. of the calculated watermark area. Based on the above, the center of gravity of the watermark area is calculated.

挿入方向判定部90は、透かし領域重心算出部89で算出された透かし領域の重心に基づいて挿入された紙葉類の挿入方向を判定する。   The insertion direction determination unit 90 determines the insertion direction of the inserted paper sheet based on the center of gravity of the watermark area calculated by the watermark area center of gravity calculation unit 89.

紙葉類の挿入方向の判定は、例えば、予め登録管理されている紙葉類の種類毎の表裏面及び挿入方向に対応する透かし領域の重心位置情報を参照し、透かし領域重心算出部89で算出された透かし領域の重心に基づいて挿入された紙葉類の挿入方向を判定する。   The determination of the insertion direction of the paper sheet is performed by, for example, referring to the front and back surfaces of each type of paper sheet registered and managed in advance and the gravity center position information of the watermark area corresponding to the insertion direction, and the watermark area gravity center calculation unit 89 Based on the calculated center of gravity of the watermark area, the insertion direction of the inserted paper sheet is determined.

テンプレート画像データベース82は、真券の紙葉類の特徴画像である透かし領域等を予め撮像して取得した画像データをテンプレート画像データとして記憶するとともに、各テンプレート画像の透かし領域の重心位置情報が記憶されている。   The template image database 82 stores, as template image data, image data obtained by capturing in advance a watermark region or the like, which is a characteristic image of a genuine paper sheet, and also stores gravity center position information of the watermark region of each template image. Has been.

テンプレート画像データは、例えば、真券の紙葉類の種類に対応した透かし模様等の特徴画像が記憶されている。   In the template image data, for example, a feature image such as a watermark pattern corresponding to the type of paper sheet of a genuine note is stored.

パターンマッチング部84は、テンプレート画像データベース82に記憶されているテンプレート画像データを読み込み、読み込んだテンプレート画像データを挿入方向判定部90で判定された紙葉類の挿入方向に対応して左右反転、上下反転等の回転補正を行いながらテンプレート画像と最も類似する画像領域を撮像画像データ上で検索し、特定する。 また、識別対象画像データと補正済識別対象画像データとのパターンマッチングによる相関値を算出して出力する。   The pattern matching unit 84 reads template image data stored in the template image database 82, and the read template image data is reversed left and right, up and down corresponding to the insertion direction of the paper sheet determined by the insertion direction determination unit 90. An image area most similar to the template image is searched and specified on the captured image data while performing rotation correction such as inversion. Further, a correlation value obtained by pattern matching between the identification target image data and the corrected identification target image data is calculated and output.

識別対象画像抽出部85は、パターンマッチング部84で特定されたテンプレート画像データと最も類似する画像領域を識別対象画像データとして撮像画像データから抽出し、メモリ81に記憶する。   The identification target image extraction unit 85 extracts the image region most similar to the template image data specified by the pattern matching unit 84 from the captured image data as the identification target image data, and stores it in the memory 81.

傷・汚れ検出部86は、識別対象画像抽出部85により抽出された識別対象画像データと、テンプレート画像データとの差を算出し、識別対象画像データ内に存在する紙葉類に付着する傷および汚れ(または、透過光型光センサに付着する傷および汚れ)を示す画像を検出する。   The scratch / dirt detection unit 86 calculates the difference between the identification target image data extracted by the identification target image extraction unit 85 and the template image data, and the scratches and dirt attached to the paper sheets existing in the identification target image data. An image indicating dirt (or scratches and dirt attached to the transmitted light type optical sensor) is detected.

傷・汚れ影響補正部87は、傷・汚れ検出部86により検出した傷および汚れを示す画像の影響を補正する。   The scratch / dirt influence correcting unit 87 corrects the influence of the image indicating the scratch and dirt detected by the scratch / dirt detecting unit 86.

このように構成された識別部8が紙葉類挿入部3に挿入された紙葉類の種類および真偽を識別する場合の動作について簡単に説明する。   The operation in the case where the identification unit 8 configured in this way identifies the type and authenticity of the paper sheet inserted into the paper sheet insertion unit 3 will be briefly described.

紙葉類挿入部3から挿入された紙葉類は紙葉類搬送部4により搬送され、紙葉類が識別部8の透過光型光センサ83の配置位置に到達すると、発光素子831が紙葉類の撮像領域に光を照射し、受光素子832が当該紙葉類の撮像領域を透過した透過光を受光する。   The paper sheet inserted from the paper sheet insertion unit 3 is transported by the paper sheet transport unit 4, and when the paper sheet reaches the arrangement position of the transmitted light type optical sensor 83 of the identification unit 8, the light emitting element 831 Light is irradiated to the imaging region of the leaf, and the light receiving element 832 receives the transmitted light transmitted through the imaging region of the paper sheet.

透過光型光センサ83は、受光素子832が受光した透過光の光量に応じた信号レベルの電気信号を出力し、透過光型光センサ83によって出力された電気信号は、信号レベルに対応したデジタル信号に変換されてメモリ81へ入力される。   The transmitted light type optical sensor 83 outputs an electric signal having a signal level corresponding to the amount of transmitted light received by the light receiving element 832, and the electric signal output by the transmitted light type optical sensor 83 is digital corresponding to the signal level. It is converted into a signal and input to the memory 81.

メモリ81は、透過光型光センサ83から出力された信号レベルに対応したデジタル信号の情報を紙葉類の撮像領域の撮像画像データとして一時的に記憶する。   The memory 81 temporarily stores digital signal information corresponding to the signal level output from the transmitted light type optical sensor 83 as captured image data of the imaging region of the paper sheet.

メモリ81に紙葉類の撮像画像データが記憶されると、透かし領域抽出部88がメモリ81に記憶されている紙葉類の撮像画像データを読み出し、撮像画像データに含まれる透かし領域の画像データ(以下、「透かし領域画像データ」という。)を抽出し、抽出した透かし領域画像データを透かし領域重心算出部13に出力する。   When the captured image data of the paper sheet is stored in the memory 81, the watermark area extraction unit 88 reads the captured image data of the paper sheet stored in the memory 81, and the image data of the watermark area included in the captured image data (Hereinafter referred to as “watermark region image data”) is extracted, and the extracted watermark region image data is output to the watermark region centroid calculating unit 13.

透かし領域重心算出部89は、透かし領域抽出部88から入力された透かし領域画像データから透かし領域の重心を算出し、算出した透かし領域の重心情報を挿入方向判定部90へ出力する。   The watermark area centroid calculation unit 89 calculates the centroid of the watermark area from the watermark area image data input from the watermark area extraction unit 88 and outputs the calculated centroid information of the watermark area to the insertion direction determination unit 90.

挿入方向判定部90は、入力された透かし領域の重心情報に基づき、テンプレート画像データベース82に記憶されている各紙葉類毎の真券の表裏面及び挿入方向に対応した各透かし領域の重心位置情報を参照して挿入された紙葉類の挿入方向を判定する。   The insertion direction determination unit 90 is based on the input center-of-gravity information of the watermark area, and the center-of-gravity position information of each watermark area corresponding to the front and back surfaces of each genuine sheet and the insertion direction stored in the template image database 82. The insertion direction of the inserted paper sheet is determined with reference to FIG.

パターンマッチング部84は、テンプレート画像データベース82に記憶されているテンプレート画像データを読み出し、挿入方向判定部90で判定された紙葉類の挿入方向に基づいてテンプレート画像データを上下反転、左右反転等の回転補正を行い、補正後のテンプレート画像データと撮像画像データとのテンプレートマッチングを行い、テンプレート画像データと最も類似する撮像画像データの画像領域を検索し特定する。   The pattern matching unit 84 reads the template image data stored in the template image database 82, and the template image data is inverted upside down, left / right inverted, etc. based on the insertion direction of the paper sheet determined by the insertion direction determination unit 90. Rotation correction is performed, template matching between the corrected template image data and captured image data is performed, and an image region of captured image data that is most similar to the template image data is searched and specified.

識別対象画像抽出部85は、パターンマッチング部84によって特定されたテンプレート画像データと最も類似する撮像画像データの画像領域を紙葉類の識別対象画像データとして抽出し、傷・汚れ検出部86へ出力する。   The identification target image extraction unit 85 extracts the image area of the captured image data most similar to the template image data specified by the pattern matching unit 84 as the identification target image data of the paper sheet, and outputs it to the scratch / dirt detection unit 86. To do.

傷・汚れ検出部86は、入力された識別対象画像データと特定テンプレート画像データとの差を算出し、識別対象画像データ内に存在する傷および汚れを示す画像データを検出して傷・汚れ影響補正部87へ出力する。   The scratch / dirt detection unit 86 calculates the difference between the input identification target image data and the specific template image data, detects image data indicating scratches and dirt existing in the identification target image data, and affects the scratch / dirt influence. Output to the correction unit 87.

傷・汚れ影響補正部87は、傷・汚れ検出部86により検出され入力された傷および汚れを示す画像データの影響を補正した補正済識別対象画像データをパターンマッチング部84へ出力する。   The scratch / dirt influence correcting unit 87 outputs corrected identification target image data corrected for the influence of the image data indicating the scratch and dirt detected and input by the scratch / dirt detecting unit 86 to the pattern matching unit 84.

パターンマッチング部84は、傷・汚れ影響補正部87から入力された補正済識別対象画像データと識別対象画像データとのパターンマッチングを行い、これら二つの画像データの相関値を算出し、識別制御部80がパターンマッチング部84によって算出された補正済識別対象画像データと識別対象画像データとのパターンマッチングによる相関値に基づき紙葉類の種類および真偽を識別する。   The pattern matching unit 84 performs pattern matching between the corrected identification target image data input from the scratch / dirt influence correction unit 87 and the identification target image data, calculates a correlation value between these two image data, and an identification control unit 80 identifies the type and authenticity of the paper sheet based on the correlation value obtained by pattern matching between the corrected identification target image data and the identification target image data calculated by the pattern matching unit 84.

以上説明した如くに動作する識別部8を有する紙葉類識別装置100が、挿入された紙葉類の種類および真偽を識別し、処理する処理手順について図12に示すフローチャートを参照して説明する。   A processing procedure for identifying and processing the type and authenticity of the inserted paper sheet by the paper sheet identifying apparatus 100 having the identifying unit 8 operating as described above will be described with reference to the flowchart shown in FIG. To do.

紙葉類識別装置100は紙葉類挿入部3から紙葉類が挿入されると(ステップS1201でYES)、透過光型光センサ83を用いて紙葉類を撮像し(ステップS1202)、撮像して取得した紙葉類の撮像画像データから透かし領域を抽出して、抽出した透かし領域の重心を算出する(ステップS1203)。   When a paper sheet is inserted from the paper sheet insertion unit 3 (YES in step S1201), the paper sheet identification apparatus 100 images the paper sheet using the transmitted light type optical sensor 83 (step S1202). The watermark area is extracted from the captured image data of the paper sheet obtained in this way, and the center of gravity of the extracted watermark area is calculated (step S1203).

算出した透かし領域の重心に基づき、紙葉類の挿入方向及び挿入面に対応した重心情報を記憶した図示せぬマトリックス表を参照して挿入された紙葉類の挿入方向を判定する(ステップS1204)。   Based on the calculated center of gravity of the watermark area, the insertion direction of the paper sheet is determined with reference to a matrix table (not shown) that stores the center of gravity information corresponding to the insertion direction and the insertion surface (step S1204). ).

紙葉類の挿入方向の判定結果が正方向と判定された場合は(ステップS1205でYES)、テンプレート画像データベース82から読み出したテンプレート画像データと撮像画像データとのテンプレートマッチングによる最大相関値Eを算出する(ステップS1206)。   If the determination result of the paper sheet insertion direction is positive (YES in step S1205), the maximum correlation value E is calculated by template matching between the template image data read from the template image database 82 and the captured image data. (Step S1206).

なお、テンプレート画像データベース82には、正方向の表面で挿入された紙葉類の特徴画像がテンプレート画像として予め登録されている。   In the template image database 82, feature images of paper sheets inserted on the surface in the forward direction are registered in advance as template images.

次に、テンプレート画像データを正方向の裏面で挿入された場合の画像データに回転補正するために、テンプレート画像データを左右反転させ、左右反転させたテンプレート画像データ(以下、「テンプレート画像データ(左右反転)」という。)と撮像画像データとのテンプレートマッチングによる最大相関値Fを算出する(ステップS1207)。   Next, in order to rotationally correct the template image data into the image data when inserted on the back surface in the forward direction, the template image data is reversed left and right, and the template image data (hereinafter referred to as “template image data (left and right) Inverse) ”)) and the maximum correlation value F by template matching between the captured image data is calculated (step S1207).

最大相関値Eと最大相関値Fとの比較を行い(ステップS1208)、最大相関値Eが大きい場合は(ステップS1208でYES)、テンプレート画像データを特定テンプレート画像データとして設定するとともに(ステップS1209)、設定した特定テンプレート画像データと最も類似する画像領域を識別対象画像として撮像画像データから抽出する(ステップS1216)。   The maximum correlation value E and the maximum correlation value F are compared (step S1208). If the maximum correlation value E is large (YES in step S1208), the template image data is set as specific template image data (step S1209). Then, an image region most similar to the set specific template image data is extracted from the captured image data as an identification target image (step S1216).

最大相関値Eと最大相関値Fとの比較を行い(ステップS1208)、最大相関値Fが大きい場合は(ステップS1208でNO)、テンプレート画像データ(左右反転)を特定テンプレート画像データとして設定するとともに(ステップS1210)、設定した特定テンプレート画像データと最も類似する画像領域を識別対象画像として撮像画像データから抽出する(ステップS1216)。   The maximum correlation value E and the maximum correlation value F are compared (step S1208). If the maximum correlation value F is large (NO in step S1208), the template image data (inverted horizontally) is set as the specific template image data. (Step S1210), an image region most similar to the set specific template image data is extracted from the captured image data as an identification target image (Step S1216).

ステップS1205において、紙葉類の挿入方向の判定結果が逆方向と判定された場合は(ステップS1205でNO)、テンプレート画像データを逆方向の表面で挿入された場合の画像データに回転補正するために、テンプレート画像データを上下反転させ、上下反転後のテンプレート画像データ(以下、「テンプレート画像データ(上下反転)」という。)と撮像画像データとのテンプレートマッチングによる最大相関値Gを算出する(ステップS1211)。   In step S1205, if the determination result of the insertion direction of the paper sheet is determined to be the reverse direction (NO in step S1205), the template image data is rotationally corrected to the image data when inserted on the reverse surface. Then, the template image data is inverted upside down, and a maximum correlation value G is calculated by template matching between the template image data after the upside down (hereinafter referred to as “template image data (upside down)”) and the captured image data (step). S1211).

次に、テンプレート画像データを逆方向の裏面で挿入された場合の画像データに回転補正するために、テンプレート画像データ(上下反転)を左右反転させた、すなわち、テンプレート画像データを上下反転後、更に左右反転させたテンプレート画像データ(以下、「テンプレート画像データ(上下左右反転)」という。)と撮像画像データとのテンプレートマッチングによる最大相関値Hを算出する(ステップS1212)。   Next, in order to rotationally correct the template image data to the image data when inserted in the reverse reverse direction, the template image data (upside down) is reversed left and right, that is, after the template image data is turned upside down, A maximum correlation value H is calculated by template matching between the template image data (hereinafter referred to as “template image data (inverted vertically and horizontally reversed)”) that has been horizontally reversed and the captured image data (step S1212).

最大相関値Gと最大相関値Hとの比較を行い(ステップS1213)、最大相関値Gが大きい場合は(ステップS1213でYES)、テンプレート画像データ(上下反転)を特定テンプレート画像データとして設定するとともに(ステップS1214)、設定した特定テンプレート画像データと最も類似する画像領域を識別対象画像として撮像画像データから抽出する(ステップS1216)。   The maximum correlation value G and the maximum correlation value H are compared (step S1213). If the maximum correlation value G is large (YES in step S1213), the template image data (upside down) is set as the specific template image data. (Step S1214), an image region most similar to the set specific template image data is extracted from the captured image data as an identification target image (Step S1216).

最大相関値Gと最大相関値Hとの比較を行い(ステップS1213)、最大相関値Hが大きい場合は(ステップS1213でNO)、テンプレート画像データ(上下左右反転)を特定テンプレート画像データとして設定するとともに(ステップS1215)、設定した特定テンプレート画像データと最も類似する画像領域を識別対象画像として撮像画像データから抽出する(ステップS1216)。   The maximum correlation value G and the maximum correlation value H are compared (step S1213). If the maximum correlation value H is large (NO in step S1213), the template image data (inverted horizontally and vertically) is set as the specific template image data. At the same time (step S1215), an image region most similar to the set specific template image data is extracted from the captured image data as an identification target image (step S1216).

撮像画像データから識別対象画像データが抽出されると、抽出した識別対象画像データを傷・汚れ補正及び識別処理S1217を行い、挿入された紙葉類の種類及び真偽を識別して処理を終了する。   When the identification target image data is extracted from the captured image data, the extracted identification target image data is subjected to scratch / dirt correction and identification processing S1217, and the type and authenticity of the inserted paper sheet are identified to complete the processing. To do.

傷・汚れ補正及び識別処理S1217の処理方法は、実施例1における図4で示した処理と同様であるので詳細説明は、説明の便宜上、省略する。   Since the processing method of the flaw / dirt correction and identification processing S1217 is the same as the processing shown in FIG. 4 in the first embodiment, detailed description thereof is omitted for convenience of description.

ここで、紙葉類識別装置100の識別部8が行う本発明に係わる紙葉類識別方法について詳細に説明する。   Here, the paper sheet identification method according to the present invention performed by the identification unit 8 of the paper sheet identification apparatus 100 will be described in detail.

図13は、紙葉類の撮像画像から透かし領域を抽出し、抽出した透かし領域の重心を算出する方法を説明するための説明図である。   FIG. 13 is an explanatory diagram for explaining a method of extracting a watermark area from a captured image of a paper sheet and calculating the center of gravity of the extracted watermark area.

図13(a)は、正方向の挿入方向で挿入された紙葉類の表面部が透過光型光センサ83によって撮像された撮像領域の撮像画像データ320の一例を示す図であり、図13(b)は、図13(a)に示した撮像画像データ320から抽出した透かし領域の画像321を示す図、図13(c)は、抽出した透かし領域321の画像の重心330を示す図である。   FIG. 13A is a diagram illustrating an example of captured image data 320 of the imaging region in which the surface portion of the paper sheet inserted in the positive insertion direction is captured by the transmitted light type optical sensor 83. FIG. FIG. 13B is a view showing the watermark region image 321 extracted from the captured image data 320 shown in FIG. 13A, and FIG. 13C is a view showing the center of gravity 330 of the extracted watermark region 321 image. is there.

図13(a)に示すように、紙葉類の撮像画像データ320は、例えば、画素数がL×Lのf(i、j)の各画素で構成されており、撮像画像データ320には、透かし領域321と透かし領域以外の通常領域322が存在し、透かし領域321内には透かし模様323が存在する。   As illustrated in FIG. 13A, the captured image data 320 of the paper sheet includes, for example, each pixel of f (i, j) having a number of pixels of L × L. The captured image data 320 includes The watermark area 321 and the normal area 322 other than the watermark area exist, and the watermark pattern 323 exists in the watermark area 321.

また、撮像画像データ320には紙葉類の傷および汚れ325が存在している。   Further, the picked-up image data 320 includes a paper sheet scratch and stain 325.

なお、図13(a)において、i=0、1、2、・・・、L−1、j=0、1、2、・・・、L−1である。   In FIG. 13A, i = 0, 1, 2,..., L−1, j = 0, 1, 2,.

抽出した透かし領域321の画像から透かし領域321の周長、円形度および面積等を算出し、算出した透かし領域321の周長、円形度および面積等に基づき、図13(c)に示すような透かし領域321の重心330を算出する。   The circumference, circularity, area, and the like of the watermark area 321 are calculated from the extracted image of the watermark area 321. Based on the calculated circumference, circularity, area, etc. of the watermark area 321, as shown in FIG. The center of gravity 330 of the watermark area 321 is calculated.

なお、紙葉類の撮像画像データ320から透かし領域321の画像を抽出する際に、前処理として撮像画像データ320に対して2値化処理等を行うことで、透かし領域321と通常領域322とを区別し、図13(b)に示すように、撮像画像データ320から透かし領域321の画像を抽出するようにしてもよい。   In addition, when extracting the image of the watermark area 321 from the captured image data 320 of the paper sheet, the watermark area 321 and the normal area 322 are obtained by performing binarization processing on the captured image data 320 as preprocessing. And the image of the watermark region 321 may be extracted from the captured image data 320 as shown in FIG.

図14は、撮像画像の透かし領域の重心に基づいて挿入された紙葉類の挿入方向を判定する判定方法を説明するための説明図である。   FIG. 14 is an explanatory diagram for explaining a determination method for determining the insertion direction of the inserted paper sheet based on the center of gravity of the watermark area of the captured image.

図14(a)は、正方向で挿入された真券の紙葉類の表裏の各面に対応した透かし領域の重心情報の一例を示す図であり、図14(b)は、逆方向で挿入された真券の紙葉類の表裏の各面に対応した透かし領域の重心情報の一例を示す図、図14(c)は、正方向で挿入された紙葉類の表裏の各面に対応して撮像された撮像画像の透かし領域の重心の一例を示す図、図14(d)は、逆方向で挿入された紙葉類の表裏の各面に対応して撮像された撮像画像の透かし領域の重心の一例を示す図である。   FIG. 14A is a diagram showing an example of the center-of-gravity information of the watermark area corresponding to the front and back surfaces of the genuine paper sheet inserted in the forward direction, and FIG. 14B is the reverse direction. FIG. 14C shows an example of the center-of-gravity information of the watermark area corresponding to the front and back surfaces of the inserted genuine paper sheet. FIG. 14C shows the front and back surfaces of the inserted paper sheet in the forward direction. FIG. 14D is a diagram showing an example of the center of gravity of the watermark area of the captured image captured correspondingly, and FIG. 14D shows the captured image captured corresponding to the front and back surfaces of the paper sheet inserted in the reverse direction. It is a figure which shows an example of the gravity center of a watermark area | region.

図14(a)及び(b)に示すように、一般的に、紙葉類の透かし領域421、521の重心436、536は、撮像された撮像領域420、520に対して上下方向の何れかへ偏った位置に存在するために、図14(a)に示すように、紙葉類を正方向で挿入した場合は、紙葉類が表面または裏面のいずれの面で挿入された場合であっても透かし領域421の重心436は、撮像領域の中心線150上の位置よりは下方に存在し、図14(b)に示すように、紙葉類を逆方向で挿入した場合は、紙葉類が表面または裏面のいずれの面で挿入された場合であっても透かし領域521の重心536は、撮像領域の中心線150上の位置よりは上方に存在する。   As shown in FIGS. 14A and 14B, generally, the centers of gravity 436 and 536 of the watermark areas 421 and 521 of the paper sheet are either in the vertical direction with respect to the captured image areas 420 and 520. 14 (a), when the paper sheet is inserted in the forward direction, the paper sheet is inserted on either the front surface or the back surface. However, the center of gravity 436 of the watermark area 421 exists below the position on the center line 150 of the imaging area, and when a paper sheet is inserted in the reverse direction as shown in FIG. The center of gravity 536 of the watermark region 521 exists above the position on the center line 150 of the imaging region even when the class is inserted on either the front surface or the back surface.

このことから、撮像画像データの透かし領域の重心に基づいて、例えば、図14(c)に示すように、撮像画像620の透かし領域621の重心626が撮像画像データ620の中心線151上の位置よりも下方に存在する場合は、紙葉類の挿入方向を正方向と判定し、図14(d)に示すように、紙葉類が逆の挿入方向で挿入された場合の撮像画像データ720の透かし領域721の重心726が撮像画像データ720の中心線151上の位置よりも上方に存在する場合は、紙葉類の挿入方向を逆方向と判定する。   Therefore, based on the center of gravity of the watermark area of the captured image data, for example, as shown in FIG. 14C, the center of gravity 626 of the watermark area 621 of the captured image 620 is positioned on the center line 151 of the captured image data 620. If the paper sheet is present in the lower direction, the insertion direction of the paper sheet is determined as the forward direction, and the captured image data 720 when the paper sheet is inserted in the reverse insertion direction as shown in FIG. When the center of gravity 726 of the watermark area 721 is above the position on the center line 151 of the captured image data 720, the insertion direction of the paper sheet is determined as the reverse direction.

図15乃至図16は、判定された紙葉類の挿入方向に基づいて撮像画像から識別対象画像を抽出する方法を説明する説明図である。   15 to 16 are explanatory diagrams for explaining a method of extracting an identification target image from the captured image based on the determined insertion direction of the paper sheet.

図15は、図14(c)で示したような、挿入された紙葉類の挿入方向が正方向と判定された撮像画像データ620から識別対象画像データを抽出する方法を説明した説明図であり、図16は、図14(d)で示したような、挿入された紙葉類の挿入方向が逆方向と判定された撮像画像データ720から識別対象画像データを抽出する方法を説明した説明図である。   FIG. 15 is an explanatory diagram for explaining a method of extracting the identification target image data from the captured image data 620 in which the insertion direction of the inserted paper sheet is determined to be the positive direction as shown in FIG. FIG. 16 illustrates a method for extracting the identification target image data from the captured image data 720 in which the insertion direction of the inserted paper sheet is determined to be the reverse direction as illustrated in FIG. FIG.

図15において、図15(a)は、挿入された紙葉類の種類に対応して予めテンプレート画像データベース82に登録されたテンプレート画像データ40を示す図である。   15, FIG. 15 (a) is a diagram showing template image data 40 registered in advance in the template image database 82 corresponding to the type of inserted paper sheet.

このテンプレート画像データ40は、真券を正方向で挿入し、表面部を撮像した透かし領域を含む所定の大きさの画像領域が撮像された、例えば画素数がM×Nのt(i、j)の各画素で構成された画像データとしてテンプレート画像データベース82に登録されいる。   The template image data 40 includes t (i, j) having, for example, a number of pixels of M × N, in which an image area of a predetermined size including a watermark area in which a genuine note is inserted in a positive direction and a surface portion is imaged. ) Is registered in the template image database 82 as image data composed of each pixel.

なお、図15(a)において、i=0、1、2、・・・、M−1、j=0、1、2、・・・、N−1である。   In FIG. 15A, i = 0, 1, 2,..., M−1, j = 0, 1, 2,.

まず、図15(b)に示すように、挿入方向が正方向と判定された紙葉類の撮像画像データ620と図15(a)に示したテンプレート画像データ40とのテンプレートマッチングによる最大相関値を算出する。   First, as shown in FIG. 15B, the maximum correlation value obtained by template matching between the captured image data 620 of the paper sheet whose insertion direction is determined to be the positive direction and the template image data 40 shown in FIG. Is calculated.

撮像画像データ620とテンプレート画像データ40とのテンプレートマッチングによる最大相関値は、実施例1で示したように、撮像画像データ620の各画素f(i、j)のうちのテンプレート画像データ40と同サイズ(同画素数、例えばM×N)の部分画像データの左上の画素に対応する位置を始点(u、v)とし、始点(u、v)の位置に対応した部分画像データの各画素f(u+i、v+j)とテンプレート画像データ40の各画素t(i、j)とのパターンマッチングを行い、始点(u、v)の位置を撮像画像データ20内で順次移動させながら相関値を算出するようなテンプレートマッチングを行う。
撮像画像データ620とテンプレート画像データ40とのテンプレートマッチングによる相関値は、例えば次式で示されるような正規化相関値として算出する。
The maximum correlation value obtained by template matching between the captured image data 620 and the template image data 40 is the same as that of the template image data 40 in each pixel f (i, j) of the captured image data 620 as described in the first embodiment. The position corresponding to the upper left pixel of the partial image data having the same size (the same number of pixels, eg, M × N) is set as the start point (u, v), and each pixel f of the partial image data corresponding to the position of the start point (u, v) Pattern matching between (u + i, v + j) and each pixel t (i, j) of the template image data 40 is performed, and a correlation value is calculated while sequentially moving the position of the start point (u, v) in the captured image data 20. Perform template matching.
The correlation value obtained by template matching between the captured image data 620 and the template image data 40 is calculated as a normalized correlation value represented by the following equation, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、R(u、v)は撮像画像データ620の部分画像データの始点(u、v)位置における部分画像データとテンプレート画像データ40との相関値、f(u+i、v+j)は、始点(u、v)の移動に伴う部分画像データの各画素値、f’は部分画像データの画素の平均値、t(i、j)はテンプレート画像データ40の各画素値、t’はテンプレート画像データ40の画素の平均値をそれぞれ示している。   In the above equation, R (u, v) is the correlation value between the partial image data and the template image data 40 at the start point (u, v) position of the partial image data of the captured image data 620, and f (u + i, v + j) is , Each pixel value of the partial image data accompanying the movement of the start point (u, v), f ′ is an average value of the pixels of the partial image data, t (i, j) is each pixel value of the template image data 40, and t ′ is The average values of the pixels of the template image data 40 are shown.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上式で算出された始点(u、v)に対応した部分画像データとテンプレート画像データ40との各相関値は、図15(d)に示されるような曲線グラフ300として算出され、曲線グラフ300の頂点Eが撮像画像データ620上でのテンプレート画像データ40のテンプレートマッチングによる最大相関値Eを示している。   Each correlation value between the partial image data corresponding to the start point (u, v) calculated by the above equation and the template image data 40 is calculated as a curve graph 300 as shown in FIG. Vertex E indicates the maximum correlation value E by template matching of the template image data 40 on the captured image data 620.

撮像画像データ620とテンプレート画像データ40とのテンプレートマッチングによる最大相関値Eが算出されると、テンプレート画像データ40を左右反転させた図15(c)に示すようなテンプレート画像データ(左右反転)41と置換え、テンプレート画像データ(左右反転)41と撮像画像データとの最大相関値を前述と同様にテンプレートマッチングにより算出する。   When the maximum correlation value E by template matching between the captured image data 620 and the template image data 40 is calculated, the template image data (left-right reversed) 41 as shown in FIG. And the maximum correlation value between the template image data (horizontal inversion) 41 and the captured image data is calculated by template matching in the same manner as described above.

撮像画像データ620とテンプレート画像データ(左右反転)41とのテンプレートマッチングによる相関値は、例えば次式で示されるような正規化相関値として算出する。   The correlation value obtained by template matching between the captured image data 620 and the template image data (horizontal inversion) 41 is calculated as a normalized correlation value as shown by the following equation, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、R(u、v)は撮像画像データ620の部分画像データの始点(u、v)位置における部分画像データとテンプレート画像データ41との相関値、f(u+i、v+j)は、始点(u、v)の移動に伴う部分画像データの各画素値、f’は部分画像データの画素の平均値、t(i、M−j)はテンプレート画像データ41の各画素値、t’はテンプレート画像データ41の画素の平均値をそれぞれ示している。   In the above equation, R (u, v) is the correlation value between the partial image data and the template image data 41 at the start point (u, v) position of the partial image data of the captured image data 620, and f (u + i, v + j) is , Each pixel value of the partial image data accompanying the movement of the start point (u, v), f ′ is an average value of the pixels of the partial image data, t (i, M−j) is each pixel value of the template image data 41, t 'Indicates the average value of the pixels of the template image data 41.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上式で算出された始点(u、v)に対応した部分画像データとテンプレート画像データ41との各相関値は、図15(e)に示されるような曲線グラフ301として算出され、曲線グラフ301の頂点Fが撮像画像データ620とテンプレート画像データ41とのテンプレートマッチングによる最大相関値Fを示している。   Each correlation value between the partial image data corresponding to the start point (u, v) calculated by the above equation and the template image data 41 is calculated as a curve graph 301 as shown in FIG. Vertex F indicates the maximum correlation value F obtained by template matching between the captured image data 620 and the template image data 41.

算出したテンプレート画像データ40、41の各最大相関値E、Fのうちの大きな値を示したテンプレート画像データを特定テンプレート画像データとして一時的に設定し、特定テンプレート画像データと最も類似する画像領域を撮像画像データ620から抽出することで、図15(f)に示すような紙葉類の識別対象画像データ634が抽出される。   Template image data showing a large value among the maximum correlation values E and F of the calculated template image data 40 and 41 is temporarily set as specific template image data, and an image region most similar to the specific template image data is determined. By extracting from the captured image data 620, paper sheet identification target image data 634 as shown in FIG. 15F is extracted.

次に、挿入された紙葉類の挿入方向が逆方向と判定された場合は、図16(b)に示すように、挿入方向が逆方向と判定された紙葉類の撮像画像データ720と図15(a)に示したテンプレート画像データ40を上下反転させたテンプレート画像データ(上下反転)42(図16(a)参照)と撮像画像データ720とのテンプレートマッチングによる最大相関値を算出する。   Next, when it is determined that the insertion direction of the inserted paper sheet is the reverse direction, as shown in FIG. 16B, the captured image data 720 of the paper sheet whose insertion direction is determined to be the reverse direction, and A maximum correlation value is calculated by template matching between template image data (upside down) 42 (see FIG. 16A) obtained by vertically inverting the template image data 40 shown in FIG. 15A and the captured image data 720.

テンプレート画像データ(上下反転)42と撮像画像データ720とのテンプレートマッチングによる相関値の算出は、例えば次式で示されるような正規化相関値として算出することができる。   The calculation of the correlation value by template matching between the template image data (upside down) 42 and the captured image data 720 can be calculated as a normalized correlation value as shown by the following equation, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、R(u、v)は撮像画像データ720の部分画像データの始点(u、v)位置における部分画像データとテンプレート画像データ42との相関値、f(u+i、v+j)は、始点(u、v)の移動に伴う部分画像データの各画素値、f’は部分画像データの画素の平均値、t(N−i、j)はテンプレート画像データ42の各画素値、t’はテンプレート画像データ42の画素の平均値をそれぞれ示している。   In the above equation, R (u, v) is the correlation value between the partial image data and the template image data 42 at the position (u, v) of the partial image data of the captured image data 720, and f (u + i, v + j) is , Each pixel value of the partial image data accompanying the movement of the start point (u, v), f ′ is an average value of the pixels of the partial image data, t (N−i, j) is each pixel value of the template image data 42, t 'Indicates the average value of the pixels of the template image data 42, respectively.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上式で算出された始点(u、v)に対応した部分画像データとテンプレート画像データ42との正規化相関値の算出結果は、例えば図16(d)に示すような曲線グラフ302として算出され、曲線グラフ302の頂点Gは、撮像画像データ720とテンプレート画像データ42とのテンプレートマッチングによる最大相関値Gを示している。   The calculation result of the normalized correlation value between the partial image data corresponding to the start point (u, v) calculated by the above equation and the template image data 42 is calculated as a curve graph 302 as shown in FIG. The vertex G of the curve graph 302 indicates the maximum correlation value G obtained by template matching between the captured image data 720 and the template image data 42.

撮像画像データ720とテンプレート画像データ42とのテンプレートマッチングによる最大相関値Gが算出されると、テンプレート画像データ42を更に左右反転させた、すなわち、図15(a)に示したテンプレート画像データ40を上下反転後、更に左右反転させた図16(c)に示すようなテンプレート画像データ(上下左右反転)43と置換え、置換えたテンプレート画像データ(上下左右反転)43と撮像画像データ720との最大相関値を前述と同様にテンプレートマッチングにより算出する。   When the maximum correlation value G by the template matching between the captured image data 720 and the template image data 42 is calculated, the template image data 42 is further inverted horizontally, that is, the template image data 40 shown in FIG. After the vertical inversion, the template image data (inverted up / down / left / right inverted) 43 as shown in FIG. 16C that is further inverted horizontally is replaced with the maximum correlation between the replaced template image data (up / down / left / right inverted) 43 and the captured image data 720. The value is calculated by template matching as described above.

撮像画像データ720とテンプレート画像データ(上下左右反転)43とのテンプレートマッチングによる相関値は、例えば次式で示されるような正規化相関値として算出する。   The correlation value obtained by template matching between the captured image data 720 and the template image data (vertical up / down / left / right reversal) 43 is calculated as a normalized correlation value represented by the following equation, for example.

Figure 2005316727
Figure 2005316727

なお、上式において、R(u、v)は撮像画像データ720の部分画像データの始点(u、v)位置における部分画像データとテンプレート画像データ43との相関値、f(u+i、v+j)は、始点(u、v)の移動に伴う部分画像データの各画素値、f’は部分画像データの画素の平均値、t(N−i、M−j)はテンプレート画像データ43の各画素値、t’はテンプレート画像データ43の画素の平均値をそれぞれ示している。   In the above formula, R (u, v) is the correlation value between the partial image data and the template image data 43 at the position (u, v) of the partial image data of the captured image data 720, and f (u + i, v + j) is , Each pixel value of the partial image data accompanying the movement of the start point (u, v), f ′ is an average value of the pixels of the partial image data, and t (N−i, M−j) is each pixel value of the template image data 43. , T ′ indicate the average values of the pixels of the template image data 43, respectively.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上式で算出された始点(u、v)に対応した部分画像データとテンプレート画像データ43との各相関値は、図16(e)に示されるような曲線グラフ303として算出され、曲線グラフ303の頂点Hが撮像画像データ720とテンプレート画像データ43とのテンプレートマッチングによる最大相関値Hを示している。   Each correlation value between the partial image data corresponding to the start point (u, v) calculated by the above equation and the template image data 43 is calculated as a curve graph 303 as shown in FIG. Of the captured image data 720 and the template image data 43 indicates the maximum correlation value H by template matching.

算出したテンプレート画像データ42、43の各最大相関値G、Hのうちの大きな値を示したテンプレート画像データを特定テンプレート画像データとして一時的に記憶し、特定テンプレート画像データと最も類似する画像領域を撮像画像データ720から抽出することで、図16(f)に示すような紙葉類の識別対象画像データ734が抽出される。   Template image data showing a large value among the maximum correlation values G and H of the calculated template image data 42 and 43 is temporarily stored as specific template image data, and an image region most similar to the specific template image data is determined. By extracting from the captured image data 720, paper sheet identification target image data 734 as shown in FIG. 16F is extracted.

識別対象画像データ634または734が抽出されると、抽出した識別対象画像データ634または734内に存在する傷および汚れを示す画像データを検出し、検出した傷および汚れを示す画像データの影響を補正した補正済識別対象画像データを算出し、算出した補正済識別対象画像データと識別対象画像データとに基づき撮像した紙葉類の種類および真偽を識別する。   When the identification target image data 634 or 734 is extracted, image data indicating scratches and dirt present in the extracted identification target image data 634 or 734 is detected, and the influence of the detected image data indicating scratches and dirt is corrected. The corrected identification target image data is calculated, and the type and authenticity of the captured paper sheet are identified based on the calculated corrected identification target image data and the identification target image data.

なお、識別対象画像データ内に存在する傷および汚れを示す画像データの検出方法及び算出した補正済識別対象画像データと識別対象画像データとに基づき撮像した紙葉類の種類および真偽を識別する方法については、実施例1の図8及び図9で示した場合と同様であるので詳細説明は省略する。   It is to be noted that the type and authenticity of the captured paper sheet are identified based on the detection method of image data indicating scratches and dirt existing in the identification target image data, and the calculated corrected identification target image data and the identification target image data. Since the method is the same as that shown in FIGS. 8 and 9 of the first embodiment, detailed description thereof is omitted.

なお、実施例2では、挿入された紙葉類の撮像画像の透かし領域の重心に基づき挿入された紙葉類の挿入方向を判定し、判定した紙葉類の挿入方向に対応してテンプレート画像を回転補正して、テンプレート画像と最も類似する画像領域を撮像画像から抽出する方法を説明したが、判定された紙葉類の挿入方向に対応して撮像画像をテンプレート画像が撮像された挿入方向及び挿入面に対応した画像へ回転補正を行い、回転補正した撮像画像とテンプレート画像とのテンプレートマッチングによるテンプレート画像と最も類似する画像領域を撮像画像から抽出するようにしてもよい。   In the second embodiment, the insertion direction of the inserted paper sheet is determined based on the center of gravity of the watermark area of the captured image of the inserted paper sheet, and the template image corresponding to the determined insertion direction of the paper sheet The method of extracting the image area most similar to the template image from the captured image has been described, but the insertion direction in which the template image was captured corresponding to the determined insertion direction of the paper sheet Alternatively, rotation correction may be performed on the image corresponding to the insertion surface, and an image region most similar to the template image obtained by template matching between the rotation-corrected captured image and the template image may be extracted from the captured image.

また、実施例1及び実施例2において、紙葉類の特徴画像の一例として紙葉類に形成された透かし模様を含む透かし領域を示したが、本発明は、紙葉類の種類及び真偽を識別可能とし、撮像して取得可能な画像領域であれば特徴画像として用いることができる。   In the first and second embodiments, the watermark area including the watermark pattern formed on the paper sheet is shown as an example of the characteristic image of the paper sheet. However, the present invention is not limited to the type and authenticity of the paper sheet. Can be used as a feature image as long as the image area can be identified and captured.

以上説明したように、予め登録された紙葉類の特徴画像の正逆、表裏の各挿入方向に対応したテンプレート画像と紙葉類の撮像画像とのテンプレートマッチングにより紙葉類の挿入方向を判定するとともに、紙葉類の特徴画像領域を識別対象画像として抽出するので紙葉類に形成された特徴画像の位置ずれ等の影響を軽減するとともに、該抽出した識別対象画像とテンプレート画像に基づく補正済識別対象画像とを効率よく照合して紙葉類の種類および真偽を正確かつ高速に判定することが可能となる。   As described above, the insertion direction of the paper sheet is determined by template matching between the template image corresponding to each insertion direction of the front and back sides of the feature image of the paper sheet registered in advance and the front and back, and the captured image of the paper sheet. At the same time, the feature image area of the paper sheet is extracted as the identification target image, so that the influence of the positional deviation of the characteristic image formed on the paper sheet is reduced and the correction based on the extracted identification target image and the template image is performed. The type and authenticity of the paper sheet can be determined accurately and at high speed by efficiently collating with the already identified image.

また、紙葉類の撮像画像の透かし領域の重心に基づいて挿入された紙葉類の挿入方向を判定し、判定結果に基づいてテンプレート画像と撮像画像とのテンプレートマッチングにより、紙葉類の特徴画像に対応する画像領域を識別対象画像として抽出するので、紙葉類に形成された特徴画像の位置ずれ等の影響を軽減するとともに、該抽出した識別対象画像とテンプレート画像に基づく補正済識別対象画像とを効率よく照合して紙葉類の種類および真偽を正確かつ高速に判定することが可能となる。   In addition, the insertion direction of the inserted paper sheet is determined based on the center of gravity of the watermark area of the captured image of the paper sheet, and the template matching between the template image and the captured image is performed based on the determination result. Since the image area corresponding to the image is extracted as the identification target image, the influence of the positional deviation or the like of the feature image formed on the paper sheet is reduced, and the corrected identification target based on the extracted identification target image and the template image It becomes possible to accurately and quickly determine the type and authenticity of paper sheets by efficiently collating with images.

本発明に係わる紙葉類識別方法を適用した紙葉類識別装置の概略的な構成図1 is a schematic configuration diagram of a paper sheet identification apparatus to which a paper sheet identification method according to the present invention is applied. 紙葉類識別装置1の識別部7の機能的な構成のブロック図Block diagram of a functional configuration of the identification unit 7 of the paper sheet identification apparatus 1 識別部7が撮像画像から識別対象画像を抽出する処理手順のフローチャートA flowchart of a processing procedure in which the identification unit 7 extracts an identification target image from the captured image. 抽出した識別対象画像から紙葉類の種類および真偽を識別する処理手順のフローチャートFlowchart of a processing procedure for identifying the type and authenticity of a paper sheet from the extracted identification target image 撮像画像データとテンプレート画像データの一例を示す図The figure which shows an example of captured image data and template image data 撮像画像から識別対象画像を抽出する方法の説明図Explanatory drawing of the method of extracting an identification target image from a captured image 撮像画像から識別対象画像を抽出する方法の説明図Explanatory drawing of the method of extracting an identification target image from a captured image 識別対象画像内に存在する傷および汚れの検出方法の説明図Explanatory drawing of the detection method of a crack and dirt which exist in a classification subject image 傷および汚れ画像の影響補正後、紙葉類の種類および真偽を識別する方法の説明図Explanatory diagram of the method for identifying the type and authenticity of paper sheets after correcting the effects of scratches and dirt images 紙葉類識別装置1とは他の紙葉類識別装置の概略的な構成図The paper sheet identification device 1 is a schematic configuration diagram of another paper sheet identification device 紙葉類識別装置100の識別部8の機能的な構成のブロック図Block diagram of a functional configuration of the identification unit 8 of the paper sheet identification apparatus 100 識別部8が撮像画像から識別対象画像を抽出する処理手順のフローチャートA flowchart of a processing procedure for the identification unit 8 to extract an identification target image from the captured image. 撮像画像の透かし領域の重心を算出する方法を説明する説明図Explanatory drawing explaining the method of calculating the gravity center of the watermark area | region of a captured image 撮像画像の透かし領域の重心に基づいて紙葉類の挿入方向を判定する方法を説明する説明図Explanatory drawing explaining the method to determine the insertion direction of paper sheets based on the gravity center of the watermark area | region of a captured image 正方向で挿入された紙葉類の撮像画像から識別対象画像を抽出する方法の説明図Explanatory drawing of the method of extracting an identification target image from the captured image of the paper sheets inserted in the positive direction 逆方向で挿入された紙葉類の撮像画像から識別対象画像を抽出する方法の説明図Explanatory drawing of the method of extracting an identification object image from the captured image of the paper sheets inserted in the reverse direction

符号の説明Explanation of symbols

1、100 紙葉類識別装置
2 制御部
3 紙葉類挿入部
4 紙葉類搬送部
5 紙葉類受入部
6 駆動部
7、8 識別部
20 紙葉類の撮像領域の撮像画像データ
21 透かし領域
22 通常領域
23 透かし模様
24 テンプレート画像データ
25 傷、しわ、汚れ
26、31 相関値グラフ
27、271、272 補正済識別対象画像データ
28、281、282 差分画像データ
29 透かし領域の重心
30 所定範囲画像データ
70、80 識別制御部
71、81 メモリ
72、82 テンプレート画像データベース
73、83 透過光型光センサ
74、84 パターンマッチング部
75、85 識別対象画像抽出部
76、86 傷・汚れ検出部
77、87 傷・汚れ影響補正部
88 透かし領域抽出部
89 透かし領域重心算出部
90 挿入方向判定部
731、831 発光素子
732、832 受光素子
DESCRIPTION OF SYMBOLS 1,100 Paper sheet identification apparatus 2 Control part 3 Paper sheet insertion part 4 Paper sheet conveyance part 5 Paper sheet acceptance part 6 Drive part 7, 8 Identification part 20 Imaged image data of imaging area of paper sheet 21 Watermark Area 22 Normal area 23 Watermark pattern 24 Template image data 25 Scratches, wrinkles, dirt 26, 31 Correlation value graphs 27, 271, 272 Corrected identification target image data 28, 281, 282 Difference image data 29 Centroid of watermark area 30 Predetermined range Image data 70, 80 Identification control unit 71, 81 Memory 72, 82 Template image database 73, 83 Transmitted light sensor 74, 84 Pattern matching unit 75, 85 Identification target image extraction unit 76, 86 Scratch / dirt detection unit 77, 87 Scratch / Dirty Effect Correction Unit 88 Watermark Region Extraction Unit 89 Watermark Region Center of Gravity Calculation Unit 90 Insertion Direction Determination Unit 731 and 831 Light emitting element 732 and 832 Light receiving element

Claims (8)

紙葉類の撮像画像から該紙葉類の特徴画像を切り出し、該切り出した特徴画像に基づき紙葉類の識別を行う紙葉類識別装置において、
表裏、正逆のいずれかの方向で挿入された前記紙葉類から該紙葉類の前記特徴画像を含む領域の画像を撮像する撮像手段と、
前記撮像手段で撮像した画像上で前記特徴画像の前記紙葉類の各挿入方向に対応するテンプレート画像とのテンプレートマッチングを行う画像マッチング手段と、
前記画像マッチング手段で行うテンプレートマッチングによる最大相関値が最も大きいテンプレート画像から前記紙葉類の挿入方向を判別する挿入方向判別手段と、
前記挿入方向判別手段で判別した前記紙葉類の挿入方向に対応するテンプレート画像を用いた前記画像マッチング手段による最大相関値に対応する前記撮像画像上の位置を基点として前記撮像画像から前記紙葉類の特徴画像を切り出す画像切出手段と
を具備することを特徴とする紙葉類識別装置。
In a paper sheet identification device that cuts out a feature image of the paper sheet from a captured image of the paper sheet, and identifies the paper sheet based on the cut out feature image,
Imaging means for capturing an image of a region including the characteristic image of the paper sheet from the paper sheet inserted in either the front or back direction, forward or reverse,
Image matching means for performing template matching with a template image corresponding to each insertion direction of the paper sheets of the feature image on the image captured by the imaging means;
An insertion direction discriminating unit for discriminating an insertion direction of the paper sheet from a template image having the largest maximum correlation value by template matching performed by the image matching unit;
Based on the position on the captured image corresponding to the maximum correlation value by the image matching means using the template image corresponding to the insertion direction of the paper sheet determined by the insertion direction determining means, the paper sheet is taken from the captured image as a base point. A paper sheet identification apparatus comprising: an image cutout unit that cuts out a feature image of a kind.
前記特徴画像は、
前記紙葉類の透かし領域の画像であり、
前記画像マッチング手段は、
前記撮像手段で撮像した1つの撮像画像と1つのテンプレート画像データを前記表裏、正逆の4方向に変換した4つのテンプレート画像とのテンプレートマッチングを行う
ことを特徴とする請求項1記載の紙葉類識別装置。
The feature image is
It is an image of the watermark area of the paper sheet,
The image matching means includes
The paper sheet according to claim 1, wherein template matching is performed between one captured image captured by the imaging unit and four template images obtained by converting one template image data into the front, back, and forward / reverse four directions. Kind identification device.
前記特徴画像は、
前記紙葉類の透かし領域の画像であり、
前記画像マッチング手段は、
前記撮像手段で撮像した1つの撮像画像を前記表裏、正逆の4方向に変換した4つの画像と1つのテンプレート画像データに対応する1つのテンプレート画像とのテンプレートマッチングを行う
ことを特徴とする請求項1記載の紙葉類識別装置。
The feature image is
It is an image of the watermark area of the paper sheet,
The image matching means includes
The template matching is performed between four images obtained by converting one captured image captured by the imaging unit into the front and back surfaces and four directions of forward and reverse and one template image corresponding to one template image data. Item 1. A paper sheet identification device according to Item 1.
前記画像マッチング手段は、
前記透かし領域の画像の重心を求め、
該重心の位置により前記紙葉類の挿入方向が表で正方向、裏で逆方向若しくは表で逆方向、裏で正方向のいずれかであるかを判別し、
該判別した2つの方向に対して前記テンプレートマッチングを選択的に行う
ことを特徴とする請求項2または3記載の紙葉類識別装置。
The image matching means includes
Find the center of gravity of the image in the watermark area,
According to the position of the center of gravity, it is determined whether the insertion direction of the paper sheet is a forward direction on the front side, a reverse direction on the back side, a reverse direction on the front side, or a forward direction on the back side
The paper sheet identification apparatus according to claim 2 or 3, wherein the template matching is selectively performed with respect to the two determined directions.
紙葉類の撮像画像から該紙葉類の特徴画像を切り出し、該切り出した特徴画像に基づき紙葉類の識別を行う紙葉類識別方法であって、
表裏、正逆のいずれかの方向で挿入された前記紙葉類から該紙葉類の前記特徴画像を含む領域の画像を撮像手段によって撮像し、
前記撮像手段で撮像した画像上で前記特徴画像の前記紙葉類の各挿入方向に対応するテンプレート画像との画像マッチング手段によるテンプレートマッチングを行い、
前記画像マッチング手段によるテンプレートマッチングによって算出した最大相関値が最も大きいテンプレート画像から前記紙葉類の挿入方向を挿入方向判別手段によって判別し、
前記挿入方向判別手段で判別した前記紙葉類の挿入方向に対応するテンプレート画像を用いた前記画像マッチング手段による最大相関値が最も大きな該テンプレート画像に対応する前記撮像画像上の位置を基点として前記撮像画像から前記紙葉類の特徴画像を切り出すこと
を特徴とする紙葉類識別方法。
A paper sheet identification method for cutting out a feature image of the paper sheet from a captured image of the paper sheet, and identifying the paper sheet based on the cut out feature image,
An image of an area including the feature image of the paper sheet is captured by the imaging unit from the paper sheet inserted in the front or back direction, either forward or reverse,
Perform template matching by the image matching unit with the template image corresponding to each insertion direction of the paper sheet of the feature image on the image captured by the imaging unit,
The insertion direction discriminating means discriminates the insertion direction of the paper sheets from the template image having the largest maximum correlation value calculated by template matching by the image matching means,
The position on the captured image corresponding to the template image having the maximum maximum correlation value by the image matching unit using the template image corresponding to the insertion direction of the paper sheet determined by the insertion direction determining unit is used as a base point. A paper sheet identification method characterized by cutting out a characteristic image of the paper sheet from a captured image.
前記特徴画像は、
前記紙葉類の透かし領域の画像であり、
前記画像マッチング手段は、
前記撮像手段で撮像した1つの撮像画像と1つのテンプレート画像データを前記表裏、正逆の4方向に変換した4つのテンプレート画像とのテンプレートマッチングを行う
ことを特徴とする請求項5記載の紙葉類識別方法。
The feature image is
It is an image of the watermark area of the paper sheet,
The image matching means includes
The paper sheet according to claim 5, wherein template matching is performed between one captured image captured by the imaging unit and four template images obtained by converting one template image data into the front, back, and forward / reverse four directions. Class identification method.
前記特徴画像は、
前記紙葉類の透かし領域の画像であり、
前記画像マッチング手段は、
前記撮像手段で撮像した1つの撮像画像を前記表裏、正逆の4方向に変換した4つの画像と1つのテンプレート画像データに対応する1つのテンプレート画像とのテンプレートマッチングを行う
ことを特徴とする請求項5記載の紙葉類識別方法。
The feature image is
It is an image of the watermark area of the paper sheet,
The image matching means includes
The template matching is performed between four images obtained by converting one captured image captured by the imaging unit into the front and back surfaces and four directions of forward and reverse and one template image corresponding to one template image data. Item 6. The paper sheet identification method according to Item 5.
前記画像マッチング手段は、
前記透かし領域の画像の重心を求め、
該重心の位置により前記紙葉類の挿入方向が表で正方向、裏で逆方向若しくは表で逆方向、裏で正方向のいずれかであるかを判別し、
該判別した2つの方向に対して前記テンプレートマッチングを選択的に行う
ことを特徴とする請求項6または7記載の紙葉類識別方法。
The image matching means includes
Find the center of gravity of the image in the watermark area,
According to the position of the center of gravity, it is determined whether the insertion direction of the paper sheet is a forward direction on the front side, a reverse direction on the back side, a reverse direction on the front side, or a forward direction on the back side
The paper sheet identification method according to claim 6 or 7, wherein the template matching is selectively performed with respect to the two determined directions.
JP2004133996A 2004-04-28 2004-04-28 Paper sheet identifying device and method Pending JP2005316727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004133996A JP2005316727A (en) 2004-04-28 2004-04-28 Paper sheet identifying device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004133996A JP2005316727A (en) 2004-04-28 2004-04-28 Paper sheet identifying device and method

Publications (1)

Publication Number Publication Date
JP2005316727A true JP2005316727A (en) 2005-11-10

Family

ID=35444086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004133996A Pending JP2005316727A (en) 2004-04-28 2004-04-28 Paper sheet identifying device and method

Country Status (1)

Country Link
JP (1) JP2005316727A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101397782B1 (en) 2007-05-29 2014-05-20 주식회사 엘지씨엔에스 Apparatus and method for extracting paper-money image
CN106803307A (en) * 2016-12-16 2017-06-06 恒银金融科技股份有限公司 A kind of bank note face amount based on template matches is towards recognition methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210482A (en) * 1988-06-29 1990-01-16 Toshiba Corp Pattern identifying device for paper or the like
JPH02148382A (en) * 1988-11-30 1990-06-07 Fuji Electric Co Ltd Paper money discriminating device
JP2002092683A (en) * 2000-07-14 2002-03-29 Oki Electric Ind Co Ltd Device for discriminating between true and false medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210482A (en) * 1988-06-29 1990-01-16 Toshiba Corp Pattern identifying device for paper or the like
JPH02148382A (en) * 1988-11-30 1990-06-07 Fuji Electric Co Ltd Paper money discriminating device
JP2002092683A (en) * 2000-07-14 2002-03-29 Oki Electric Ind Co Ltd Device for discriminating between true and false medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101397782B1 (en) 2007-05-29 2014-05-20 주식회사 엘지씨엔에스 Apparatus and method for extracting paper-money image
CN106803307A (en) * 2016-12-16 2017-06-06 恒银金融科技股份有限公司 A kind of bank note face amount based on template matches is towards recognition methods
CN106803307B (en) * 2016-12-16 2023-05-02 恒银金融科技股份有限公司 Banknote face value orientation identification method based on template matching

Similar Documents

Publication Publication Date Title
US6272245B1 (en) Apparatus and method for pattern recognition
US20050169511A1 (en) Document processing system using primary and secondary pictorial image comparison
EP0917113A2 (en) Seal detection system and method
JP2007213148A (en) Device and method of determining genuineness of banknote, device and method of registering surface characteristics of banknote, system of determining genuineness of banknote, device and method of printing card, device and method of determining genuineness of card, system of determining genuineness of card, and card
JPH01161490A (en) Image decomposing copy reference system
JPH11175797A (en) Paper sheet discriminating device
KR100704852B1 (en) Sheet identifying device and method
WO2004077366A1 (en) Sheet identifying device and method
KR100704851B1 (en) Sheet paper identification device and method
JP2005322139A (en) Paper sheet identification device and method
JP2002109599A (en) Sheet paper differentiation device
JP2005316727A (en) Paper sheet identifying device and method
JP2007179323A (en) Paper sheet discriminating device and method
JP4382579B2 (en) Paper sheet identification apparatus and method
JPH07311867A (en) Recognition device for paper sheet of the like
JP3064739B2 (en) Image processing device
JP3651177B2 (en) Paper sheet identification device
JP2005321880A (en) Paper sheet identification device and method
JPH0573753A (en) Sheet paper recognition processing method
JP3490127B2 (en) Banknote recognition device
JP3394984B2 (en) Coin recognition device
JP4382564B2 (en) Paper sheet identification apparatus and method
JPH06318245A (en) Paper sheets recognizing device
JP2005031843A (en) Coin identifying device and method
JP2006092139A (en) Security thread discrimination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060524

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090908