JP2005322139A - Paper sheet identification device and method - Google Patents

Paper sheet identification device and method Download PDF

Info

Publication number
JP2005322139A
JP2005322139A JP2004141216A JP2004141216A JP2005322139A JP 2005322139 A JP2005322139 A JP 2005322139A JP 2004141216 A JP2004141216 A JP 2004141216A JP 2004141216 A JP2004141216 A JP 2004141216A JP 2005322139 A JP2005322139 A JP 2005322139A
Authority
JP
Japan
Prior art keywords
image
divided
paper sheet
identification
identification target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004141216A
Other languages
Japanese (ja)
Inventor
Satoru Tsurumaki
悟 鶴巻
Seiji Takamatsu
誠司 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Conlux Co Ltd
Original Assignee
Nippon Conlux Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Conlux Co Ltd filed Critical Nippon Conlux Co Ltd
Priority to JP2004141216A priority Critical patent/JP2005322139A/en
Publication of JP2005322139A publication Critical patent/JP2005322139A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a paper sheet identification device and a method for it eliminating influence of wrinkles, flaws, dirt, displacement of a pattern, and the like for preventing erroneous identification of the paper sheet and improving identification accuracy. <P>SOLUTION: A standard image corresponding to an identification object image in the paper sheet, image division information for dividing the standard image into a plurality of optional shape areas, and weighting information showing weighting values for respective divided images of the standard image divided base on the image division information are previously stored in a storage means. Based on the stored standard image, the identification object image is acquired from the paper sheet. The acquired identification object image is divided in association with a plurality of optional shape areas formed by dividing the standard image based on the image division information. Correlation values between the divided images of the identification object image and the divided images of the standard image are calculated on the divided image basis, and the paper sheet is identified based on overall determination made from the calculated correlation values for the respective divided image units and the weighting values based on the weighting information for the respective divided images of the standard image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、紙葉類識別装置および方法に関し、特に、紙葉類の撮像画像から紙葉類の識別対象とする識別対象画像を効率良く抽出するとともに、識別対象画像の特徴のある領域に重みをおくことで紙葉類のしわや傷、汚れおよび模様の位置ずれ等による誤識別を防止し、より識別精度を向上させた紙葉類識別装置および方法に関する。   The present invention relates to a paper sheet identification apparatus and method, and in particular, efficiently extracts a classification target image as a classification target of a paper sheet from a captured image of a paper sheet and weights a characteristic area of the classification target image. The present invention relates to a paper sheet identification apparatus and method that can prevent misidentification due to wrinkles, scratches, stains, pattern misalignment, and the like of a paper sheet and further improve the identification accuracy.

一般に、紙幣、小切手または商品券等の紙葉類の種類および真偽を識別する紙葉類識別装置は、磁気センサ若しくは光センサ等を用いて装置に投入された紙葉類から識別対象とする画像を磁気的または光学的に検出し、検出した識別対象画像と予め登録された紙葉類の識別対象画像に対応した標準画像とを照合することにより紙葉類の種類および真偽を識別する。   In general, a paper sheet identification device for identifying the type and authenticity of paper sheets such as banknotes, checks, gift certificates, etc. is to be identified from paper sheets input to the apparatus using a magnetic sensor or an optical sensor. The image is detected magnetically or optically, and the type and authenticity of the paper sheet are identified by collating the detected image to be identified with a standard image corresponding to the pre-registered paper sheet to be identified. .

このような紙葉類識別装置が投入された紙葉類を識別する際には、紙葉類の識別対象画像を最良な状態で取得することが望ましいが、実際に紙葉類から取得した識別対象画像には、紙葉類のしわや傷、汚れ等による不要な画像が含まれる等の影響により識別精度が低下する等の問題がある。   When identifying a paper sheet in which such a paper sheet identification device is inserted, it is desirable to obtain an image to be identified in the paper sheet in the best state, but the identification actually acquired from the paper sheet The target image has a problem that the identification accuracy is lowered due to the influence of including unnecessary images due to wrinkles, scratches, dirt, etc. on the paper sheet.

したがって、紙葉類のしわや傷、汚れ及び模様の位置ずれ等の影響による紙葉類の誤識別を防止し、より識別精度を向上させるような紙葉類の識別方法や装置の提供が望まれている。   Therefore, it is desired to provide a paper sheet identification method and apparatus that prevent misidentification of paper sheets due to the effects of wrinkles, scratches, dirt, and pattern misalignment of paper sheets, and improve the identification accuracy. It is rare.

例えば特許文献1には、識別する画像に重みを設定することで画像に特徴付けを行い、識別効果を高めるとともに効果的な識別が可能な紙葉類識別装置が提案されている。   For example, Patent Document 1 proposes a paper sheet identification apparatus that characterizes an image by setting a weight to the image to be identified, thereby enhancing the identification effect and enabling effective identification.

また、特許文献2には、各金種間で光学的パターンが類似する紙幣を、正確かつ高速に識別することができる紙葉類識別装置が提案されている。   Patent Document 2 proposes a paper sheet identification device that can accurately and quickly identify banknotes having similar optical patterns between denominations.

更に、特許文献3には、透かし画像の欠陥検出を精度良く行うことができるすき入れ検査装置が提案されている。
特開平11−306411号公報 特開平09−259323号公報 特開2000−182114号公報
Further, Patent Document 3 proposes a penetration inspection apparatus that can accurately detect a defect in a watermark image.
Japanese Patent Laid-Open No. 11-306411 JP 09-259323 A JP 2000-182114 A

ところで、上記提案の特許文献1は、紙葉類識別装置に関し、投入された紙葉類を識別する際に、識別基準データ側のみに重み付けを行う、あるいは、識別基準データ及び読取った画像データの双方に重み付けを行うことで画像に特徴付けを行い、識別基準データとの類似度を求めて効果的に識別するように構成したものである。   By the way, the above-mentioned proposed Patent Document 1 relates to a paper sheet identification device, and when weighting an input paper sheet, weights only on the identification standard data side, or the identification standard data and the read image data. The image is characterized by weighting both, and the similarity with the identification reference data is obtained to effectively identify the image.

また、特許文献2は、紙葉類識別装置に関し、読み取った識別対象データに近い2つの候補基準データを選択し、選択した候補基準データと識別対象データとの重み付け相対距離に基づいて紙幣の真偽及び種類を識別するように構成したものである。   Further, Patent Document 2 relates to a paper sheet identification device, selects two candidate reference data close to the read identification target data, and determines the authenticity of the banknote based on the weighted relative distance between the selected candidate reference data and the identification target data. It is configured to identify fake and type.

また、特許文献3は、すき入れ検査装置に関し、透かし画像のコントラストに対応して正規化相関法処理、ミクロフィルター処理、濃淡モホロジー処理による画像のマッチング処理を行うことにより透かし画像の欠陥検出を精度良く行うように構成したものである。   Further, Patent Document 3 relates to a penetration inspection apparatus, and performs watermark image defect detection processing by performing normalized correlation method processing, microfilter processing, and density morphology processing corresponding to the contrast of the watermark image. It is configured to perform well.

しかしながら、上記提案の特許文献1乃至特許文献3においては、紙葉類を識別する際に紙葉類の識別対象とする画像を効率良く抽出するとともに、識別対象画像の特徴のある領域に重みをおき、紙葉類のしわや傷、汚れおよび模様の位置ずれ等の影響を除去して、より識別精度を向上させるような方法は開示されていない。   However, in the proposed Patent Documents 1 to 3, when identifying a paper sheet, an image to be identified of the paper sheet is efficiently extracted, and a characteristic area of the identification target image is weighted. In addition, there is no disclosure of a method for further improving the identification accuracy by removing the influence of wrinkles and scratches on paper sheets, dirt, and pattern displacement.

そこで、本発明は、紙葉類の撮像画像から紙葉類の識別対象とする識別対象画像を効率良く抽出するとともに、紙葉類のしわや傷、汚れおよび模様の位置ずれ等による紙葉類の誤識別を防止し、より識別精度を向上させた紙葉類識別装置および方法を提供することを目的とする。   Therefore, the present invention efficiently extracts an identification target image to be identified as a paper sheet from a captured image of the paper sheet, and the paper sheet due to wrinkles, scratches, dirt, pattern misalignment, and the like of the paper sheet. It is an object of the present invention to provide a paper sheet identification apparatus and method that can prevent erroneous identification and improve the identification accuracy.

上記目的を達成するため、請求項1の発明は、紙葉類の識別対象画像に基づき紙葉類を識別する紙葉類識別装置において、前記紙葉類から前記識別対象画像を取得する識別対象画像取得手段と、前記識別対象画像に対応する標準画像を予め記憶する記憶手段と、前記記憶手段に記憶した前記標準画像を複数の任意形状の領域に分割した分割画像に分割するとともに、前記識別対象画像取得手段で取得した識別対象画像を前記標準画像の分割に対応して分割する画像分割手段と、前記画像分割手段で分割された分割画像に対応してそれぞれ重み付け値を設定する重付設定手段と、前記画像分割手段で分割された前記識別対象画像の分割画像と前記標準画像の分割画像とを分割画像単位で相関値を算出する相関値算出手段とを具備し、前記重付設定手段で設定した各分割画像の重み付け値と前記相関値算出手段で算出した各分割画像単位の相関値との総合判定に基づき紙葉類の識別を行う識別手段とを具備することを特徴とする。   In order to achieve the above object, the invention according to claim 1 is an identification target for acquiring the identification target image from the paper sheet in a paper sheet identification device for identifying a paper sheet based on the identification target image of the paper sheet. An image acquisition unit, a storage unit that stores a standard image corresponding to the identification target image in advance, and the standard image stored in the storage unit is divided into a plurality of divided images divided into regions of arbitrary shapes, and the identification An image dividing unit that divides the identification target image acquired by the target image acquiring unit corresponding to the division of the standard image, and a weighting setting that sets a weighting value corresponding to each of the divided images divided by the image dividing unit And a correlation value calculation means for calculating a correlation value for each divided image of the divided image of the identification target image divided by the image dividing means and the divided image of the standard image. An identification unit configured to identify a paper sheet based on a comprehensive determination between the weighted value of each divided image set by the unit and the correlation value of each divided image unit calculated by the correlation value calculating unit. .

また、請求項2の発明は、請求項1の発明において、前記重付設定手段は、前記画像分割手段で分割された前記標準画像の分割画像の特徴量に対応して重み付け値を設定することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the weight setting unit sets a weight value corresponding to the feature amount of the divided image of the standard image divided by the image dividing unit. It is characterized by.

また、請求項3の発明は、請求項2の発明において、前記識別対象画像と前記標準画像との比較に基づきキズ若しくは汚れを検出する検出手段を更に具備し、前記重付設定手段は、前記画像分割手段で分割された前記識別対象画像の分割画像が前記検出手段で検出したキズ若しくは汚れの量に対応して重み付け値を設定することを特徴とする。   The invention according to claim 3 further comprises detection means for detecting scratches or dirt based on a comparison between the identification target image and the standard image in the invention according to claim 2, wherein the weight setting means The divided image of the identification target image divided by the image dividing unit sets a weighting value corresponding to the amount of scratches or dirt detected by the detecting unit.

また、請求項4の発明は、紙葉類の識別対象画像に基づき紙葉類を識別する紙葉類識別方法において、前記紙葉類の識別対象画像に対応する標準画像と、前記標準画像を複数の任意形状の領域に分割する画像分割情報と、前記画像分割情報に基づいて分割される前記標準画像の各分割画像の重み付け値を示す重付情報を予め記憶手段に記憶し、前記記憶手段に記憶した前記標準画像に基づき前記紙葉類から前記識別対象画像を取得し、該取得した識別対象画像を該識別対象画像に対応した標準画像が前記画像分割情報に基づき分割される前記複数の任意形状の領域に対応して分割し、該分割された前記識別対象画像の分割画像と前記画像分割情報に基づき分割された前記標準画像の分割画像とを分割画像単位で相関値を算出し、該算出された各分割画像単位の相関値と前記標準画像の前記重付情報に基づく各分割画像の重み付け値との総合判定に基づき紙葉類の識別を行うことを特徴とする。   According to a fourth aspect of the present invention, there is provided a paper sheet identification method for identifying a paper sheet based on a paper sheet identification target image, wherein the standard image corresponding to the paper sheet identification target image and the standard image are Image division information to be divided into a plurality of regions of arbitrary shape, and weighting information indicating weight values of each divided image of the standard image divided based on the image division information are stored in a storage unit in advance, and the storage unit The identification target image is acquired from the paper sheet based on the standard image stored in the image, and the plurality of classification images obtained by dividing a standard image corresponding to the identification target image based on the image division information. Dividing corresponding to a region of an arbitrary shape, calculating a correlation value in units of divided images of the divided image of the identification target image and the divided image of the standard image divided based on the image division information, The calculated And performing a comprehensive determination on the basis of identification of the paper sheet between the weighting value of each divided image correlation values of the divided image unit and based on the weighting information of the standard image.

また、請求項5の発明は、請求項4の発明において、前記画像分割情報に基づいて分割される前記標準画像の各分割画像の特徴量に対応して前記重み付け値が設定されることを特徴とする。   The invention of claim 5 is characterized in that, in the invention of claim 4, the weighting value is set corresponding to the feature amount of each divided image of the standard image divided based on the image division information. And

また、請求項6の発明は、請求項5の発明において、前記識別対象画像と前記標準画像との比較に基づきキズ若しくは汚れを検出手段により検出し、該検出した前記識別対象画像の分割画像のキズ若しくは汚れの量に対応して前記重み付け値が設定されることを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the present invention, a scratch or a stain is detected by a detection unit based on a comparison between the identification target image and the standard image, and the detected divided image of the identification target image is detected. The weighting value is set corresponding to the amount of scratches or dirt.

本発明の紙葉類識別装置および方法によれば、紙葉類の識別対象画像に対応した標準画像と紙葉類から取得した識別対象画像との各特徴のある領域のパターンマッチングによる相関値と、各特徴のある領域の特徴量及び傷や汚れ量に応じた重みの値との集計結果に基づき紙葉類の種類および真偽を識別するように構成したので、紙葉類のしわや傷、汚れおよび模様の位置ずれ等の影響を除去し、紙葉類の誤識別を防止するとともに、より識別精度を向上させることができるという効果を奏する。   According to the paper sheet identification apparatus and method of the present invention, the correlation value obtained by pattern matching of each characteristic region between the standard image corresponding to the paper sheet identification target image and the classification target image acquired from the paper sheet, and Since it is configured to identify the type and authenticity of the paper sheet based on the total value of the characteristic amount of each characteristic area and the weight value corresponding to the amount of scratches and dirt, the wrinkles and scratches on the paper sheet In addition, it is possible to remove the influence of dirt and pattern misalignment, prevent misidentification of paper sheets, and improve the identification accuracy.

本発明に係わる紙葉類識別装置および方法は、例えば有価証券や紙幣等の紙葉類を識別する際、紙葉類から紙葉類の識別対象とする画像を効率良く抽出するとともに、紙葉類の識別対象とする画像の特徴のある領域に重みをおくことで紙葉類のしわや傷、汚れおよび模様の位置ずれ等による紙葉類の誤識別を防止し、識別精度を向上させるような紙葉類識別方法を適用した紙葉類識別装置として用いられるものである。   The paper sheet identification apparatus and method according to the present invention efficiently extract an image to be identified from a paper sheet, for example, when identifying a paper sheet such as securities or banknotes, and By adding weight to areas with distinctive features of images to be identified, it is possible to prevent misidentification of paper sheets due to wrinkles, scratches, dirt, pattern misalignment, etc., and improve identification accuracy. It is used as a paper sheet identification device to which a simple paper sheet identification method is applied.

以下の実施例においては、紙葉類の種類および真偽を識別可能とする識別対象画像が透かし模様を含む透かし領域である場合を想定し、本発明に係わる紙葉類識別装置および方法について説明する。   In the following embodiments, a paper sheet identification apparatus and method according to the present invention will be described on the assumption that a classification target image that can identify the type and authenticity of a paper sheet is a watermark area including a watermark pattern. To do.

本発明に係わる紙葉類識別装置および方法の一実施例について添付図面を参照して詳細に説明する。   An embodiment of a paper sheet identification apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係わる紙葉類識別方法を適用した紙葉類識別装置の構成例を概略的に示した構成図である。   FIG. 1 is a configuration diagram schematically showing a configuration example of a paper sheet identification apparatus to which a paper sheet identification method according to the present invention is applied.

図1に示すように、紙葉類識別装置1は、紙葉類識別装置1全体の制御を行う制御部2と、紙葉類の挿入口である紙葉類挿入部3と、挿入口から挿入された紙葉類を搬送する紙葉類搬送部4と、紙葉類を受け入れ紙葉類毎に分類して収納する紙葉類受入部5と、制御部2からの命令指示により紙葉類搬送部4を駆動制御する駆動部6と、挿入された紙葉類の識別対象とする画像(以下、「識別対象画像」という。)と予め登録された紙葉類の識別対象画像に対応した標準画像とを照合することにより、紙葉類の種類および真偽を識別する識別部8を備えている。   As shown in FIG. 1, the paper sheet identification device 1 includes a control unit 2 that controls the entire paper sheet identification device 1, a paper sheet insertion unit 3 that is a paper sheet insertion port, and an insertion port. A paper sheet transport unit 4 for transporting the inserted paper sheets, a paper sheet receiving unit 5 for receiving and classifying the paper sheets for each paper sheet, and a paper sheet according to a command from the control unit 2 Corresponding to a drive unit 6 that drives and controls the sheet transport unit 4, an image to be identified for the inserted paper sheet (hereinafter referred to as “identification target image”), and an identification target image for the paper sheet registered in advance. An identification unit 8 for identifying the type and authenticity of the paper sheet is provided by collating with the standard image.

紙葉類の挿入口である紙葉類挿入部3は、紙葉類が挿入されると、図示せぬ検知センサで紙葉類が挿入されたことを検知し、その旨の信号を制御部2へ送信する。   When a paper sheet is inserted, the paper sheet insertion unit 3 that is an insertion port for the paper sheet detects that the paper sheet has been inserted by a detection sensor (not shown), and sends a signal to that effect to the control unit. 2 to send.

紙葉類搬送部4は、駆動モータや搬送ベルト等を備え、紙葉類挿入部3に挿入された紙葉類を紙葉類の挿入方向または挿入方向とは逆方向へ搬送可能なように構成されており、駆動部6の制御指示に基づき紙葉類の搬送を行う。   The paper sheet transport unit 4 includes a drive motor, a transport belt, and the like so that the paper sheet inserted into the paper sheet insertion unit 3 can be transported in the insertion direction of the paper sheet or in the direction opposite to the insertion direction. The paper sheet is conveyed based on the control instruction of the drive unit 6.

駆動部6は、制御部2の制御指示に基づき紙葉類搬送部4を制御して紙葉類を紙葉類の挿入方向または挿入方向とは逆方向へ搬送したり、搬送停止等の制御指示を行う。   The drive unit 6 controls the paper sheet transport unit 4 based on the control instruction of the control unit 2 to transport the paper sheet in the insertion direction of the paper sheet or in the direction opposite to the insertion direction, or to control the transport stop, etc. Give instructions.

識別部8は、紙葉類から撮像し取得した紙葉類の識別対象画像と、紙葉類の識別対象画像に対応した標準画像とを照合して、紙葉類の種類および真偽を識別する。   The identification unit 8 collates a paper sheet identification target image captured and acquired from a paper sheet with a standard image corresponding to the paper sheet identification target image to identify the type and authenticity of the paper sheet. To do.

なお、標準画像は、真券の紙葉類の識別対象画像を種類毎に撮像して取得し、後述するテンプレート画像データベースに予め登録されている。   Note that the standard image is acquired by capturing the identification target image of the genuine paper sheet for each type, and is registered in advance in a template image database to be described later.

紙葉類受入部5は、紙葉類搬送部4によって搬送されてきた紙葉類を種類毎に区別して図示せぬ収納部に収納する。   The paper sheet receiving unit 5 distinguishes the paper sheets transported by the paper sheet transport unit 4 for each type and stores them in a storage unit (not shown).

このように構成された紙葉類識別装置1が挿入された紙葉類の種類及び真偽を識別処理する動作について簡単に説明すると、紙葉類挿入部3から挿入された紙葉類は、紙葉類搬送部4を介して紙葉類受入部5へ搬送される途上において識別部8によって紙葉類の種類および真偽が識別される。   The operation of identifying the type and authenticity of the inserted paper sheet by the thus configured paper sheet identification device 1 will be briefly described. The paper sheet inserted from the paper sheet insertion unit 3 is: In the course of being conveyed to the paper sheet receiving unit 5 via the paper sheet conveying unit 4, the identification unit 8 identifies the type and authenticity of the paper sheet.

識別部8が紙葉類を真券と識別した場合は、駆動部6が制御部2の命令指示に基づき紙葉類搬送部4の駆動制御を行い、紙葉類を紙葉類受入部5に搬送し、紙葉類受入部5が搬送されてきた紙葉類を受け入れる。   When the identification unit 8 identifies the paper sheet as a genuine note, the drive unit 6 performs drive control of the paper sheet transport unit 4 based on a command instruction from the control unit 2, and the paper sheet is received by the paper sheet receiving unit 5. The paper sheet receiving unit 5 receives the paper sheet that has been transported.

また、識別部8が紙葉類を偽券と識別した場合は、紙葉類を紙葉類挿入部3に搬送して返却するように駆動部6が紙葉類搬送部4の駆動制御を行う。   When the identification unit 8 identifies the paper sheet as a fake ticket, the drive unit 6 controls the drive of the paper sheet transport unit 4 so that the paper sheet is transported to the paper sheet insertion unit 3 and returned. Do.

このように紙葉類識別装置1においては、挿入された紙葉類の種類および真偽の識別を識別部8によって行う。   In this way, in the paper sheet identification apparatus 1, the identification unit 8 identifies the type and authenticity of the inserted paper sheet.

図2は、紙葉類識別装置1に挿入された紙葉類の種類および真偽を識別する識別部8の構成例を概略的に示した構成図である。   FIG. 2 is a configuration diagram schematically illustrating a configuration example of the identification unit 8 that identifies the type and authenticity of the paper sheet inserted into the paper sheet identification device 1.

図2に示すように、識別部8は、識別部8全体を統括制御する識別制御部80と、透過光型光センサ73と、メモリ71と、テンプレート画像データベース72と、識別対象画像抽出部74と、分割画像抽出部75と、傷・汚れ検出部76と、重み係数算出部77と、画像マッチング処理部78と、判定処理部89を備えている。   As shown in FIG. 2, the identification unit 8 includes an identification control unit 80 that performs overall control of the identification unit 8, a transmitted light optical sensor 73, a memory 71, a template image database 72, and an identification target image extraction unit 74. A divided image extraction unit 75, a flaw / dirt detection unit 76, a weight coefficient calculation unit 77, an image matching processing unit 78, and a determination processing unit 89.

透過光型光センサ73は、発光素子731と受光素子732とが一対を成し、互いに対向して紙葉類を搬送する紙葉類搬送部4の搬送ラインを挟むようにして所定位置に配設されている。   The transmitted light type optical sensor 73 includes a light emitting element 731 and a light receiving element 732, and is disposed at a predetermined position so as to sandwich the transport line of the paper sheet transport unit 4 that transports the paper sheet facing each other. ing.

また、透過光型光センサ73は、搬送されている紙葉類が透過光型光センサ73の所定位置に到達した時に発光素子731を発光させて紙葉類に光を照射し、受光素子732で紙葉類を透過した透過光を検出するように構成されている。   Further, the transmitted light type optical sensor 73 causes the light emitting element 731 to emit light when the conveyed paper sheet reaches a predetermined position of the transmitted light type optical sensor 73 to irradiate the paper sheet with light, and the light receiving element 732. And configured to detect transmitted light transmitted through the paper sheet.

具体的には、発光素子731が発光することで紙葉類に光が照射され、紙葉類を透過した透過光を受光素子732が受光して受光量に応じた信号レベルの電気信号を出力する。   Specifically, the light emitting element 731 emits light to irradiate the paper, and the light receiving element 732 receives the transmitted light that has passed through the paper and outputs an electric signal having a signal level corresponding to the amount of light received. To do.

なお、発光素子731が発光するタイミングは、図示せぬ紙葉類の位置検知センサによって紙葉類の搬送位置を検知し、紙葉類の識別対象画像の一つである透かし領域を含む所定の大きさの領域が撮像可能なように構成されている。   The light emitting element 731 emits light at a predetermined timing including a watermark area that is one of the images to be identified by detecting the transport position of the paper sheet by a paper sheet position detection sensor (not shown). A large area is configured to be imaged.

また、発光素子731及び受光素子732には、赤外、紫外および可視光のいずれも適用可能である。   In addition, any of infrared, ultraviolet, and visible light can be applied to the light emitting element 731 and the light receiving element 732.

メモリ71は、メモリ71の所定の記憶領域に透過光型光センサ73から所定の時間間隔で出力される電気信号の信号レベルに対応したデジタル信号を、透過光型光センサ73からの出力順に対応して格納し、格納したデジタル信号の情報を連続したアドレスで割り当て、紙葉類の撮像画像データとして一時的に記憶するとともに、識別部8の各部において取得または算出された各種データを記憶する。   The memory 71 corresponds to the digital signal corresponding to the signal level of the electrical signal output from the transmitted light type optical sensor 73 at a predetermined time interval in a predetermined storage area of the memory 71 in the order of output from the transmitted light type optical sensor 73. The stored digital signal information is assigned with continuous addresses, temporarily stored as captured image data of paper sheets, and various data acquired or calculated by each unit of the identification unit 8 is stored.

テンプレート画像データベース72には、予め真券の紙葉類の種類毎の識別対象画像に対応した標準画像、例えば、所定の大きさの透かし模様を含む透かし領域の画像データが記憶されており、標準画像は、更に所定の大きさの領域の画像(以下、「分割画像(標準)」という。)に分割可能なように分割画像(標準)の位置情報と、各分割画像(標準)の領域の重みを表す重み係数w(q)の情報が付加されて記憶されている。
具体的には、各特徴量に応じた各分割画像(標準)の領域の重み係数w(q)が後述する特徴量重み係数表に記憶され、各分割画像(標準)の位置情報が図示せぬテーブルにそれぞれ記憶されている。
The template image database 72 stores in advance standard images corresponding to identification target images for each type of genuine paper sheets, for example, image data of a watermark region including a watermark pattern of a predetermined size. The image can be further divided into images of a predetermined size area (hereinafter referred to as “divided image (standard)”), and the position information of the divided image (standard) and the area of each divided image (standard). Information of weighting coefficient w (q) representing the weight is added and stored.
Specifically, the weighting factor w (q) of each divided image (standard) region corresponding to each feature amount is stored in a feature amount weighting factor table described later, and the position information of each divided image (standard) is illustrated. Each table is stored.

識別対象画像抽出部74は、透過光型光センサ73で取得した紙葉類の撮像画像から紙葉類の種類及び真偽を識別するための識別対象画像を抽出する。   The identification target image extraction unit 74 extracts an identification target image for identifying the type and authenticity of the paper sheet from the captured image of the paper sheet acquired by the transmitted light type optical sensor 73.

具体的には、透過光型光センサ73から入力された撮像画像とテンプレート画像データベース72に記憶されている紙葉類の種類毎の標準画像とのテンプレートマッチングを行い、撮像画像と最も類似度の大きい標準画像(以下、「特定標準画像」という。)を特定し、特定標準画像と最も類似度の大きい画像領域を識別対象画像として撮像画像から抽出する。   Specifically, template matching is performed between the captured image input from the transmitted light type optical sensor 73 and the standard image for each type of paper sheet stored in the template image database 72, and the highest degree of similarity with the captured image. A large standard image (hereinafter referred to as “specific standard image”) is specified, and an image region having the highest similarity with the specific standard image is extracted from the captured image as an identification target image.

分割画像抽出部75は、識別対象画像抽出部74で抽出された識別対象画像を標準画像の各分割画像の領域に対応した各画像領域に分割する。   The divided image extraction unit 75 divides the identification target image extracted by the identification target image extraction unit 74 into image areas corresponding to the divided image areas of the standard image.

具体的には、識別対象画像を抽出する際に特定した特定標準画像の分割画像(以下、「分割画像(特定標準)」という。)に対応する各画像領域に識別対象画像を分割し、分割した分割画像(以下、「分割画像(識別対象)」という。)を抽出する。   Specifically, the identification target image is divided into each image region corresponding to the divided image of the specific standard image specified when the identification target image is extracted (hereinafter referred to as “divided image (specific standard)”). The divided image (hereinafter referred to as “divided image (identification target)”) is extracted.

傷・汚れ検出部76は、分割画像抽出部75により抽出された識別対象画像の各分割画像(識別対象)と、特定標準画像の各分割画像(特定標準)との差をそれぞれ算出し、算出した差分の差分画像を各分割画像(識別対象)の紙葉類の傷や汚れ、もしくは透過光型光センサに付着する傷および汚れの量として検出する。   The scratch / dirt detection unit 76 calculates the difference between each divided image (identification target) of the identification target image extracted by the divided image extraction unit 75 and each divided image (specific standard) of the specific standard image, and calculates The difference image of the difference is detected as the amount of scratches and dirt on the paper sheets of each divided image (identification target), or scratches and dirt attached to the transmitted light type optical sensor.

重み係数算出部77は、傷・汚れ検出部76で算出した各分割画像(識別対象)に存在する傷および汚れの量に応じた重み係数k(q)を算出する。   The weighting factor calculation unit 77 calculates a weighting factor k (q) corresponding to the amount of scratches and stains present in each divided image (identification target) calculated by the scratch / dirt detection unit 76.

画像マッチング処理部78は、分割画像(識別対象)と分割画像(特定標準)とのパターンマッチングによる相関値r(q)を算出する。   The image matching processing unit 78 calculates a correlation value r (q) by pattern matching between the divided image (identification target) and the divided image (specific standard).

判定処理部89は、画像マッチング処理部78で算出された各分割画像(識別対象)領域の各相関値r(q)と、特徴量に応じた重み係数w(q)と、傷および汚れの量に応じた重み係数k(q)を積算した総和の判定値Rを算出し、判定値Rに基づいて紙葉類の真偽の識別判定を行う。   The determination processing unit 89 has each correlation value r (q) of each divided image (identification target) region calculated by the image matching processing unit 78, a weight coefficient w (q) corresponding to the feature amount, and scratches and dirt. A total judgment value R obtained by integrating the weighting factors k (q) according to the quantity is calculated, and authenticity judgment of the paper sheet is performed based on the judgment value R.

このように構成された識別部8が紙葉類挿入部3に挿入されて搬送されている紙葉類の種類および真偽を識別する処理動作について図3に示すフローチャートを参照しながら簡単に説明する。   The processing operation for identifying the type and authenticity of the paper sheet inserted and conveyed by the discriminating unit 8 configured as described above will be briefly described with reference to the flowchart shown in FIG. To do.

図3に示すように、搬送されている紙葉類が、識別部8の所定の撮像範囲に入ると(ステップS301でYES)、透過光型光センサ73が紙葉類を撮像して撮像画像を取得する(ステップS302)。   As shown in FIG. 3, when the transported paper sheet enters the predetermined imaging range of the identification unit 8 (YES in step S <b> 301), the transmitted light type optical sensor 73 captures the paper sheet and captures the captured image. Is acquired (step S302).

紙葉類の撮像画像が取得されると、識別対象画像抽出部74が撮像画像と、テンプレート画像データベース72に記憶されている紙葉類毎の標準画像とのテンプレートマッチングを行い、撮像画像と最も類似度の大きい標準画像を特定するとともに、特定した標準画像(特定標準画像)と最も類似度の大きい画像領域を撮像画像から識別対象画像として抽出する(ステップS303)。   When the captured image of the paper sheet is acquired, the identification target image extracting unit 74 performs template matching between the captured image and the standard image for each paper sheet stored in the template image database 72, and the most similar to the captured image. A standard image having a high degree of similarity is specified, and an image region having the highest degree of similarity with the specified standard image (specific standard image) is extracted from the captured image as an identification target image (step S303).

抽出された識別対象画像は、分割画像抽出部75に入力され、分割画像抽出部75が識別対象画像を所定の大きさの画像に分割する(ステップS304)。   The extracted identification target image is input to the divided image extraction unit 75, and the divided image extraction unit 75 divides the identification target image into images of a predetermined size (step S304).

具体的には、例えば識別対象画像を特定標準画像の分割画像(特定標準)領域に対応する画像領域に分割し、分割した分割画像(識別対象)を抽出する。   Specifically, for example, the identification target image is divided into image regions corresponding to the divided image (specific standard) region of the specific standard image, and the divided divided image (identification target) is extracted.

識別対象画像から分割され抽出された各分割画像(識別対象)は、傷・汚れ検出部76に入力されて各分割画像(識別対象)内に存在する傷および汚れの量が算出され、重み係数算出部77へ出力される。   Each divided image (identification target) divided and extracted from the identification target image is input to the scratch / dirt detection unit 76 to calculate the amount of scratches and dirt present in each divided image (identification target), and a weighting coefficient. It is output to the calculation unit 77.

重み係数算出部77は、各分割画像(識別対象)内に存在する傷および汚れの量に応じた重み係数k(q)を算出する(ステップS305)。   The weighting factor calculation unit 77 calculates a weighting factor k (q) corresponding to the amount of scratches and dirt present in each divided image (identification target) (step S305).

重み係数算出部77によって各分割画像(識別対象)の傷や汚れの量に応じた重み係数k(q)が算出されると、画像マッチング処理部78が識別対象画像の各分割画像(識別対象)と特定標準画像の各分割画像(特定標準)とのパターンマッチングによる相関値r(q)を算出して判定処理部89へ出力する(ステップS306)。   When the weighting coefficient calculation unit 77 calculates the weighting coefficient k (q) corresponding to the amount of scratches or dirt on each divided image (identification target), the image matching processing unit 78 selects each divided image (identification target) of the identification target image. ) And each of the divided images (specific standard) of the specific standard image, the correlation value r (q) is calculated and output to the determination processing unit 89 (step S306).

判定処理部89は、画像マッチング処理部78から入力された各分割画像の相関値r(q)と、特徴量に応じた重み係数w(q)と、重み係数算出部77で算出された各分割画像(識別対象)の傷や汚れの量に応じた重み係数k(q)を積算した総和の判定値Rを算出する(ステップS307)。   The determination processing unit 89 receives the correlation value r (q) of each divided image input from the image matching processing unit 78, the weighting factor w (q) according to the feature amount, and each of the weighting factor calculation unit 77. A sum total determination value R obtained by integrating weighting factors k (q) corresponding to the amount of scratches and dirt on the divided image (identification target) is calculated (step S307).

判定処理部89は、算出した判定値Rが所定値以上であれば紙葉類を真券と判定し、算出した判定値Rが所定値以上でなければ紙葉類を偽券と判定する。   The determination processing unit 89 determines that the paper sheet is a genuine note if the calculated determination value R is equal to or greater than a predetermined value, and determines that the paper sheet is a false ticket if the calculated determination value R is not equal to or greater than the predetermined value.

判定処理部89が紙葉類を真券と判定した場合は(ステップS308でYES)、紙葉類が真券である旨の信号を出力し(ステップS309)、紙葉類を偽券と判定した場合は(ステップS308でNO)、紙葉類が偽券である旨の信号を出力して(ステップS310)識別部8の処理動作は終了する。   If the determination processing unit 89 determines that the paper sheet is a genuine note (YES in step S308), a signal indicating that the paper sheet is a genuine note is output (step S309), and the paper sheet is determined to be a fake ticket. If so (NO in step S308), a signal indicating that the paper sheet is a fake ticket is output (step S310), and the processing operation of the identification unit 8 ends.

このような処理動作を行う識別部8の本発明に係わる紙葉類識別方法について図4乃至図8を参照しながら詳細に説明する。   A paper sheet identification method according to the present invention of the identification unit 8 that performs such processing operations will be described in detail with reference to FIGS.

図4は、紙葉類の撮像画像20から識別対象画像29を抽出する方法の一例を示した説明図である。   FIG. 4 is an explanatory diagram showing an example of a method for extracting the identification target image 29 from the captured image 20 of the paper sheet.

図4(a)は、透過光型光センサ73により撮像した紙葉類の撮像画像20の一例を示す図であり、図4(b)は、標準画像24の一例を示す図、図4(c)は、図4(a)に示した撮像画像20と図4(b)に示した標準画像24とのテンプレートマッチングの動作を示す図、図4(d)は、図4(c)に示したテンプレートマッチングによる撮像画像20と標準画像24との相関値のグラフを示す図、図4(e)は、撮像画像20から抽出された識別対象画像29の一例を示す図である。   4A is a diagram illustrating an example of a captured image 20 of a paper sheet captured by the transmitted light type optical sensor 73, and FIG. 4B is a diagram illustrating an example of the standard image 24. FIG. FIG. 4C shows a template matching operation between the captured image 20 shown in FIG. 4A and the standard image 24 shown in FIG. 4B, and FIG. 4D is shown in FIG. FIG. 4E is a diagram showing a graph of correlation values between the captured image 20 and the standard image 24 by the template matching shown, and FIG. 4E is a diagram showing an example of the identification target image 29 extracted from the captured image 20.

図4(a)に示すように、透過光型光センサ73によって撮像された紙葉類の撮像画像20は、例えば、大きさがL×Lのf(i、j)の各画素で構成されており、撮像画像20には、透かし領域21と透かし領域以外の通常領域22が存在し、透かし領域21内には人物の透かし模様23が存在する。   As shown in FIG. 4A, the captured image 20 of the paper sheet imaged by the transmitted light type optical sensor 73 is composed of, for example, each pixel of f (i, j) having a size of L × L. The captured image 20 includes a watermark area 21 and a normal area 22 other than the watermark area, and a watermark pattern 23 of a person exists in the watermark area 21.

また、撮像画像20には紙葉類の傷および汚れ25が存在している。   Further, the picked-up image 20 has a paper sheet scratch and a stain 25.

なお、f(i、j)においてi=0、1、2、・・・、L−1、j=0、1、2、・・・、L−1である。   Note that i = 0, 1, 2,..., L-1, j = 0, 1, 2,..., L-1 at f (i, j).

また、受光素子732が受光する際の受光量は、受光素子732が紙葉類を透過した透過光を受光するため、一般に、透かし領域21を透過する受光量は、通常領域22を透過する受光量より多く、透かし模様23を透過する受光量は透かし領域21の受光量より少なく、通常領域22を透過する受光量は透かし模様23の受光量より少ない。   In addition, the amount of light received when the light receiving element 732 receives light is such that the light receiving element 732 receives the transmitted light that has passed through the paper sheet. Therefore, in general, the amount of light received through the watermark region 21 is the light received through the normal region 22. The amount of light received through the watermark pattern 23 is smaller than the amount of light received by the watermark region 21, and the amount of light received through the normal region 22 is smaller than the amount of light received by the watermark pattern 23.

また、傷および汚れ25は、傷や汚れの程度によって傷および汚れ25を透過する受光量が異なる。   Further, the amount of light received through the scratches and dirt 25 differs depending on the degree of the scratches and dirt.

テンプレート画像データベース72には、予め真券の紙葉類を撮像して取得した、例えば、図4(b)に示すような大きさがM×Nのt(i、j)の各画素で構成された標準画像24が記憶されている。   The template image database 72 is made up of pixels of t (i, j) having a size of M × N as shown in FIG. The standard image 24 is stored.

なお、t(i、j)において、i=0、1、2、・・・、M−1、j=0、1、2、・・・、N−1である。   Note that at t (i, j), i = 0, 1, 2,..., M−1, j = 0, 1, 2,.

撮像画像20から識別対象画像29を抽出する方法は、例えば撮像画像20と標準画像24とのテンプレートマッチングを行い、標準画像24と撮像画像20との相関値に基づいて判定する。   As a method for extracting the identification target image 29 from the captured image 20, for example, template matching between the captured image 20 and the standard image 24 is performed, and determination is performed based on a correlation value between the standard image 24 and the captured image 20.

例えば、図4(c)に示すように、撮像画像20に標準画像24を重ねながら標準画像24を撮像画像20内で移動させ、撮像画像20の標準画像24を重ねた部分画像(破線で示した図)と標準画像24とのパターンマッチングを行い、各部分画像と標準画像24との各相関値を算出する。   For example, as shown in FIG. 4C, the standard image 24 is moved in the captured image 20 while the standard image 24 is superimposed on the captured image 20, and the partial image (indicated by a broken line) of the captured image 20 is superimposed. The pattern matching between the standard image 24 and the standard image 24 is performed, and the correlation values between the partial images and the standard image 24 are calculated.

具体的には、撮像画像20から標準画像24と同サイズ(同画素数、例えばM×N)の部分画像を、例えば撮像画像20上の部分画像の左上の画素に対応する位置を始点(u、v)とし、始点(u、v)の位置に対応した部分画像の各画素f(u+i、v+j)を撮像画像20から抽出し、抽出した部分画像の各画素f(u+i、v+j)と標準画像24の各画素t(i、j)とのパターンマッチングによる相関値ZR(u、v)を算出する。   Specifically, a partial image having the same size (the same number of pixels, for example, M × N) as the standard image 24 from the captured image 20, for example, a position corresponding to the upper left pixel of the partial image on the captured image 20 is started (u V), each pixel f (u + i, v + j) of the partial image corresponding to the position of the start point (u, v) is extracted from the captured image 20, and each pixel f (u + i, v + j) of the extracted partial image is standard. A correlation value ZR (u, v) is calculated by pattern matching with each pixel t (i, j) of the image 24.

そして始点(u、v)の位置を撮像画像20内で図中の矢印40、41の方向へ順次移動させながら各始点(u、v)の位置における部分画像の各画素f(u+i、v+j)と標準画像24の各画素t(i、j)とのパターンマッチングによる各相関値ZR(u、v)を算出するようなテンプレートマッチングを行う。   Each pixel f (u + i, v + j) of the partial image at the position of each start point (u, v) while sequentially moving the position of the start point (u, v) in the direction of the arrows 40, 41 in the captured image 20 Template matching is performed to calculate each correlation value ZR (u, v) by pattern matching between the pixel t (i, j) and the standard image 24.

なお、撮像画像20内での部分画像の各画素f(u+i、v+j)の始点(u、v)の移動方向は、特に限定されるものではない。   The moving direction of the start point (u, v) of each pixel f (u + i, v + j) of the partial image in the captured image 20 is not particularly limited.

部分画像f(u+i、v+j)と標準画像24とのパターンマッチングによる相関値ZR(u、v)の算出は、例えば次の式1で示されるような正規化相関値として算出することができる。   The correlation value ZR (u, v) by pattern matching between the partial image f (u + i, v + j) and the standard image 24 can be calculated as a normalized correlation value as shown by the following equation 1, for example.

Figure 2005322139
Figure 2005322139

なお、上の式1において、ZR(u、v)は撮像画像20内の部分画像と標準画像24との相関値、f(u+i、v+j)は始点(u、v)の移動に伴う部分画像の各画素値、f’は部分画像の画素の平均値、t(i、j)は標準画像24の各画素値、t’は標準画像24の画素の平均値をそれぞれ示している。   In Equation 1 above, ZR (u, v) is a correlation value between the partial image in the captured image 20 and the standard image 24, and f (u + i, v + j) is a partial image accompanying the movement of the start point (u, v). , F ′ is the average value of the pixels of the partial image, t (i, j) is the value of each pixel of the standard image 24, and t ′ is the average value of the pixels of the standard image 24.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

上の式1で算出された始点(u、v)の位置に対応した撮像画像20内の部分画像f(u+i、v+j)と標準画像24との正規化相関値ZR(u、v)の算出結果は、例えば図4(d)に示すような曲線グラフ26として得ることができる。   Calculation of the normalized correlation value ZR (u, v) between the partial image f (u + i, v + j) in the captured image 20 corresponding to the position of the start point (u, v) calculated by Equation 1 above and the standard image 24 The result can be obtained as a curve graph 26 as shown in FIG.

図4(d)に示すように、曲線グラフ26の横軸は、撮像画像20から抽出された部分画像f(u+i、v+j)の始点(u、v)の位置情報を示し、縦軸は、始点(u、v)の位置に対応した部分画像f(u+i、v+j)と標準画像24との正規化相関値ZR(u、v)の各値を示している。   As shown in FIG. 4D, the horizontal axis of the curve graph 26 indicates the position information of the start point (u, v) of the partial image f (u + i, v + j) extracted from the captured image 20, and the vertical axis Each value of the normalized correlation value ZR (u, v) between the partial image f (u + i, v + j) corresponding to the position of the start point (u, v) and the standard image 24 is shown.

なお、曲線グラフ26で示されるような部分画像f(u+i、v+j)と標準画像24との相関値ZR(u、v)の各データは、例えば部分画像f(u+i、v+j)の始点位置(u、v)に対応して相関値ZR(u、v)の値を格納してメモリ71に記憶される。   Each data of the correlation value ZR (u, v) between the partial image f (u + i, v + j) and the standard image 24 as shown by the curve graph 26 is, for example, the starting point position of the partial image f (u + i, v + j) ( Correlation values ZR (u, v) corresponding to u, v) are stored and stored in the memory 71.

曲線グラフ26において、曲線グラフ26の頂点D、すなわち、相関値ZR(u、v)が最大の時は、部分画像f(u+i、v+j)と標準画像24との類似度が最も大きいことを示しており、相関値ZR(u、v)の値が小さい時は、類似度が小さいことを示している。   In the curve graph 26, when the vertex D of the curve graph 26, that is, the correlation value ZR (u, v) is the maximum, the similarity between the partial image f (u + i, v + j) and the standard image 24 is the highest. When the correlation value ZR (u, v) is small, it indicates that the degree of similarity is small.

このことから、撮像画像20の部分画像f(u+i、v+j)の始点(u、v)を撮像画像20内で順次移動させながら部分画像f(u+i、v+j)と標準画像24とのパターンマッチングを行い、この二つの画像データの相関値ZR(u、v)を算出して逐次記憶し、算出した相関値ZR(u、v)が最大値の時の部分画像f(u+i、v+j)を標準画像24に最も類似する画像であると判断し、この部分画像f(u+i、v+j)を紙葉類の識別対象画像として撮像画像20から抽出する。   Therefore, pattern matching between the partial image f (u + i, v + j) and the standard image 24 is performed while sequentially moving the start points (u, v) of the partial image f (u + i, v + j) of the captured image 20 within the captured image 20. The correlation value ZR (u, v) of the two image data is calculated and stored sequentially, and the partial image f (u + i, v + j) when the calculated correlation value ZR (u, v) is the maximum value is standard. It is determined that the image is most similar to the image 24, and the partial image f (u + i, v + j) is extracted from the captured image 20 as a paper sheet identification target image.

このような処理動作を行うことにより図4(e)に示すような識別対象画像29が撮像画像20から抽出されメモリ71に一時記憶される。   By performing such processing operation, an identification target image 29 as shown in FIG. 4E is extracted from the captured image 20 and temporarily stored in the memory 71.

なお、撮像画像20と標準画像24とのテンプレートマッチングを行うに先立って、撮像画像20と標準画像24との各画像に対応した紙葉類の正逆、表裏の各挿入方向が同一となるように撮像画像20もしくは標準画像24が回転補正等の処理が施されているものとする。   Prior to performing template matching between the captured image 20 and the standard image 24, the normal and reverse of the paper sheets corresponding to the images of the captured image 20 and the standard image 24 and the insertion directions of the front and back sides are the same. Assume that the captured image 20 or the standard image 24 has been subjected to processing such as rotation correction.

また、撮像画像20の部分画像f(u+i、v+j)と標準画像24とのパターンマッチングによって算出した相関値ZR(u、v)を逐次記憶し、相関値ZR(u、v)が最大値となった時の部分画像f(u+i、v+j)を標準画像24に最も類似する画像として判断し、この部分画像f(u+i、v+j)の画像領域を識別対象画像として撮像画像20から抽出するとともに、これ以降のパターンマッチングを行わないようにしてもよい。   The correlation value ZR (u, v) calculated by pattern matching between the partial image f (u + i, v + j) of the captured image 20 and the standard image 24 is sequentially stored, and the correlation value ZR (u, v) is the maximum value. The partial image f (u + i, v + j) is determined as the image most similar to the standard image 24, and the image area of the partial image f (u + i, v + j) is extracted from the captured image 20 as an identification target image. Subsequent pattern matching may not be performed.

図4(e)に示すような識別対象画像29が撮像画像20から抽出されると、抽出した識別対象画像29を所定の大きさの画像領域に分割する。   When the identification target image 29 as shown in FIG. 4E is extracted from the captured image 20, the extracted identification target image 29 is divided into image areas of a predetermined size.

識別対象画像29を所定の大きさの画像領域に分割する方法は、例えば、撮像画像20から識別対象画像29を抽出する際に特定された特定標準画像の各分割画像の位置情報に基づいて分割する。   The method of dividing the identification target image 29 into image areas of a predetermined size is, for example, divided based on the position information of each divided image of the specific standard image specified when the identification target image 29 is extracted from the captured image 20. To do.

図5は、テンプレート画像データベース72に記憶された標準画像の一例を示した図である。   FIG. 5 is a diagram showing an example of a standard image stored in the template image database 72.

図5において、図5(a)は、紙葉類毎の各標準画像のうちの特定標準画像51の一例を示す図であり、図5(b)は、特定標準画像51の各分割画像領域の特徴量に応じた重みを表す重み係数をテーブル化した特徴量重み係数表52の一例を示す図である。   5A is a diagram illustrating an example of the specific standard image 51 among the standard images for each paper sheet, and FIG. 5B is a diagram illustrating each divided image region of the specific standard image 51. It is a figure which shows an example of the feature-value weight coefficient table 52 which tabulated the weight coefficient showing the weight according to the feature-value.

図5(a)に示すように、特定標準画像51は、人物の透かし模様23を含む透かし領域の画像が所定の大きさの画像領域の分割画像(特定標準)tf(q)に分割可能なように各分割画像(特定標準)tf(q)の画像領域の位置情報が付加され、各分割画像(特定標準)tf(q)の画像領域の特徴量に応じた重みを示す重み係数w(q)が 図5(b)に示すような特徴量重み係数表52に設定されている。   As shown in FIG. 5A, in the specific standard image 51, the image of the watermark area including the person's watermark pattern 23 can be divided into divided images (specific standard) tf (q) of an image area of a predetermined size. As described above, the position information of the image area of each divided image (specific standard) tf (q) is added, and the weighting coefficient w () indicating the weight according to the feature amount of the image area of each divided image (specific standard) tf (q). q) is set in the feature amount weighting coefficient table 52 as shown in FIG.

なお、tf(q)及びw(q)のqは、具体的には特定標準画像51内の分割画像(特定標準)tf(q)の画像領域の数を示している。   Note that q in tf (q) and w (q) specifically indicates the number of image areas of the divided image (specific standard) tf (q) in the specific standard image 51.

図5(b)に示した特徴量重み係数表52は、左欄に図5(a)に示した特定標準画像51の各分割画像(特定標準)tf(q)の画像領域を示す情報が設定され、右欄に左欄の各分割画像(特定標準)tf(q)の画像領域に対応した重み係数w(q)の値が特定可能なように設定されている。   In the feature amount weighting coefficient table 52 shown in FIG. 5B, information indicating the image area of each divided image (specific standard) tf (q) of the specific standard image 51 shown in FIG. The right column is set so that the value of the weight coefficient w (q) corresponding to the image area of each divided image (specific standard) tf (q) in the left column can be specified.

各分割画像(特定標準)tf(q)の画像領域の重みを示す重み係数w(q)の設定値は、特徴量が大きい分割画像(特定標準)tf(q)の画像領域には重みを大きくするような重み係数w(q)の値が設定され、特徴量が小さい分割画像(特定標準)tf(q)の画像領域には重みを小さくするような重み係数w(q)の値が設定されている。   The set value of the weight coefficient w (q) indicating the weight of the image area of each divided image (specific standard) tf (q) is weighted to the image area of the divided image (specific standard) tf (q) having a large feature amount. The value of the weighting factor w (q) is set so that the weighting factor w (q) is set to be large, and the image area of the divided image (specific standard) tf (q) having a small feature amount is set to have a small weighting value. Is set.

具体的には、例えば、予め紙葉類毎の標準画像を所定の大きさに分割した分割画像領域の特徴量を算出し、形状や濃度、階調差、コントラスト差等の特徴量が大きい画像領域には、重みが大きくなるように重み係数w(q)の値を設定し、特徴量が小さい画像領域には、重みが小さくなるように重み係数w(q)の値を設定する。   Specifically, for example, a feature amount of a divided image area obtained by dividing a standard image for each paper sheet into a predetermined size is calculated in advance, and an image having a large feature amount such as shape, density, gradation difference, contrast difference, and the like. The value of the weighting factor w (q) is set so as to increase the weight in the region, and the value of the weighting factor w (q) is set so as to decrease the weight in the image region having a small feature amount.

このように、テンプレート画像データベース72には、各紙葉類毎の標準画像と、標準画像の各分割画像(標準)の位置情報と、各分割画像(標準)の重み係数w(q)の情報が記憶されており、識別対象画像29を所定の大きさの画像領域に分割する場合は、図5(a)に示したような特定標準画像51の各分割画像(特定標準)tf(q)の位置情報に基づいて識別対象画像29を所定の大きさの領域の画像に分割する。   As described above, the template image database 72 includes the standard image for each sheet, the position information of each divided image (standard) of the standard image, and the information on the weight coefficient w (q) of each divided image (standard). When the identification target image 29 is stored and divided into image areas of a predetermined size, each divided image (specific standard) tf (q) of the specific standard image 51 as shown in FIG. Based on the position information, the identification target image 29 is divided into images of a predetermined size area.

図6は、特定標準画像51の各分割画像(特定標準)tf(q)の位置情報に基づいて識別対象画像29を所定の大きさの領域の画像に分割する方法の一例を示す図である。   FIG. 6 is a diagram illustrating an example of a method of dividing the identification target image 29 into an image having a predetermined size based on position information of each divided image (specific standard) tf (q) of the specific standard image 51. .

図6において、図6(a)は、識別対象画像29を示す図であり、図6(b)は、特定標準画像51の各分割画像(特定標準)を示す図、図6(c)は、特定標準画像51の各分割画像(特定標準)に対応した識別対象画像29の各分割画像(識別対象)を示す図である。   6A is a diagram showing the identification target image 29, FIG. 6B is a diagram showing each divided image (specific standard) of the specific standard image 51, and FIG. It is a figure which shows each division image (identification object) of the identification target image 29 corresponding to each division image (specific standard) of the specific standard image 51. FIG.

図6(a)に示すように、識別対象画像29を特定標準画像51の各分割画像(特定標準)に対応して分割する場合は、図6(b)に示した特定標準画像51の各分割画像(特定標準)tf(q)の画像領域の位置情報に基づき特定標準画像51の各分割画像(特定標準)tf(q)の画像領域を図6(a)に示した識別対象画像29に対応付けて分割することで図6(c)に示すような特定標準画像51の各分割画像(特定標準)tf(q)に対応した識別対象画像29の各分割画像(識別対象)f(q)に分割される。   As shown in FIG. 6A, when the identification target image 29 is divided corresponding to each divided image (specific standard) of the specific standard image 51, each of the specific standard images 51 shown in FIG. Based on the positional information of the image area of the divided image (specific standard) tf (q), the image area of each divided image (specific standard) tf (q) of the specific standard image 51 is shown in FIG. Is divided in correspondence with each divided image (identification target) f (identification target) f () of the identification target image 29 corresponding to each divided image (specific standard) tf (q) of the specific standard image 51 as shown in FIG. q).

なお、特定標準画像51の分割画像(特定標準)tf(1)、tf(2)、tf(3)等に対応する識別対象画像29の各分割画像(識別対象)は、それぞれf(1)、f(2)、f(3)等である。   Each divided image (identification target) of the identification target image 29 corresponding to the divided image (specific standard) tf (1), tf (2), tf (3), etc. of the specific standard image 51 is f (1). , F (2), f (3), and the like.

このような方法で識別対象画像29を各分割画像(識別対象)f(q)に分割するが、紙葉類に傷や汚れ等が付着している場合、または透過光型光センサ73に汚れや傷等が付着している場合等、紙葉類を撮像する際に、当該傷や汚れ等が発光素子731からの光を遮ることで受光素子732により取得した紙葉類の撮像画像に傷や汚れによる不要な画像が含まれる場合がある。   The identification target image 29 is divided into each divided image (identification target) f (q) by such a method. When the paper sheet is scratched or dirty, or the transmitted light photosensor 73 is stained. When a paper sheet is imaged such as when there is a flaw or a flaw attached, the image of the paper sheet acquired by the light receiving element 732 is damaged by the light from the light emitting element 731 due to the scratch or dirt. In some cases, an unnecessary image due to dirt or dirt is included.

特に、紙葉類の透かし領域21内に傷および汚れが付着している場合、または透かし領域21内の透過光を遮ってしまうような透過光型光センサ73の位置に傷および汚れが付着している場合は、図6(c)に示すような傷および汚れ25を示す画像が識別対象画像29の分割画像(識別対象)f(q)に存在する場合がある。   In particular, when scratches and dirt are attached in the watermark area 21 of the paper sheet, or scratches and dirt are attached to the position of the transmitted light type optical sensor 73 that blocks the transmitted light in the watermark area 21. In such a case, an image showing the scratches and dirt 25 as shown in FIG. 6C may exist in the divided image (identification target) f (q) of the identification target image 29.

そこで、識別対象画像29の各分割画像(識別対象)f(q)の傷や汚れ等を示す画像25の量に応じた重み係数k(q)を算出し、算出した重み係数k(q)を各分割画像(識別対象)f(q)の画像領域の重みとして重み付けを行うことで、紙葉類のしわや傷、汚れ等の影響を除去し、より安定した紙葉類の識別を行うことができる。   Therefore, a weighting coefficient k (q) corresponding to the amount of the image 25 indicating scratches, dirt, etc. of each divided image (identification target) f (q) of the identification target image 29 is calculated, and the calculated weighting coefficient k (q) Is weighted as the weight of the image area of each divided image (identification target) f (q), thereby removing the influence of wrinkles, scratches, dirt, etc. of the paper sheet, and identifying the paper sheet more stably. be able to.

図7及び図8は、識別対象画像29の各分割画像(識別対象)f(q)の傷や汚れの量に応じた重み係数k(q)を算出する方法の一例を示す説明図である。   7 and 8 are explanatory diagrams illustrating an example of a method for calculating the weighting coefficient k (q) corresponding to the amount of scratches and dirt on each divided image (identification target) f (q) of the identification target image 29. FIG. .

図7において、図7(a)、(d)は、図6(b)で示した特定標準画像51の分割画像(特定標準)tf(15)、tf(16)等の一例を示す図であり、図7(b)、(e)は、図6(c)で示した識別対象画像29の分割画像(識別対象)f(15)、f(16)等の一例を示す図、図7(c)、(f)は、特定標準画像51の各分割画像(特定標準)tf(15)、tf(16)等と識別対象画像29の各分割画像(識別対象)f(16)、f(15)等との差による識別対象画像29の各分割画像(識別対象)f(15)、f(16)等の傷や汚れの量を算出した差分画像d(15)、d(16)を示す図である。   7A and 7D are diagrams showing examples of the divided images (specific standard) tf (15), tf (16), etc. of the specific standard image 51 shown in FIG. 6B. 7B and 7E are diagrams showing examples of the divided images (identification objects) f (15) and f (16) of the identification object image 29 shown in FIG. 6C. (C) and (f) are the divided images (specific standard) tf (15) and tf (16) of the specific standard image 51 and the divided images (identification target) f (16) and f of the identification target image 29, respectively. (15) Difference images d (15), d (16) obtained by calculating the amount of scratches and dirt on the divided images (identification targets) f (15), f (16), etc. FIG.

図7(b)に示すように、識別対象画像29の分割画像(識別対象)f(15)のように傷や汚れに対応した画像が存在しない場合は、分割画像(識別対象)f(15)と特定標準画像51の分割画像(特定標準)tf(15)との差を算出すると、図7(c)に示すような全画素の画素値が例えば「0」となるような差分画像d(15)が算出される。   As shown in FIG. 7B, when there is no image corresponding to scratches or dirt like the divided image (identification target) f (15) of the identification target image 29, the divided image (identification target) f (15 ) And the divided image (specific standard) tf (15) of the specific standard image 51, the difference image d such that the pixel values of all the pixels are, for example, “0” as shown in FIG. (15) is calculated.

すなわち、特定標準画像51の分割画像(特定標準)tf(15)と識別対象画像29の分割画像(識別対象)f(15)との差分による差分画像d(15)の全画素の画素値が「0」の場合は、識別対象画像29の分割画像(識別対象)f(15)が傷や汚れがない画像であると判断することができる。   That is, the pixel values of all the pixels of the difference image d (15) based on the difference between the divided image (specific standard) tf (15) of the specific standard image 51 and the divided image (identification target) f (15) of the identification target image 29 are obtained. In the case of “0”, it can be determined that the divided image (identification target) f (15) of the identification target image 29 is an image having no scratch or dirt.

同様に、図7(e)に示すように、識別対象画像29の分割画像(識別対象)f(16)のように傷や汚れの画像25が存在する場合は、特定標準画像51の分割画像(特定標準)tf(16)と識別対象画像29の分割画像f(16)との差d(16)を算出すると、図7(f)に示すような識別対象画像29の分割画像(識別対象)f(16)の傷および汚れ25の量を示す差分画像d(16)が算出される。   Similarly, as shown in FIG. 7E, when there is an image 25 of scratches or dirt like the divided image (identification target) f (16) of the identification target image 29, the divided image of the specific standard image 51 When the difference d (16) between the (specific standard) tf (16) and the divided image f (16) of the identification target image 29 is calculated, the divided image (identification target) of the identification target image 29 as shown in FIG. ) A difference image d (16) indicating the amount of f (16) scratches and dirt 25 is calculated.

このような方法で識別対象画像29の各分割画像(識別対象)f(q)と特定標準画像51の各分割画像(特定標準)tf(q)との差を算出することにより、識別対象画像29の各分割画像(識別対象)f(q)の傷および汚れの量を示す差分画像d(q)を算出することができる。   By calculating the difference between each divided image (identification target) f (q) of the identification target image 29 and each divided image (specific standard) tf (q) of the specific standard image 51 by such a method, the identification target image 29 A difference image d (q) indicating the amount of scratches and dirt on each of the 29 divided images (identification targets) f (q) can be calculated.

なお、特定標準画像51の各分割画像(特定標準)tf(q)と識別対象画像29の各分割画像(識別対象)f(q)との差による傷や汚れの量d(q)の算出は、例えば次の式2で算出することができる。   Note that the amount d (q) of scratches and dirt due to the difference between each divided image (specific standard) tf (q) of the specific standard image 51 and each divided image (identification target) f (q) of the identification target image 29 is calculated. Can be calculated by, for example, the following Equation 2.

Figure 2005322139
Figure 2005322139

なお、上の式2は、各分割画像tf(q)、f(q)の画像の大きさを例えばm×nとした場合において、qは、各分割画像tf(q)、f(q)の数、d(q)は特定標準画像51の各分割画像(特定標準)tf(q)と識別対象画像29の各分割画像(識別対象)f(q)との差、tf(q)(i、j)は分割画像(特定標準)tf(q)の各画素値、tf(q)’は分割画像(特定標準)tf(q)の画素の平均値、f(q)(i、j)は分割画像(識別対象)f(q)の各画素値、f(q)’は分割画像(識別対象)f(q)の画素の平均値をそれぞれ示している。   In the above equation 2, when the size of each divided image tf (q), f (q) is, for example, m × n, q is each divided image tf (q), f (q). D (q) is the difference between each divided image (specific standard) tf (q) of the specific standard image 51 and each divided image (identification target) f (q) of the identification target image 29, tf (q) ( i, j) is the pixel value of the divided image (specific standard) tf (q), tf (q) ′ is the average value of the pixels of the divided image (specific standard) tf (q), and f (q) (i, j ) Represents each pixel value of the divided image (identification target) f (q), and f (q) ′ represents the average value of the pixels of the divided image (identification target) f (q).

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

このように、識別対象画像29の各分割画像(識別対象)f(q)と特定標準画像51の各分割画像(特定標準)tf(q)との差分による識別対象画像29の各分割画像f(q)の汚れや傷の量d(q)が算出されると、識別対象画像29の各分割画像(識別対象)f(q)の汚れや傷の量d(q)の値に応じた重み係数k(q)を算出する。   In this way, each divided image f of the identification target image 29 based on the difference between each divided image (identification target) f (q) of the identification target image 29 and each divided image (specific standard) tf (q) of the specific standard image 51. When the amount d (q) of dirt and scratches of (q) is calculated, it corresponds to the value of the amount of dirt and scratches d (q) of each divided image (identification target) f (q) of the identification target image 29. A weight coefficient k (q) is calculated.

識別対象画像29の各分割画像(識別対象)f(q)の汚れや傷の量d(q)に応じた重み係数k(q)は、図8に示すような傷汚量重み係数表53を参照して決定する。   The weight coefficient k (q) corresponding to the amount of dirt or scratches d (q) of each divided image (identification target) f (q) of the identification target image 29 is a scratch / stain amount weight coefficient table 53 as shown in FIG. To determine.

図8は、傷汚量重み係数表53の一例を示す図であり、傷汚量重み係数表53は、左欄に識別対象画像29の各分割画像(識別対象)f(q)の傷や汚れの量d(q)の値の範囲が設定され、右欄に左欄の傷や汚れの量d(q)に対応した重み係数k(q)の値が特定可能なように設定されている。   FIG. 8 is a diagram showing an example of the fouling amount weighting coefficient table 53. The fouling amount weighting coefficient table 53 shows the flaws of each divided image (identification target) f (q) of the identification target image 29 in the left column. The value range of the amount of dirt d (q) is set, and the right column is set so that the value of the weight coefficient k (q) corresponding to the amount of scratches and dirt d (q) in the left column can be specified. Yes.

例えば、算出した識別対象画像29の分割画像(識別対象)f(q)の傷や汚れの量d(q)の値がa(0)からa(1)の範囲であれば重み係数k(1)、傷や汚れの量d(q)の値がa(1)からa(2)の範囲であれば重み係数k(2)等と特定可能なようにテーブル化された構成となっている。   For example, if the calculated value d (q) of the flaws or dirt on the divided image (identification target) f (q) of the identification target image 29 is in the range from a (0) to a (1), the weighting factor k ( 1) When the value of the amount d (q) of scratches and dirt is in the range of a (1) to a (2), the table is structured so as to be specified as the weighting coefficient k (2) or the like. Yes.

なお、傷や汚れの量d(q)に応じた重み係数k(q)の設定値は、具体的には、分割画像(識別対象)f(q)の傷や汚れの量d(q)が大きい分割画像(識別対象)f(q)には重みを小さく設定し、傷や汚れの量d(q)の値が小さい分割画像(識別対象)f(q)には重みを大きく設定するように重み係数k(q)の値が設定されている。   Note that the set value of the weighting coefficient k (q) corresponding to the amount d (q) of scratches and dirt is specifically the amount d (q) of scratches and dirt of the divided image (identification target) f (q). A small weight is set for a divided image (identification target) f (q) having a large value, and a large weight is set for a divided image (identification target) f (q) having a small amount of scratches or dirt d (q). Thus, the value of the weighting factor k (q) is set.

識別対象画像29の各分割画像(識別対象)f(q)の傷や汚れの量d(q)に応じた重み係数k(q)が算出されると、識別対象画像29の各分割画像(識別対象)f(q)と特定標準画像51の各分割画像(特定標準)tf(q)とのパターンマッチングによる各相関値r(q)を算出し、算出した各分割画像(識別対象)f(q)の相関値r(q)と、重み係数w(q)と、重み係数k(q)を積算した総和の判定値Rを算出する。   When the weighting coefficient k (q) corresponding to the amount d (q) of scratches and dirt on each divided image (identification target) f (q) of the identification target image 29 is calculated, each divided image ( Each correlation value r (q) by pattern matching between the identification target) f (q) and each divided image (specific standard) tf (q) of the specific standard image 51 is calculated, and each calculated divided image (identification target) f The sum determination value R obtained by integrating the correlation value r (q) of (q), the weight coefficient w (q), and the weight coefficient k (q) is calculated.

識別対象画像29の各分割画像(識別対象)f(q)と特定標準画像の各分割画像(特定標準)tf(q)とのパターンマッチングによる相関値r(q)の算出方法は、例えば次の式3で算出することができる。   The correlation value r (q) is calculated by pattern matching between each divided image (identification target) f (q) of the identification target image 29 and each divided image (specific standard) tf (q) of the specific standard image. It can be calculated by the following formula 3.

Figure 2005322139
Figure 2005322139

なお、上の式3は、各分割画像tf(q)及びf(q)の画像の大きさを例えばm×nとした場合において、qが各分割画像tf(q)及びf(q)の数、r(q)が識別対象画像29の各分割画像(識別対象)f(q)と特定標準画像51の各分割画像(特定標準)tf(q)との相関値、f(q)(i、j)が識別対象画像29の各分割画像(識別対象)f(q)の各画素値、f(q)’が識別対象画像29の各分割画像(識別対象)f(q)の画素の平均値、tf(q)(i、j)が特定標準画像51の各分割画像(特定標準)tf(q)の各画素値、tf(q)’が特定標準画像51の各分割画像(特定標準)tf(q)の画素の平均値をそれぞれ示している。   Note that, when the size of the images of the divided images tf (q) and f (q) is, for example, m × n, q is the value of q of each of the divided images tf (q) and f (q). R (q) is a correlation value between each divided image (identification target) f (q) of the identification target image 29 and each divided image (specific standard) tf (q) of the specific standard image 51, f (q) ( i, j) is a pixel value of each divided image (identification target) f (q) of the identification target image 29, and f (q) ′ is a pixel of each divided image (identification target) f (q) of the identification target image 29. , Tf (q) (i, j) is the pixel value of each divided image (specific standard) tf (q) of the specific standard image 51, and tf (q) ′ is each divided image of the specific standard image 51 ( The average value of the pixels of (specific standard) tf (q) is shown.

また、画素値は、例えば各画像を構成している各画素の濃度値等の値が用いられる。   Further, as the pixel value, for example, a value such as a density value of each pixel constituting each image is used.

判定値Rの算出は、例えば次の式4で算出することができる。   The determination value R can be calculated by, for example, the following expression 4.

Figure 2005322139
Figure 2005322139

なお、上の式4は、各分割画像tf(q)及びf(q)の数がn個存在する場合において、Rが判定値、r(q)が識別対象画像の各分割画像(識別対象)f(q)と特定標準画像の各分割画像(特定標準)tf(q)との相関値、w(q)が識別対象画像の各分割画像(識別対象)f(q)の重み係数、k(q)が識別対象画像の各分割画像(識別対象)f(q)の傷や汚れの量d(q)に応じた重み係数をそれぞれ示している。   In the above equation 4, when there are n divided images tf (q) and f (q), R is a determination value, and r (q) is each divided image (identification target) of the identification target image. ) The correlation value between f (q) and each divided image (specific standard) tf (q) of the specific standard image, w (q) is a weighting coefficient of each divided image (identification target) f (q) of the identification target image, k (q) represents a weighting factor corresponding to the amount d (q) of scratches and dirt on each divided image (identification target) f (q) of the identification target image.

このように算出された判定値Rに基づいて、例えば判定値Rが所定値以上の値であれば紙葉類を真券と判定し、判定値Rが所定値以上の値でなければ紙葉類を偽券と判定して各判定結果に応じた信号が識別部8から制御部2へ出力される。   Based on the determination value R calculated in this way, for example, if the determination value R is a value equal to or greater than a predetermined value, the paper sheet is determined to be a genuine note, and if the determination value R is not equal to or greater than the predetermined value, the paper sheet is determined. The class is determined to be a fake ticket, and a signal corresponding to each determination result is output from the identification unit 8 to the control unit 2.

制御部2は、識別部8から入力された判定結果に基づいて、例えば紙葉類が真券である旨の信号が入力された場合は、駆動部6に命令指示して紙葉類を紙葉類受入部5に搬送させ、紙葉類を偽券である旨の信号が入力された場合は、駆動部6に命令指示して紙葉類を紙葉類挿入部3に返却するような処理を行う。   For example, when a signal indicating that the paper sheet is a genuine note is input based on the determination result input from the identification unit 8, the control unit 2 instructs the driving unit 6 to instruct the paper sheet to be printed on the paper sheet. When a signal indicating that the paper sheet is a fake ticket is input to the leaf receiving unit 5, an instruction is given to the driving unit 6 to return the paper sheet to the paper sheet inserting unit 3. Process.

以上説明したように、紙葉類の撮像画像と標準画像との相関値に基づいて紙葉類の識別対象画像を効率良く抽出し、識別対象画像の特徴のある領域に重みをおくことで紙葉類のしわや傷、汚れおよび模様のずれ等による誤識別を防止し、より識別精度を向上させることが可能となる。   As described above, the paper sheet identification target image is efficiently extracted based on the correlation value between the captured image of the paper sheet and the standard image, and the characteristic area of the classification target image is weighted. It is possible to prevent erroneous identification due to leaf wrinkles, scratches, dirt, pattern displacement, and the like, and to further improve identification accuracy.

なお、識別部8が行う識別方法の説明において、標準画像及び識別対象画像を矩形状で所定の大きさの領域の画像に等分割する例を示したが、標準画像及び識別対象画像を分割するに際し、分割領域の大きさや形状及び分割方法等は、矩形状で所定の大きさの領域の画像に等分割することに限定するものではない。   In the description of the identification method performed by the identification unit 8, an example in which the standard image and the identification target image are equally divided into rectangular images having a predetermined size has been described. However, the standard image and the identification target image are divided. At this time, the size, shape, division method, and the like of the divided area are not limited to equal division into an image of a rectangular area having a predetermined size.

例えば、標準画像及び識別対象画像を円形状、楕円形状、三角形状等の種々の幾何学的形状の領域と幾何学的形状の領域外の領域とに分割する構成としてよく、また、標準画像及び識別対象画像を同一の幾何学的形状で大きさが異なる領域に分割する構成としてもよい。   For example, the standard image and the identification target image may be divided into a region having various geometric shapes such as a circular shape, an elliptical shape, and a triangular shape, and a region outside the geometric shape region. The identification target image may be divided into regions having the same geometric shape and different sizes.

これらの構成とした場合は、テンプレート画像データベース72に予め記憶させる標準画像と、標準画像を所望の幾何学的形状の領域と幾何学的形状の領域外の領域、もしくは所望の幾何学的形状で大きさが異なる領域にそれぞれ対応した画像が特定可能な位置情報を記憶させることで標準画像及び識別対象画像を種々の幾何学的形状の領域と幾何学的形状の領域外の領域、もしくは同一の幾何学的形状で大きさが異なる領域にそれぞれ対応した画像に分割することができる。   In the case of these configurations, the standard image stored in advance in the template image database 72 and the standard image in a desired geometric shape region and a region outside the geometric shape region, or in a desired geometric shape. By storing position information that can identify images corresponding to regions of different sizes, the standard image and the image to be identified can be stored in various geometrical regions and regions outside the geometrical regions, or the same The image can be divided into images corresponding to regions having different geometric shapes and sizes.

図9は、紙葉類識別装置1において、図2に示した識別部8が行う紙葉類の識別方法とは他の識別方法を適用した識別部の構成例を概略的に示した構成図である。   FIG. 9 is a configuration diagram schematically illustrating an example of the configuration of an identification unit to which another identification method is applied in addition to the paper sheet identification method performed by the identification unit 8 illustrated in FIG. 2 in the paper sheet identification apparatus 1. It is.

図9に示すように、識別部9は、図2で示した識別部8の分割画像抽出部75を特徴領域抽出部95に置換えた他は、識別部8と同様に構成されている。   As shown in FIG. 9, the identification unit 9 is configured in the same manner as the identification unit 8 except that the divided image extraction unit 75 of the identification unit 8 shown in FIG.

なお、識別部9において、識別部8の各部と同様な動作及び機能を有する識別部9の各部については説明の便宜上、識別部8と同一符号を付すとともに、機能説明は簡略化して説明する。   In the identification unit 9, for the sake of convenience of explanation, each part of the identification unit 9 having the same operation and function as each unit of the identification unit 8 is denoted by the same reference numeral, and the functional description is simplified.

識別部9は、識別部9全体を統括制御する識別制御部90と、透過光型光センサ73と、メモリ71と、テンプレート画像データベース72と、識別対象画像抽出部74と、特徴領域抽出部95と、傷・汚れ検出部76と、重み係数算出部77と、画像マッチング処理部78と、判定処理部89を備えている。   The identification unit 9 includes an identification control unit 90 that performs overall control of the identification unit 9, a transmitted light optical sensor 73, a memory 71, a template image database 72, an identification target image extraction unit 74, and a feature region extraction unit 95. A scratch / dirt detection unit 76, a weight coefficient calculation unit 77, an image matching processing unit 78, and a determination processing unit 89.

透過光型光センサ73によって取得された紙葉類の撮像画像データは、メモリ71に一時的に記憶される。   The captured image data of the paper sheet acquired by the transmitted light type optical sensor 73 is temporarily stored in the memory 71.

識別部9のテンプレート画像データベース72には、予め真券の紙葉類毎の透かし模様を含む透かし領域の画像データの標準画像が透かし領域の中で特徴のある領域、例えば、透かし模様が人物である場合は、人物の目、眉、鼻、口、額、髪、頬、輪郭、服装等に対応した特徴のある領域の画像に分割可能なように各特徴領域の画像の位置情報と、各特徴量に応じた各特徴領域の重みを表す重み係数w(q)が記憶されている。
識別対象画像抽出部74によって紙葉類の撮像画像から抽出された識別対象画像は、特徴領域抽出部95へ出力され、特徴領域抽出部95が識別対象画像の中から特徴のある領域の画像を抽出する。
In the template image database 72 of the identification unit 9, the standard image of the watermark area image data including the watermark pattern for each genuine paper sheet is a characteristic area in the watermark area, for example, the watermark pattern is a person. If there is, the position information of the image of each feature area so that it can be divided into images of areas with features corresponding to human eyes, eyebrows, nose, mouth, forehead, hair, cheeks, contours, clothes, etc. A weighting coefficient w (q) representing the weight of each feature area corresponding to the feature amount is stored.
The identification target image extracted from the captured image of the paper sheet by the identification target image extraction unit 74 is output to the feature region extraction unit 95, and the feature region extraction unit 95 extracts an image of a characteristic region from the identification target image. Extract.

具体的には、識別対象画像抽出部74において撮像画像から識別対象画像を抽出する際に特定した特定標準画像の特徴のある領域、例えば人物の透かし模様の場合は、人物の目、眉、鼻、口、額、髪、頬、輪郭、服装等の特徴のある領域に対応した画像を識別対象画像の中から抽出する。   Specifically, in the case of an area having a characteristic of the specific standard image specified when the identification target image is extracted from the captured image by the identification target image extraction unit 74, for example, in the case of a watermark pattern of a person, the eyes, eyebrows, and nose of the person Then, an image corresponding to a characteristic region such as mouth, forehead, hair, cheek, contour, clothes, etc. is extracted from the identification target image.

傷・汚れ検出部76は、特徴領域抽出部95により抽出された識別対象画像の特徴のある領域の画像(以下、「特徴領域画像(識別対象)」という。)と、特定標準画像の特徴のある領域の画像(以下、「特徴領域画像(特定標準)」という。)との差を算出し、算出した差分を紙葉類の傷や汚れ、もしくは透過光型光センサ73に付着する傷および汚れの量として検出する。   The flaw / dirt detection unit 76 has a feature region image (hereinafter referred to as “feature region image (identification target)”) extracted by the feature region extraction unit 95 and a feature of the specific standard image. A difference from an image of a certain area (hereinafter referred to as “characteristic area image (specific standard)”) is calculated, and the calculated difference is used to detect scratches or dirt on paper sheets or scratches attached to the transmitted light photosensor 73 and Detect as the amount of dirt.

重み係数算出部77は、傷・汚れ検出部76で算出した特徴領域画像(識別対象)に存在する傷および汚れの量に応じた重み係数k(q)を算出する。   The weighting coefficient calculation unit 77 calculates a weighting coefficient k (q) corresponding to the amount of scratches and dirt present in the feature region image (identification target) calculated by the scratch / stain detection unit 76.

画像マッチング処理部78は、特徴領域画像(識別対象)と特徴領域画像(特定標準)とのパターンマッチングによる相関値r(q)を算出する。   The image matching processing unit 78 calculates a correlation value r (q) by pattern matching between the feature region image (identification target) and the feature region image (specific standard).

判定処理部89は、画像マッチング処理部78で算出された各特徴領域画像(識別対象)の相関値r(q)と、特徴量に応じた重み係数w(q)と、傷および汚れの量に応じた重み係数k(q)を積算した総和の判定値Rを算出し、判定値Rに基づいて紙葉類の真偽の識別判定を行う。   The determination processing unit 89 includes a correlation value r (q) of each feature region image (identification target) calculated by the image matching processing unit 78, a weight coefficient w (q) corresponding to the feature amount, and the amount of scratches and dirt. Based on the determination value R, the true / false discrimination determination of the paper sheet is performed.

このように構成された識別部9が紙葉類挿入部3に挿入されて搬送されている紙葉類の種類および真偽を識別する処理動作について図10に示すフローチャートを参照しながら簡単に説明する。   A processing operation for identifying the type and authenticity of the paper sheet that is conveyed by being inserted into the paper sheet insertion unit 3 with the identification unit 9 configured as described above will be briefly described with reference to the flowchart shown in FIG. To do.

紙葉類挿入部3から挿入された紙葉類が紙葉類搬送部4によって搬送され、識別部9の所定の撮像範囲に入ると(ステップS1001でYES)、透過光型光センサ73が紙葉類を撮像して撮像画像を取得する(ステップS1002)。   When the paper sheet inserted from the paper sheet insertion unit 3 is conveyed by the paper sheet conveyance unit 4 and enters the predetermined imaging range of the identification unit 9 (YES in step S1001), the transmitted light type optical sensor 73 is moved to the paper. The leaves are imaged to obtain a captured image (step S1002).

紙葉類の撮像画像が取得されると、識別対象画像抽出部74が撮像画像と、テンプレート画像データベース72に記憶されている紙葉類毎の標準画像とのテンプレートマッチングを行い、撮像画像と最も類似度の大きい標準画像を特定するとともに、特定した特定標準画像と最も類似度の大きい画像領域を撮像画像から識別対象画像として抽出する(ステップS1003)。   When the captured image of the paper sheet is acquired, the identification target image extracting unit 74 performs template matching between the captured image and the standard image for each paper sheet stored in the template image database 72, and the most similar to the captured image. A standard image having a high degree of similarity is specified, and an image region having the highest degree of similarity with the specified specific standard image is extracted from the captured image as an identification target image (step S1003).

抽出された識別対象画像は、特徴領域抽出部95に入力され、特徴領域抽出部95が識別対象画像を特徴のある領域の特徴領域画像に分割する(ステップS1004)。   The extracted identification target image is input to the feature region extraction unit 95, and the feature region extraction unit 95 divides the identification target image into feature region images of featured regions (step S1004).

具体的には、例えば識別対象画像を特徴のある領域の画像領域に分割し抽出する。   Specifically, for example, the identification target image is divided into image areas having characteristic areas and extracted.

識別対象画像から分割された各特徴領域画像(識別対象)は、傷・汚れ検出部76に入力されて識別対象画像の各特徴領域画像(識別対象)内に存在する傷および汚れの量が算出され、重み係数算出部77に入力される。   Each feature region image (identification target) divided from the identification target image is input to the scratch / dirt detection unit 76 to calculate the amount of scratches and dirt present in each feature region image (identification target) of the identification target image. And input to the weighting factor calculation unit 77.

重み係数算出部77は、各特徴領域画像(識別対象)内に存在する傷および汚れの量に応じた重み係数k(q)を算出する(ステップS1005)。   The weighting factor calculation unit 77 calculates a weighting factor k (q) corresponding to the amount of scratches and dirt present in each feature region image (identification target) (step S1005).

重み係数算出部77によって各特徴領域画像(識別対象)の傷や汚れの量に応じた重み係数k(q)が算出されると、画像マッチング処理部78が識別対象画像の各特徴領域画像(識別対象)と特定標準画像の特徴領域画像(特定標準)とのパターンマッチングによる相関値r(q)を算出して判定処理部89へ出力する(ステップS1006)。   When the weighting coefficient calculation unit 77 calculates the weighting coefficient k (q) corresponding to the amount of scratches and dirt on each feature region image (identification target), the image matching processing unit 78 selects each feature region image ( A correlation value r (q) by pattern matching between the identification target) and the feature area image (specific standard) of the specific standard image is calculated and output to the determination processing unit 89 (step S1006).

判定処理部89は、各特徴領域画像の相関値r(q)と、特徴量に応じた重み係数w(q)と、傷や汚れの量に応じた重み係数k(q)を積算した総和の判定値Rを算出する(ステップS1007)。   The determination processing unit 89 adds up the correlation value r (q) of each feature region image, the weighting factor w (q) corresponding to the feature amount, and the weighting factor k (q) corresponding to the amount of scratches and dirt. The determination value R is calculated (step S1007).

判定処理部89は、算出した判定値Rが所定値以上であれば紙葉類を真券と判定し、算出した判定値Rが所定値以上でなければ紙葉類を偽券と判定する。   The determination processing unit 89 determines that the paper sheet is a genuine note if the calculated determination value R is equal to or greater than a predetermined value, and determines that the paper sheet is a false ticket if the calculated determination value R is not equal to or greater than the predetermined value.

判定処理部89が紙葉類を真券と判定した場合は(ステップS1008でYES)、紙葉類が真券である旨の信号を出力し(ステップS1009)、紙葉類を偽券と判定した場合は(ステップS1008でNO)、紙葉類が偽券である旨の信号を出力して(ステップS1010)識別部9の処理動作は終了する。   If the determination processing unit 89 determines that the paper sheet is a genuine note (YES in step S1008), a signal indicating that the paper sheet is a genuine note is output (step S1009), and the paper sheet is determined to be a fake ticket. If so (NO in step S1008), a signal indicating that the paper sheet is a fake ticket is output (step S1010), and the processing operation of the identification unit 9 ends.

このような処理動作を行う識別部9の本発明に係わる紙葉類識別方法について図11乃至図14を参照しながら詳細に説明する。   A paper sheet identification method according to the present invention of the identification unit 9 that performs such processing operations will be described in detail with reference to FIGS.

なお、図11乃至図14においては、識別対象画像が図4で説明したように識別対象画像抽出部74によって既に抽出されているものとして説明する。   11 to 14, it is assumed that the identification target image has already been extracted by the identification target image extraction unit 74 as described with reference to FIG. 4.

撮像画像から識別対象画像が抽出されると、抽出した識別対象画像を特徴のある特徴領域に分割する。   When the identification target image is extracted from the captured image, the extracted identification target image is divided into characteristic feature regions.

識別対象画像を特徴のある特徴領域に分割する方法は、例えば、撮像画像から識別対象画像を抽出する際に特定された特定標準画像の特徴領域の位置情報に基づいて分割する。   As a method of dividing the identification target image into characteristic feature regions, for example, the identification target image is divided based on the position information of the feature region of the specific standard image specified when the identification target image is extracted from the captured image.

図11は、テンプレート画像データベース72に記憶された標準画像の一例を示した図である。   FIG. 11 is a diagram illustrating an example of a standard image stored in the template image database 72.

図11において、図11(a)は、紙葉類毎の標準画像のうちの特定標準画像54を示す図であり、図11(b)は、特定標準画像54の各特徴領域の特徴量に応じた重みを示す重み係数をテーブル化した特徴量重み係数表55の一例を示す図である。   11A is a diagram showing the specific standard image 54 of the standard images for each paper sheet, and FIG. 11B shows the feature amount of each feature area of the specific standard image 54. It is a figure which shows an example of the feature-value weight coefficient table 55 which tabulated the weight coefficient which shows the corresponding weight.

図11(a)に示すように、特定標準画像54は、人物の透かし模様23を含む透かし領域の画像情報に特定標準画像54の特徴のある領域である目の特徴領域の特徴領域画像(特定標準)tf(1)、眉の特徴領域の特徴領域画像tf(2)、口の特徴領域の特徴領域画像tf(3)等の各特徴領域画像(特定標準)tf(q)の位置を示す位置情報が付加されており、各特徴領域画像(特定標準)tf(q)は、各特徴領域画像(特定標準)tf(q)の特徴量に応じた重みを示す重み係数w(q)が図11(b)に示すような特徴量重み係数表55に設定されている。   As shown in FIG. 11A, the specific standard image 54 is a characteristic region image (specific image) of an eye characteristic region that is a characteristic region of the specific standard image 54 in the image information of the watermark region including the watermark pattern 23 of the person. (Standard) tf (1), feature area image tf (2) of the eyebrow feature area, and the position of each feature area image (specific standard) tf (q) such as the feature area image tf (3) of the mouth feature area Position information is added, and each feature area image (specific standard) tf (q) has a weight coefficient w (q) indicating a weight according to the feature amount of each feature area image (specific standard) tf (q). It is set in the feature amount weighting coefficient table 55 as shown in FIG.

なお、tf(q)及びw(q)のqは、具体的には標準画像54の各特徴領域画像(特定標準)の数を示している。   Note that q in tf (q) and w (q) specifically indicates the number of feature area images (specific standards) in the standard image 54.

図11(b)に示した特徴量重み係数表55は、左欄に図11(a)に示した標準画像54の各特徴領域画像(特定標準)tf(q)を示す情報が設定され、右欄に左欄の各特徴領域画像(特定標準)tf(q)に対応した重み係数w(q)の値が特定可能なように設定されている。   In the feature amount weight coefficient table 55 shown in FIG. 11B, information indicating each feature region image (specific standard) tf (q) of the standard image 54 shown in FIG. The right column is set so that the value of the weighting factor w (q) corresponding to each feature area image (specific standard) tf (q) in the left column can be specified.

各特徴領域画像(特定標準)tf(q)の重み係数w(q)の設定値は、特徴量が大きい特徴領域画像(特定標準)tf(q)には重みを大きくするような重み係数w(q)の値が設定され、特徴量が小さい各特徴領域画像(特定標準)tf(q)には重みを小さくするような重み係数w(q)の値が設定されている。   The set value of the weighting factor w (q) of each feature region image (specific standard) tf (q) is a weighting factor w that increases the weight for a feature region image (specific standard) tf (q) having a large feature amount. The value of (q) is set, and the value of the weighting factor w (q) that reduces the weight is set for each feature region image (specific standard) tf (q) having a small feature amount.

具体的には、例えば、予め紙葉類毎の特徴のある領域の特徴量を算出して比較し、紙葉類の種類間で形状や濃度、階調差、コントラスト差等の特徴量に大きな差異が認められる場合は、当該特徴量を有する各特徴領域の重みが大きくなるように重み係数w(q)の値を設定し、紙葉類の種類間で大きな差異が認められない場合は、当該特徴量を有する各特徴領域の重みが小さくなるように重み係数w(q)の値を設定する。   Specifically, for example, the feature amount of a characteristic region for each paper sheet is calculated and compared in advance, and the feature amount such as the shape, density, gradation difference, contrast difference, etc. is large between the types of paper sheets. If there is a difference, set the value of the weighting factor w (q) so that the weight of each feature region having the feature amount is large, and if there is no significant difference between the types of paper sheets, The value of the weight coefficient w (q) is set so that the weight of each feature area having the feature amount is reduced.

このように、テンプレート画像データベース72には、各紙葉類毎の標準画像と、標準画像の特徴のある各特徴領域画像(特定標準)の位置情報と、各特徴領域画像(特定標準)の重み係数w(q)の情報が記憶されており、識別対象画像を特徴のある領域の特徴領域画像(識別対象)に分割する場合は、図11(a)に示したような特定標準画像54の各特徴領域画像(特定標準)tf(q)の位置情報に基づいて識別対象画像を特徴のある特徴領域画像(識別対象)に分割する。   Thus, in the template image database 72, the standard image for each paper sheet, the position information of each characteristic area image (specific standard) having the characteristics of the standard image, and the weight coefficient of each characteristic area image (specific standard) When information on w (q) is stored and the identification target image is divided into feature area images (identification targets) of characteristic areas, each of the specific standard images 54 as shown in FIG. Based on the position information of the characteristic area image (specific standard) tf (q), the identification target image is divided into characteristic characteristic area images (identification target).

図12は、特定標準画像54の特徴領域画像(識別対象)tf(q)の位置情報に基づいて識別対象画像30を特徴のある領域の特徴領域画像(識別対象)に分割する方法の一例を示す図である。   FIG. 12 shows an example of a method of dividing the identification target image 30 into feature area images (identification targets) of characteristic areas based on the position information of the feature area image (identification target) tf (q) of the specific standard image 54. FIG.

図12において、図12(a)は、識別対象画像30を示す図であり、図12(b)は、特定標準画像54の各特徴領域画像(特定標準)を示す図、図12(c)は、特定標準画像54の各特徴領域画像(特定標準)に対応した識別対象画像30の各特徴領域画像(識別対象)を示す図である。   12, FIG. 12 (a) is a diagram showing the identification target image 30, FIG. 12 (b) is a diagram showing each feature region image (specific standard) of the specific standard image 54, and FIG. 12 (c). These are figures which show each characteristic area image (identification object) of the identification target image 30 corresponding to each characteristic area image (specific standard) of the specific standard image 54. FIG.

図12(a)に示すように、識別対象画像30を特徴のある各特徴領域画像(識別対象)に分割する場合は、図12(b)に示した特定標準画像54の各特徴領域画像(特定標準)tf(q)の位置情報に基づいて、例えば特定標準画像54の目の特徴領域画像(特定標準)tf(1)、眉の特徴領域画像(特定標準)tf(2)、口の特徴領域画像(特定標準)tf(3)等の位置に対応した各特徴領域画像(特定標準)の画像領域を図12(a)に示した識別対象画像30に対応付けて分割することで図12(c)に示すような識別対象画像30の各特徴領域画像(識別対象)f(1)、f(2)、f(3)等に分割される。   As shown in FIG. 12A, when the identification target image 30 is divided into characteristic feature region images (identification targets), the characteristic region images (specific standard images 54 shown in FIG. 12B) ( Based on the position information of (specific standard) tf (q), for example, the eye feature region image (specific standard) tf (1), eyebrow feature region image (specific standard) tf (2), The image area of each characteristic area image (specific standard) corresponding to the position of the characteristic area image (specific standard) tf (3) or the like is divided and associated with the identification target image 30 shown in FIG. 12 (c), each feature region image (identification target) f (1), f (2), f (3), etc. of the identification target image 30 is divided.

なお、識別対象画像30の特徴領域画像(識別対象)f(1)が目の特徴領域画像(特定標準)tf(1)、f(2)が眉の特徴領域画像(特定標準)tf(2)、f(3)が口の特徴領域画像(特定標準)tf(3)にそれぞれ対応している。   The feature region image (identification target) f (1) of the identification target image 30 is the eye feature region image (specific standard) tf (1), and f (2) is the eyebrow feature region image (specific standard) tf (2). ) And f (3) correspond to the mouth feature area image (specific standard) tf (3), respectively.

また、図12において、特定標準画像54の特徴領域を目、眉、口の各特徴領域画像(特定標準)tf(1)、tf(2)、tf(3)で示してあるが実際には、目、眉、鼻、口、額、髪、頬、輪郭、服装等の形状や階調、濃度、コントラスト等のパラメータに対応した特徴領域tf(q)に細分割され、細分割された各特徴領域tf(q)には特徴量の大小に応じた重みが重み係数w(q)として設定される。   In FIG. 12, the feature areas of the specific standard image 54 are indicated by the eye, eyebrow, and mouth characteristic area images (specific standards) tf (1), tf (2), and tf (3). , Eyes, eyebrows, nose, mouth, forehead, hair, cheeks, contours, clothing, etc. and subdivided into feature regions tf (q) corresponding to parameters such as gradation, density, contrast, etc. In the feature region tf (q), a weight corresponding to the magnitude of the feature amount is set as a weighting factor w (q).

このような方法で識別対象画像30を特徴のある特徴領域画像(識別対象)f(q)に分割し、各特徴領域画像(識別対象)f(q)の傷や汚れ等を示す画像の量に応じた重み係数k(q)を算出し、算出した重み係数k(q)を各特徴領域画像(識別対象)f(q)の重みとして重み付けを行うことで、紙葉類のしわや傷、汚れ等の影響を除去できるので、これにより紙葉類の種類および真偽の識別を高精度で行うことができる。   In this way, the identification target image 30 is divided into characteristic feature region images (identification targets) f (q), and the amount of images indicating scratches, dirt, etc. of each feature region image (identification target) f (q) The weighting coefficient k (q) corresponding to the weight is calculated, and the calculated weighting coefficient k (q) is weighted as the weight of each feature area image (identification target) f (q), so that wrinkles and scratches on the paper sheet Since the influence of dirt and the like can be removed, the type and authenticity of the paper sheet can be identified with high accuracy.

識別対象画像30の各特徴領域画像(識別対象)f(q)の傷や汚れの量の算出方法は、識別部8の場合と同様に、特定標準画像と識別対象画像の各特徴領域画像f(q)、tf(q)間での差を識別対象画像30の各特徴領域画像(識別対象)f(q)の傷や汚れの量として算出する。   The method for calculating the amount of scratches and dirt on each feature area image (identification object) f (q) of the identification target image 30 is the same as that of the identification unit 8, and each feature area image f of the specific standard image and the identification target image. The difference between (q) and tf (q) is calculated as the amount of scratches and dirt on each feature region image (identification target) f (q) of the identification target image 30.

識別対象画像30の各特徴領域画像(識別対象)f(q)の傷や汚れの量の算出方法を図13及び図14を参照しながら簡単に説明する。   A method of calculating the amount of scratches and dirt on each feature region image (identification target) f (q) of the identification target image 30 will be briefly described with reference to FIGS.

図13において、図13(a)、(d)、(g)は、特定標準画像54の特徴領域画像(特定標準)tf(1)、tf(2)、tf(3)の一例を示す図であり、図13(b)、(e)、(h)は、識別対象画像30の特徴領域画像(識別対象)f(1)、f(2)、f(3)の一例を示す図、図13(c)、(f)、(i)は、特定標準画像54の各特徴領域画像(特定標準)tf(1)、tf(2)、tf(3)と識別対象画像30の各特徴領域画像(識別対象)f(1)、f(2)、f(3)との差による識別対象画像30の各特徴領域画像(識別対象)f(1)、f(2)、f(3)の傷や汚れの量を算出した差分画像d(1)、d(2)、d(3)を示す図である。   13, (a), (d), and (g) are diagrams showing examples of feature region images (specific standard) tf (1), tf (2), and tf (3) of the specific standard image 54. FIG. FIGS. 13B, 13 </ b> E, and 13 </ b> H are diagrams illustrating examples of feature region images (identification targets) f (1), f (2), and f (3) of the identification target image 30. FIGS. 13C, 13 </ b> F, and 13 </ b> I show the feature region images (specific standard) tf (1), tf (2), tf (3) of the specific standard image 54 and the features of the identification target image 30. Each characteristic area image (identification object) f (1), f (2), f (3) of the identification object image 30 based on the difference from the area image (identification object) f (1), f (2), f (3) ) Is a diagram showing difference images d (1), d (2), and d (3) in which the amount of scratches and dirt is calculated.

図13(b)に示すように、識別対象画像30の特徴領域画像(識別対象)f(1)に傷や汚れに対応した画像が存在しない場合は、特徴領域画像(識別対象)f(1)と特定標準画像54の特徴領域画像(特定標準)tf(1)との差を算出すると、図13(c)に示すような全画素の画素値が例えば「0」となるような差分画像d(1)が算出される。   As shown in FIG. 13B, when there is no image corresponding to scratches or dirt in the feature region image (identification target) f (1) of the identification target image 30, the feature region image (identification target) f (1 ) And the characteristic area image (specific standard) tf (1) of the specific standard image 54, the difference image in which the pixel values of all the pixels are, for example, “0” as shown in FIG. 13C. d (1) is calculated.

すなわち、特定標準画像54の特徴領域画像(特定標準)tf(1)と識別対象画像30の特徴領域画像(識別対象)f(1)との差分による差分画像d(1)の全画素の画素値が「0」の場合は、識別対象画像30の特徴領域画像(識別対象)f(1)の画像が傷や汚れがない画像であると判断する。   That is, all the pixels of the difference image d (1) based on the difference between the characteristic area image (specific standard) tf (1) of the specific standard image 54 and the characteristic area image (identification target) f (1) of the identification target image 30. When the value is “0”, it is determined that the image of the feature region image (identification target) f (1) of the identification target image 30 is an image having no scratch or dirt.

同様に、図13(e)及び(h)に示すように、識別対象画像30の特徴領域画像(識別対象)f(2)及びf(3)に傷や汚れの画像25が存在する場合は、特定標準画像54の特徴領域画像(特定標準)tf(2)と識別対象画像30の特徴領域画像(識別対象)f(2)との差d(2)及び特定標準画像54の特徴領域画像(特定標準)tf(3)と識別対象画像30の特徴領域画像(識別対象)f(3)との差d(3)をそれぞれ算出し、図13(f)及び(i)に示すような識別対象画像30の特徴領域画像(識別対象)f(2)及びf(3)の傷や汚れの量を示す差分画像d(2)、d(3)を算出する。   Similarly, as shown in FIGS. 13 (e) and 13 (h), when the feature region images (identification objects) f (2) and f (3) of the identification object image 30 have scratches and dirt images 25, The difference d (2) between the characteristic area image (specific standard) tf (2) of the specific standard image 54 and the characteristic area image (identification target) f (2) of the identification target image 30 and the characteristic area image of the specific standard image 54 The difference d (3) between the (specific standard) tf (3) and the feature region image (identification target) f (3) of the identification target image 30 is calculated, respectively, as shown in FIGS. 13 (f) and (i). Difference images d (2) and d (3) indicating the amount of scratches and dirt on the feature region images (identification targets) f (2) and f (3) of the identification target image 30 are calculated.

このような方法で識別対象画像30の各特徴領域画像(識別対象)f(q)と特定標準画像54の各特徴領域画像(特定標準)f(q)との差d(q)を算出することにより、識別対象画像30の各特徴領域画像(識別対象)f(q)の画像の傷および汚れの量を示す差分画像d(q)を算出することができる。   In this way, the difference d (q) between each feature area image (identification target) f (q) of the identification target image 30 and each feature area image (specific standard) f (q) of the specific standard image 54 is calculated. As a result, it is possible to calculate the difference image d (q) indicating the amount of scratches and dirt on the image of each feature region image (identification target) f (q) of the identification target image 30.

なお、特定標準画像54の各特徴領域画像(特定標準)tf(q)の画像と識別対象画像30の各特徴領域画像(識別対象)f(q)の画像との差による各特徴領域画像(識別対象)f(q)の傷や汚れの量d(q)の算出は、例えば、前述した式2によって同様に算出することができる。   It should be noted that each feature area image (by the difference between each feature area image (specific standard) tf (q) of the specific standard image 54 and each feature area image (identification target) f (q) of the identification target image 30 ( The calculation of the amount d (q) of flaws and dirt on the identification target) f (q) can be similarly calculated by, for example, Equation 2 described above.

このように、識別対象画像30の各特徴領域画像(識別対象)f(q)と特定標準画像54の各特徴領域画像(特定標準)tf(q)との差分による識別対象画像30の各特徴領域画像(識別対象)f(q)の画像の汚れや傷の量d(q)が算出されると、識別対象画像30の各特徴領域画像(識別対象)f(q)の汚れや傷の量d(q)の値に応じた重み係数を算出する。   As described above, each feature of the identification target image 30 based on the difference between each feature region image (identification target) f (q) of the identification target image 30 and each feature region image (specific standard) tf (q) of the specific standard image 54. When the amount of dirt and scratches d (q) of the image of the area image (identification target) f (q) is calculated, the dirt and scratches of each feature area image (identification target) f (q) of the identification target image 30 are calculated. A weighting factor corresponding to the value of the quantity d (q) is calculated.

識別対象画像30の各特徴領域画像(識別対象)f(q)の汚れや傷の量d(q)に応じた重み係数k(q)は、図14に示すような傷汚量重み係数表56を参照して決定する。   The weighting coefficient k (q) corresponding to the amount of dirt and scratches d (q) of each feature area image (identification target) f (q) of the identification target image 30 is a flaw / stain amount weighting coefficient table as shown in FIG. 56 to determine.

図14は、傷汚量重み係数表の一例を示す図であり、傷汚量重み係数表56は、左欄に識別対象画像30の各特徴領域画像(識別対象)f(q)の傷や汚れの量d(q)の値の範囲が設定され、右欄に左欄の傷や汚れの量d(q)に対応した重み係数k(q)の値が特定可能なように設定されている。   FIG. 14 is a diagram showing an example of the fouling amount weighting coefficient table. The fouling amount weighting coefficient table 56 shows the flaws of the feature region images (identification targets) f (q) of the identification target image 30 in the left column. The value range of the amount of dirt d (q) is set, and the right column is set so that the value of the weight coefficient k (q) corresponding to the amount of scratches and dirt d (q) in the left column can be specified. Yes.

例えば、算出した識別対象画像30の特徴領域画像(識別対象)f(q)の傷や汚れの量d(q)の値がa(0)からa(1)の範囲であれば重み係数k(1)、傷や汚れの量d(q)の値がa(1)からa(2)の範囲であれば重み係数k(2)等と特定可能なようにテーブル化された構成を成している。   For example, if the value of the amount d (q) of flaws and dirt of the calculated feature region image (identification target) f (q) of the identification target image 30 is in the range of a (0) to a (1), the weighting factor k (1) If the value of the amount d (q) of scratches or dirt is in the range of a (1) to a (2), a table is formed so that it can be specified as a weighting coefficient k (2) or the like. doing.

なお、傷や汚れの量d(q)に応じた重み係数k(q)の設定値は、具体的には、各特徴領域画像(識別対象)f(q)の傷や汚れの量d(q)が大きい特徴領域画像(識別対象)f(q)には重みを小さく設定し、傷や汚れの量d(q)の値が小さい各特徴領域画像(識別対象)f(q)には重みを大きく設定するように重み係数k(q)の値が設定されている。   Note that the set value of the weighting coefficient k (q) corresponding to the amount d (q) of scratches and dirt is specifically the amount d () of scratches and dirt of each feature region image (identification target) f (q). The feature area image (identification target) f (q) having a large q) is set to a small weight, and the feature area image (identification target) f (q) having a small value of the amount of scratches or dirt d (q) is set to The value of the weight coefficient k (q) is set so that the weight is set to be large.

識別対象画像30の各特徴領域画像(識別対象)f(q)の傷や汚れの量d(q)に応じた重み係数k(q)が算出されると、識別対象画像30の各特徴領域画像(識別対象)f(q)と特定標準画像54の各特徴領域画像(特定標準)tf(q)とのパターンマッチングによる各相関値r(q)を算出し、算出した各特徴領域画像(識別対象)f(q)の相関値r(q)と、重み係数w(q)と、重み係数k(q)を積算した総和の判定値Rを算出する。   When the weighting coefficient k (q) corresponding to the amount d (q) of scratches or dirt on each feature region image (identification target) f (q) of the identification target image 30 is calculated, each feature region of the identification target image 30 Each correlation value r (q) is calculated by pattern matching between the image (identification target) f (q) and each feature area image (specific standard) tf (q) of the specific standard image 54, and each calculated characteristic area image ( The sum determination value R obtained by integrating the correlation value r (q) of the identification target) f (q), the weighting factor w (q), and the weighting factor k (q) is calculated.

識別対象画像30の各特徴領域画像(識別対象)f(q)と特定標準画像54の各特徴領域画像(特定標準)tf(q)とのパターンマッチングによる相関値r(q)の算出方法は、例えば前述した式3により、判定値Rの算出は、例えば前述した式4によって同様に算出することができる。   The calculation method of the correlation value r (q) by pattern matching between each feature area image (identification target) f (q) of the identification target image 30 and each feature area image (specific standard) tf (q) of the specific standard image 54 is as follows. For example, the determination value R can be calculated in the same manner by, for example, the above-described Expression 4 using Expression 3 described above.

このように算出された判定値Rに基づいて、例えば判定値Rが所定値以上の値であれば紙葉類を真券と判定し、判定値Rが所定値以上の値でなければ紙葉類を偽券と判定して各判定結果に応じた信号が識別部9から制御部2へ出力される。   Based on the determination value R calculated in this way, for example, if the determination value R is a value equal to or greater than a predetermined value, the paper sheet is determined to be a genuine note, and if the determination value R is not equal to or greater than the predetermined value, the paper sheet is determined. The class is determined to be a fake ticket, and a signal corresponding to each determination result is output from the identification unit 9 to the control unit 2.

制御部2は、識別部9から入力された判定結果に基づいて、例えば紙葉類が真券である旨の信号が入力された場合は、駆動部6に命令指示して紙葉類を紙葉類受入部5に搬送させ、紙葉類を偽券である旨の信号が入力された場合は、駆動部6に命令指示して紙葉類を紙葉類挿入部3に返却するような処理を行う。   For example, when a signal indicating that the paper sheet is a genuine note is input based on the determination result input from the identification unit 9, the control unit 2 instructs the driving unit 6 to instruct the paper sheet to be printed on the paper sheet. When a signal indicating that the paper sheet is a fake note is input to the leaf receiving unit 5, an instruction is given to the driving unit 6 to return the paper sheet to the paper sheet inserting unit 3. Process.

以上説明したように、紙葉類の撮像画像と標準画像の相関値に基づいて紙葉類の識別対象画像を効率良く抽出し、識別対象画像の各特徴領域画像の特徴量及び傷や汚れの量に応じた重みをおくことで紙葉類のしわや傷、汚れおよび模様の位置ずれ等による誤識別を防止し、より識別精度を向上させることができる。   As described above, the identification target image of the paper sheet is efficiently extracted based on the correlation value between the captured image of the paper sheet and the standard image, and the feature amount of each feature region image of the identification target image and the scratches and dirt. By assigning a weight according to the amount, misidentification due to wrinkles, scratches, dirt, and pattern misalignment of paper sheets can be prevented, and the identification accuracy can be further improved.

なお、この実施例においては、識別対象画像を分割する際に、標準画像が分割される分割画像の位置情報に基づいて識別対象画像を分割する例を示したが、指定した分割領域の大きさ、または分割数及び分割形状に対応して標準画像及び識別対象画像を分割するようにしてもよい。   In this embodiment, the example in which the identification target image is divided based on the position information of the divided image into which the standard image is divided is shown when dividing the identification target image. Alternatively, the standard image and the identification target image may be divided corresponding to the number of divisions and the division shape.

本発明に係わる紙葉類識別装置1の概略的な構成図1 is a schematic configuration diagram of a paper sheet identification apparatus 1 according to the present invention. 識別部8の概略的な構成図Schematic configuration diagram of the identification unit 8 識別部8が紙葉類の種類および真偽を識別する処理動作のフローチャートFlowchart of processing operation in which the identification unit 8 identifies the type and authenticity of the paper sheet 紙葉類の撮像画像から識別対象画像を抽出する方法の説明図Explanatory drawing of the method of extracting an identification object image from the captured image of paper sheets 標準画像の一例を示す図Diagram showing an example of a standard image 識別対象画像を所定の大きさの画像領域に分割する方法の一例を示す図The figure which shows an example of the method of dividing | segmenting an identification target image into the image area | region of a predetermined magnitude | size. 各分割画像(識別対象)の傷や汚れの量の算出法の一例を示す図The figure which shows an example of the calculation method of the quantity of the damage | wound and dirt of each divided image (identification object) 傷汚量重み係数表53の構成図Scratch amount weight coefficient table 53 configuration diagram 識別部8とは他の構成例の識別部9の概略的な構成図Schematic configuration diagram of the identification unit 9 of another configuration example with the identification unit 8 識別部9が紙葉類の種類および真偽を識別する処理動作のフローチャートFlowchart of processing operation in which the identification unit 9 identifies the type and authenticity of the paper sheet 識別部9で用いられる標準画像の一例を示す図The figure which shows an example of the standard image used with the identification part 9 識別対象画像30を特徴のある特徴領域に分割する方法の一例を示す図The figure which shows an example of the method of dividing | segmenting the identification target image 30 into the characteristic area with a characteristic. 各特徴領域画像(識別対象)の傷や汚れの量の算出法の一例を示す図The figure which shows an example of the calculation method of the quantity of the damage | wound and dirt of each characteristic area image (identification object) 傷汚量重み係数表56の構成図Configuration diagram of the flaw amount weight coefficient table 56

符号の説明Explanation of symbols

1 紙葉類識別装置
2 制御部
3 紙葉類挿入部
4 紙葉類搬送部
5 紙葉類受入部
6 駆動部
8、9 識別部
20 紙葉類の撮像画像
21 透かし領域
22 通常領域
23 透かし模様
24 標準画像
25 傷、しわ、汚れ
26 相関値グラフ
29、30 識別対象画像
51、54 特定標準画像
52 特徴量重み係数表
53、56 傷汚量重み係数表
80、90 識別制御部
71 メモリ
72 テンプレート画像データベース
73 透過光型光センサ
731 発光素子
732 受光素子
74 識別対象画像抽出部
75 分割画像抽出部
76 傷・汚れ検出部
77 重み係数算出部
78 画像マッチング処理部
89 判定処理部
95 特徴領域抽出部
DESCRIPTION OF SYMBOLS 1 Paper sheet identification device 2 Control part 3 Paper sheet insertion part 4 Paper sheet conveyance part 5 Paper sheet acceptance part 6 Drive part 8, 9 Identification part 20 Image picked up of paper sheet 21 Watermark area 22 Normal area 23 Watermark Pattern 24 Standard image 25 Scratches, wrinkles, dirt 26 Correlation value graph 29, 30 Identification target image 51, 54 Specific standard image 52 Feature amount weight coefficient table 53, 56 Scratch amount weight coefficient table 80, 90 Identification control unit 71 Memory 72 Template image database 73 Transmitted light sensor 731 Light emitting element 732 Light receiving element 74 Identification target image extracting section 75 Divided image extracting section 76 Scratch / dirt detecting section 77 Weight coefficient calculating section 78 Image matching processing section 89 Judgment processing section 95 Feature region extraction Part

Claims (6)

紙葉類の識別対象画像に基づき紙葉類を識別する紙葉類識別装置において、
前記紙葉類から前記識別対象画像を取得する識別対象画像取得手段と、
前記識別対象画像に対応する標準画像を予め記憶する記憶手段と、
前記記憶手段に記憶した前記標準画像を複数の任意形状の領域に分割した分割画像に分割するとともに、前記識別対象画像取得手段で取得した識別対象画像を前記標準画像の分割に対応して分割する画像分割手段と、
前記画像分割手段で分割された分割画像に対応してそれぞれ重み付け値を設定する重付設定手段と、
前記画像分割手段で分割された前記識別対象画像の分割画像と前記標準画像の分割画像とを分割画像単位で相関値を算出する相関値算出手段と
を具備し、
前記重付設定手段で設定した各分割画像の重み付け値と前記相関値算出手段で算出した各分割画像単位の相関値との総合判定に基づき紙葉類の識別を行う識別手段と
を具備することを特徴とする紙葉類識別装置。
In a paper sheet identification apparatus for identifying a paper sheet based on a paper sheet identification target image,
Identification target image acquisition means for acquiring the identification target image from the paper sheet;
Storage means for storing in advance a standard image corresponding to the identification target image;
The standard image stored in the storage unit is divided into divided images divided into a plurality of regions of arbitrary shapes, and the identification target image acquired by the identification target image acquisition unit is divided corresponding to the division of the standard image. Image segmentation means;
Weight setting means for setting weight values corresponding to the divided images divided by the image dividing means,
Correlation value calculating means for calculating a correlation value for each divided image of the divided image of the identification target image divided by the image dividing means and the divided image of the standard image;
Identifying means for identifying paper sheets based on a comprehensive determination between the weighted value of each divided image set by the weight setting means and the correlation value of each divided image unit calculated by the correlation value calculating means. Paper sheet identification device characterized by this.
前記重付設定手段は、
前記画像分割手段で分割された前記標準画像の分割画像の特徴量に対応して重み付け値を設定する
ことを特徴とする請求項1記載の紙葉類識別装置。
The weight setting means includes
The paper sheet identification apparatus according to claim 1, wherein a weighting value is set corresponding to a feature amount of the divided image of the standard image divided by the image dividing unit.
前記識別対象画像と前記標準画像との比較に基づきキズ若しくは汚れを検出する検出手段
を更に具備し、
前記重付設定手段は、
前記画像分割手段で分割された前記識別対象画像の分割画像が前記検出手段で検出したキズ若しくは汚れの量に対応して重み付け値を設定する
ことを特徴とする請求項2記載の紙葉類識別装置。
Detection means for detecting scratches or dirt based on the comparison between the identification target image and the standard image;
The weight setting means includes
The paper sheet identification according to claim 2, wherein a weighting value is set corresponding to the amount of scratches or dirt detected by the detection means in the divided image of the identification target image divided by the image dividing means. apparatus.
紙葉類の識別対象画像に基づき紙葉類を識別する紙葉類識別方法において、
前記紙葉類の識別対象画像に対応する標準画像と、前記標準画像を複数の任意形状の領域に分割する画像分割情報と、前記画像分割情報に基づいて分割される前記標準画像の各分割画像の重み付け値を示す重付情報を予め記憶手段に記憶し、
前記記憶手段に記憶した前記標準画像に基づき前記紙葉類から前記識別対象画像を取得し、
該取得した識別対象画像を該識別対象画像に対応した標準画像が前記画像分割情報に基づき分割される前記複数の任意形状の領域に対応して分割し、
該分割された前記識別対象画像の分割画像と前記画像分割情報に基づき分割された前記標準画像の分割画像とを分割画像単位で相関値を算出し、
該算出された各分割画像単位の相関値と前記標準画像の前記重付情報に基づく各分割画像の重み付け値との総合判定に基づき紙葉類の識別を行う
ことを特徴とする紙葉類識別方法。
In a paper sheet identification method for identifying a paper sheet based on a paper sheet identification target image,
A standard image corresponding to the image to be identified of the paper sheet, image division information for dividing the standard image into a plurality of regions of arbitrary shapes, and each divided image of the standard image divided based on the image division information The weighting information indicating the weighting value is stored in the storage means in advance,
Obtaining the identification target image from the paper sheet based on the standard image stored in the storage means;
The standard image corresponding to the identification target image is divided in accordance with the plurality of arbitrarily shaped regions that are divided based on the image division information,
A correlation value is calculated for each divided image of the divided divided image of the identification target image and the divided image of the standard image divided based on the image division information;
Paper sheet identification is performed based on a comprehensive determination of the calculated correlation value of each divided image unit and a weighted value of each divided image based on the weighting information of the standard image. Method.
前記画像分割情報に基づいて分割される前記標準画像の各分割画像の特徴量に対応して前記重み付け値が設定される
ことを特徴とする請求項4記載の紙葉類識別方法。
The paper sheet identification method according to claim 4, wherein the weighting value is set corresponding to a feature amount of each divided image of the standard image divided based on the image division information.
前記識別対象画像と前記標準画像との比較に基づきキズ若しくは汚れを検出手段により検出し、
該検出した前記識別対象画像の分割画像のキズ若しくは汚れの量に対応して前記重み付け値が設定される
ことを特徴とする請求項5記載の紙葉類識別方法。
Based on the comparison between the image to be identified and the standard image, the scratch or dirt is detected by the detection means,
The paper sheet identification method according to claim 5, wherein the weighting value is set corresponding to the amount of scratches or dirt of the detected divided image of the identification target image.
JP2004141216A 2004-05-11 2004-05-11 Paper sheet identification device and method Pending JP2005322139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004141216A JP2005322139A (en) 2004-05-11 2004-05-11 Paper sheet identification device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004141216A JP2005322139A (en) 2004-05-11 2004-05-11 Paper sheet identification device and method

Publications (1)

Publication Number Publication Date
JP2005322139A true JP2005322139A (en) 2005-11-17

Family

ID=35469366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004141216A Pending JP2005322139A (en) 2004-05-11 2004-05-11 Paper sheet identification device and method

Country Status (1)

Country Link
JP (1) JP2005322139A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073035A (en) * 2005-08-08 2007-03-22 Toshiba Corp Sheet identification apparatus and sheet identification method
WO2009096535A1 (en) * 2008-01-31 2009-08-06 Aruze Corp. Paper sheet identifying device and paper sheet identifying method
JP2012079066A (en) * 2010-09-30 2012-04-19 Toshiba Corp Conveyance paper sheet contamination degree determination device and paper sheet processing device
CN102819888A (en) * 2011-06-07 2012-12-12 光荣株式会社 Paper sheet handling machine and paper sheet handling method
JP2013210902A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program for biometric authentication
CN103456074A (en) * 2012-05-29 2013-12-18 日立欧姆龙金融系统有限公司 Paper processing device, paper processing method, automatic trading system
JP2018156605A (en) * 2017-03-21 2018-10-04 株式会社東芝 Paper sheet processor, paper sheet processing method and paper sheet process program
CN112541478A (en) * 2020-12-25 2021-03-23 国网吉林省电力有限公司信息通信公司 Insulator string stain detection method and system based on binocular camera
CN113592831A (en) * 2021-08-05 2021-11-02 北京方正印捷数码技术有限公司 Method and device for detecting printing error and storage medium
CN115561140A (en) * 2022-10-12 2023-01-03 宁波得立丰服饰有限公司 Clothing air permeability detection method and system, storage medium and intelligent terminal
US11935226B2 (en) 2020-03-17 2024-03-19 Canon Kabushiki Kaisha Image processing apparatus for image inspection, image processing method, and storage medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073035A (en) * 2005-08-08 2007-03-22 Toshiba Corp Sheet identification apparatus and sheet identification method
WO2009096535A1 (en) * 2008-01-31 2009-08-06 Aruze Corp. Paper sheet identifying device and paper sheet identifying method
JP2009181397A (en) * 2008-01-31 2009-08-13 Aruze Corp Paper sheet identifying device and paper sheet identifying method
US8509515B2 (en) 2008-01-31 2013-08-13 Universal Entertainment Corporation Paper sheet identifying device and paper sheet identifying method
JP2012079066A (en) * 2010-09-30 2012-04-19 Toshiba Corp Conveyance paper sheet contamination degree determination device and paper sheet processing device
CN102819888A (en) * 2011-06-07 2012-12-12 光荣株式会社 Paper sheet handling machine and paper sheet handling method
JP2013210902A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program for biometric authentication
CN103456074A (en) * 2012-05-29 2013-12-18 日立欧姆龙金融系统有限公司 Paper processing device, paper processing method, automatic trading system
JP2018156605A (en) * 2017-03-21 2018-10-04 株式会社東芝 Paper sheet processor, paper sheet processing method and paper sheet process program
US11935226B2 (en) 2020-03-17 2024-03-19 Canon Kabushiki Kaisha Image processing apparatus for image inspection, image processing method, and storage medium
CN112541478A (en) * 2020-12-25 2021-03-23 国网吉林省电力有限公司信息通信公司 Insulator string stain detection method and system based on binocular camera
CN113592831A (en) * 2021-08-05 2021-11-02 北京方正印捷数码技术有限公司 Method and device for detecting printing error and storage medium
CN113592831B (en) * 2021-08-05 2024-03-19 北京方正印捷数码技术有限公司 Printing error detection method, device and storage medium
CN115561140A (en) * 2022-10-12 2023-01-03 宁波得立丰服饰有限公司 Clothing air permeability detection method and system, storage medium and intelligent terminal
CN115561140B (en) * 2022-10-12 2023-08-04 宁波得立丰服饰有限公司 Clothing air permeability detection method, system, storage medium and intelligent terminal

Similar Documents

Publication Publication Date Title
JP5213649B2 (en) Paper sheet processing apparatus and paper sheet processing program
US6272245B1 (en) Apparatus and method for pattern recognition
JP5591578B2 (en) Character string recognition apparatus and character string recognition method
JP4932177B2 (en) Coin classification device and coin classification method
US20050169511A1 (en) Document processing system using primary and secondary pictorial image comparison
JP2010225013A (en) Serial number recognition device, paper sheet processor, automatic transaction processor, and serial number recognition method
JP5934174B2 (en) Method and program for authenticating a printed document
EP2660787A1 (en) Defect categorisation in a digital image
KR20130014920A (en) Method for differentiation forgery by portable terminal device
JP5372183B2 (en) Coin classification device and coin classification method
JP2005322139A (en) Paper sheet identification device and method
KR100704852B1 (en) Sheet identifying device and method
CN105654609A (en) Paper money processing method and paper money processing system
WO2004077366A1 (en) Sheet identifying device and method
WO2017085952A1 (en) Data acquisition device, printing device, authenticity determination device, method, and program
JP2002092683A (en) Device for discriminating between true and false medium
JP2007179323A (en) Paper sheet discriminating device and method
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
JP2005031901A (en) Coin identifying device and method
TWI378406B (en) Method for performing color analysis operation on image corresponding to monetary banknote
JP5976477B2 (en) Character reading device and paper sheet processing device
Abbas An image processor bill acceptor for Iraqi currency
JP4382579B2 (en) Paper sheet identification apparatus and method
KR101385388B1 (en) Apparatus for media recognition and method for media kind distinction with the same
JP2005316727A (en) Paper sheet identifying device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060524

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090908