JP2012084175A - Coin classification device and coin classification method - Google Patents

Coin classification device and coin classification method Download PDF

Info

Publication number
JP2012084175A
JP2012084175A JP2012007653A JP2012007653A JP2012084175A JP 2012084175 A JP2012084175 A JP 2012084175A JP 2012007653 A JP2012007653 A JP 2012007653A JP 2012007653 A JP2012007653 A JP 2012007653A JP 2012084175 A JP2012084175 A JP 2012084175A
Authority
JP
Japan
Prior art keywords
image
coin
identification
coins
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012007653A
Other languages
Japanese (ja)
Other versions
JP5372183B2 (en
Inventor
Toru Yonezawa
亨 米澤
Shinya Yamamoto
真也 山本
Hiroshi Kameyama
博史 亀山
Yojiro Kamise
陽二郎 神瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2012007653A priority Critical patent/JP5372183B2/en
Publication of JP2012084175A publication Critical patent/JP2012084175A/en
Application granted granted Critical
Publication of JP5372183B2 publication Critical patent/JP5372183B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve coin image collation accuracy and efficiently collate detailed features of coins.SOLUTION: A denomination discrimination processing part acquires the denomination of a coin and a first authenticity identification processing part which receives the acquired denomination executes coin authenticity identification processing. An era identification processing part identifies an issuance era of the coin, a second authenticity identification processing part acquires a feature part template image and a feature range, by retrieving a feature table using the identified denomination and issuance era, and collates the feature part template image with the corresponding part of the input image. An authenticity determination part determines the authenticity of the coin based on processing results of the first authenticity identification processing, the era identification processing and the second authenticity identification processing.

Description

本発明は、硬貨が発行された年代を考慮しつつ効率良く硬貨を分類する硬貨分類装置および硬貨分類方法に関する。   The present invention relates to a coin classification device and a coin classification method for efficiently classifying coins while taking into account the age at which the coins were issued.

従来、入金された貨幣をCCD(Charge Coupled Device)カメラやイメージセンサ等で撮影した入力画像と、あらかじめ登録されているテンプレート画像とを照合し、かかる貨幣の真偽を判定する貨幣識別装置が知られている。   2. Description of the Related Art Conventionally, there has been known a currency identification device that compares an input image obtained by photographing a deposited money with a CCD (Charge Coupled Device) camera, an image sensor, or the like and a template image registered in advance to determine the authenticity of the money. It has been.

たとえば、特許文献1には、硬貨の入力画像と硬貨のテンプレート画像とを対比して相関値を算出し、対比対象となる全体画像のうち所定面積以上の部分において、かかる相関値が閾値を超えている場合には、入力画像に係る硬貨を真正硬貨(以下、「真貨」と言う)と判定する貨幣識別技術が開示されている。   For example, in Patent Document 1, a correlation value is calculated by comparing an input image of coins with a template image of coins, and the correlation value exceeds a threshold in a portion of the entire image to be compared that exceeds a predetermined area. In such a case, a coin identification technique for determining a coin related to an input image as a genuine coin (hereinafter referred to as “true coin”) is disclosed.

特開2003−187289号公報JP 2003-187289 A

しかしながら、この従来技術を用いた場合、硬貨の発行年部分は硬貨の鋳造年ごとに異なるので、発行年部分の相関値は低くなり、結果的に発行年部分は照合対象から除かれることが通常である。このため、真貨のデザインを模倣しつつも発行年が刻まれていない偽造硬貨(以下、「偽貨」と言う)や、特定の発行年が刻まれた偽貨を精度よく識別することができないという問題があった。   However, when this conventional technology is used, the issue year portion of the coin varies depending on the coin casting year, so the correlation value of the issue year portion is low, and as a result, the issue year portion is usually excluded from the target for verification. It is. For this reason, it is possible to accurately identify counterfeit coins (hereinafter referred to as “fake coins”) that have imitated the design of true coins but are not engraved in issue year, and fake coins that have been engraved in a specific issue year. There was a problem that I could not.

また、近年では偽貨対策として真貨にさまざまな特徴部分をもたせることが多い。たとえば、硬貨のデザインに微細点や微細線などの詳細・微細なセキュリティ特徴をもたせるとともに、かかるセキュリティ特徴を数年おきに変更するなどの試みがなされている。そして、将来的には、真貨を巧妙に模倣した偽貨に対処するために、セキュリティ特徴の変更頻度が高められていくことが予想される。しかし、このような詳細・微細なセキュリティ特徴をすべて照合対象とすると照合処理に負荷がかかり効率的な照合をおこなうことが困難となってしまう。   In recent years, as a measure against counterfeit coins, true coins often have various features. For example, attempts have been made to give detailed and fine security features such as fine dots and fine lines to the design of coins and to change such security features every few years. In the future, it is expected that the frequency of changing security features will increase in order to deal with counterfeit coins that are skillfully imitating true coins. However, if all such detailed and fine security features are to be collated, the collation process is overloaded and it is difficult to perform efficient collation.

なお、かかる問題点は、硬貨の識別処理においてのみ発生する問題ではなく、紙幣の識別処理、および市場に流通する商品に付されたセキュリティ標識の識別処理においても同様に発生する問題である。   Such a problem is not only a problem that occurs only in the coin identification process, but also a problem that occurs in the identification process of banknotes and the identification process of security signs attached to commodities distributed in the market.

この発明は、上記課題(問題点)に鑑みてなされたものであり、硬貨の画像照合精度を高めるとともに、硬貨の微細な特徴を効率的に照合することによって、高精度な硬貨の分類を行うことができる硬貨分類装置および硬貨分類方法を提供することを目的とする。   The present invention has been made in view of the above problems (problems), and improves the image matching accuracy of coins and classifies coins with high accuracy by efficiently collating minute features of coins. An object of the present invention is to provide a coin classification device and a coin classification method.

上記課題を解決するために、本発明は、硬貨の入力画像と予め登録された文字テンプレート画像とを照合することによって前記硬貨の分類処理を行う硬貨分類装置であって、前記入力画像を極座標変換する極座標変換画像取得手段と、予め登録されている基準画像との照合により回転角を取得する回転角取得手段と、前記取得された回転角を基に前記硬貨の入力画像と前記文字テンプレートの回転角を一致させる画像回転手段と、前記硬貨の入力画像の一部をなす発行年を示す文字部分を含む部分画像と前記文字テンプレート画像とを、両画像の回転角が揃った状態で照合を行い、その照合値に基づいて、前記硬貨の発行年を識別する発行年識別手段と、前記発行年識別手段の識別結果に基づいて前記硬貨を分類処理する分類処理手段とを備えたことを特徴とする。   In order to solve the above-described problem, the present invention provides a coin classification device that performs the coin classification process by collating an input image of coins with a pre-registered character template image, and converting the input image to a polar coordinate Polar coordinate conversion image acquisition means, rotation angle acquisition means for acquiring a rotation angle by collating with a pre-registered reference image, rotation of the coin input image and the character template based on the acquired rotation angle The image rotation means for matching the corners, the partial image including the character part indicating the issue year that forms part of the input image of the coin, and the character template image are collated with the rotation angles of both images being aligned. , An issue year identifying means for identifying the issue year of the coin based on the collation value, and a classification processing means for classifying the coin based on the identification result of the issue year identifying means. Characterized in that was.

また、本発明は、上記発明において、前記分類処理手段は、前記発行年識別手段により識別された所定の発行年の硬貨を他の発行年の硬貨と分類処理することを特徴とする。   Moreover, the present invention is characterized in that, in the above-mentioned invention, the classification processing means classifies coins of a predetermined issue year identified by the issue year identification means with coins of other issue years.

また、本発明は、上記発明において、前記分類処理手段は、前記発行年識別手段により硬貨の発行年が識別されない場合には、該硬貨をリジェクト対象として分類処理することを特徴とする。   Further, the present invention is characterized in that, in the above-mentioned invention, the classification processing means classifies the coin as a subject of rejection when the issue year of the coin is not identified by the issue year identification means.

また、本発明は、上記発明において、前記分類処理手段は、複数の発行年の硬貨の特徴部分をそれぞれ示す複数の特徴部テンプレートを記憶する特徴部テンプレート記憶手段と、前記発行年識別手段により硬貨の発行年が識別された場合に、該発行年に対応する硬貨の特徴部テンプレートを前記特徴部テンプレート記憶手段から検索する検索手段と、前記硬貨の入力画像の一部をなす該硬貨の特徴部分を示す部分画像と前記検索手段により検索された特徴部テンプレートとの照合値に基づいて、前記硬貨が真貨であるか偽貨であるかを識別処理する真偽識別処理手段とを備えたことを特徴とする。   Further, the present invention is the above invention, wherein the classification processing means includes a feature part template storage means for storing a plurality of feature part templates respectively indicating feature parts of coins of a plurality of issue years, and a coin by the issue year identification means. When the issue year of the coin is identified, a search means for searching for a feature template of the coin corresponding to the issue year from the feature template storage means, and a feature portion of the coin that forms a part of the input image of the coin A true / false identification processing means for identifying whether the coin is a true coin or a false coin based on a collation value between the partial image indicating the feature portion template and the feature template searched by the search means It is characterized by.

また、本発明は、上記発明において、前記分類処理手段は、所定の発行年以降とそれまでの旧い年の発行硬貨とを分類することを特徴とする。
また、本発明は、硬貨の入力画像と予め登録された文字テンプレート画像とを照合することによって前記硬貨の分類処理を行う硬貨分類装置の硬貨分類方法であって、前記入力画像を極座標変換する工程と、予め登録されている基準画像との照合により回転角を取得する回転角取得工程と、前記取得された回転角を基に前記硬貨の入力画像と前記文字テンプレートとの回転角を一致させる画像回転工程と、前記硬貨の入力画像の一部をなす発行年を示す文字部分を含む部分画像と前記文字テンプレート画像とを回転角が一致した状態で照合を行い、その照合値に基づいて、前記硬貨の発行年を識別する発行年識別工程と、前記発行年識別工程の識別結果に基づいて前記硬貨を分類処理する分類処理工程とを含んだことを特徴とする。
Further, the present invention is characterized in that, in the above-mentioned invention, the classification processing means classifies the issued coins after a predetermined issue year and issued coins of the old year until then.
Further, the present invention is a coin classification method of a coin classification device that performs a classification process of the coins by collating an input image of coins with a pre-registered character template image, wherein the input image is subjected to polar coordinate conversion. And a rotation angle acquisition step of acquiring a rotation angle by collating with a reference image registered in advance, and an image for matching the rotation angle of the input image of the coin and the character template based on the acquired rotation angle Rotating step, collating the character template image with a partial image including a character part indicating a publication year forming a part of the input image of the coin in a state where the rotation angle is matched, and based on the collation value, An issue year identifying step for identifying the issue year of coins and a classification processing step for classifying the coins based on the identification result of the issue year identifying step are included.

本発明によれば、入力画像を極座標変換し、予め登録されている基準画像との照合により回転角を取得し、取得された回転角を基に硬貨の入力画像と文字テンプレート回転角を一致させ、硬貨の入力画像の一部をなす発行年を示す文字部分を含む部分画像と文字テンプレート画像とを、両画像の回転角が揃った状態で照合を行い、その照合値に基づいて、硬貨の発行年を識別し、この識別結果に基づいて硬貨を分類処理するよう構成したので、硬貨が発行された発行年を考慮しつつ効率良く硬貨を分類することができる。   According to the present invention, the input image is subjected to polar coordinate conversion, the rotation angle is obtained by collation with a reference image registered in advance, and the coin input image and the character template rotation angle are matched based on the obtained rotation angle. The partial image including the character part indicating the year of issue that forms part of the input image of the coin and the character template image are collated in a state where the rotation angles of both images are aligned, and based on the collation value, Since the issue year is identified and the coins are classified based on the identification result, the coins can be efficiently classified in consideration of the issue year in which the coins were issued.

実施例1に係る貨幣識別装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the money identification device which concerns on Example 1. FIG. 実施例1に係る貨幣識別装置の処理手順の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the process sequence of the money identification device which concerns on Example 1. FIG. 図2に示した第1の真偽識別処理の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the 1st authenticity identification process shown in FIG. 図2に示した年代識別処理の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the age identification process shown in FIG. 図2に示した第2の真偽識別処理の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the 2nd authenticity identification process shown in FIG. 図2に示した第1の真偽識別処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the 1st authenticity identification process shown in FIG. 図6に示した画像切出し処理の処理概要を説明するための説明図である。It is explanatory drawing for demonstrating the process outline | summary of the image cutting-out process shown in FIG. 図6に示したエッジ抽出処理において用いられるSobelオペレータを説明するための説明図である。It is explanatory drawing for demonstrating the Sobel operator used in the edge extraction process shown in FIG. 図6に示したエッジ抽出処理の処理概要を説明するための説明図である。It is explanatory drawing for demonstrating the process outline | summary of the edge extraction process shown in FIG. 実施例1に係る極座標変換処理の処理概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining a processing outline of polar coordinate conversion processing according to the first embodiment. 図6に示した回転角検出処理の処理概要を説明するための説明図である。It is explanatory drawing for demonstrating the process outline | summary of the rotation angle detection process shown in FIG. 図6に示した正負分離相関による照合処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the collation process by the positive / negative separation correlation shown in FIG. 実施例1に係る各領域画像を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining each region image according to the first embodiment. 図12に示した正負分離相関画像生成処理に含まれる正規化相関値画像正負分離処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the normalization correlation value image positive / negative separation process contained in the positive / negative separation correlation image generation process shown in FIG. 図12に示した正負分離相関画像生成処理に含まれるテンプレート画像正負分離処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the template image positive / negative separation process included in the positive / negative separation correlation image generation process shown in FIG. 図12に示した正負分離相関画像生成処理に含まれる領域画像生成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the area | region image generation process included in the positive / negative separated correlation image generation process shown in FIG. 図13に示した各領域に対応する画像生成手順を説明するための説明図である。It is explanatory drawing for demonstrating the image generation procedure corresponding to each area | region shown in FIG. 図12に示した膨張処理において用いられる画像マスクを説明するための説明図である。It is explanatory drawing for demonstrating the image mask used in the expansion process shown in FIG. 図12に示した膨張処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the expansion process shown in FIG. 図12に示した膨張処理により生成される画像を説明するための説明図である。It is explanatory drawing for demonstrating the image produced | generated by the expansion process shown in FIG. 図12に示した照合値算出処理において用いられる画像のブロック分割について説明するための説明図である。It is explanatory drawing for demonstrating the block division of the image used in the collation value calculation process shown in FIG. 図2に示した年代識別処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the age identification process shown in FIG. 図22に示した年代識別処理において用いられる文字照合テーブルを説明するための説明図である。It is explanatory drawing for demonstrating the character collation table used in the age identification process shown in FIG. 図2に示した第2の真偽識別処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the 2nd authenticity identification process shown in FIG. 図24に示した第2の真偽識別処理において用いられる特徴テーブルを説明するための説明図である。FIG. 25 is an explanatory diagram for describing a feature table used in the second authenticity identification process illustrated in FIG. 24. 実施例2に係る貨幣識別装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the money identification device which concerns on Example 2. FIG. 実施例2に係る貨幣識別装置の構成の変形例を示す機能ブロック図である。It is a functional block diagram which shows the modification of the structure of the money identification device which concerns on Example 2. FIG. 図27に示した変形例に係る第1の真偽識別処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the 1st authenticity identification process which concerns on the modification shown in FIG.

以下に添付図面を参照して、本発明に係る貨幣識別装置、貨幣識別方法および貨幣識別プログラムの好適な実施例を説明する。なお、以下では、識別対象となる貨幣が硬貨である場合について説明することとする。また、以下の実施例においては識別対象を硬貨としているため極座標変換処理を含むこととしているが、識別対象を紙幣などの非円形の物体とする場合には、かかる極座標変換処理を含まない構成とすることもできる。   Exemplary embodiments of a currency identification device, a currency identification method, and a currency identification program according to the present invention will be described below with reference to the accompanying drawings. In the following, the case where the currency to be identified is a coin will be described. Further, in the following embodiments, since the identification target is a coin, the coordinate conversion process is included, but when the identification target is a non-circular object such as a banknote, the polar coordinate conversion process is not included. You can also

なお、以下の説明において、実施例1では硬貨の金種識別処理を光センサや磁気センサといったセンサを用いておこなう場合について、実施例2ではかかる金種識別処理をCCDカメラ等で撮像した画像を用いておこなう場合について、それぞれ説明することとする。   In the following description, in the case where the denomination identification process of coins is performed using a sensor such as an optical sensor or a magnetic sensor in the first embodiment, an image obtained by capturing the denomination identification process using a CCD camera or the like is used in the second embodiment. Each case will be described.

図1は、実施例1に係る貨幣識別装置1の構成を示す機能ブロック図である。同図に示すように、この貨幣識別装置1は、光センサ2、磁気センサ3、CCDカメラ4、制御部10および記憶部20を備えている。そして、制御部10は、金種識別処理部11、第1の真偽識別処理部12、年代識別処理部13、第2の真偽識別処理部14および真偽判定部15をさらに備え、記憶部20は、登録画像21、回転済入力画像22、文字照合テーブル23および特徴テーブル24をさらに備えている。   FIG. 1 is a functional block diagram illustrating the configuration of the currency identification device 1 according to the first embodiment. As shown in FIG. 1, the money identification device 1 includes an optical sensor 2, a magnetic sensor 3, a CCD camera 4, a control unit 10, and a storage unit 20. The control unit 10 further includes a denomination identification processing unit 11, a first authenticity identification processing unit 12, an age identification processing unit 13, a second authenticity identification processing unit 14, and a true / false determination unit 15, and stores them. The unit 20 further includes a registered image 21, a rotated input image 22, a character matching table 23, and a feature table 24.

光センサ2は、硬貨の穴の有無を検出するためのセンサであり、磁気センサ3は、硬貨の材質および径を判定するためのセンサである。これらのセンサ(光センサ2および磁気センサ3)は、検知した情報を制御部10の金種識別処理部11に出力する処理をおこなう。そして、金種識別処理部11は、かかるセンサ出力に基づいて硬貨の金種を識別することになる。なお、硬貨の径については光センサ2によって検出することとしてもよい。   The optical sensor 2 is a sensor for detecting the presence or absence of a coin hole, and the magnetic sensor 3 is a sensor for determining the material and diameter of the coin. These sensors (the optical sensor 2 and the magnetic sensor 3) perform processing for outputting the detected information to the denomination identification processing unit 11 of the control unit 10. The denomination identification processing unit 11 identifies the denomination of the coin based on the sensor output. Note that the diameter of the coin may be detected by the optical sensor 2.

CCDカメラ4は、照合対象となる硬貨の画像を撮像するためのカメラであり、倍速VGA(Video Graphics Array)カメラなどの硬貨の微細な特徴を撮像するカメラが用いられる。このCCDカメラ4により撮像された硬貨の画像は、第1の真偽識別処理部12に渡される。なお、このCCDカメラ4は、入力画像を所定数の画素の集合体として取り扱う。たとえば、入力画像を256階調の濃度値をもつグレースケール画像として認識し、所定の大きさの矩形画像として第1の真偽識別処理部12に出力する。また、本実施例1においては硬貨の画像を撮像するためにCCDカメラ4を用いることとしたが、これに限らず、高解像度のイメージセンサ等を用いて硬貨の画像を撮像することとしてもよい。   The CCD camera 4 is a camera for capturing an image of a coin to be collated, and a camera for capturing minute features of a coin such as a double speed VGA (Video Graphics Array) camera is used. The coin image picked up by the CCD camera 4 is transferred to the first authenticity identification processing unit 12. The CCD camera 4 handles the input image as an aggregate of a predetermined number of pixels. For example, the input image is recognized as a gray scale image having a density value of 256 gradations, and is output to the first authenticity identification processing unit 12 as a rectangular image having a predetermined size. In the first embodiment, the CCD camera 4 is used to capture a coin image. However, the present invention is not limited thereto, and a coin image may be captured using a high-resolution image sensor or the like. .

金種識別処理部11は、光センサ2および磁気センサ4から出力された情報に基づいて硬貨の金種を識別する処理部である。具体的には、この金種識別処理部11は、磁気センサ3が検出した材質および径と、光センサ2が検出した硬貨の穴の有無とから、硬貨の金種を識別する。なお、上記したように硬貨の径については光センサ2によって検出することとしてもよい。ただし、この場合は、上記の穴の有無を検出する光センサとは異なる方式、たとえば、硬貨の径よりも広いエリアの検出が可能な光センサを用いたり、複数個の光センサを用いたりする方式、によって硬貨の径を検出することになる。   The denomination identification processing unit 11 is a processing unit that identifies the denomination of a coin based on information output from the optical sensor 2 and the magnetic sensor 4. Specifically, the denomination identification processing unit 11 identifies the denomination of the coin based on the material and diameter detected by the magnetic sensor 3 and the presence / absence of a coin hole detected by the optical sensor 2. As described above, the diameter of the coin may be detected by the optical sensor 2. However, in this case, a method different from the above-described optical sensor that detects the presence or absence of a hole, for example, an optical sensor capable of detecting an area wider than the diameter of a coin, or a plurality of optical sensors is used. The diameter of the coin is detected by the method.

第1の真偽識別処理部12は、金種識別処理部11から受け取った金種に基づき、あらかじめ記憶部20に記憶された登録画像21を選択し、選択した登録画像21とCCDカメラ4から取得した入力画像とを照合することにより、硬貨の真偽を識別する処理部である。また、第1の真偽識別処理には、後述する正負分離相関による画像照合処理を用いるので、信頼性の高い識別処理をおこなうことができる。なお、実施例1においては、この第1の真偽識別処理に、後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。   Based on the denomination received from the denomination identification processing unit 11, the first authenticity identification processing unit 12 selects the registered image 21 stored in the storage unit 20 in advance, and selects the registered image 21 and the CCD camera 4 from the selected registration image 21. It is a processing unit that identifies the authenticity of a coin by collating it with the acquired input image. In addition, since the first true / false identification process uses an image matching process based on the positive / negative separation correlation described later, a highly reliable identification process can be performed. In the first embodiment, the first true / false discrimination process uses a collation method based on a positive / negative separation correlation described later, but other collation methods (for example, a general normalized correlation method) may be used. Good.

この第1の真偽識別処理部12は、硬貨の発行年などの各個体に固有の部分を除いた硬貨の模様に基づいて硬貨の真偽識別処理をおこなう。具体的には、登録画像21として用いるテンプレート画像を、発行年が異なる同種硬貨の平均画像とすることにより、各個体に固有の部分の影響を排除して硬貨の真偽を識別する。かかる真偽識別処理により、100円硬貨や500円硬貨といった金種の真貨や、重量や金属の組成が類似する外貨を変造した偽貨などを識別することができる。   The first true / false identification processing unit 12 performs true / false identification processing of a coin based on a coin pattern excluding a portion unique to each individual, such as a coin issuance year. Specifically, the template image used as the registered image 21 is an average image of the same type of coins having different issue years, thereby identifying the true / false of the coin by eliminating the influence of the portion unique to each individual. By such authenticity identification processing, it is possible to identify denominations such as 100-yen coins and 500-yen coins, and fake coins obtained by modifying foreign currencies with similar weights and metal compositions.

また、この第1の真偽識別処理部12では、入力画像から硬貨部分の画像を切出し、エッジ抽出処理によりエッジ部分を強調し、個体ごとの差異を吸収するために正規化したうえで、極座標変換をおこなう。そして、この極座標変換済の入力画像と、同様な処理を経て登録された登録画像21とを平行移動させながら照合することにより回転角を算出する。したがって、識別結果が真貨である場合には、登録画像21と同一の回転角を有する回転済入力画像22が生成されることになる。この回転済入力画像22は、後述する年代識別処理部13および第2の真偽識別処理部14において用いられることになる。   The first authenticity identification processing unit 12 cuts out an image of a coin part from the input image, emphasizes the edge part by edge extraction processing, normalizes it to absorb individual differences, and then polar coordinates. Perform the conversion. Then, the rotation angle is calculated by collating the input image after the polar coordinate conversion with the registered image 21 registered through the same processing while being translated. Therefore, when the identification result is a true coin, a rotated input image 22 having the same rotation angle as that of the registered image 21 is generated. The rotated input image 22 is used in the age identification processing unit 13 and the second authenticity identification processing unit 14 described later.

年代識別処理部13は、記憶部20の回転済入力画像22および文字照合テーブル23を用いて照合対象となる硬貨の発行年(年代)を識別する処理部である。具体的には、この年代識別処理部13は、第1の真偽識別処理部22において真偽識別された金種を受け取り、受け取った金種に対応する文字テンプレート画像を文字照合テーブル23から取得する。そして、回転済入力画像22から年代をあらわす文字部分を切出し、切り出した各文字と、金種に対応した文字テンプレート画像とを照合することにより、照合対象となる硬貨の年代を識別する。そして、識別された年代は、第2の真偽識別処理部14に渡される。   The age identification processing unit 13 is a processing unit that identifies an issue year (year) of a coin to be verified using the rotated input image 22 and the character verification table 23 of the storage unit 20. Specifically, the age identification processing unit 13 receives the denomination identified by the first authenticity identification processing unit 22 and acquires a character template image corresponding to the received denomination from the character verification table 23. To do. Then, the character portion representing the age is cut out from the rotated input image 22, and the age of the coin to be collated is identified by collating each cut out character with the character template image corresponding to the denomination. Then, the identified age is passed to the second authenticity identification processing unit 14.

また、かかる年代識別処理部13では、年代を構成する文字の認識に失敗した場合や、文字の認識には成功したものの不当な年代である場合(たとえば、硬貨が発行されていない年代である場合)のように、年代の識別に失敗した場合には、照合対象となる硬貨を「リジェクト対象」と判定する。このように、年代識別に失敗した場合に、ただちに偽貨と判定するのではなく、「リジェクト対象」と判定するのは以下の理由による。   In addition, in the age identification processing unit 13, when the recognition of the characters constituting the age has failed, or when the character recognition has succeeded but it is an unfair age (for example, when the coin has not been issued) If the age identification fails as in (), the coin to be collated is determined to be “rejected”. In this way, when the age identification fails, it is determined not to be a fake coin immediately but to be “rejected” for the following reason.

すなわち、年代の識別に失敗した硬貨の中には、汚れなどで一部の文字が認識できない真貨(汚損貨)、年代自体が刻印されていない真貨、磨耗によって文字のフォント形状が変化した真貨、などが含まれるのでただちに偽貨とすることは不適切であるためである。なお、「リジェクト対象」のなかでも偽貨である可能性が高い場合、たとえば、年代自体が刻印されていない場合には偽貨として取り扱うこととしてもよい。また、実施例1においては、この年代識別処理に、後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。   In other words, among coins that failed to identify the age, the font shape of the characters changed due to the real coins (dirty coins) where some characters could not be recognized due to dirt, the true coins that were not stamped with the age itself, and wear. This is because it is improper to immediately make a fake coin because it contains a true coin. In addition, it is good also as handling as a fake coin, when possibility that it is a fake coin among the "reject object" is high, for example, when the age itself is not stamped. In the first embodiment, a collation method based on positive / negative separation correlation, which will be described later, is used for this age identification process, but another collation method (for example, a general normalized correlation method) may be used.

第2の真偽識別処理部14は、年代識別処理部13から渡された年代を用いて特徴テーブル24を検索することにより、かかる年代の硬貨に特有の特徴部分をあらわす特徴部テンプレート画像を取得する。そして、この特徴部テンプレート画像と、記憶部20の回転済入力画像22の対応する部分とを照合する。なお、実施例1においては、この第2の真偽識別処理に、後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。   The second authenticity identification processing unit 14 searches the feature table 24 using the age passed from the age identification processing unit 13 to obtain a feature part template image representing a characteristic part peculiar to the coin of the age. To do. And this characteristic part template image is collated with the corresponding part of the rotated input image 22 of the memory | storage part 20. FIG. In the first embodiment, a collation method using positive / negative separation correlation described later is used for the second authenticity identification process, but other collation methods (for example, a general normalized correlation method) may be used. Good.

真偽判定部15は、第1の真偽識別処理部12、年代識別処理部13および第2の真偽識別処理部14の処理結果を受け取り照合対象となる硬貨の真偽について最終的な判定をおこなう処理部である。たとえば、第1の真偽識別処理部12の識別結果が「偽貨」である場合には、年代識別処理や第2の真偽識別処理をおこなうことなく判定結果を出力する。また、第1の真偽識別処理部12、年代識別処理部13および第2の真偽識別処理部14のすべてにおいて「真貨」である旨の結果がでた場合には、かかる結果を出力することになる。   The authenticity determination unit 15 receives the processing results of the first authenticity identification processing unit 12, the age identification processing unit 13, and the second authenticity identification processing unit 14, and finally determines the authenticity of the coin to be verified. It is a processing unit that performs. For example, when the identification result of the first authenticity identification processing unit 12 is “false coins”, the determination result is output without performing the age identification process or the second authenticity identification process. In addition, when all of the first authenticity identification processing unit 12, the age identification processing unit 13 and the second authenticity identification processing unit 14 indicate that they are “true coins”, the result is output. Will do.

このように、実施例1に係る貨幣識別装置1では、従来、照合処理から除外されることが多かった年代部分を文字認識し、さらに、硬貨の年代に特有の特徴部分を管理する特徴テーブルを用いることにより、認識した年代の特徴部テンプレート画像と入力画像の対応する部分とを照合することとしている。したがって、硬貨の微細な特徴を効率よく照合することにより照合率を向上させることができるとともに、偽貨の傾向に合わせて特徴テーブルを保守することにより、効率的に偽貨を検出することができる。   As described above, in the money identifying apparatus 1 according to the first embodiment, a character table that recognizes a character part that has been frequently excluded from the matching process and manages a character part that is specific to the age of the coin is provided. By using it, the featured part template image of the recognized age is collated with the corresponding part of the input image. Therefore, the collation rate can be improved by efficiently collating the fine features of the coins, and the fake coins can be efficiently detected by maintaining the feature table according to the tendency of the fake coins. .

次に、実施例1に係る貨幣識別装置1の処理手順の概要について図2〜図5を用いて説明する。図2は、実施例1に係る貨幣識別装置1の処理手順の概要を示すフローチャートである。なお、同図の第1の真偽識別処理(ステップS102)、年代識別処理(ステップS104)および第2の真偽識別処理(ステップS106)の処理手順の詳細については後述する。   Next, the outline | summary of the process sequence of the money identification device 1 which concerns on Example 1 is demonstrated using FIGS. FIG. 2 is a flowchart illustrating an outline of a processing procedure of the money identifying apparatus 1 according to the first embodiment. Details of the processing procedures of the first authenticity identification process (step S102), the age identification process (step S104), and the second authenticity identification process (step S106) shown in FIG.

まず、光センサ2および磁気センサ3が検出した情報に基づいて金種識別処理部10が硬貨の金種を識別すると(ステップS101)、識別された金種を受け取った第1の真偽識別処理部12は、CCDカメラ4により撮像された硬貨の画像(入力画像)と、記憶部20の登録画像21とを照合することにより、金種識別処理部10がおこなった金種識別の真偽識別処理をおこなう(ステップS102)。そして、かかる真偽識別の結果が「真」でない場合には(ステップS103否定)、真偽判定部15は「偽貨」と判定して(ステップS110)判定結果を出力する。   First, when the denomination identification processing unit 10 identifies a denomination of a coin based on information detected by the optical sensor 2 and the magnetic sensor 3 (step S101), a first true / false identification process in which the identified denomination is received. The unit 12 collates the coin image (input image) captured by the CCD camera 4 with the registered image 21 in the storage unit 20, thereby identifying the authenticity of the denomination identification performed by the denomination identification processing unit 10. Processing is performed (step S102). If the result of the true / false identification is not “true” (No at Step S103), the true / false determining unit 15 determines “false money” (Step S110) and outputs the determination result.

ここで、この第1の真偽識別処理(ステップS102)の概要について図3を用いて説明しておく。図3は、図2に示した第1の真偽識別処理の概要を説明するための説明図である。図3に示すように、第1の真偽識別処理部12は、CCDカメラ4から受け取った入力画像をエッジ強調などの前処理をおこなったうえで極座標変換する。そして、この極座標変換済の入力画像と、同様な前処理および極座標変換を経たうえで登録された登録画像21(図3のテンプレート画像)とを照合する。実施例1においては、この第1の真偽識別処理に、後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。   Here, an outline of the first authenticity identification process (step S102) will be described with reference to FIG. FIG. 3 is an explanatory diagram for explaining an overview of the first authenticity identification process shown in FIG. As shown in FIG. 3, the first authenticity identification processing unit 12 performs polar processing on the input image received from the CCD camera 4 after performing preprocessing such as edge enhancement. Then, the input image after the polar coordinate conversion is collated with the registered image 21 (template image in FIG. 3) registered after the same preprocessing and polar coordinate conversion. In the first embodiment, a collation method based on a positive / negative separation correlation, which will be described later, is used for the first true / false discrimination process, but another collation method (for example, a general normalized correlation method) may be used.

図2の説明に戻り、ステップS103以降の処理手順について説明する。第1の真偽識別処理部12の識別結果が「真」である場合には(ステップS103肯定)、第1の真偽識別処理部12により記憶部20に記憶された回転済入力画像22と文字照合テーブルとを用い、年代識別処理部13が硬貨の年代部分の文字認識をおこなうことにより年代識別処理をおこなう(ステップS104)。そして、かかる年代識別処理に失敗した場合には(ステップS105否定)、真偽判定部15は「リジェクト対象」と判定して(ステップS109)判定結果を出力する。一方、年代識別処理に成功した場合には(ステップS105肯定)、正常に識別された年代が第2の真偽識別処理部14に渡される。   Returning to the description of FIG. 2, the processing procedure after step S <b> 103 will be described. When the identification result of the first authenticity identification processing unit 12 is “true” (Yes at Step S103), the rotated input image 22 stored in the storage unit 20 by the first authenticity identification processing unit 12 Using the character collation table, the age identification processing unit 13 performs age identification processing by performing character recognition of the age portion of the coin (step S104). If the age identification process fails (No at Step S105), the authenticity determination unit 15 determines “reject target” (Step S109) and outputs a determination result. On the other hand, when the age identification process is successful (Yes at Step S105), the age that is normally identified is passed to the second authenticity identification processing unit 14.

ここで、この年代識別処理(ステップS104)の概要について図4を用いて説明しておく。図4は、図2に示した年代識別処理の概要を説明するための説明図である。第1の真偽識別処理部12によって金種の真偽が識別されると、図4に示すように、年代識別処理部13は、記憶部20の文字照合テーブル23を検索して該当する金種の文字テンプレート画像を取得する。そして、回転済入力画像22から切り出され位置補正された年代部分の各文字を、取得した文字テンプレート画像と順次照合することにより年代を識別する。このようにして正常に識別された年代は、第2の真偽識別処理部14に渡される(ステップS105肯定)。一方、回転済入力画像22に係る年代部分の文字のいずれかが、文字テンプレート画像のいずれとも一致しない場合には、「リジェクト対象」である旨が真偽判定部15に渡されることになる(ステップS105否定)。   Here, an outline of the age identification process (step S104) will be described with reference to FIG. FIG. 4 is an explanatory diagram for explaining an overview of the age identification process shown in FIG. When the authenticity of the denomination is identified by the first authenticity identification processing unit 12, as shown in FIG. 4, the age identification processing unit 13 searches the character verification table 23 in the storage unit 20 to find the corresponding gold Get a character template image of the seed. Then, the age is identified by sequentially collating each character of the age portion cut out from the rotated input image 22 and position-corrected with the acquired character template image. The age normally identified in this way is passed to the second authenticity identification processing unit 14 (Yes in step S105). On the other hand, if any of the characters of the age part related to the rotated input image 22 does not match any of the character template images, the fact that it is “rejected” is passed to the authenticity determination unit 15 ( Step S105 negative).

実施例1においては、この年代識別処理部13の文字識別処理には、後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。また、一般的な正規化相関法では照合ミスを起こす可能性のある「三」と「五」などの照合処理に正負分離相関による照合方法を用い、他の文字の照合処理には一般的な正規化相関法を用いることとしてもよい。また、文字照合テーブル23は、必ずしも金種ごとにまとめる必要はなく、認識される可能性のある文字を少なくとも含むこととすれば足りる。   In the first embodiment, the character identification process of the age identification processing unit 13 uses a collation method based on the positive / negative separation correlation described later, but uses another collation method (for example, a general normalized correlation method). Also good. In addition, the generalized correlation method uses a collation method based on positive / negative separation correlation for collation processing such as “3” and “5”, which may cause a collation error, and is generally used for collation processing of other characters. A normalized correlation method may be used. Moreover, the character collation table 23 does not necessarily have to be collected for each denomination, and it is sufficient to include at least characters that may be recognized.

図2の説明に戻り、第2の真偽識別処理について説明する。年代識別処理において年代識別に成功した場合には(ステップS105肯定)、正常に識別された年代が第2の真偽識別処理部14に渡される。そして、かかる年代を受け付けた第2の真偽識別処理部14は、記憶部20の特徴テーブル24を検索し、該当する年代の特徴部テンプレート画像を取得して回転済入力画像22の対応する部分との照合をおこなう(ステップS106)。   Returning to the description of FIG. 2, the second authenticity identification process will be described. When the age identification is successful in the age identification process (Yes at Step S105), the age that is normally identified is passed to the second authenticity identification processing unit 14. Then, the second authenticity identification processing unit 14 that has received the age searches the feature table 24 of the storage unit 20, acquires the feature template image of the corresponding age, and corresponds to the corresponding portion of the rotated input image 22. (Step S106).

ここで、この第2の真偽識別処理(ステップS106)の概要について図5を用いて説明しておく。図5は、図2に示した第2の真偽識別処理の概要を説明するための説明図である。図5に示すように、特徴テーブル24の各レコードは、金種、発行年、特徴部分のX座標およびY座標、特徴部分の幅および高さ、および特徴部テンプレート画像を有する。なお、図5に示したテーブルは、特徴テーブルの一例を示すものであり、上述した情報以外にフォント情報などの情報を含むこととしてもよい。   Here, the outline of the second authenticity identification process (step S106) will be described with reference to FIG. FIG. 5 is an explanatory diagram for explaining the outline of the second authenticity identification process shown in FIG. As shown in FIG. 5, each record of the feature table 24 includes a denomination, an issue year, an X coordinate and a Y coordinate of the feature portion, a width and a height of the feature portion, and a feature portion template image. The table shown in FIG. 5 is an example of the feature table, and may include information such as font information in addition to the information described above.

第2の真偽識別処理部14は、第1の真偽識別処理部12により真偽識別された金種および年代識別処理部13により識別された年代を用いて特徴テーブル24を検索する。たとえば、同図においては、金種が「500円」であり、識別された年代が「昭和58年」であるので、特徴テーブル24の金種が「500円」であり、発行年が「昭和58年」であるレコードが抽出される。そして、特徴テーブル24から特徴部分の位置情報(X座標、Y座標、幅および高さ)を取得して、回転済入力画像22の該当する部分を切り出し、切り出した部分と、特徴テーブル24から取得した特徴部テンプレート画像とを照合する。   The second authenticity identification processing unit 14 searches the feature table 24 using the denomination identified by the first authenticity identification processing unit 12 and the age identified by the age identification processing unit 13. For example, in the figure, since the denomination is “500 yen” and the identified age is “Showa 58”, the denomination of the feature table 24 is “500 yen” and the issue year is “Showa”. The record “58 years” is extracted. Then, the position information (X coordinate, Y coordinate, width, and height) of the feature portion is acquired from the feature table 24, the corresponding portion of the rotated input image 22 is cut out, and the cut out portion and the feature table 24 are acquired. The obtained feature part template image is collated.

なお、実施例1においては、この第2の真偽識別処理部14の照合処理には後述する正負分離相関による照合方法を用いるが、他の照合方法(たとえば、一般的な正規化相関法)を用いることとしてもよい。   In the first embodiment, a collation method based on a positive / negative separation correlation, which will be described later, is used for the collation processing of the second authenticity identification processing unit 14, but other collation methods (for example, a general normalized correlation method) are used. It is good also as using.

図2の説明に戻って、ステップS107以降の処理手順について説明する。第2の真偽識別処理の結果が「真」でない場合には(ステップS107否定)、真偽判定部15は「偽貨」と判定して(ステップS110)判定結果を出力する。一方、第2の真偽識別処理の結果が「真」である場合には(ステップS107肯定)、真偽判定部15は「真貨」と判定して(ステップS108)判定結果を出力し、処理を終了する。   Returning to the description of FIG. 2, the processing procedure after step S107 will be described. If the result of the second authenticity identification process is not “true” (No at step S107), the authenticity determination unit 15 determines “false coins” (step S110) and outputs the determination result. On the other hand, when the result of the second authenticity identification process is “true” (Yes at step S107), the true / false determining unit 15 determines “true coin” (step S108) and outputs the determination result, The process ends.

次に、図2に示した第1の真偽識別処理について図6〜図21を用いてさらに詳細に説明する。図6は、図2に示した第1の真偽識別処理の処理手順を示すフローチャートである。図6に示したように、第1の真偽識別処理部12は、受け取った入力画像から硬貨部分を切り出す画像切出し処理をおこなう(ステップS201)。具体的には、硬貨を含む入力画像に外接する正方形の領域内の画像のみを切り出す処理をおこなう。   Next, the first authenticity identification process shown in FIG. 2 will be described in more detail with reference to FIGS. FIG. 6 is a flowchart showing a processing procedure of the first authenticity identification processing shown in FIG. As shown in FIG. 6, the first authenticity identification processing unit 12 performs an image cutout process of cutting out a coin portion from the received input image (step S201). Specifically, only the image in the square area circumscribing the input image including coins is cut out.

図7は、この画像切出し処理の処理概要を説明するための説明図である。同図に示すように、画像切出し処理では、CCDカメラ4から取得した入力画像30を水平方向に走査して全画素の濃度値を累積し、水平方向射影30aを生成する。また、入力画像30を垂直方向に走査して、同様の手順で垂直方向射影30bを生成する。そして、水平方向射影30aおよび垂直方向射影30bを走査し、累積した濃度値の立上り座標と立下り座標を算出する。つづいて、同図の4本の破線で示したように、算出された各座標に囲まれた領域を切出画像31として切り出し、この切出画像31をエッジ抽出処理(ステップS202)に出力する。   FIG. 7 is an explanatory diagram for explaining the outline of the image cut-out process. As shown in the figure, in the image cutting process, the input image 30 acquired from the CCD camera 4 is scanned in the horizontal direction, and the density values of all the pixels are accumulated to generate a horizontal projection 30a. Further, the input image 30 is scanned in the vertical direction, and the vertical projection 30b is generated in the same procedure. Then, the horizontal projection 30a and the vertical projection 30b are scanned, and the rising coordinates and falling coordinates of the accumulated density values are calculated. Subsequently, as indicated by the four broken lines in the figure, the region surrounded by the calculated coordinates is cut out as a cutout image 31, and this cutout image 31 is output to the edge extraction process (step S202). .

図6の説明に戻り、エッジ抽出処理(ステップS202)について説明する。エッジ抽出処理(ステップS202)は、画像切出し処理(ステップS201)から切出画像31を取得し、切出画像31の明るさや色合いなどの個体差に基づく影響を避けるために、切出画像31の濃度変化(エッジ強度)を算出する。また、算出したエッジ強度のばらつきを抑えるために、エッジ強度の正規化をおこなう。具体的には、切出画像31に対してSobelオペレータを用いたエッジ抽出処理をおこなうことによりエッジ強度を算出し、算出結果を正規化する。なお、実施例1においては、Sobelオペレータを用いることとしたが、Robertsオペレータなどを用いてエッジ抽出をおこなうこともできる。   Returning to the description of FIG. 6, the edge extraction process (step S202) will be described. The edge extraction process (step S202) acquires the cutout image 31 from the image cutout process (step S201), and avoids the influence based on individual differences such as the brightness and the hue of the cutout image 31. The density change (edge strength) is calculated. Also, in order to suppress variation in the calculated edge strength, the edge strength is normalized. Specifically, the edge intensity is calculated by performing edge extraction processing using the Sobel operator on the cut image 31, and the calculation result is normalized. In the first embodiment, the Sobel operator is used, but edge extraction can also be performed using a Roberts operator or the like.

図8は、Sobelオペレータを説明するための説明図である。同図に示すように、エッジ抽出処理(ステップS202)は、水平方向エッジ算出用31aおよび垂直方向エッジ算出用31bの二つのSobelオペレータを用いてエッジ強度の算出をおこなう。具体的には、切出画像31の全画素について、各Sobelオペレータ(31aおよび31b)を走査し、水平方向エッジ算出結果Gxおよび垂直方向エッジ算出結果Gyを取得する。そして、各画素におけるエッジ強度(G)を算出したうえで、かかるエッジ強度を正規化(E)する。

Figure 2012084175
FIG. 8 is an explanatory diagram for explaining the Sobel operator. As shown in the figure, in the edge extraction process (step S202), edge strength is calculated using two Sobel operators, ie, a horizontal edge calculation 31a and a vertical edge calculation 31b. Specifically, the Sobel operators (31a and 31b) are scanned for all the pixels of the cutout image 31, and the horizontal edge calculation result Gx and the vertical edge calculation result Gy are acquired. Then, after calculating the edge strength (G) in each pixel, the edge strength is normalized (E).
Figure 2012084175

式(1)に示すように、各画素におけるエッジ強度(G)は、水平方向エッジ算出結果Gxの絶対値と垂直方向エッジ算出結果Gyの絶対値との和としてあらわされる。また、式(2)に示すように、各画素における正規化エッジ強度(E)は、硬貨の種別毎に所定の値が設定される定数cとエッジ強度(G)との積を、全画素にわたるエッジ強度(G)の総和で除したものとなる。   As shown in Equation (1), the edge strength (G) in each pixel is expressed as the sum of the absolute value of the horizontal edge calculation result Gx and the absolute value of the vertical edge calculation result Gy. Further, as shown in Expression (2), the normalized edge strength (E) in each pixel is the product of a constant c and an edge strength (G) for which a predetermined value is set for each type of coin, Divided by the sum of the edge strengths (G).

このように、エッジ強度の正規化をおこなうことで、エッジが出やすい新貨と、エッジが出にくい流通貨との間で、エッジ強度のばらつきが発生することを抑えることができるので、硬貨の新旧にかかわらず、種々の硬貨の照合を精度良くおこなうことができる。   In this way, by normalizing the edge strength, it is possible to suppress the occurrence of edge strength variation between a new coin that is easy to produce an edge and a current currency that is difficult to produce an edge. Regardless of old or new, various coins can be verified with high accuracy.

図9は、エッジ抽出処理(ステップS202)によりおこなわれる処理(画像変換処理)の概要を説明するための説明図である。同図に示すように、切出画像31は、Sobelオペレータを用いたエッジ強度算出処理により、エッジ抽出画像32に画像変換される。そして、エッジ抽出画像32は、式(1)および式(2)を用いたエッジ強度正規化処理により、エッジ正規化画像33に画像変換される。エッジ抽出処理(ステップS202)は、このエッジ正規化画像33をマッチング処理(ステップS203〜ステップS205)の極座標変換処理(ステップS203)に出力する。   FIG. 9 is an explanatory diagram for explaining an overview of processing (image conversion processing) performed by the edge extraction processing (step S202). As shown in the figure, the cut-out image 31 is converted into an edge extracted image 32 by an edge strength calculation process using a Sobel operator. Then, the edge extracted image 32 is image-converted into an edge normalized image 33 by edge intensity normalization processing using Expression (1) and Expression (2). In the edge extraction process (step S202), the edge normalized image 33 is output to the polar coordinate conversion process (step S203) of the matching process (steps S203 to S205).

同図に示したエッジ抽出画像32の各画素値は、たとえば、0〜255の値をとり、0が黒に対応し、255が白に対応したグレースケール値をとる。同図のエッジ抽出画像32において、白い部分が抽出されたエッジ部分であり、黒い部分が背景部分である。また、エッジ正規化画像33の各画素値は、たとえば、0〜255の値をとり、0が黒に対応し、255が白に対応したグレースケール値をとる。なお、同図のエッジ正規化画像33において、白い部分がエッジ部分に相当し、黒い部分が背景に相当する点はエッジ抽出画像32と同様である。   Each pixel value of the edge extraction image 32 shown in the figure takes a value of 0 to 255, for example, 0 corresponds to black, and 255 takes a gray scale value corresponding to white. In the edge extracted image 32 of FIG. 3, the white portion is the extracted edge portion, and the black portion is the background portion. Further, each pixel value of the edge normalized image 33 takes a value of 0 to 255, for example, 0 corresponds to black, and 255 corresponds to a gray scale value corresponding to white. Note that, in the edge normalized image 33 shown in the figure, the white portion corresponds to the edge portion and the black portion corresponds to the background in the same manner as the edge extracted image 32.

図6の説明に戻って、マッチング処理(ステップS203〜ステップS205)について説明する。このマッチング処理では、エッジ抽出処理(ステップS202)からエッジ正規化画像33を取得し、記憶部20の登録画像21からエッジ正規化および極座標変換済のテンプレート画像を取得する。そして、かかるエッジ正規化画像33を極座標変換し、この極座標変換済の画像と、テンプレート画像とのずれ角をテンプレート画像の平行移動により検出するとともに、表裏の判定をおこなって、エッジ正規化画像33およびずれ角補正済テンプレート画像を正負分離相関による照合処理(ステップS206)に出力する。なお、実施例1においては、テンプレート画像を平行移動させることによりずれ角を検出する場合について説明するが、エッジ正規化画像33を極座標変換した画像を平行移動させることによりずれ角を検出することとしてもよい。   Returning to the description of FIG. 6, the matching process (steps S203 to S205) will be described. In this matching process, the edge normalization image 33 is acquired from the edge extraction process (step S202), and the edge normalized and polar coordinate converted template image is acquired from the registered image 21 of the storage unit 20. Then, the edge normalized image 33 is subjected to polar coordinate conversion, and a deviation angle between the polar coordinate-converted image and the template image is detected by parallel movement of the template image, and the front / back determination is performed to determine the edge normalized image 33. The deviation angle corrected template image is output to the collation process (step S206) based on the positive / negative separation correlation. In the first embodiment, the case where the shift angle is detected by translating the template image will be described. However, the shift angle is detected by translating an image obtained by converting the edge normalized image 33 into polar coordinates. Also good.

極座標変換処理(ステップS203)では、エッジ正規化画像33を極座標変換する。具体的には、エッジ正規化画像33の中心点を算出して、かかる中心点を極座標の原点とする。そして、回転角θおよび中心点からの距離ρにより各画素を特定し、各画素をρ−θ空間に移動させることにより、極座標変換をおこなう。かかる変換には、

Figure 2012084175

を用いる。 In the polar coordinate conversion process (step S203), the edge normalized image 33 is subjected to polar coordinate conversion. Specifically, the center point of the edge normalized image 33 is calculated, and this center point is set as the origin of polar coordinates. Then, each pixel is specified by the rotation angle θ and the distance ρ from the center point, and the polar coordinate conversion is performed by moving each pixel to the ρ-θ space. For such conversion,
Figure 2012084175

Is used.

図10は、かかる極座標変換の処理概要を説明するための説明図である。x−y空間(エッジ正規化画像33)の中心点を原点とし、各画素の座標を(x,y)であらわすと、かかるxおよびyと、上述したρおよびθとは、式(3)および式(4)に示した関係を有する。したがって、エッジ正規化画像33内の各画素(x,y)を、式(3)および(4)の関係を満たす(ρ,θ)に変換することにより、極座標変換処理(ステップS203)では、極座標変換済エッジ正規化画像34を生成する。   FIG. 10 is an explanatory diagram for explaining the processing outline of such polar coordinate conversion. When the center point of the xy space (edge normalized image 33) is the origin and the coordinates of each pixel are represented by (x, y), the x and y and the above-described ρ and θ are expressed by the following equation (3). And the relationship shown in Formula (4). Therefore, by converting each pixel (x, y) in the edge normalized image 33 into (ρ, θ) that satisfies the relationship of the expressions (3) and (4), the polar coordinate conversion process (step S203): A polar coordinate transformed edge normalized image 34 is generated.

なお、同図においては、中心点からの距離ρは、10〜100の値をとり、回転角θは、0〜255の値をとる場合について示しているが、これらの値の範囲は任意に設定することができる。   In the figure, the distance ρ from the center point takes a value of 10 to 100, and the rotation angle θ takes a value of 0 to 255, but the range of these values is arbitrary. Can be set.

図6の説明に戻り、回転角検出処理(ステップS204)について説明する。回転角検出処理(ステップS204)では、極座標変換済エッジ正規化画像34と、同様の極座標変換処理によりあらかじめ極座標変換されたテンプレート画像40とのずれ角を検出して、両画像のずれ角を補正する処理をおこなう。図11は、回転角検出処理(ステップS204)の処理概要を説明するための説明図である。   Returning to FIG. 6, the rotation angle detection process (step S204) will be described. In the rotation angle detection process (step S204), a deviation angle between the polar coordinate-converted edge normalized image 34 and the template image 40 that has been previously subjected to polar coordinate conversion by the same polar coordinate conversion process is detected, and the deviation angle between both images is corrected. Perform the process. FIG. 11 is an explanatory diagram for explaining the processing outline of the rotation angle detection processing (step S204).

同図に示すように、ρ−θ空間において、極座標変換済エッジ正規化画像34をθ座標軸と平行に移動させる。そして、θ座標方向のずらし角(φ)と、各ずらし角(φ)におけるテンプレート画像40とエッジ正規化画像33との一致度M(φ)を算出し、この一致度M(φ)が最大となる回転角φmaxを取得する。なお、かかる一致度M(φ)は、

Figure 2012084175

により算出する。 As shown in the figure, in the ρ-θ space, the polar coordinate-converted edge normalized image 34 is moved in parallel with the θ coordinate axis. Then, the shift angle (φ) in the θ coordinate direction and the matching degree M (φ) between the template image 40 and the edge normalized image 33 at each shifting angle (φ) are calculated, and the matching degree M (φ) is the maximum. The rotation angle φ max is obtained. The coincidence degree M (φ) is
Figure 2012084175

Calculated by

式(5)に示すように、各ずらし角(φ)における一致度M(φ)は、極座標変換済エッジ正規化画像34をφだけずらした場合において、テンプレート画像40の各画素の濃度値t(k,θ)と、エッジ正規化画像33の各画素の濃度値s(k,θ−φ)との積を各画素にわたり総和したしたものとなる。ここで、kは、エッジ正規化画像33における中心点からの距離ρのうち、特徴の出やすい距離を選択した選択値である。たとえば、図10に示した極座標変換済エッジ正規化画像34のρ(0〜100)のうち、特徴の出やすいρの値を16個抽出することにより、かかるkを選択しておく。   As shown in Expression (5), the degree of coincidence M (φ) at each shift angle (φ) is the density value t of each pixel of the template image 40 when the polar coordinate-converted edge normalized image 34 is shifted by φ. The product of (k, θ) and the density value s (k, θ−φ) of each pixel of the edge normalized image 33 is summed over each pixel. Here, k is a selection value obtained by selecting a feature-prone distance from the distance ρ from the center point in the edge normalized image 33. For example, k is selected by extracting 16 values of ρ that are prone to feature out of ρ (0 to 100) of the polar coordinate-converted edge normalized image 34 shown in FIG.

かかるM(φ)の値は、図11に示したように、ある回転角において最大値をもつ山型のグラフとなる。回転角検出処理(ステップS204)では、かかるM(φ)が最大(山型の頂点部分)となるφmaxの値を取得する。このように、回転角検出処理(ステップS204)は、極座標変換を施したρ−θ画像の平行移動によりずれ角を補正するので、x−y画像の回転によりずれ角を補正する方法に比べ計算量を削減することができる。 The value of M (φ) is a mountain graph having a maximum value at a certain rotation angle as shown in FIG. In the rotation angle detection process (step S204), the value of φ max at which M (φ) is maximum (the peak portion of the mountain shape) is acquired. As described above, the rotation angle detection process (step S204) corrects the shift angle by the parallel movement of the ρ-θ image subjected to the polar coordinate conversion, and thus is calculated in comparison with the method of correcting the shift angle by the rotation of the xy image. The amount can be reduced.

図6の説明に戻って、表裏判定処理(ステップS205)について説明する。まず、表裏判定処理(ステップS205)では、極座標変換済の表用テンプレート画像および裏用テンプレート画像と、極座標変換済エッジ正規化画像34との間で、上述した一致度M(φ)の最大値M(φmax)を算出し、このM(φmax)から正規化相関係数Rを求める。具体的には、この正規化相関係数Rは、

Figure 2012084175

により求められる。なお、式(6)中のNは、判定対象となる画素数を示す。 Returning to the description of FIG. 6, the front / back determination processing (step S205) will be described. First, in the front / back determination process (step S205), the maximum value of the degree of matching M (φ) described above between the polar template-converted front and back template images and the polar coordinate-converted edge normalized image 34. M (φ max ) is calculated, and a normalized correlation coefficient R is obtained from this M (φ max ). Specifically, this normalized correlation coefficient R is
Figure 2012084175

Is required. Note that N in Expression (6) indicates the number of pixels to be determined.

そして、表裏判定処理(ステップS205)では、正規化相関係数Rが大きいほうのテンプレート画像を選択し、極座標変換済エッジ正規化画像34とともに正負分離相関による判定処理(ステップS206)に出力する。たとえば、裏用テンプレート画像と極座標変換済エッジ正規化画像34との正規化相関係数Rのほうが、表用テンプレート画像と極座標変換済エッジ正規化画像34との正規化相関係数Rよりも大きい場合には、裏用テンプレート画像と極座標変換済エッジ正規化画像34とを正負分離相関による照合処理(ステップS206)に出力する。ここで、この正負分離相関による照合処理(ステップS206)に出力される極座標変換済エッジ正規化画像34は、角度φmaxだけ平行移動してテンプレート画像とのずれ角を補正した極座標変換済エッジ正規化画像34である。 In the front / back determination process (step S205), a template image having a larger normalized correlation coefficient R is selected and output to the determination process (step S206) based on the positive / negative separation correlation together with the polar coordinate-converted edge normalized image 34. For example, the normalized correlation coefficient R between the back template image and the polar coordinate transformed edge normalized image 34 is larger than the normalized correlation coefficient R between the front template image and the polar coordinate transformed edge normalized image 34. In this case, the back template image and the polar coordinate-converted edge normalized image 34 are output to the matching process (step S206) based on the positive / negative separation correlation. Here, the polar converted edge normalized image 34 to be output to the matching processing by the positive-negative separation correlation (step S206), the angle phi max only translate to polar coordinate converted edges normalization the displacement angle was corrected with a template image This is a converted image 34.

図6の説明に戻り、マッチング処理(ステップS203〜ステップS205)において用いられる登録画像21について説明する。登録画像21は、あらかじめ登録された各種硬貨に対応した複数のテンプレート画像を記憶し、マッチング処理(ステップS203〜ステップS205)に、これらのテンプレート画像を提供する。かかるテンプレート画像には、硬貨の個体差によるばらつきを抑えるため、同一種類の硬貨の画像を複数合成した平均画像を用いる。かかる平均画像を用いることにより、発行年などの各硬貨に固有の凹凸パターン部分と、テンプレート画像の対応部分との相関値は、平均画像(平均値)についての相関値となるため照合時の影響が出にくくなる。すなわち、真貨であるにもかかわらず、発行年部分の影響により偽貨と判定してしまうことを防止することができる。   Returning to the description of FIG. 6, the registered image 21 used in the matching process (steps S203 to S205) will be described. The registered image 21 stores a plurality of template images corresponding to various coins registered in advance, and provides these template images to the matching process (steps S203 to S205). For such a template image, an average image obtained by combining a plurality of images of the same type of coins is used in order to suppress variations due to individual differences in coins. By using such an average image, the correlation value between the uneven pattern part unique to each coin, such as the issue year, and the corresponding part of the template image becomes the correlation value for the average image (average value), so the effect at the time of matching Is less likely to occur. That is, although it is a true coin, it can be prevented from being determined as a false coin due to the influence of the issue year portion.

かかるテンプレート画像は、極座標変換処理およびエッジ正規化処理が施された入力画像と照合させるため、入力画像と同様に極座標変換処理およびエッジ正規化処理が施された後に、記憶部20に登録画像21として登録される。また、登録画像21には、各金種の表面および裏面のテンプレート画像が含まれる。   In order to collate such a template image with an input image that has been subjected to polar coordinate conversion processing and edge normalization processing, after being subjected to polar coordinate conversion processing and edge normalization processing in the same manner as the input image, the registered image 21 is stored in the storage unit 20. Registered as The registered image 21 includes template images of the front and back surfaces of each denomination.

図6の説明に戻って、正負分離相関による照合処理(ステップS206)について説明する。正負分離相関による照合処理(ステップS206)は、マッチング処理から、図11に示した極座標変換済エッジ正規化画像34(以下、「入力画像34」と言う)およびテンプレート画像40を取得し、これらの画像を照合することにより照合対象の硬貨が真貨であるか否かを照合判定し、かかる判定結果を出力する。   Returning to the description of FIG. 6, the collation process (step S <b> 206) based on the positive / negative separation correlation will be described. The collation processing by the positive / negative separation correlation (step S206) acquires the polar coordinate-converted edge normalized image 34 (hereinafter referred to as “input image 34”) and the template image 40 shown in FIG. By collating images, it is collated to determine whether the coin to be collated is a true coin, and the determination result is output.

ここで、正負分離相関による照合処理(ステップS206)の処理手順について図12を用いて説明しておく。図12は、図6に示した正負分離相関による照合処理の処理手順を示すフローチャートである。図12に示すように、正負分離相関による照合処理では、マッチング処理から出力された入力画像34およびテンプレート画像40を受け取り、これらの画像(34および40)の正規化相関値算出処理(ステップS301)をおこなう。   Here, the processing procedure of the collation processing (step S206) based on the positive / negative separation correlation will be described with reference to FIG. FIG. 12 is a flowchart showing the processing procedure of the collation processing based on the positive / negative separation correlation shown in FIG. As shown in FIG. 12, in the collation process based on the positive / negative separation correlation, the input image 34 and the template image 40 output from the matching process are received, and the normalized correlation value calculation process of these images (34 and 40) (step S301). To do.

具体的には、この正規化相関値算出処理(ステップS301)では、入力画像34およびテンプレート画像40の対応する画素毎の相関値を算出し、かかる相関値を正規化して正規化相関値画像を生成する。具体的には、座標値が(k,θ)の各画素について、入力画像34の濃度値s(k,θ)およびテンプレート画像40の濃度値t(k,θ−φmax)を用いて、

Figure 2012084175

により各画素の正規化相関値r(k,θ)を算出する。なお、式(7)に示す各画素における正規化相関値r(k,θ)は、たとえば、−1.0〜+1.0の値をとる。また、式(7)中のnは、画素数を示す。 Specifically, in the normalized correlation value calculation process (step S301), the correlation value for each corresponding pixel of the input image 34 and the template image 40 is calculated, and the normalized correlation value image is obtained by normalizing the correlation value. Generate. Specifically, for each pixel having a coordinate value of (k, θ), the density value s (k, θ) of the input image 34 and the density value t (k, θ−φ max ) of the template image 40 are used.
Figure 2012084175

To calculate the normalized correlation value r (k, θ) of each pixel. Note that the normalized correlation value r (k, θ) in each pixel shown in Expression (7) takes a value of −1.0 to +1.0, for example. Moreover, n in Formula (7) shows the number of pixels.

そして、正規化相関値算出処理(ステップS301)は、かかる正規化相関値画像の画素値が0以上か否かにより、正の正規化相関値画像(r+画像)と負の正規化相関値画像(r−画像)とに分離する。また、テンプレート画像40については、各画素値が所定の閾値(Tt)以上か否かにより、正のテンプレート画像(t+画像)と負のテンプレート画像(t−画像)とに分離する。 Then, in the normalized correlation value calculation process (step S301), a positive normalized correlation value image (r + image) and a negative normalized correlation value image are determined depending on whether the pixel value of the normalized correlation value image is 0 or more. (R-image). Further, the template image 40 is separated into a positive template image (t + image) and a negative template image (t−image) depending on whether each pixel value is equal to or greater than a predetermined threshold value (T t ).

なお、r+画像の画素値は、たとえば、0.0〜1.0の値をとり、r−画像の画素値は、各画素値の絶対値をとることにより、たとえば、0.0〜1.0の値をとる。また、t+画像およびt−画像の画素値は、たとえば、0か1の二値をとる。すなわち、t+画像およびt−画像は、各正規化相関値画像の画像変換に用いられる画像マスクとしての役割を有する。   The pixel value of the r + image takes a value of 0.0 to 1.0, for example, and the pixel value of the r− image takes an absolute value of each pixel value, for example, 0.0 to 1. Takes a value of zero. Further, the pixel values of the t + image and the t− image take a binary value of 0 or 1, for example. In other words, the t + image and the t− image serve as image masks used for image conversion of each normalized correlation value image.

ここで、それぞれの画像の意味を説明すると、r+画像は照合対象となる画像間に相関がある(似ている)画素を示し、強い相関があれば、かかる画素は大きい値をとる。また、r−画像は照合対象となる画像間に相関がない(似ていない)ことを示し、強い負の相関があれば、かかる画素は大きい値をとる。そして、t+画像はテンプレート画像のエッジ部分を示し、エッジ部分が1、背景部分が0の値をとる。また、t−画像はテンプレート画像の背景部分(エッジでない部分)を示し、背景部分が1、エッジ部分が0の値をとる。   Here, the meaning of each image will be described. The r + image indicates a pixel having a correlation (similarity) between images to be collated, and if there is a strong correlation, the pixel takes a large value. Further, the r-image indicates that there is no correlation (not similar) between the images to be collated, and if there is a strong negative correlation, the pixel takes a large value. The t + image indicates the edge portion of the template image, and the edge portion has a value of 1 and the background portion has a value of 0. Further, the t-image indicates a background portion (a portion that is not an edge) of the template image, and the background portion has a value of 1 and the edge portion has a value of 0.

図12の説明に戻り、正負分離相関画像生成処理(ステップS302)について説明する。この正負分離相関画像生成処理(ステップS302)は、正規化相関値算出処理(ステップS301)が生成した、r+画像、r−画像、t+画像およびt−画像の組み合わせにより正負分離相関画像を生成する。具体的には、r+画像とt+画像とからA+領域画像を、r−画像とt+画像とからA−領域画像を、r+画像とt−画像とからB+領域画像を、r−画像とt−画像とからB−領域画像をそれぞれ生成する。   Returning to the description of FIG. 12, the positive / negative separated correlation image generation processing (step S302) will be described. In this positive / negative separated correlation image generation process (step S302), a positive / negative separated correlation image is generated by a combination of r + image, r− image, t + image and t− image generated by the normalized correlation value calculation process (step S301). . Specifically, an A + area image is obtained from the r + image and the t + image, an A- area image is obtained from the r− image and the t + image, a B + area image is obtained from the r + image and the t− image, and the r− image and the t− image. A B-region image is generated from each image.

ここで、各領域画像の意味を説明する。図13は、かかる4つの領域を説明するための説明図である。同図に示すように、A+領域画像は、r+画像とt+画像とを重ね合わせた領域画像であり、エッジ部分と相関があること、すなわち、エッジが出るべきところにエッジが出ていることを示す。A−領域画像は、r−画像とt+画像とを重ね合わせ領域画像であり、エッジ部分と相関がないこと、すなわち、エッジが出るべきところにエッジが出ていないことを示す。B+領域画像は、r+画像とt−画像とを重ね合わせた領域画像であり、背景部分と相関があること、すなわち、エッジが出るべきでないところにエッジが出ていないことを示す。B−領域画像は、r−画像とt−画像とを重ね合わせ領域画像であり、背景部分と相関がないこと、すなわち、エッジが出るべきでないところにエッジが出ていないことを示す。   Here, the meaning of each area image will be described. FIG. 13 is an explanatory diagram for explaining these four areas. As shown in the figure, the A + region image is a region image obtained by superimposing the r + image and the t + image, and is correlated with the edge portion, that is, the edge is appearing where the edge should appear. Show. The A-region image is a region image in which the r-image and the t + image are overlapped, and indicates that there is no correlation with the edge portion, that is, no edge appears where the edge should appear. The B + region image is a region image obtained by superimposing the r + image and the t− image, and indicates that there is a correlation with the background portion, that is, no edge appears where the edge should not appear. The B-region image is a region image in which the r-image and the t-image are overlapped, and indicates that there is no correlation with the background portion, that is, no edge appears where the edge should not appear.

図12の説明に戻って、膨張処理(ステップS303)について説明する。膨張処理(ステップS303)は、所定の画像マスクを用いて、A−領域画像の画素をA+領域画像に移動させるとともに、B−領域画像の画素をB+領域画像に移動させる。かかる膨張処理をおこなうのは、正規化相関値にはノイズ状に負の相関値をもつ孤立点があらわるためである。すなわち、かかる膨張処理をおこなうことにより、かかる孤立点の影響が照合値の判定結果におよぶことを抑えることができる。   Returning to the description of FIG. 12, the expansion process (step S303) will be described. In the expansion process (step S303), using a predetermined image mask, the pixels of the A-region image are moved to the A + region image, and the pixels of the B-region image are moved to the B + region image. The reason why such expansion processing is performed is that an isolated point having a negative correlation value in the form of noise appears in the normalized correlation value. In other words, by performing such expansion processing, it is possible to suppress the influence of such isolated points from affecting the collation value determination result.

照合値算出処理(ステップS304)は、A+領域画像、A−領域画像、B+領域画像およびB−領域画像のそれぞれを、たとえば、水平方向に16、垂直方向に4の計64ブロックに分割し、

Figure 2012084175

式(8)により、照合値(Z)を求める。ここで、係数aij、bij、cijおよびdijは学習サンプルを用いて線形判別分析により最適解を求める。なお、各領域画像のブロック値であるA+ ij、A- ij、B+ ijおよびB- ijは、各ブロック内の画素値の総和を示す。 The collation value calculation process (step S304) divides each of the A + region image, the A− region image, the B + region image, and the B− region image into a total of 64 blocks, for example, 16 in the horizontal direction and 4 in the vertical direction.
Figure 2012084175

The collation value (Z) is obtained from equation (8). Here, the coefficients a ij , b ij , c ij, and d ij obtain an optimal solution by linear discriminant analysis using a learning sample. The block values A + ij , A - ij , B + ij and B - ij of each area image indicate the sum of the pixel values in each block.

つづいて、照合値算出処理(ステップS304)が算出した照合値(Z)が閾値以上であれば(ステップS305肯定)、戻り値に「一致」をセットして(ステップS306)リターンする。一方、照合値(Z)が閾値より小さければ、戻り値に「不一致」をセットして(ステップS307)リターンする。   Subsequently, if the collation value (Z) calculated by the collation value calculation process (step S304) is equal to or greater than the threshold (Yes in step S305), “match” is set as the return value (step S306), and the process returns. On the other hand, if the collation value (Z) is smaller than the threshold value, “no match” is set as the return value (step S307), and the process returns.

図6の説明に戻り、ステップS207以降の処理について説明する。正負分離相関による照合処理(ステップS206)が照合結果を出力すると、かかる照合結果が「一致」であるか否かを判定する(ステップS207)。そして、照合結果が「一致」である場合には(ステップS207肯定)、マッチング処理においてテンプレート画像40と合致するように平行移動した入力画像34を回転済入力画像22として記憶部20に記憶し(ステップS208)、戻り値に「真」をセットして(ステップS209)リターンする。一方、照合結果が「一致」でない場合には(ステップS207否定)、戻り値に「偽」をセットして(ステップS210)リターンする。   Returning to the description of FIG. 6, the processing after step S207 will be described. When the collation process based on the positive / negative separation correlation (step S206) outputs the collation result, it is determined whether or not the collation result is “match” (step S207). If the collation result is “match” (Yes at step S207), the input image 34 translated in a matching process so as to match the template image 40 is stored in the storage unit 20 as the rotated input image 22 ( In step S208), “true” is set as the return value (step S209), and the process returns. On the other hand, if the collation result is not “match” (No at Step S207), “false” is set as the return value (Step S210), and the process returns.

このように、第1の真偽識別処理では、CCDカメラ4から受け取った入力画像から硬貨部分を切り出してエッジ抽出をおこない、マッチング処理をおこなったうえで正負分離相関による照合処理をおこなうことによって、金種識別処理部11でいったん識別された金種の真偽を識別する。これにより、100円硬貨や500円硬貨といった金種の真貨や、重量や金属の組成が類似した外貨を変造した偽貨などの識別精度を向上させることができる。   As described above, in the first authenticity identification process, the coin part is cut out from the input image received from the CCD camera 4 to perform edge extraction, and after performing the matching process, the collation process by the positive / negative separation correlation is performed, The denomination of the denomination once identified by the denomination identification processing unit 11 is identified. As a result, it is possible to improve the identification accuracy of denominations such as 100-yen coins and 500-yen coins, and fake coins obtained by transforming foreign currencies with similar weight and metal composition.

以降では、図12に示した正負分離相関による照合処理をさらに具体的に説明する。まず、正負分離相関画像生成処理(ステップS302)がおこなう正規化相関値画像正負分離処理を、図14および図17を用いて説明する。図14は、図12に示した正負分離相関画像生成処理に含まれる正規化相関値画像正負分離処理の処理手順を示すフローチャートであり、図17は、図13に示した各領域に対応する画像生成手順を説明するための説明図である。   Hereinafter, the collation process based on the positive / negative separation correlation shown in FIG. 12 will be described more specifically. First, the normalized correlation value image positive / negative separation process performed by the positive / negative separated correlation image generation process (step S302) will be described with reference to FIGS. FIG. 14 is a flowchart showing a processing procedure of the normalized correlation value image positive / negative separation process included in the positive / negative separated correlation image generation process shown in FIG. 12, and FIG. 17 shows images corresponding to the respective regions shown in FIG. It is explanatory drawing for demonstrating a production | generation procedure.

図17に示すように、正規化相関値算出処理(ステップS301)が入力画像33とテンプレート画像40から正規化相関値画像111を生成すると、正規化相関値画像正負分離処理(ステップS302)では、生成された正規化相関値画像111を入力として正規化相関値正負分離処理をおこなう。具体的には、かかる正規化相関値画像111を、正の相関値画像であるr+画像111aと、負の相関値画像であるr−画像111bとに分離する。   As shown in FIG. 17, when the normalized correlation value calculation process (step S301) generates the normalized correlation value image 111 from the input image 33 and the template image 40, the normalized correlation value image positive / negative separation process (step S302) Normalized correlation value positive / negative separation processing is performed by using the generated normalized correlation value image 111 as an input. Specifically, the normalized correlation value image 111 is separated into an r + image 111a that is a positive correlation value image and an r− image 111b that is a negative correlation value image.

図14に示すように、正規化相関値正負分離処理(ステップS302)においては、まず、正規化相関値画像111の始点画素に移動する(ステップS501)。かかる始点画素は、たとえば、k=0、θ=0の画素である。そして、かかる画素の正規化相関値r(k,θ)を式(4)を用いて算出し(ステップS502)、算出したr(k,θ)が0以上であれば(ステップS503肯定)、かかる画素値をr+画像111aの同一座標の画素値とする(ステップS504)。一方、算出したr(k,θ)が0より小さければ(ステップS503否定)、かかる画素の画素値の絶対値を、r−画像111bの同一座標の画素値とする(ステップS505)。   As shown in FIG. 14, in the normalized correlation value positive / negative separation process (step S302), first, the process moves to the start point pixel of the normalized correlation value image 111 (step S501). Such a start pixel is, for example, a pixel with k = 0 and θ = 0. Then, the normalized correlation value r (k, θ) of the pixel is calculated using the equation (4) (step S502). If the calculated r (k, θ) is 0 or more (Yes in step S503), Such a pixel value is set as a pixel value at the same coordinates of the r + image 111a (step S504). On the other hand, if the calculated r (k, θ) is smaller than 0 (No in step S503), the absolute value of the pixel value of the pixel is set as the pixel value of the same coordinate of the r-image 111b (step S505).

そして、正規化相関値画像111の全ての画素について未だ正負分離処理が完了していない場合には(ステップS506否定)、次の注目画素に移動して(ステップS507)、ステップS502以下の処理を繰り返す。一方、全ての画素について正負分離処理が終了した場合には(ステップS506肯定)、処理を終了する。かかる正規化相関値正負分離処理により、r+画像111aおよびr−画像111bは、0.0〜1.0の画素値をとる画素を有する画像として生成される。なお、実施例1においては、r−画像111bの画素の画素値は、0.0〜1.0の画素値をとるものとして説明するが、かかる画素値は、−1.0〜0.0の値をとることとしてもよい。   If the positive / negative separation process has not yet been completed for all the pixels of the normalized correlation value image 111 (No at Step S506), the process moves to the next target pixel (Step S507), and the processes after Step S502 are performed. repeat. On the other hand, when the positive / negative separation process has been completed for all the pixels (Yes in step S506), the process ends. By such normalized correlation value positive / negative separation processing, the r + image 111a and the r− image 111b are generated as images having pixels having pixel values of 0.0 to 1.0. In the first embodiment, the pixel value of the pixel of the r-image 111b is described as a pixel value of 0.0 to 1.0, but the pixel value is −1.0 to 0.0. It is good also as taking the value of.

次に、図12に示した正負分離相関画像生成処理(ステップS302)がおこなうテンプレート画像正負分離処理を、図15および図17を用いて説明する。図15は、図12に示した正負分離相関画像生成処理に含まれるテンプレート画像正負分離処理の処理手順を示すフローチャートである。図17に示したように、テンプレート画像正負分離処理では、テンプレート画像40を、正のテンプレート画像であるt+画像40aと、負のテンプレート画像であるt−画像40bとに分離する処理をおこなう。   Next, the template image positive / negative separation process performed by the positive / negative separated correlation image generation process (step S302) shown in FIG. 12 will be described with reference to FIGS. FIG. 15 is a flowchart illustrating a processing procedure of template image positive / negative separation processing included in the positive / negative separation correlation image generation processing illustrated in FIG. 12. As shown in FIG. 17, in the template image positive / negative separation process, the template image 40 is separated into a t + image 40a that is a positive template image and a t− image 40b that is a negative template image.

図15に示すように、テンプレート画像正負分離処理においては、まず、テンプレート画像40の始点画素に移動する(ステップS601)。かかる始点画素は、たとえば、k=0、θ=0の画素である。そして、かかる画素の濃度値が所定の閾値(Tt)以上であれば(ステップS602肯定)、t+画像40aの同一座標の画素値を1とする(ステップS603)。一方、かかる濃度値が所定の閾値(Tt)より小さければ(ステップS602否定)、t−画像40bの同一座標の画素値を1とする(ステップS604)。 As shown in FIG. 15, in the template image positive / negative separation process, first, the template image 40 is moved to the start point pixel (step S601). Such a start pixel is, for example, a pixel with k = 0 and θ = 0. If the density value of the pixel is equal to or greater than a predetermined threshold value (T t ) (Yes at step S602), the pixel value at the same coordinate of the t + image 40a is set to 1 (step S603). On the other hand, if the density value is smaller than the predetermined threshold value (T t ) (No at Step S602), the pixel value at the same coordinate of the t-image 40b is set to 1 (Step S604).

そして、テンプレート画像40の全ての画素について未だ正負分離処理が完了していない場合には(ステップS605否定)、次の注目画素に移動して(ステップS606)、ステップS602以下の処理を繰り返す。一方、全ての画素について正負分離処理が終了した場合には(ステップS605肯定)、処理を終了する。かかるテンプレート画像正負分離処理により、t+画像40aは、エッジ部分が1、背景部分が0の二値画像として生成され、t−画像40bは、エッジ部分が0、背景部分が1の二値画像として生成される。   If the positive / negative separation process has not yet been completed for all the pixels of the template image 40 (No at Step S605), the process moves to the next pixel of interest (Step S606), and the processes after Step S602 are repeated. On the other hand, when the positive / negative separation process has been completed for all the pixels (Yes in step S605), the process ends. By this template image positive / negative separation processing, the t + image 40a is generated as a binary image with an edge portion of 1 and a background portion of 0, and the t-image 40b is a binary image with an edge portion of 0 and a background portion of 1. Generated.

次に、図12に示した正負分離相関画像生成処理(ステップS302)がおこなう正負分離相関画像生成処理を、図16および図17を用いて説明する。図16は、図12に示した正負分離相関画像生成処理に含まれる領域画像生成処理の処理手順を示すフローチャートである。   Next, the positive / negative separated correlation image generation processing performed by the positive / negative separated correlation image generation processing (step S302) shown in FIG. 12 will be described with reference to FIGS. FIG. 16 is a flowchart of a process procedure of the region image generation process included in the positive / negative separated correlation image generation process shown in FIG.

図17に示したように、正負分離相関画像生成処理においては、上述した正規化相関値画像正負分離処理およびテンプレート画像正負分離処理において生成した、r+画像111a、r−画像111b、t+画像40aおよびt−画像40bを入力画像として用いて、A+領域画像121、A−領域画像122、B+領域画像123およびB−領域画像124を生成する。   As shown in FIG. 17, in the positive / negative separated correlation image generation processing, the r + image 111a, the r− image 111b, the t + image 40a generated in the normalized correlation value image positive / negative separation processing and the template image positive / negative separation processing described above, and Using the t-image 40b as an input image, an A + region image 121, an A- region image 122, a B + region image 123, and a B- region image 124 are generated.

たとえば、r+画像111aおよびt+画像40aを入力画像として用いた場合、図16に示すように、まず、それぞれの画像の始点画素に移動する(ステップS701)。そして、かかる画素におけるt+画像40aの画素値が1である場合には(ステップS702肯定)、A+領域画像121の画素値をr+画像111aの画素値とする(ステップS703)。一方、かかる画素におけるt+画像40aの画素値が1でない場合(すなわち、0である場合)には(ステップS702否定)、A+領域画像121の画素値を0とする(ステップS704)。   For example, when the r + image 111a and the t + image 40a are used as input images, first, as shown in FIG. 16, the image is moved to the start point pixel of each image (step S701). If the pixel value of the t + image 40a at this pixel is 1 (Yes at step S702), the pixel value of the A + region image 121 is set as the pixel value of the r + image 111a (step S703). On the other hand, when the pixel value of the t + image 40a in such a pixel is not 1 (that is, 0) (No in step S702), the pixel value of the A + region image 121 is set to 0 (step S704).

そして、全ての画素について領域画像生成処理が完了していない場合には(ステップS705否定)、次の注目画素に移動して(ステップS706)、ステップS702以下の処理を繰り返す。一方、全ての画素について領域画像生成処理が終了した場合には(ステップS705肯定)、A+領域画像121が生成されるので、処理を終了する。   If the region image generation processing has not been completed for all the pixels (No at Step S705), the process moves to the next pixel of interest (Step S706), and the processing from Step S702 is repeated. On the other hand, when the region image generation processing has been completed for all the pixels (Yes in step S705), the A + region image 121 is generated, and thus the processing ends.

同様に、r−画像111bおよびt+画像40aからA−領域画像122を、r+画像111aおよびt−画像40bからB+領域画像123を、r−画像111bおよびt−画像40bからB−領域画像124を、それぞれ生成する。   Similarly, an A-region image 122 from the r-image 111b and the t + image 40a, a B + region image 123 from the r + image 111a and the t-image 40b, and a B-region image 124 from the r-image 111b and the t-image 40b. , Generate each.

次に、図12に示した膨張処理(ステップS303)を、図18〜図20を用いて説明する。図18は、図12に示した膨張処理において用いられる画像マスクを説明するための説明図であり、図19は、図12に示した膨張処理の処理手順を示すフローチャートであり、図20は、図12に示した膨張処理により生成される画像を説明するための説明図である。   Next, the expansion process (step S303) shown in FIG. 12 will be described with reference to FIGS. 18 is an explanatory diagram for explaining an image mask used in the expansion process shown in FIG. 12, FIG. 19 is a flowchart showing a processing procedure of the expansion process shown in FIG. 12, and FIG. It is explanatory drawing for demonstrating the image produced | generated by the expansion process shown in FIG.

かかる膨張処理においては、負の領域画像(A−領域画像122およびB−領域画像124)に含まれるノイズ状の孤立点(画素)を、正の領域画像(A+領域画像121およびB+領域画像123)に移動する処理をおこなう。かかる処理をおこなうことで、照合値の精度を高めることができる。   In such dilation processing, noise-like isolated points (pixels) included in the negative region images (A− region image 122 and B− region image 124) are converted into positive region images (A + region image 121 and B + region image 123). ) To move to. By performing such processing, the accuracy of the collation value can be increased.

図18に示すように、かかる膨張処理においては、正領域画像マスク130aおよび負領域画像マスク130b2枚の画像マスクを用いる。各画像マスクは、P5およびM5と、これらの領域を取り囲む8つの領域を有する。たとえば、A−領域画像122からA+領域画像121への膨張処理をおこなう場合には、負領域画像マスク130bのM5をA−領域画像122の注目画素に合わせ、正領域画像マスク130aのP5を注目画素に対応する画素にあわせる。そして、M5の画素値と、P1〜P9の画素値とを順次比較して膨張処理をおこなう。   As shown in FIG. 18, in the expansion process, two image masks of a positive area image mask 130a and a negative area image mask 130b are used. Each image mask has P5 and M5 and eight regions surrounding these regions. For example, when the expansion process from the A− region image 122 to the A + region image 121 is performed, M5 of the negative region image mask 130b is matched with the target pixel of the A− region image 122, and P5 of the positive region image mask 130a is focused. Fit to the pixel corresponding to the pixel. Then, the expansion process is performed by sequentially comparing the pixel value of M5 and the pixel values of P1 to P9.

次に、A−領域画像122からA+領域画像121への膨張処理をおこなう場合を例ににして、かかる膨張処理の処理手順を、図19を用いて説明する。まず、それぞれの画像(121および122)の始点画素に移動する(ステップS801)。かかる始点画素は、たとえば、k=0、θ=0の画素である。そして、正領域マスク130aの9つの領域(P1〜P9)を順次切替えるために、nに1を設定する(ステップS802)。すなわち、ステップS802が完了した時点においては、対象となる正領域画像マスク130aの領域はP1となる。   Next, the procedure of the expansion process will be described with reference to FIG. 19, taking as an example the case where the expansion process from the A-region image 122 to the A + region image 121 is performed. First, it moves to the start point pixel of each image (121 and 122) (step S801). Such a start pixel is, for example, a pixel with k = 0 and θ = 0. Then, 1 is set to n in order to sequentially switch the nine regions (P1 to P9) of the primary region mask 130a (step S802). That is, when step S802 is completed, the target area of the normal area image mask 130a is P1.

そして、Pnの値とM5の値を比較して、P1の値がM5の値よりも大きい場合には(ステップS803肯定)、P5の値をM5で置き換えM5の値を0に設定する(ステップS805)。すなわち、M5の画素をP5の画素に移動する。一方、Pnの値がM5の値以下である場合には(ステップS803否定)、nの値に1を加算して(ステップS804)、nの値が9以下の場合には(ステップS806否定)、再度ステップS803をおこなう。   Then, the value of Pn is compared with the value of M5, and if the value of P1 is larger than the value of M5 (Yes at Step S803), the value of P5 is replaced with M5 and the value of M5 is set to 0 (Step S803). S805). That is, the pixel M5 is moved to the pixel P5. On the other hand, when the value of Pn is less than or equal to the value of M5 (No at Step S803), 1 is added to the value of n (Step S804), and when the value of n is 9 or less (No at Step S806). Step S803 is performed again.

このように、P1〜P9の値のうち一つでもM5の値より大きいものがあれば、M5の画素をP5に移動する。一方、P1〜P9の値のいずれもがM5の値以下である場合には(ステップS806肯定)、画素の移動をおこなわない。   As described above, if any one of the values P1 to P9 is larger than the value M5, the pixel M5 is moved to P5. On the other hand, if any of the values of P1 to P9 is equal to or less than the value of M5 (Yes at step S806), the pixel is not moved.

そして、A−領域画像122のすべての画素について処理が終了していない場合には(ステップS807否定)、次の注目画素に移動して(ステップS808)、ステップS802以降の処理をおこなう。一方、A−領域画像122のすべての画素について処理が終了した場合には(ステップS807肯定)、かかる膨張処理を終了する。   If the process has not been completed for all the pixels of the A-region image 122 (No at Step S807), the process moves to the next target pixel (Step S808), and the processes after Step S802 are performed. On the other hand, when the process is completed for all the pixels of the A-region image 122 (Yes in step S807), the expansion process is terminated.

図20に示したように、かかる膨張処理により、A+領域画像121、A−領域画像122、B+領域画像123およびB−領域画像124は、それぞれ、膨張済A+領域画像131、膨張済A−領域画像132、膨張済B+領域画像133および膨張済B−領域画像134に画像変換される。なお、A−領域画像122上の孤立点は、A+領域画像121に移動するので、膨張済A+領域画像131のエッジ部分は、A+領域画像121と比較して面積が増加している。一方、膨張済A−領域画像132のエッジ部分は、A−領域画像122と比較して面積が減少している。   As shown in FIG. 20, the A + region image 121, the A− region image 122, the B + region image 123, and the B− region image 124 are respectively expanded by the expansion process. The image is converted into an image 132, an expanded B + region image 133, and an expanded B− region image 134. Since the isolated point on the A− region image 122 moves to the A + region image 121, the edge portion of the expanded A + region image 131 has an area larger than that of the A + region image 121. On the other hand, the area of the edge portion of the expanded A-region image 132 is smaller than that of the A-region image 122.

次に、図12に示した照合値算出処理(ステップS304)を、図21を用いて説明する。図21は、膨張済領域画像(131〜134)のブロック分割について、膨張済A+領域画像131をブロック分割する場合の例を説明するための説明図である。照合値算出処理(ステップS304)では、まず、同図に示すように、膨張済A+領域画像131を、水平方向に16、垂直方向に4の計64ブロックに分割する。同様に、膨張済A−領域画像132、膨張済B+領域画像133および膨張済B−領域画像134についてもブロック分割をおこなう。   Next, the collation value calculation process (step S304) shown in FIG. 12 will be described with reference to FIG. FIG. 21 is an explanatory diagram for explaining an example in which the expanded A + region image 131 is divided into blocks with respect to the block division of the expanded region image (131 to 134). In the collation value calculation process (step S304), first, as shown in the figure, the expanded A + region image 131 is divided into a total of 64 blocks of 16 in the horizontal direction and 4 in the vertical direction. Similarly, the block division is performed on the expanded A-region image 132, the expanded B + region image 133, and the expanded B-region image 134.

そして、照合値算出処理(ステップS304)では、式(8)を用いて、照合値(Z)の算出をおこなう。ここで、式(8)の各係数aij、bij、cijおよびdijは、学習サンプルを用いて線形判別分析などにより最適解を求めておくものとする。具体的には、硬貨の凹凸パターンのデザインの相違により、エッジが出やすい硬貨や出にくい硬貨が存在するので、これらの係数は、硬貨の種別ごとに異なる値をとることになる。これらの係数を学習サンプルにより最適化することで、精度の良い画像照合をおこなうことができる。 In the matching value calculation process (step S304), the matching value (Z) is calculated using equation (8). Here, for each coefficient a ij , b ij , c ij, and d ij in equation (8), an optimal solution is obtained by linear discriminant analysis or the like using a learning sample. Specifically, because of the difference in the design of the concavo-convex pattern of coins, there are coins that are likely to have an edge and coins that are difficult to come out, so these coefficients take different values for each type of coin. By optimizing these coefficients with learning samples, accurate image matching can be performed.

そして、照合値算出処理(ステップS304)では、最適値が設定された、係数aij、bij、cijおよびdijと、各画像ブロックとを用いて照合値(Z)を算出する。そして、図12に示したように、かかる照合値が閾値以上である場合には(ステップS305肯定)、戻り値に「一致」をセットし(ステップS306)、閾値より小さい場合には(ステップS305否定)、戻り値に「不一致」をセットすることになる(ステップS307)。なお、実施例1においては、各画像を64のブロックに分割する場合について説明したが、ブロック数は、任意の数とすることができる。 In the matching value calculation process (step S304), the matching value (Z) is calculated using the coefficients a ij , b ij , c ij and d ij for which the optimum values are set, and each image block. Then, as shown in FIG. 12, when the collation value is greater than or equal to the threshold value (Yes at Step S305), “match” is set as the return value (Step S306), and when it is smaller than the threshold value (Step S305). No), “unmatched” is set as the return value (step S307). In the first embodiment, the case where each image is divided into 64 blocks has been described. However, the number of blocks may be an arbitrary number.

なお、式(8)において、係数cijおよびdijを0に設定すれば、A+領域画像ブロックおよびA−領域画像ブロックのみから照合値(Z)を算出することができる。また、係数aijおよびbijを0に設定すれば、B+領域画像ブロックおよびB−領域画像ブロックのみから照合値(Z)を算出することができる。 If the coefficients c ij and d ij are set to 0 in equation (8), the collation value (Z) can be calculated from only the A + area image block and the A− area image block. If the coefficients a ij and b ij are set to 0, the collation value (Z) can be calculated from only the B + region image block and the B− region image block.

このように、照合値算出処理(ステップS304)では、硬貨の種別やハードウェアの能力に応じて、画像ブロック数や式(8)の各係数の値を調整することにより、効率良く画像照合をおこなうことができる。   As described above, in the collation value calculation process (step S304), the image collation is efficiently performed by adjusting the number of image blocks and the values of the coefficients of the equation (8) according to the type of coin and the capability of the hardware. Can be done.

なお、実施例1に係る照合値算出処理(ステップS304)では、各領域画像をブロック分割したうえで、式(8)により照合値(Z)を算出するよう構成したが、これに限らず、たとえば、多層ニューラルネットワーク、サポートベクトルマシン、二次識別関数等の他の方法を用いることとしてもよい。   In the collation value calculation process (step S304) according to the first embodiment, each region image is divided into blocks, and the collation value (Z) is calculated by Expression (8). For example, other methods such as a multilayer neural network, a support vector machine, and a secondary discriminant function may be used.

次に、図2に示した年代識別処理(ステップS104)について図22および図23を用いて説明する。図22は、図2に示した年代識別処理の処理手順を示すフローチャートであり、図23は、図22に示した年代識別処理において用いられる文字照合テーブル23を説明するための説明図である。   Next, the age identification process (step S104) shown in FIG. 2 will be described with reference to FIGS. FIG. 22 is a flowchart showing a processing procedure of the age identification process shown in FIG. 2, and FIG. 23 is an explanatory diagram for explaining the character matching table 23 used in the age identification process shown in FIG.

図22に示すように、年代識別処理部13は、まず、記憶部20から回転済入力画像22を読み出して該当する金種に応じた年代部を切り出す処理をおこなう(ステップS1001)。そして、切り出した年代部の位置補正をおこなったうえで(ステップS1002)、切り出した年代部に含まれる文字を一つ切り出す(ステップS1003)。   As shown in FIG. 22, the age identification processing unit 13 first reads out the rotated input image 22 from the storage unit 20 and performs a process of cutting out the age part corresponding to the corresponding denomination (step S1001). Then, after correcting the position of the extracted age part (step S1002), one character included in the extracted age part is extracted (step S1003).

つづいて、記憶部20の文字照合テーブル23を検索して該当する金種に応じた文字テンプレート画像を取得し(ステップS1004)、切り出した文字画像とこの文字テンプレート画像とを正負分離相関による照合処理により照合する(ステップS206)。   Subsequently, the character collation table 23 in the storage unit 20 is searched to obtain a character template image corresponding to the corresponding denomination (step S1004), and the collated processing using the positive / negative separation correlation between the cut out character image and this character template image. (Step S206).

ここで、かかる文字照合テーブル23について説明しておく。図23に示すように、文字照合テーブル23は、金種および文字テンプレート画像を含むレコードを有する。たとえば、500円硬貨に関する各レコードは、「昭」、「和」、「平」、「成」、「一」、「二」といった500円硬貨に刻まれる文字の文字テンプレート画像を含んでいる。   Here, the character collation table 23 will be described. As shown in FIG. 23, the character collation table 23 has a record including a denomination and a character template image. For example, each record relating to a 500 yen coin includes a character template image of characters to be engraved in a 500 yen coin such as “Akira”, “Wa”, “Hira”, “Sei”, “I”, “2”.

なお、図23に示した文字照合テーブル23は、文字照合テーブルの一例を示すものであり、金種および文字テンプレート画像の他に、入力画像34に含まれる各文字の位置を示す情報を含むこととし、かかる情報を用いて入力画像34から年代をあらわす各文字を切り出すこととしてもよい。また、文字照合テーブル23は、必ずしも金種ごとにまとめる必要はなく、認識される可能性のある文字を少なくとも含むこととすれば足りる。   The character matching table 23 shown in FIG. 23 is an example of the character matching table, and includes information indicating the position of each character included in the input image 34 in addition to the denomination and the character template image. It is also possible to cut out each character representing the age from the input image 34 using such information. Moreover, the character collation table 23 does not necessarily have to be collected for each denomination, and it is sufficient to include at least characters that may be recognized.

図22に戻って、ステップS1005以降の処理について説明する。正負分離相関による照合処理の照合結果を受け取ると照合結果が「一致」であるか否かを判定する(ステップS1005)。そして、照合結果が「一致」である場合には(ステップS1005肯定)、一致した文字を一時的に記憶し(ステップS1006)、照合対象の文字が最後の文字であるか否かを判定する(ステップS1007)。   Returning to FIG. 22, the processing after step S1005 will be described. When the collation result of the collation process based on the positive / negative separation correlation is received, it is determined whether or not the collation result is “match” (step S1005). When the collation result is “match” (Yes at step S1005), the matched character is temporarily stored (step S1006), and it is determined whether or not the character to be collated is the last character (step S1006). Step S1007).

かかる照合対象の文字が最後の文字である場合には(ステップS1007肯定)、認識した文字からなる年代が正当であるか否かを判定し(ステップS1009)、正当である場合には(ステップS1009肯定)、戻り値に認識した「年代」をセットして(ステップS1010)リターンする。一方、照合対象の文字が最後の文字でない場合には(ステップS1007否定)、切り出した年代部に含まれる次の文字を照合するために、ステップS1003以降の処理を繰り返す。   When the character to be verified is the last character (Yes at Step S1007), it is determined whether or not the age of the recognized character is valid (Step S1009), and when it is valid (Step S1009). (Yes), the recognized “age” is set as the return value (step S1010), and the process returns. On the other hand, if the character to be collated is not the last character (No at Step S1007), the processing after Step S1003 is repeated in order to collate the next character included in the extracted age part.

また、正負分離相関による照合処理の照合結果が「一致」でない場合には(ステップS1005否定)、照合対象の金種についての最後の文字テンプレート画像であるか否かを判定し(ステップS1008)、最後の文字テンプレート画像である場合は(ステップS1008肯定)、該当する文字テンプレート画像が存在せず文字認識できない場合、すなわち、入力画像34の該当する文字が不正である場合であるので、戻り値に「リジェクト対象」をセットして(ステップS1011)リターンする。一方、照合対象の金種について他の文字テンプレート画像が存在する場合には(ステップS1008否定)、現在の文字テンプレート画像を他の文字テンプレート画像に変更したうえで、ステップS206以降の処理を繰り返す。   If the collation result of the collation process based on the positive / negative separation correlation is not “match” (No at Step S1005), it is determined whether or not it is the last character template image for the denomination to be collated (Step S1008). If it is the last character template image (Yes in step S1008), the character template image does not exist and character recognition is not possible, that is, the corresponding character in the input image 34 is invalid. “Reject target” is set (step S1011) and the process returns. On the other hand, if another character template image exists for the denomination to be collated (No at step S1008), the current character template image is changed to another character template image, and the processing from step S206 is repeated.

このようにして、年代識別処理部13は、入力画像34に含まれる年代を識別して識別した年代を第2の真偽識別処理部14に渡す。なお、実施例1においては、硬貨に刻まれた年代を構成する各文字を、文字照合テーブル23を用いて照合する場合について説明したが、たとえば、紙幣の記番号および記番号と発行年との関係をあらわす情報を、かかる文字照合テーブル23に登録し、紙幣の入力画像に含まれる記番号に基づいて発行年を識別することとしてもよい。   In this way, the age identification processing unit 13 passes the age identified and identified to the age included in the input image 34 to the second authenticity identification processing unit 14. In addition, in Example 1, although the case where each character which comprises the age inscribed in the coin was collated using the character collation table 23 was demonstrated, for example, the serial number of a banknote, a serial number, and an issue year are shown. Information representing the relationship may be registered in the character collation table 23 and the issue year may be identified based on the serial number included in the input image of the banknote.

次に、図2に示した第2の真偽識別処理(ステップS106)について図24および図25を用いて説明する。図24は、図2に示した第2の真偽識別処理の処理手順を示すフローチャートであり、図25は、図24に示した第2の真偽識別処理において用いられる特徴テーブルを説明するための説明図である。   Next, the second authenticity identification process (step S106) shown in FIG. 2 will be described with reference to FIGS. FIG. 24 is a flowchart showing a processing procedure of the second authenticity identification process shown in FIG. 2, and FIG. 25 is a diagram for explaining a feature table used in the second authenticity identification process shown in FIG. It is explanatory drawing of.

図24に示すように、第2の真偽識別処理部14は、まず、年代識別処理部13から渡された年代をセットして(ステップS1101)、記憶部20の特徴テーブル24を検索する(ステップS1102)。そして、かかる特徴テーブル24の該当するレコードから特徴部分の画像領域の位置および範囲をあらわす特徴範囲と特徴部テンプレート画像とを取得する(ステップS1103)。   As shown in FIG. 24, the second authenticity identification processing unit 14 first sets the age passed from the age identification processing unit 13 (step S1101), and searches the feature table 24 of the storage unit 20 ( Step S1102). Then, a feature range and a feature portion template image representing the position and range of the image area of the feature portion are acquired from the corresponding record in the feature table 24 (step S1103).

ここで、かかる特徴テーブル24について説明しておく。図25に示すように、特徴テーブル24の各レコードは、金種、発行年、特徴部分のX座標およびY座標、特徴部分の幅および高さ、および特徴部テンプレート画像を有する。たとえば、500円硬貨の場合には、硬貨の裏側の金額をあらわす「500」の「0」部分が、発行年が平成11年以前のものと、平成12年以降のものでデザインが異なるので、この「0」部分を特徴部テンプレート画像として登録しておく。また、この「0」部分の位置をあらわすX座標、Y座標、幅および高さもあわせて登録しておく。   Here, the feature table 24 will be described. As shown in FIG. 25, each record of the feature table 24 has a denomination, an issue year, a feature portion X coordinate and a Y coordinate, a feature portion width and height, and a feature portion template image. For example, in the case of a 500-yen coin, the “0” part of “500”, which represents the amount of money on the back of the coin, has a different design depending on whether it was issued before 1999 or after 2000. This “0” portion is registered as a feature portion template image. Further, the X coordinate, Y coordinate, width and height representing the position of the “0” portion are also registered.

なお、図25は、特徴テーブル24の一例を示すものであり、現在発行されている500円硬貨の場合について説明した。しかしながら、偽造貨幣に対応するために微細なセキュリティ特徴をもたせることは、日本の貨幣のみならず外貨においてもおこなわれており、将来的には発行年ごとに異なるセキュリティ特徴をもたせる可能性もある。したがって、実施例1に示したように、発行年に対応する特徴部分をテーブル管理して、発行年を識別して発行年に対応する特徴部分を用いて詳細な照合処理をおこなうこととすれば真貨であるか否かの判定を高い精度でおこなうことができる。   FIG. 25 shows an example of the feature table 24, and the case of a 500 yen coin currently issued has been described. However, the provision of fine security features to deal with counterfeit money is performed not only in Japanese money but also in foreign currencies, and in the future, it may have different security features depending on the year of issue. Therefore, as shown in the first embodiment, if the feature part corresponding to the issue year is managed in a table, the issue year is identified and the detailed matching process is performed using the feature part corresponding to the issue year. It is possible to determine whether or not it is a true coin with high accuracy.

また、図25では、各発行年につき1ヶ所の特徴部分を特徴テーブル24に登録する場合について説明したが、各発行年につき複数の特徴部分を登録することとしてもよい。さらに、特徴テーブル24に登録する特徴部テンプレート画像は、肉眼で認識できる特徴部である必要はなく、高精度のカメラにより認識できる微細特徴を含むこととしてもよい。   In FIG. 25, the case where one feature portion is registered in the feature table 24 for each issue year has been described, but a plurality of feature portions may be registered for each issue year. Furthermore, the feature part template image registered in the feature table 24 does not need to be a feature part that can be recognized by the naked eye, and may include fine features that can be recognized by a highly accurate camera.

図24に戻り、ステップS1104以降の処理手順について説明する。特徴テーブル24の該当するレコードから特徴部分の画像領域をあらわす特徴範囲と特徴部テンプレート画像とを取得したならば(ステップS1103)、取得した特徴範囲(X座標、Y座標、幅および高さ)を用いて入力画像34から照合対象となる特徴部を切り出す(ステップS1104)。つづいて、上述した正負分離相関による照合処理により、入力画像から切り出した特徴部と、特徴テーブル24から取得した特徴部テンプレート画像とを照合する(ステップS206)。   Returning to FIG. 24, the processing procedure after step S1104 will be described. If the feature range and feature portion template image representing the image area of the feature portion are acquired from the corresponding record of the feature table 24 (step S1103), the acquired feature range (X coordinate, Y coordinate, width and height) is obtained. The feature part to be collated is cut out from the input image 34 using it (step S1104). Subsequently, the feature part cut out from the input image and the feature part template image acquired from the feature table 24 are collated by the collation process based on the positive / negative separation correlation described above (step S206).

正負分離相関による照合処理の照合結果を受け取ると照合結果が「一致」であるか否かを判定する(ステップS1105)。そして、照合結果が「一致」である場合には(ステップS1105肯定)、戻り値に「真」をセットして(ステップS1106)リターンする。一方、照合結果が「一致」ではない場合には(ステップS1105否定)、戻り値に「偽」をセットして(ステップS1107)リターンする。   When the collation result of the collation process using the positive / negative separation correlation is received, it is determined whether or not the collation result is “match” (step S1105). If the collation result is “match” (Yes at step S1105), “true” is set as the return value (step S1106), and the process returns. On the other hand, if the collation result is not “match” (No at step S1105), “false” is set as the return value (step S1107) and the process returns.

このようにして、第2の真偽識別処理部14は、年代識別処理部13が認識した年代に基づいて、発行年と関連した特徴部の照合をおこなう。そして、第2の真偽識別処理部14の照合結果を受け取った真偽判定部15は、判定結果を出力することになる。   In this manner, the second authenticity identification processing unit 14 collates the feature part related to the issue year based on the age recognized by the age identification processing unit 13. And the authenticity determination part 15 which received the collation result of the 2nd authenticity identification process part 14 will output a determination result.

上述してきたように、実施例1にかかる貨幣識別装置、貨幣識別方法および貨幣識別プログラムでは、金種識別処理部が硬貨の金種を取得し、取得した金種を受け取った第1の真偽識別処理部が硬貨の真偽識別処理をおこなうよう構成した。そして、年代識別処理部が硬貨の発行年を識別し、第2の真偽識別処理部が、先に識別された金種および発行年を用いて特徴テーブルを検索して特徴部テンプレート画像と特徴範囲とを取得し、特徴部テンプレート画像と入力画像の対応部分とを照合するよう構成した。さらに、真偽判定部が、第1の真偽識別処理、年代識別処理および第2の真偽識別処理の処理結果に基づいて、硬貨の真偽を判定するよう構成した。したがって、高精度の貨幣識別をおこなうことができる。また、入力画像に含まれる文字を認識してこの文字と関連する特徴部分を詳細に照合することにより画像照合精度を高めることができるとともに、入力画像の特徴部分のみを詳細な照合処理の対象とすることにより微細な特徴を効率的に照合することができる。また、偽貨の傾向に合わせて特徴テーブルを保守することにより、効率的に偽貨を識別することができる。   As described above, in the money identifying apparatus, the money identifying method, and the money identifying program according to the first embodiment, the denomination identifying processing unit obtains the denomination of the coin and receives the obtained denomination. The identification processing unit is configured to perform true / false identification processing of coins. Then, the age identification processing unit identifies the issue year of the coin, and the second authenticity identification processing unit searches the feature table using the previously identified denomination and issue year, and the feature part template image and the feature The range is acquired, and the feature portion template image is matched with the corresponding portion of the input image. Furthermore, the authenticity determination unit is configured to determine the authenticity of the coin based on the processing results of the first authenticity identification process, the age identification process, and the second authenticity identification process. Therefore, highly accurate currency identification can be performed. In addition, by recognizing the character included in the input image and collating the feature portion related to this character in detail, the image collation accuracy can be improved, and only the feature portion of the input image is subjected to detailed collation processing. By doing so, it is possible to efficiently collate fine features. Further, by maintaining the feature table according to the tendency of the false coins, the false coins can be efficiently identified.

上述した実施例1では、硬貨の金種識別処理を光センサや磁気センサといったセンサを用いておこなう場合について説明した。以下に示す実施例2では、かかる金種識別処理をCCDカメラ等で撮像した画像を用いておこなう場合について説明する。   Example 1 mentioned above demonstrated the case where the denomination identification process of a coin was performed using sensors, such as an optical sensor and a magnetic sensor. In the second embodiment described below, a case where the denomination identifying process is performed using an image captured by a CCD camera or the like will be described.

図26は、実施例2に係る貨幣識別装置の構成を示す機能ブロック図である。なお、以下では、実施例1に係る貨幣識別装置との差異点についてのみ説明し、共通点についての説明は省略することとする。   FIG. 26 is a functional block diagram illustrating the configuration of the money identifying apparatus according to the second embodiment. In the following description, only differences from the currency identifying apparatus according to the first embodiment will be described, and description of common points will be omitted.

図26に示すように、実施例2に係る貨幣識別装置1の金種識別処理部11は、CCDカメラ4から硬貨の撮像画像(入力画像)を取得し、この入力画像に基づいて金種の識別をおこなう。そして、この金種識別処理部11は、識別した金種と、CCDカメラから取得した入力画像とを、第1の真偽識別処理部12に出力する。   As shown in FIG. 26, the denomination identification processing unit 11 of the currency identification device 1 according to the second embodiment acquires a captured image (input image) of a coin from the CCD camera 4, and based on this input image, denomination of the denomination Identify. The denomination identification processing unit 11 outputs the identified denomination and the input image acquired from the CCD camera to the first authenticity identification processing unit 12.

かかる金種識別処理部11は、入力画像から金種の識別をおこなう際に、一般的な正規化相関法を用いる。そして、第1の真偽識別処理部12では、上記した正負分離相関による照合処理をおこなうことによって金種識別処理部11が識別した金種の真偽識別をおこなう。このようにすることで、光センサ(図1の2参照)や磁気センサ(図1の3参照)を用いることなく硬貨の金種および真偽判定をおこなうことが可能となる。なお、金種識別処理部11が正負分離相関による照合処理によって金種を識別することとしてもよい。   The denomination identification processing unit 11 uses a general normalized correlation method when identifying the denomination from the input image. And in the 1st authenticity identification process part 12, the authenticity identification of the money type which the money type identification process part 11 identified is performed by performing the collation process by above-mentioned positive / negative separation correlation. By doing in this way, it becomes possible to perform the denomination and authenticity determination of a coin, without using an optical sensor (refer 2 of FIG. 1) and a magnetic sensor (refer 3 of FIG. 1). In addition, it is good also as a denomination identification process part 11 identifying a denomination by the collation process by positive / negative separation correlation.

また、図26では、金種識別処理部11がCCDカメラ4から硬貨を撮像した画像(入力画像)を取得し、金種識別の結果および入力画像を第1の真偽識別処理部12に出力する場合について説明したが、金種識別処理部11自体を省略し、第1の真偽識別処理部12において金種識別および第1の真偽識別をおこなうこととしてもよい。以下では、金種識別処理部11を省略した構成について説明することとする。   In FIG. 26, the denomination identification processing unit 11 acquires an image (input image) obtained by imaging a coin from the CCD camera 4, and outputs the denomination identification result and the input image to the first authenticity identification processing unit 12. However, the denomination identification processing unit 11 itself may be omitted, and the first true / false identification processing unit 12 may perform denomination identification and first authenticity identification. Hereinafter, a configuration in which the denomination identification processing unit 11 is omitted will be described.

図27は、実施例2に係る貨幣識別装置の構成の変形例を示す機能ブロック図である。同図に示すように、第1の真偽識別処理部12は、CCDカメラ4から受け取った入力画像と、記憶部20にあらかじめ記憶された登録画像21とを用い、正負分離相関による照合処理によって金種識別および第1の真偽識別をおこなう。上述したように、正負分離相関による照合処理は照合精度が高いため、金種識別の精度が十分に高い。したがって、正負分離相関による金種識別をおこなうこととすれば、この金種識別で第1の真偽識別を兼ねることができる。   FIG. 27 is a functional block diagram illustrating a modified example of the configuration of the money identifying apparatus according to the second embodiment. As shown in the figure, the first authenticity identification processing unit 12 uses an input image received from the CCD camera 4 and a registered image 21 stored in advance in the storage unit 20, and performs a collation process using positive / negative separation correlation. Denomination identification and first authenticity identification are performed. As described above, the collation process based on the positive / negative separation correlation has a high collation accuracy, so that the denomination identification accuracy is sufficiently high. Therefore, if denomination identification is performed by positive / negative separation correlation, this denomination identification can also serve as the first true / false identification.

次に、図27に示した第1の真偽識別処理の処理手順について図28を用いて説明する。図28は、図27に示した変形例に係る第1の真偽識別処理の処理手順を示すフローチャートである。なお、図28に示した処理手順は、図6に示した処理手順に金種識別をおこなうための処理を付加したものであるので、図6との相違点についてのみ説明し、共通点についての説明は省略することとする。   Next, the processing procedure of the first authenticity identification processing shown in FIG. 27 will be described with reference to FIG. FIG. 28 is a flowchart showing a processing procedure of first authenticity identification processing according to the modification shown in FIG. Note that the processing procedure shown in FIG. 28 is obtained by adding processing for denomination identification to the processing procedure shown in FIG. 6, so only the differences from FIG. 6 will be described. The description will be omitted.

まず、回転角検出処理(ステップS204)以降の処理では、複数のテンプレート画像40の中から所定の貨幣に対応するテンプレート画像40を選択して回転角の検出処理をおこなう。たとえば、1円硬貨、5円硬貨、10円硬貨といった硬貨のテンプレート画像40の中から、1円硬貨に対応するテンプレート画像40を選択する。そして、以降の処理において、かかるテンプレート画像40を用いた画像照合に失敗した場合には、5円硬貨に対応するテンプレート画像40、10円硬貨に対応するテンプレート画像40、のようにテンプレート画像40を変更していくことで、照合対象の硬貨に一致するテンプレート画像40を見つける。このようにして、図28に示した第1の真偽識別処理では、金種の識別をおこなうことになる。   First, in the processing after the rotation angle detection process (step S204), the template image 40 corresponding to a predetermined currency is selected from the plurality of template images 40, and the rotation angle detection process is performed. For example, the template image 40 corresponding to 1 yen coin is selected from the template images 40 of coins such as 1 yen coin, 5 yen coin, and 10 yen coin. In the subsequent processing, if the image matching using the template image 40 fails, the template image 40 such as the template image 40 corresponding to the 5-yen coin and the template image 40 corresponding to the 10-yen coin are displayed. By changing the template image 40, the template image 40 matching the coin to be verified is found. In this way, in the first authenticity identification process shown in FIG. 28, the denomination is identified.

正負分離相関による照合処理(ステップS206)が照合結果を出力すると、かかる照合結果が「一致」であるか否かを判定する(ステップS207)。そして、照合結果が「一致」である場合には(ステップS207肯定)、マッチング処理においてテンプレート画像40と合致するように平行移動した入力画像34を回転済入力画像22として記憶部20に記憶し(ステップS208)、戻り値に「真」をセットして(ステップS209)リターンする。   When the collation process based on the positive / negative separation correlation (step S206) outputs the collation result, it is determined whether or not the collation result is “match” (step S207). If the collation result is “match” (Yes at step S207), the input image 34 translated in a matching process so as to match the template image 40 is stored in the storage unit 20 as the rotated input image 22 ( In step S208), “true” is set as the return value (step S209), and the process returns.

一方、照合結果が「一致」でない場合には(ステップS207否定)、他の貨幣候補があるか否かを判定する(ステップS211)。具体的には、未だ画像照合処理に用いていないテンプレート画像40があるか否かを判定する。そして、すべての金種について照合処理をおこなった場合には(ステップS211否定)、戻り値に「偽」をセットして(ステップS210)リターンする。また、未だ画像照合処理に用いていないテンプレート画像40がある場合には(ステップS211肯定)、テンプレート画像40を他の貨幣のものに変更してステップS204以降の処理を繰り返すことによって、金種識別をおこなうことになる。   On the other hand, when the collation result is not “match” (No at Step S207), it is determined whether there is another money candidate (Step S211). Specifically, it is determined whether or not there is a template image 40 that is not yet used for the image matching process. If all denominations have been collated (No at Step S211), “false” is set as the return value (Step S210), and the process returns. If there is a template image 40 that has not yet been used for the image matching process (Yes at step S211), the template image 40 is changed to that of another currency, and the processing after step S204 is repeated, thereby denomination identification. Will be performed.

上述したように、実施例2では、金種識別処理部がCCDカメラ等で撮像した画像を用いて金種識別をおこなうこととし、さらに、金種識別処理部自体を省略し、第1の真偽識別処理部において金種識別および第1の真偽識別をおこなうよう構成したので、光センサや磁気センサといった各種センサを用いることなく効率的に画像照合処理をおこなうことができる。   As described above, in the second embodiment, the denomination identification processing unit performs denomination identification using an image captured by a CCD camera or the like, and further, the denomination identification processing unit itself is omitted, and the first true Since the false identification processing unit is configured to perform denomination identification and first authenticity identification, it is possible to efficiently perform image matching processing without using various sensors such as an optical sensor and a magnetic sensor.

なお、上述した各実施例においては、硬貨の入力画像について画像照合をおこなうことによって貨幣識別をおこなう場合について説明したが、本発明はこれに限定されるものではなく、たとえば、紙幣の識別や、市場に流通する商品に付されたセキュリティ標識の識別にも適用することができる。また、硬貨選別機や両替機に本発明を適用することにより、真貨を選別したうえで金種および発行年ごとにラップしたり、古い硬貨や偽貨を回収したりすることができる。   In addition, in each Example mentioned above, although the case where money identification was performed by performing image collation about the input image of a coin was explained, the present invention is not limited to this, for example, identification of a bill, The present invention can also be applied to identification of security signs attached to products distributed in the market. Moreover, by applying the present invention to a coin sorter and a money changer, it is possible to wrap every denomination and issue year after collecting true coins, or to collect old coins and fake coins.

本発明にかかる硬貨分類装置および硬貨分類方法は、硬貨が発行された年代を考慮しつつ効率良く硬貨を分類する場合に適している。   The coin classification device and the coin classification method according to the present invention are suitable for efficiently classifying coins in consideration of the age when the coins were issued.

1 貨幣識別装置
2 光センサ
3 磁気センサ
4 CCDカメラ
10 制御部
11 金種識別処理部
12 第1の真偽識別処理部
13 年代識別処理部
14 第2の真偽識別処理部
15 真偽判定部
20 記憶部
21 登録画像
22 回転済入力画像
23 文字照合テーブル
24 特徴テーブル
30 入力画像
30a 水平方向射影
30b 垂直方向射影
31 切出画像
31a Sobelオペレータ(水平方向エッジ算出用)
31b Sobelオペレータ(垂直方向エッジ算出用)
32 エッジ抽出画像
33 エッジ正規化画像
34 極座標変換済エッジ正規化画像(入力画像)
40 テンプレート画像
40a t+画像
40b t−画像
111 正規化相関値画像
111a r+画像
111b r−画像
121 A+領域画像
122 A−領域画像
123 B+領域画像
124 B−領域画像
130a 正領域画像マスク
130b 負領域画像マスク
131 膨張済A+領域画像
132 膨張済A−領域画像
133 膨張済B+領域画像
134 膨張済B−領域画像
DESCRIPTION OF SYMBOLS 1 Money identification device 2 Optical sensor 3 Magnetic sensor 4 CCD camera 10 Control part 11 Denomination identification process part 12 1st authenticity identification process part 13 Era identification process part 14 2nd authenticity identification process part 15 Authenticity determination part DESCRIPTION OF SYMBOLS 20 Memory | storage part 21 Registration image 22 Rotated input image 23 Character collation table 24 Feature table 30 Input image 30a Horizontal direction projection 30b Vertical direction projection 31 Cutout image 31a Sobel operator (for horizontal direction edge calculation)
31b Sobel operator (for vertical edge calculation)
32 Edge extracted image 33 Edge normalized image 34 Polar coordinate transformed edge normalized image (input image)
40 template image 40a t + image 40b t-image 111 normalized correlation value image 111a r + image 111b r-image 121 A + region image 122 A-region image 123 B + region image 124 B-region image 130a positive region image mask 130b negative region image Mask 131 Inflated A + area image 132 Inflated A- area image 133 Inflated B + area image 134 Inflated B- area image

Claims (6)

硬貨の入力画像と予め登録された文字テンプレート画像とを照合することによって前記硬貨の分類処理を行う硬貨分類装置であって、
前記入力画像を極座標変換する極座標変換画像取得手段と、
予め登録されている基準画像との照合により回転角を取得する回転角取得手段と、
前記取得された回転角を基に前記硬貨の入力画像と前記文字テンプレートの回転角を一致させる画像回転手段と、
前記硬貨の入力画像の一部をなす発行年を示す文字部分を含む部分画像と前記文字テンプレート画像とを、両画像の回転角が揃った状態で照合を行い、その照合値に基づいて、前記硬貨の発行年を識別する発行年識別手段と、
前記発行年識別手段の識別結果に基づいて前記硬貨を分類処理する分類処理手段と
を備えたことを特徴とする硬貨分類装置。
A coin classification device that performs the coin classification process by collating an input image of coins with a pre-registered character template image,
Polar coordinate conversion image acquisition means for converting the input image into polar coordinates;
Rotation angle acquisition means for acquiring a rotation angle by collating with a reference image registered in advance;
Image rotation means for matching the input image of the coin with the rotation angle of the character template based on the acquired rotation angle;
The partial image including the character part indicating the issue year that forms part of the input image of the coin and the character template image are collated in a state where the rotation angles of both images are aligned, and based on the collation value, An issue year identification means for identifying the issue year of a coin;
A coin classification device comprising: classification processing means for performing classification processing on the coins based on an identification result of the issuing year identification means.
前記分類処理手段は、前記発行年識別手段により識別された所定の発行年の硬貨を他の発行年の硬貨と分類処理することを特徴とする請求項1に記載の硬貨分類装置。   2. The coin classification apparatus according to claim 1, wherein the classification processing unit classifies the coins of a predetermined issue year identified by the issue year identification unit with coins of another issue year. 前記分類処理手段は、前記発行年識別手段により硬貨の発行年が識別されない場合には、該硬貨をリジェクト対象として分類処理することを特徴とする請求項1または2に記載の硬貨分類装置。   3. The coin classification device according to claim 1, wherein the classification processing unit performs a classification process on a coin as a subject to be rejected when the issue year of the coin is not identified by the issue year identification unit. 前記分類処理手段は、
複数の発行年の硬貨の特徴部分をそれぞれ示す複数の特徴部テンプレートを記憶する特徴部テンプレート記憶手段と、前記発行年識別手段により硬貨の発行年が識別された場合に、該発行年に対応する硬貨の特徴部テンプレートを前記特徴部テンプレート記憶手段から検索する検索手段と、
前記硬貨の入力画像の一部をなす該硬貨の特徴部分を示す部分画像と前記検索手段により検索された特徴部テンプレートとの照合値に基づいて、前記硬貨が真貨であるか偽貨であるかを識別処理する真偽識別処理手段と
を備えたことを特徴とする請求項1、2または3に記載の硬貨分類装置。
The classification processing means includes
Corresponding to the issue year when the issue year of the coin is identified by the feature template storage means for storing a plurality of feature part templates respectively indicating the characteristic portions of the coins of the plurality of issue years, and the issue year identification means Search means for searching for a feature template of coins from the feature template storage means;
Based on a collation value between a partial image showing a characteristic part of the coin that forms a part of the input image of the coin and a characteristic template searched by the search means, the coin is a real coin or a fake coin The coin classification device according to claim 1, 2 or 3, further comprising: authenticity identification processing means for performing identification processing.
前記分類処理手段は、所定の発行年以降とそれまでの旧い年の発行硬貨とを分類することを特徴とする請求項1〜4のいずれか1つに記載の硬貨分類装置。   The coin classification device according to any one of claims 1 to 4, wherein the classification processing unit classifies issued coins after a predetermined issuing year and old coins issued until then. 硬貨の入力画像と予め登録された文字テンプレート画像とを照合することによって前記硬貨の分類処理を行う硬貨分類装置の硬貨分類方法であって、
前記入力画像を極座標変換する工程と、
予め登録されている基準画像との照合により回転角を取得する回転角取得工程と、
前記取得された回転角を基に前記硬貨の入力画像と前記文字テンプレートとの回転角を一致させる画像回転工程と、
前記硬貨の入力画像の一部をなす発行年を示す文字部分を含む部分画像と前記文字テンプレート画像とを回転角が一致した状態で照合を行い、その照合値に基づいて、前記硬貨の発行年を識別する発行年識別工程と、
前記発行年識別工程の識別結果に基づいて前記硬貨を分類処理する分類処理工程と
を含んだことを特徴とする硬貨分類方法。
A coin classification method of a coin classification device that performs a classification process of the coins by collating an input image of coins with a character template image registered in advance,
Converting the input image into polar coordinates;
A rotation angle acquisition step of acquiring a rotation angle by collating with a reference image registered in advance;
An image rotation step of matching the rotation angle between the input image of the coin and the character template based on the acquired rotation angle;
The partial image including the character part indicating the issue year that forms a part of the input image of the coin is collated with the character template image in a state in which the rotation angles match, and based on the collation value, the issue year of the coin Issue year identification process for identifying
And a classification processing step of classifying the coins based on the identification result of the issue year identification step.
JP2012007653A 2012-01-18 2012-01-18 Coin classification device and coin classification method Expired - Fee Related JP5372183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007653A JP5372183B2 (en) 2012-01-18 2012-01-18 Coin classification device and coin classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007653A JP5372183B2 (en) 2012-01-18 2012-01-18 Coin classification device and coin classification method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005121568A Division JP4932177B2 (en) 2005-04-19 2005-04-19 Coin classification device and coin classification method

Publications (2)

Publication Number Publication Date
JP2012084175A true JP2012084175A (en) 2012-04-26
JP5372183B2 JP5372183B2 (en) 2013-12-18

Family

ID=46242893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007653A Expired - Fee Related JP5372183B2 (en) 2012-01-18 2012-01-18 Coin classification device and coin classification method

Country Status (1)

Country Link
JP (1) JP5372183B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799865A (en) * 2012-07-03 2012-11-28 天津大学 Image boundary polar-coordinated discrete sequence based angle identification method
JP2016004330A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Medal identification device and medal identification method
JP2016004331A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Medal identification device and medal identification method
JP2016004332A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Model image generation device and model image generation method
JP2016071622A (en) * 2014-09-30 2016-05-09 グローリー株式会社 Currency management system and currency management method
WO2016157837A1 (en) * 2015-03-30 2016-10-06 日本電気株式会社 Determination system, determination method, and recording medium
CN107742355A (en) * 2017-11-13 2018-02-27 淮海工学院 Automatically deliver the device of sorting coin
TWI657412B (en) * 2018-05-21 2019-04-21 National Taipei University Of Technology Coin classification method and device thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61110283A (en) * 1984-11-02 1986-05-28 株式会社日立製作所 Paper money discriminator
JP2000322579A (en) * 1999-05-13 2000-11-24 Sankyo Seiki Mfg Co Ltd Image recognizing device
JP2003187289A (en) * 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd Method for identifying circular body to be detected
JP2003263669A (en) * 2002-03-07 2003-09-19 Omron Corp Paper sheet discriminating device and automatic transaction device
JP2004192189A (en) * 2002-12-10 2004-07-08 Matsushita Electric Ind Co Ltd Pattern identifying device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61110283A (en) * 1984-11-02 1986-05-28 株式会社日立製作所 Paper money discriminator
JP2000322579A (en) * 1999-05-13 2000-11-24 Sankyo Seiki Mfg Co Ltd Image recognizing device
JP2003187289A (en) * 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd Method for identifying circular body to be detected
JP2003263669A (en) * 2002-03-07 2003-09-19 Omron Corp Paper sheet discriminating device and automatic transaction device
JP2004192189A (en) * 2002-12-10 2004-07-08 Matsushita Electric Ind Co Ltd Pattern identifying device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799865A (en) * 2012-07-03 2012-11-28 天津大学 Image boundary polar-coordinated discrete sequence based angle identification method
JP2016004330A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Medal identification device and medal identification method
JP2016004331A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Medal identification device and medal identification method
JP2016004332A (en) * 2014-06-13 2016-01-12 オムロン株式会社 Model image generation device and model image generation method
JP2016071622A (en) * 2014-09-30 2016-05-09 グローリー株式会社 Currency management system and currency management method
WO2016157837A1 (en) * 2015-03-30 2016-10-06 日本電気株式会社 Determination system, determination method, and recording medium
JPWO2016157837A1 (en) * 2015-03-30 2018-02-15 日本電気株式会社 Determination system, determination method, and determination program
CN107742355A (en) * 2017-11-13 2018-02-27 淮海工学院 Automatically deliver the device of sorting coin
CN107742355B (en) * 2017-11-13 2023-08-18 江苏海洋大学 Automatic device of conveying letter sorting coin
TWI657412B (en) * 2018-05-21 2019-04-21 National Taipei University Of Technology Coin classification method and device thereof

Also Published As

Publication number Publication date
JP5372183B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP4932177B2 (en) Coin classification device and coin classification method
JP5372183B2 (en) Coin classification device and coin classification method
CN104464079B (en) Multiple Currencies face amount recognition methods based on template characteristic point and topological structure thereof
Sarfraz An intelligent paper currency recognition system
CN101504781B (en) Valuable document recognition method and apparatus
CN104969268A (en) Authentication of security documents and mobile device to carry out the authentication
Tessfaw et al. Ethiopian banknote recognition and fake detection using support vector machine
JP4563740B2 (en) Image collation device, image collation method, and image collation program.
KR101001691B1 (en) Recognizing the Denomination of a Note Using Wavelet transform
Geusebroek et al. Learning banknote fitness for sorting
KR102123910B1 (en) Serial number rcognition Apparatus and method for paper money using machine learning
Sawant et al. Currency recognition using image processing and minimum distance classifier technique
CN106599923B (en) Method and device for detecting seal anti-counterfeiting features
Zarin et al. A hybrid fake banknote detection model using OCR, face recognition and hough features
Lamsal COUNTERFIET PAPER BANKNOTE IDENTIFICATION BASED ON COLOR AND TEXTURE
KR102094234B1 (en) Serial number recognition Apparatus and method for paper money
Gebremeskel et al. Developing a Model for Detection of Ethiopian Fake Banknote Using Deep Learning
Olanrewaju et al. Automated bank note identification system for visually impaired subjects in malaysia
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
JP4563741B2 (en) Image collation device, image collation method, and image collation program.
Swami et al. Indian currency classification using deep learning techniques
Patel et al. Counterfeit Currency Detection using Deep Learning
Al-Maqaleh et al. An efficient offline signature verification system using local features
Kagehiro et al. A hierarchical classification method for us bank-notes
Vishnu et al. Currency detection using similarity indices method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5372183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees