JP2014186659A - Image collation device, image collation method, and image collation program - Google Patents

Image collation device, image collation method, and image collation program Download PDF

Info

Publication number
JP2014186659A
JP2014186659A JP2013062496A JP2013062496A JP2014186659A JP 2014186659 A JP2014186659 A JP 2014186659A JP 2013062496 A JP2013062496 A JP 2013062496A JP 2013062496 A JP2013062496 A JP 2013062496A JP 2014186659 A JP2014186659 A JP 2014186659A
Authority
JP
Japan
Prior art keywords
image
feature point
feature
points
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013062496A
Other languages
Japanese (ja)
Other versions
JP5998090B2 (en
Inventor
Ryuji Mine
竜治 嶺
Masakazu Fujio
正和 藤尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Omron Terminal Solutions Corp
Original Assignee
Hitachi Omron Terminal Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Omron Terminal Solutions Corp filed Critical Hitachi Omron Terminal Solutions Corp
Priority to JP2013062496A priority Critical patent/JP5998090B2/en
Publication of JP2014186659A publication Critical patent/JP2014186659A/en
Application granted granted Critical
Publication of JP5998090B2 publication Critical patent/JP5998090B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image collation device, an image collation method, and an image collation program which collate images with high accuracy.SOLUTION: The image collation device includes: a piece of paper registration unit 21 for registering an image of a registered piece of paper; and a piece of paper identification unit 22 for collating an image of a collated piece of paper with the image of the registered piece of paper. In image collation processing for extracting characteristic points of the images and calculating and collating image conversion parameters using the characteristic points, the collation of the images is performed while successively exchanging estimated parameters by estimating validity of the images estimated by the image conversion parameters. In order to cope with a local revolution and expansion and contraction, the whole images are collated by recursively performing processing of correlating corresponding points not correlated with each other with a pair of image conversion parameters by separate parameters.

Description

本発明は、画像照合装置、画像照合方法、画像照合プログラムに係り、特に、紙片やシート等の物体の真贋を判定するための画像照合装置、画像照合方法、画像照合プログラムに関する。   The present invention relates to an image matching device, an image matching method, and an image matching program, and more particularly to an image matching device, an image matching method, and an image matching program for determining the authenticity of an object such as a piece of paper or a sheet.

近年、複写技術の向上により紙幣や有価証券、切手等の精巧な偽造券が、比較的簡便に作成可能となり、社会問題化する傾向にあろう。一般的に、紙片の偽造の防止には、漉き込み技術や特殊なインクが必要で、印刷コストを上げる原因となっている。例えば、特許文献1には、証券の文字を磁気インクで印刷し、複写機による複製を防止する方法が開示されている。特許文献2には、磁性体を漉き込んで真贋判定を行う方法が開示されている。
また、画像を用いた照合システムとして、画像から複数の特徴点を抽出し、抽出した特徴点から得られる特徴量や座標情報を用いたシステムが提案されている。例えば、特許文献3には、画像間の特徴量、距離、角度を算出して画像同士をマッチングする手法が開示されている。また、特許文献4には、画像から複数の特徴点を抽出し、特徴量との距離により画像マッチングを行う方法が開示されている。さらに、特許文献5には、特徴点とユークリッド距離に基づいて画像同士の類似度を求める方法が開示されている。また、特許文献6、7には、アフィン変換を用いて登録画像と照合画像の対応関係を求め、画像の回転や拡大・縮小に対して頑健な画像照合方式が開示されている。
In recent years, due to improvements in copying technology, sophisticated counterfeit tickets such as banknotes, securities, and stamps can be created relatively easily, which will tend to become a social problem. Generally, in order to prevent counterfeiting of a piece of paper, a squeezing technique and special ink are required, which increases the printing cost. For example, Patent Document 1 discloses a method for printing characters of securities with magnetic ink and preventing copying by a copying machine. Japanese Patent Application Laid-Open No. 2004-228561 discloses a method for determining authenticity by inserting a magnetic material.
As a collation system using an image, a system using a plurality of feature points extracted from an image and using feature amounts and coordinate information obtained from the extracted feature points has been proposed. For example, Patent Literature 3 discloses a technique for matching images by calculating feature amounts, distances, and angles between the images. Patent Document 4 discloses a method of extracting a plurality of feature points from an image and performing image matching based on a distance from the feature amount. Furthermore, Patent Document 5 discloses a method for obtaining the similarity between images based on feature points and Euclidean distance. Patent Documents 6 and 7 disclose image matching methods that are robust against image rotation and enlargement / reduction by obtaining the correspondence between registered images and matching images using affine transformation.

特開2010−9482号公報JP 2010-9482 A 特開2007−164293号公報JP 2007-164293 A 特開2007−334795号公報JP 2007-334895 A 特開2012−160047号公報JP 2012-160047 A 特開2012−190220号公報JP 2012-190220 A 特開2010−272091号公報JP 2010-272091 A 特開2004−326693号公報JP 2004-326693 A 特開2007−334795号公報JP 2007-334895 A 特開2006−338330号公報JP 2006-338330 A

David G. Lowe、“Distinctive Image Features from Scale−Invariant Keypoints”、International Journal of Computer Vision、 60、 2、 pp. 91−110、 2004.David G. Low, “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, 60, 2, pp. 91-110, 2004.

特許文献1ないし2に記載の方法は、偽造防止に有効な方法である。しかしながら、特別なインクを用いたり、紙に特別な繊維を漉き込んだりする必要があり、偽造防止のコストが高くなるという課題があった。また、真贋判定をしたい対象物が画像として捉えられている場合、すなわち、印影等の場合には、適用できないという課題があった。
また、画像を用いて照合を行う際には、登録画像(以下、モデル画像とも呼ぶ)と、照合画像で、画像の撮影条件が異なる場合がある。例えば、光学スキャナを用いて紙片の画像を採取する際には、紙片の搬送系の精度の原因で、登録画像と照合画像が互いに数画素平行移動したり、回転したりすることがある。また、撮像センサの精度の原因で、登録画像に比べ、照合画像は若干拡大したり、縮小したりすることがある。
特許文献3に記載の方法は、上述の課題または原因を考慮した方法である。すなわち、モデル画像から複数の特徴点を抽出し、モデル画像をさまざまなカメラパラメータで変形した画像を生成する(以下、変調画像と呼ぶ)。そして、変調画像から特徴点を抽出し、モデル画像と変調画像の特徴点を対応付け、照合画像とモデル画像および全変調画像との特徴点を照合する方法である。しかしながら、照合した特徴点は、独立した変調方式で変調した複数の画像から抽出した特徴点となる。また、特許文献4に記載の方法は、画像から抽出した複数の特徴点を利用した画像照合方法であり、特徴点同士の対応関係を、RANSAC(RANdom Sample Consensus)法を用いて変換行列を求めることで算出する方法である。しかしながら、特許文献3と同様に、画像から抽出した各々の特徴点位置関係に制約はなく、画像から抽出した各々の特徴点の特徴量が類似している場合、正しく照合できないことがあった。しがたって、各々の特徴点の位置関係に制約はなく、画像から抽出した各々の特徴点の特徴量が類似している場合、正しく照合できないという課題があった。
The methods described in Patent Documents 1 and 2 are effective methods for preventing forgery. However, it is necessary to use a special ink or to insert a special fiber into paper, and there is a problem that the cost for preventing forgery increases. In addition, there is a problem that it cannot be applied when an object for which authentication is desired is captured as an image, that is, in the case of an imprint or the like.
When collation is performed using an image, there are cases where the image capturing conditions differ between a registered image (hereinafter also referred to as a model image) and a collation image. For example, when an image of a piece of paper is collected using an optical scanner, the registered image and the collation image may move several pixels in parallel or rotate due to the accuracy of the paper piece conveyance system. Further, the collation image may be slightly enlarged or reduced compared to the registered image due to the accuracy of the imaging sensor.
The method described in Patent Document 3 is a method that takes into account the above-described problems or causes. That is, a plurality of feature points are extracted from the model image, and an image obtained by deforming the model image with various camera parameters is generated (hereinafter referred to as a modulated image). Then, feature points are extracted from the modulated image, the feature points of the model image and the modulated image are associated, and the feature points of the collated image, the model image, and all the modulated images are collated. However, the matched feature points are feature points extracted from a plurality of images modulated by independent modulation methods. The method described in Patent Document 4 is an image collation method using a plurality of feature points extracted from an image, and a correspondence matrix between the feature points is obtained using a RANSAC (RANdom Sample Consensus) method. It is a method to calculate by. However, as in Patent Document 3, there is no restriction on the positional relationship between the feature points extracted from the image, and when the feature amounts of the feature points extracted from the image are similar, it may not be correctly matched. Therefore, there is no restriction on the positional relationship between the feature points, and there is a problem that when the feature amounts of the feature points extracted from the images are similar, the matching cannot be performed correctly.

さらに、特許文献5に記載の方法は、非特許文献1に記載のSIFT特徴量を用いて、画像の回転に頑健な画像照合方法である。SIFT特徴は、画像の回転や縮小に頑健な特徴量であるが、特許文献3や特許文献4と同様に、画像から抽出した各々の特徴点位置関係に制約はないため、画像から抽出した各々の特徴点の特徴量が類似している場合、正しく照合できないことがあった。
特許文献6に開示されている方法は、登録画像と照合画像から複数の特徴点を抽出し、照合画像中の特徴点と対応する特徴点を登録画像中に求め、それらの座標に基づいて、両画像同士の回転や拡大・縮小を表現するアフィン変換関数を求める方法である。したがって、最初に選んだ特徴点の対を用いて求めたアフィン変換関数が、他の特徴点群を適切に表現できない場合、照合画像が登録画像と同じ物体を撮影したものであっても、偽物と判断される場合がある。
特許文献7に開示されている方法も、特許文献6と同様にアフィン変換関数を用いて、登録画像と照合画像の関係を記述する、画像照合方式である。しかしながら、特徴点の対応付けは、ランダムに選択した3点の候補点対を繰り返し選択することで行う。したがって、適切な対応点が選択される保証はなく、また、特に画像から抽出した各々の特徴点の特徴量が類似している場合、正しく照合できないことがあった。
以上を整理すると、本発明にて解決する主な課題は以下のとおりとなる。すなわち、本発明が解決しようとする第一の課題は、登録画像の特徴点と照合画像の特徴点を関係づける画像変換関数のパラメータを高精度に算出することである。また、本発明が解決しようとする第二の課題は、登録画像に対して照合画像が、部分的に回転していたり、拡大・縮小していたりしても、高精度に画像を照合することである。
Furthermore, the method described in Patent Document 5 is an image matching method that is robust to image rotation using the SIFT feature value described in Non-Patent Document 1. The SIFT feature is a feature amount that is robust to image rotation and reduction. However, as in Patent Literature 3 and Patent Literature 4, each feature point extracted from the image is not limited, so each of the features extracted from the image. When the feature quantities of the feature points are similar, there are cases where the matching cannot be performed correctly.
The method disclosed in Patent Document 6 extracts a plurality of feature points from a registered image and a matching image, obtains feature points corresponding to the feature points in the matching image in the registered image, and based on those coordinates, This is a method for obtaining an affine transformation function expressing rotation and enlargement / reduction of both images. Therefore, if the affine transformation function obtained using the first selected feature point pair cannot properly represent other feature point groups, even if the matching image is the same object as the registered image, May be judged.
The method disclosed in Patent Document 7 is also an image collation method that describes the relationship between a registered image and a collation image using an affine transformation function as in Patent Document 6. However, the feature points are associated by repeatedly selecting three candidate point pairs selected at random. Therefore, there is no guarantee that an appropriate corresponding point is selected, and in particular, when the feature amounts of the feature points extracted from the image are similar, the matching may not be performed correctly.
In summary, the main problems to be solved by the present invention are as follows. That is, the first problem to be solved by the present invention is to calculate the parameter of the image conversion function that relates the feature point of the registered image and the feature point of the collation image with high accuracy. The second problem to be solved by the present invention is to collate images with high accuracy even when the collation image is partially rotated or enlarged / reduced with respect to the registered image. It is.

本発明は、以上の点に鑑み、画像を高精度に照合する画像照合装置、画像照合方法、画像照合プログラムを提供することを目的とする。
In view of the above, it is an object of the present invention to provide an image collation apparatus, an image collation method, and an image collation program that collate images with high accuracy.

本発明の第1の解決手段によると、
画像照合装置であって、
登録部と、
識別部と
を備え、
前記登録部は、
登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶し、
および、
前記識別部は、
照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合し、
相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出し、
再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定し、
判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる
画像照合装置が提供される。
According to the first solution of the present invention,
An image matching device,
A registration department;
An identification unit,
The registration unit
From the first image acquired from the registered object, the positions of a plurality of first feature points are obtained, printed on the registered object or stored in a database,
and,
The identification unit is
The positions of the plurality of second feature points obtained from the second image acquired from the matching object, and the positions of the plurality of first feature points printed on the matching object or stored in the database. Match
Image conversion in which a plurality of predetermined pairs of the first feature points and the second feature points corresponding to each other are selected and the first feature points and the second feature points are associated with each other An image conversion coefficient representing a function is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added to the image conversion coefficient Is repeatedly recalculated,
Determining the authenticity of the verification object based on the difference or correlation between the position of the feature point of the registered object calculated according to the recalculated image conversion function and the position of the feature point of the verification object;
There is provided an image collation apparatus that displays a determination result on a display unit and / or stores it in a storage unit.

本発明の第2の解決手段によると、
画像照合装置における画像照合方法であって、
前記画像照合装置は、
登録部と、
識別部と
を備え、
前記登録部は、
登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶し、
および、
前記識別部は、
照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合し、
相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出し、
再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定し、
判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる
画像照合方法が提供される。
According to the second solution of the present invention,
An image matching method in an image matching device,
The image matching device
A registration department;
An identification unit,
The registration unit
From the first image acquired from the registered object, the positions of a plurality of first feature points are obtained, printed on the registered object or stored in a database,
and,
The identification unit is
The positions of the plurality of second feature points obtained from the second image acquired from the matching object, and the positions of the plurality of first feature points printed on the matching object or stored in the database. Match
Image conversion in which a plurality of predetermined pairs of the first feature points and the second feature points corresponding to each other are selected and the first feature points and the second feature points are associated with each other An image conversion coefficient representing a function is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added to the image conversion coefficient Is repeatedly recalculated,
Determining the authenticity of the verification object based on the difference or correlation between the position of the feature point of the registered object calculated according to the recalculated image conversion function and the position of the feature point of the verification object;
An image collation method for displaying a determination result on a display unit and / or storing the determination result in a storage unit is provided.

本発明の第3の解決手段によると、
画像照合装置における画像照合プログラムであって、
前記画像照合装置の処理部が、登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶する手順と、
および、
前記処理部が、照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合する手順と、
前記処理部が、相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出する手順と、
前記処理部が、再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定する手順と、
前記処理部が、判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる手順と
をコンピュータに実行させるための画像照合プログラムが提供される。
According to the third solution of the present invention,
An image matching program in an image matching device,
A procedure in which a processing unit of the image collating device obtains positions of a plurality of first feature points from a first image acquired from a registered object, and prints the position on the registered object or stores it in a database;
and,
The processing unit obtains positions of a plurality of second feature points obtained from the second image acquired from the collation object, and a plurality of the first feature points printed on the collation object or stored in the database. A procedure for matching the positions of feature points;
The processing unit selects a plurality of predetermined pairs of the first feature point and the second feature point corresponding to each other, and selects the first feature point and the second feature point. An image conversion coefficient representing an image conversion function to be associated with each other is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added Repeatedly recalculating the image conversion coefficient,
A procedure for determining the authenticity of the collation object based on a difference or correlation between the position of the feature point of the registered object and the position of the feature point of the collation object calculated by the processing unit according to the recalculated image conversion function. When,
An image collation program for causing the computer to execute a procedure for causing the processing unit to display the determination result on the display unit and / or to store the determination result in the storage unit is provided.

本発明によると、画像を高精度に照合する画像照合装置、画像照合方法、画像照合プログラムを提供することができる。
According to the present invention, it is possible to provide an image collation apparatus, an image collation method, and an image collation program that collate images with high accuracy.

本発明の各実施例における、透過光による紙紋画像の説明図の例である。It is an example of the explanatory drawing of the paper pattern image by the transmitted light in each Example of this invention. 本発明の第一の実施例ならびに第二の実施例における画像照合装置の具体的な構成と、データの流れを示した図である。It is the figure which showed the specific structure of the image collation apparatus in the 1st Example of this invention, and a 2nd Example, and the flow of data. 本発明の各実施例における紙片の真贋判定のための画像照合システムの構成図の例である。It is an example of the block diagram of the image collation system for the authenticity determination of the piece of paper in each Example of this invention. 本発明の第一の実施例における、図2に示した画像照合装置および図3に示した画像照合システムを用いて、紙片の登録処理の流れを示した図である。FIG. 4 is a diagram showing a flow of registration processing for a piece of paper using the image collating apparatus shown in FIG. 2 and the image collating system shown in FIG. 3 in the first embodiment of the present invention. 本発明の各実施例における、特徴点情報テーブルの説明図の例を示した図である。It is the figure which showed the example of explanatory drawing of the feature point information table in each Example of this invention. 本発明の各実施例における、特徴点情報、特徴点情報符号化手段、符号化特徴点情報、特徴点情報復号化手段、の関係を表した図である。It is a figure showing the relationship between the feature point information, the feature point information encoding means, the encoded feature point information, and the feature point information decoding means in each embodiment of the present invention. 本発明の第一の実施例における、紙片の照合処理の流れ(1)を示した図である。It is the figure which showed the flow (1) of the collation process of a paper piece in 1st Example of this invention. 本発明の各実施例における、対応点テーブルの説明図の例である。It is an example of explanatory drawing of a corresponding point table in each Example of this invention. 本発明の各実施例における、特徴点の対応関係を示した図である。It is the figure which showed the correspondence of the feature point in each Example of this invention. 本発明の第二の実施例における、紙片の照合処理流れ(2)を示す図である。It is a figure which shows the collation processing flow (2) of a paper piece in the 2nd Example of this invention. 本発明の第三の実施例における、反射光による印影画像の説明図の例である。It is an example of explanatory drawing of the imprint image by reflected light in the 3rd Example of this invention. 本発明の第三の実施例における、画像照合システムの構成図の例である。It is an example of the block diagram of the image collation system in the 3rd Example of this invention. 本発明の第三の実施例における、印鑑登録手段の処理手順を表した図である。It is a figure showing the process sequence of the seal | sticker registration means in the 3rd Example of this invention. 本発明の第一の実施例における、紙片の照合処理の流れ(2)を示した図である。It is the figure which showed the flow (2) of the collation process of a paper piece in the 1st Example of this invention. 特徴点の対応を表す説明図である。It is explanatory drawing showing a response | compatibility of a feature point. 対応点の入れ替えについての説明図(1)である。It is explanatory drawing (1) about replacement | exchange of a corresponding point. 対応点の入れ替えについての説明図(2)である。It is explanatory drawing (2) about replacement | exchange of a corresponding point. 印鑑DBの説明図である。It is explanatory drawing of stamp DB.

A.概要

上記目的を解決するため、本実施例の画像照合装置は、例えば、
登録したい物体の画像を取得する手段と、
取得した物体画像から当該物体の複数の特徴点を抽出する手段と、
抽出した複数の特徴点の物体上における位置および特徴量を符号化する手段と、
符号化した特徴点の位置および特徴量を記録する手段と、
記録した特徴点の位置と特徴量を読み取って復号化する手段と、
照合したい物体から特徴点を抽出し、登録した物体の特徴点と照合したい物体から抽出した複数の特徴点同士を対応付ける手段と、
対応付けた複数の特徴点群から照合画像上の残りの特徴点と登録画像上の残りの特徴点の画像変換関数を算出する手段と、
算出した画像変換関数のパラメータを更新する手段と、
更新した画像変換関数を用いて登録画像と照合画像の類似度を判定する手段
を備えることができる。
A. Overview

In order to solve the above object, the image collating apparatus of the present embodiment is, for example,
Means for acquiring an image of an object to be registered;
Means for extracting a plurality of feature points of the object from the acquired object image;
Means for encoding the positions and feature quantities of the extracted feature points on the object;
Means for recording the positions and feature quantities of the encoded feature points;
Means for reading and decoding recorded feature point positions and feature quantities;
Means for extracting feature points from the object to be collated and associating a plurality of feature points extracted from the object to be collated with the feature points of the registered object;
Means for calculating an image conversion function of the remaining feature points on the collation image and the remaining feature points on the registered image from a plurality of associated feature point groups;
Means for updating parameters of the calculated image conversion function;
Means for determining the similarity between the registered image and the collation image using the updated image conversion function can be provided.

また、本実施例の他の画像照合装置は、例えば、
登録したい物体の画像を取得する手段と、
取得した物体画像から当該物体の複数の特徴点を抽出する手段と、
抽出した複数の特徴点の物体上における位置および特徴量を符号化する手段と、
符号化した特徴点の位置および特徴量を記録する手段と、
記録した特徴点の位置と特徴量を読み取って復号化する手段と、
照合したい物体から特徴点を抽出し、登録した物体の特徴点と照合したい物体から抽出した複数の特徴点同士を対応付ける手段と、
対応付けた複数の特徴点群から照合画像上の残りの特徴点と登録画像上の残りの特徴点の画像変換関数を算出する手段と、
画像変換関数で求めた特徴点の位置が大きく異なる特徴点群を集め、それらの特徴点群から上述と同様の手段で再帰的に画像変換関数のパラメータを算出する手段と、
算出した画像変換関数のパラメータを更新する手段と、
更新した画像変換関数を用いて登録画像と照合画像の類似度を判定する手段
を備えることができる。
In addition, other image matching devices of this embodiment are, for example,
Means for acquiring an image of an object to be registered;
Means for extracting a plurality of feature points of the object from the acquired object image;
Means for encoding the positions and feature quantities of the extracted feature points on the object;
Means for recording the positions and feature quantities of the encoded feature points;
Means for reading and decoding recorded feature point positions and feature quantities;
Means for extracting feature points from the object to be collated and associating a plurality of feature points extracted from the object to be collated with the feature points of the registered object;
Means for calculating an image conversion function of the remaining feature points on the collation image and the remaining feature points on the registered image from a plurality of associated feature point groups;
Means for collecting feature point groups having greatly different positions of the feature points obtained by the image conversion function, and recursively calculating the parameters of the image conversion function from the feature points group by the same means as described above;
Means for updating parameters of the calculated image conversion function;
Means for determining the similarity between the registered image and the collation image using the updated image conversion function can be provided.

B.紙片の真贋判定システム

1.システム
本発明の第一の実施例として、照合したい物体として紙片を考え、以下で説明する。本実施例を適用したシステムとしては、紙一枚一枚の真贋を判定する、紙片の真贋判定システムが考えられる。また、具体的な紙片としては、紙幣や株券などの有価証券、チケットやクーポン券、重要書類などが考えられる。なお、以下では主に「紙片」を例に挙げて説明するが、本発明および本実施例は、これに限らず、プラスチック等の化学系素材、木等の天然素材等適宜の素材を用いたシートやその他の物体に適用することができる。
本実施例では、透過光によって紙片の画像を得る場合について述べるが、反射光や非可視光領域の波長を用いて画像を得るようにしてもよい。また、磁気などの特別なセンサによって紙片の画像を得るようにしてもよい。
B. Paper piece authentication system

1. System As a first embodiment of the present invention, a piece of paper is considered as an object to be verified, and will be described below. As a system to which this embodiment is applied, a paper piece authenticity judging system for judging the authenticity of each piece of paper can be considered. Further, as specific paper pieces, securities such as banknotes and stock certificates, tickets and coupons, important documents and the like can be considered. In the following description, “paper piece” will be mainly described as an example. However, the present invention and the present embodiment are not limited to this, and appropriate materials such as chemical materials such as plastic and natural materials such as wood are used. It can be applied to sheets and other objects.
In this embodiment, a case where an image of a piece of paper is obtained by transmitted light will be described, but an image may be obtained using reflected light or a wavelength in a non-visible light region. Alternatively, an image of a piece of paper may be obtained by a special sensor such as magnetism.

図1は、紙片の透過画像の説明図である。この画像は市販の透過型のスキャナを用いて、上質紙を600dpiの解像度で撮像した画像である。目視しやすいように、濃淡を強調してある。
図2は、第一の実施例の画像照合処理装置の具体的な構成と、データの流れを示した図である。同図に示したように、画像照合システムは、大きく分けて紙片登録部21と紙片識別部22を備える。
紙片登録部21において、透過画像取得部202では、紙片201の透過画像を取得し、特徴点抽出処理部203に送る。特徴点抽出処理部203では、入力された透過画像から特徴点を抽出し、特徴点情報符号化部204に送る。具体的な特徴点の抽出手順については、図4を用いて後述する。特徴点情報符号化部204は、入力された特徴点情報を符号化する。具体的な符号化手順については、図6を用いて後述する。特徴点情報印刷部205は、入力された符号化特徴量を、プリンタ302を用いて紙片201の上に印刷する。なお、紙片登録の際に、紙片201の全体の透過画像を取得するのではなく、紙片の一部の領域または複数の部分領域の透過画像を取得するようにしてもよい。この場合は、透過画像を取得する領域座標を画像照合システムに通知する手段が必要になるが、これは公知技術(例えば、特許文献8の[0042]ないし[0043]および図11)を利用することができる。すなわち、取得する領域座標をバーコードに符号化し紙片201の上に印刷しておき、そのバーコードを画像照合システムが読み取って、読み取る領域座標を取得するようにすればよい。もしくは、事前に所定の領域座標を決め、画像照合システムに登録しておくようにしても良い。
FIG. 1 is an explanatory diagram of a transmission image of a piece of paper. This image is an image obtained by capturing high-quality paper with a resolution of 600 dpi using a commercially available transmissive scanner. The shading is emphasized for easy visual inspection.
FIG. 2 is a diagram showing a specific configuration and data flow of the image collation processing apparatus of the first embodiment. As shown in the figure, the image collation system roughly includes a paper piece registration unit 21 and a paper piece identification unit 22.
In the paper piece registration unit 21, the transmission image acquisition unit 202 acquires a transmission image of the paper piece 201 and sends it to the feature point extraction processing unit 203. The feature point extraction processing unit 203 extracts feature points from the input transparent image and sends them to the feature point information encoding unit 204. A specific feature point extraction procedure will be described later with reference to FIG. The feature point information encoding unit 204 encodes the input feature point information. A specific encoding procedure will be described later with reference to FIG. The feature point information printing unit 205 prints the input encoded feature amount on the paper piece 201 using the printer 302. When registering a piece of paper, a transmission image of a partial area or a plurality of partial areas of the piece of paper may be acquired instead of acquiring the whole transmission image of the paper piece 201. In this case, a means for notifying the image collation system of the area coordinates for acquiring the transparent image is required, and this uses a known technique (for example, [0042] to [0043] of FIG. 8 and FIG. 11). be able to. That is, the area coordinates to be acquired may be encoded into a barcode and printed on a piece of paper 201, and the barcode may be read by the image collation system to acquire the area coordinates to be read. Alternatively, predetermined area coordinates may be determined in advance and registered in the image collation system.

紙片識別部22において、紙片の照合時には、反射画像取得部207では、真贋判定の対象となる紙片206(以降、照合紙片と呼ぶ)の反射画像を取得し、特徴点情報復号化部208に送る。特徴点情報復号化部208は、入力された符号化特徴量を復号化し、対応点抽出部211に送る。具体的な、符号化特徴量の復号化手順については、図6を用いて後述する。また、紙片206の透過画像を透過画像取得部209で取得し、特徴点抽出処理部210に送る。特徴点抽出処理部210は、透過画像から特徴点を抽出し、対応点抽出部211に送る。紙片登録の際、紙片201の透過画像の一部の領域または複数の部分領域を用いた場合は、紙片照合の際も紙片206の透過画像の一部の領域または複数の部分領域を用いる。紙片登録部21の処理の際と同様に、公知技術(例えば、特許文献8の[0042]ないし[0043]および図11)を利用することができる。すなわち、バーコードに符号化して印刷された、取得すべき透過画像の領域座標を画像照合システムが読み取り、紙片206の透過画像の中から、その領域座標内の透過画像を抽出するようにすればよい。もしくは、事前に所定の領域座標を決め、画像照合システムに登録しておくようにしても良い。具体的な特徴点の抽出手段については、図4を用いて後述する。対応点抽出部211は、特徴点情報復号化部208で得られた登録紙片201の特徴点情報と、特徴抽出処理部210で得られた照合紙片206の特徴点情報の対応点を抽出し、対応点テーブル801(後述)として出力する。すなわち、登録用の紙片201の画像に含まれる複数の特徴点が、照合用の紙片206の画像のどの位置に対応するか、その対応関係を算出する。具体的な対応点の抽出方法については、図7を用いて後述する。次に、アフィンパラメータ推定部212は、入力された対応点テーブル801(後述)から、登録用の紙片201の画像を、回転、拡大・縮小することによって照合用の紙片206の画像ができたと仮定したとき、最も妥当性のある、回転角度や拡大率・縮小率(これらの数値を、以降ではアフィンパラメータと呼ぶ)を算出する。具体的なアフィンパラメータの算出方法については、図7を用いて後述する。次に、対応点ずれ量・分散算出部213では、入力されたアフィンパラメータから、対応点のずれ量・分散を算出する。続いて、対応点更新部214では、入力された対応点のずれ量・分散を用いて、アフィンパラメータの推定に用いる対応点の入れ替えを行い、アフィンパラメータを再計算する。評価値が収束するまで、対応点の入れ替えを続ける。つぎに、真贋判定部215では、登録紙片201の特徴点をアフィンパラメータで変換したときの特徴点座標と、照合紙片206から抽出したときの特徴点座標とを比較し、真贋判定を行う。特徴点座標同士の距離が小さければ真券と判断し、特徴点座標同士の距離が大きければ偽券と判断する。真贋判定結果は、表示装置に表示される、及び/又は、RAMに記憶される。ずれ量・分散の算出方法については、図9を用いて後述する。 When the paper piece identification unit 22 collates the paper pieces, the reflected image acquisition unit 207 obtains a reflected image of the paper piece 206 (hereinafter referred to as a collation paper piece) that is the object of authenticity determination, and sends it to the feature point information decoding unit 208. . The feature point information decoding unit 208 decodes the input encoded feature value and sends it to the corresponding point extraction unit 211. A specific decoding procedure of the encoded feature value will be described later with reference to FIG. Further, the transmission image of the paper piece 206 is acquired by the transmission image acquisition unit 209 and sent to the feature point extraction processing unit 210. The feature point extraction processing unit 210 extracts feature points from the transmission image and sends them to the corresponding point extraction unit 211. When registering a piece of paper, if a partial area or a plurality of partial areas of the transparent image of the paper piece 201 is used, a partial area or a plurality of partial areas of the transparent image of the paper piece 206 is also used for paper piece verification. Similarly to the processing of the paper piece registration unit 21, a known technique (for example, [0042] to [0043] in FIG. 11 and FIG. 11) can be used. That is, if the image collation system reads the area coordinates of the transparent image to be acquired, which is encoded and printed on a barcode, and extracts the transparent image within the area coordinates from the transparent image of the piece of paper 206. Good. Alternatively, predetermined area coordinates may be determined in advance and registered in the image collation system. Specific feature point extraction means will be described later with reference to FIG. The corresponding point extraction unit 211 extracts the corresponding points of the feature point information of the registered paper piece 201 obtained by the feature point information decoding unit 208 and the feature point information of the matching paper piece 206 obtained by the feature extraction processing unit 210, A corresponding point table 801 (described later) is output. That is, the correspondence relationship is calculated as to which position in the image of the collation paper piece 206 the plurality of feature points included in the image of the registration paper piece 201 corresponds. A specific method for extracting corresponding points will be described later with reference to FIG. Next, it is assumed that the affine parameter estimation unit 212 has created an image of the collation paper piece 206 by rotating, enlarging or reducing the image of the registration paper piece 201 from the input corresponding point table 801 (described later). Then, the most appropriate rotation angle and enlargement / reduction ratio (these numerical values are hereinafter referred to as affine parameters) are calculated. A specific affine parameter calculation method will be described later with reference to FIG. Next, the corresponding point deviation amount / variance calculation unit 213 calculates the deviation amount / variance of the corresponding points from the input affine parameters. Subsequently, the corresponding point updating unit 214 replaces the corresponding points used for estimating the affine parameters using the input deviation amount / variance of the corresponding points, and recalculates the affine parameters. The corresponding points are continuously replaced until the evaluation value converges. Next, the authenticity determination unit 215 compares the feature point coordinates obtained by converting the feature points of the registered paper piece 201 with the affine parameters and the feature point coordinates extracted from the collation paper piece 206 to perform authenticity determination. If the distance between the feature point coordinates is small, it is determined as a genuine note, and if the distance between the feature point coordinates is large, it is determined as a fake ticket. The authentication result is displayed on the display device and / or stored in the RAM. A method of calculating the deviation amount / dispersion will be described later with reference to FIG.

図3は、紙片の真贋判定のための画像照合システムの構成図の例である。本システムは、少なくとも1台の、透過型スキャナ(301)と、真贋に用いる特徴量を符号化して印刷するプリンタ(302)と、真贋判定の計算等を行うCPU(303)と、CPUを操作するキーボード(304)と、符号化した特徴量を読み取る反射型スキャナ(309)と、真贋判定結果を操作者に表示する表示装置(306)と、真贋判定に用いるコンピュータソフトウェアを格納するRAM(307)と、CPUを操作するマウス(308)と、上述の各々のブロック間のデータを通信するためのバス(309)を備える。CPU(303)は、図2に示した画像照合装置による処理を実行する。真贋判定に用いる特徴量を遠隔地のDB(311)に格納し、それらをネットワーク(310)で繋ぐような構成にしてもよい。透過型スキャナ(301)、反射型スキャナ(309)には、市販のスキャナを用いることができる。 FIG. 3 is an example of a configuration diagram of an image matching system for authenticating a piece of paper. This system includes at least one transmissive scanner (301), a printer (302) that encodes and prints feature values used for authenticity, a CPU (303) that performs authentication determination calculation, and the like. Keyboard (304), a reflective scanner (309) for reading the encoded feature value, a display device (306) for displaying the result of authenticity determination to the operator, and a RAM (307) for storing computer software used for authenticity determination ), A mouse (308) for operating the CPU, and a bus (309) for communicating data between each of the blocks described above. The CPU (303) executes processing by the image collating apparatus shown in FIG. The feature amount used for authenticity determination may be stored in a remote DB (311) and connected by a network (310). Commercially available scanners can be used as the transmissive scanner (301) and the reflective scanner (309).

図5は、特徴点情報テーブルの説明図の例である。特徴点情報テーブル501は、特徴点の数502、特徴点ID503、特徴点のX座標504、特徴点のY座標505、特徴点の特徴量値506を含む。必要に応じて、特徴点の方向507を加えてもよい。特徴点の方向は、例えば、右方向を0度とし、半時計回りに回転角に応じて数を増やし、一周すると360度とする度数を用いることができる。
図8は、対応点テーブルの説明図の例である。対応点テーブル801は、対応点ID802、登録紙片上の特徴点ID803、登録紙片上の特徴点のX座標804、登録紙片上の特徴点のY座標805、照合紙片上の特徴点ID806、照合紙片上の特徴点のX座標807、照合紙片上の特徴点のY座標808、対応する特徴点同士の類似度809を含む。
FIG. 5 is an example of an explanatory diagram of the feature point information table. The feature point information table 501 includes a feature point number 502, a feature point ID 503, a feature point X coordinate 504, a feature point Y coordinate 505, and a feature point feature value 506. If necessary, a feature point direction 507 may be added. As the direction of the feature point, for example, a frequency in which the right direction is 0 degree, the number is increased according to the rotation angle in a counterclockwise direction, and 360 degrees is obtained by making a round is used.
FIG. 8 is an example of an explanatory diagram of the corresponding point table. The corresponding point table 801 includes a corresponding point ID 802, a feature point ID 803 on the registered paper piece, an X coordinate 804 of the feature point on the registered paper piece, a Y coordinate 805 of the feature point on the registered paper piece, a feature point ID 806 on the check paper piece, and a check paper piece It includes an X coordinate 807 of the upper feature point, a Y coordinate 808 of the feature point on the collation paper piece, and a similarity 809 between corresponding feature points.

2.処理

2−1.登録処理
図4は、図2に示した画像照合装置および図3に示した画像照合システムを用いて、紙片の登録処理の流れを示した図である。まず、CPU(303)は、透過型スキャナ(301)により、登録したい紙片の透過画像を撮像し(402)、次に当該画像から、紙片の識別に用いる特徴量を抽出する。いま、画像の高さをH画素、画像の幅をW画素とし、CPU(303)は、着目画素のY座標を表す変数Yを1からHまで変えながら(403)、着目画素のX座標を表す変数Xを1からWまで変え(404)以下の処理をくり返す。CPU(303)は、座標(X、Y)を中心とするN×N画素の画像を切り出し、部分画像SubImg(X、Y)に格納する(405)。続いて、CPU(303)は、SubImg(X、Y)から画像特徴量を抽出する。画像特徴量としては、例えば、画像処理や映像処理で用いられる、濃淡値、色彩、マルチスペクトル情報や、テクスチャ情報、形状情報、空間的な配置情報や、あるいはそれらの組み合わせを用いることができる。以下では、画像に画像フィルタかけて特徴量を抽出する手順について説明する。CPU(303)は、SubImg(X、Y)に画像フィルをかけ、座標(X、Y)における特徴量Ftr(X、Y)を抽出する(406)。画像フィルタには、公知の画像処理フィルタを用いることができる。例えば、田村秀行編著、“コンピュータ画像処理”、オーム社、に記載の勾配フィルタやラプラシアンフィルタ、ロバーツ・オペレータを用いてもよい。また、CPU(303)は、非特許文献1に記載のSIFTを使うことで、特徴量に加え、特徴点の方向Dir(X、Y)を抽出することもできる。続いて、CPU(303)は、特徴量Ftr(X、Y)と予め定められた閾値とを比較し、特徴量Ftr(X、Y)のほうがその閾値より大きい場合には(407)、CPU(303)は、特徴点情報テーブル501に、新しい特徴点ID503を採番して、座標(X、Y)を追加し(408)、特徴量Ftr(X、Y)を追加し(409)、方向Dir(X、Y)を追加する(410)。具体的には、図5を参照すると、CPU(303)は、特徴量を追加するごとに、特徴点情報テーブル501の特徴点の数502の数を一つ増やし、特徴点情報テーブル501の行を一つ追加する。そして、CPU(303)は、追加した行の特徴点ID503に新しく採番したIDを書き込み、X座標504には特徴点のX座標を、Y座標505には特徴点のY座標を、特徴量値506には特徴量を、方向507には特徴点の方向を書き込む。処理407で用いる閾値は、本処理を適用するアプリケーションの要求精度に応じて適切に決めればよいし、また、登録後の紙片の劣化度合いに応じて適切に調整してもよい。透過画像の全ての点について上述の処理が終了したら、CPU(303)は、特徴点情報テーブル501を走査しながら、特徴点情報を順に符号化する。符号化は、図6を用いて後述する。つぎに符号化した特徴点情報を登録用紙片に印刷する(412)。なお、ここでは符号化した特徴点情報(符号化特徴点情報)を紙片の上に印刷するとしたが、図3に示すような構成にして、遠隔地にあるDB311に、ネットワーク310を経由して登録するようにしてもよい。
2. processing

2-1. Registration Processing FIG. 4 is a diagram showing a flow of registration processing for a piece of paper using the image matching apparatus shown in FIG. 2 and the image matching system shown in FIG. First, the CPU (303) takes a transmission image of a paper piece to be registered by the transmission scanner (301) (402), and then extracts a feature amount used for identification of the paper piece from the image. Now, assuming that the height of the image is H pixels, the width of the image is W pixels, and the CPU (303) changes the variable Y representing the Y coordinate of the pixel of interest from 1 to H (403), the X coordinate of the pixel of interest is changed. The variable X to be represented is changed from 1 to W (404) and the following processing is repeated. The CPU (303) cuts out an image of N × N pixels centered on the coordinates (X, Y) and stores it in the partial image SubImg (X, Y) (405). Subsequently, the CPU (303) extracts an image feature amount from SubImg (X, Y). As the image feature amount, for example, gray values, colors, multispectral information, texture information, shape information, spatial arrangement information, or a combination thereof used in image processing and video processing can be used. In the following, a procedure for extracting feature amounts by applying an image filter to an image will be described. The CPU (303) applies an image fill to SubImg (X, Y), and extracts a feature amount Ftr (X, Y) at coordinates (X, Y) (406). A known image processing filter can be used as the image filter. For example, a gradient filter, a Laplacian filter, or a Roberts operator described in Hideyuki Tamura, “Computer Image Processing”, Ohmsha may be used. Further, the CPU (303) can extract the feature point direction Dir (X, Y) in addition to the feature amount by using the SIFT described in Non-Patent Document 1. Subsequently, the CPU (303) compares the feature amount Ftr (X, Y) with a predetermined threshold value. When the feature amount Ftr (X, Y) is larger than the threshold value (407), the CPU (303) assigns a new feature point ID 503 to the feature point information table 501, adds coordinates (X, Y) (408), adds a feature amount Ftr (X, Y) (409), A direction Dir (X, Y) is added (410). Specifically, referring to FIG. 5, every time a feature amount is added, the CPU (303) increases the number of feature points 502 in the feature point information table 501 by one, and the row of the feature point information table 501. Add one. Then, the CPU (303) writes the newly assigned ID to the feature point ID 503 of the added row, the X coordinate 504 is the feature point X coordinate, the Y coordinate 505 is the feature point Y coordinate, and the feature amount. In the value 506, the feature amount is written, and in the direction 507, the direction of the feature point is written. The threshold value used in the process 407 may be appropriately determined according to the required accuracy of the application to which this process is applied, or may be appropriately adjusted according to the degree of deterioration of the registered paper piece. When the above processing is completed for all the points of the transparent image, the CPU (303) sequentially encodes the feature point information while scanning the feature point information table 501. The encoding will be described later with reference to FIG. Next, the encoded feature point information is printed on a registration sheet piece (412). In this example, the encoded feature point information (encoded feature point information) is printed on a piece of paper. However, the configuration shown in FIG. You may make it register.

図6は、特徴点情報、特徴点情報符号化手段、符号化特徴点情報、特徴点情報復号化手段、の関係を表した図である。特徴点情報601は、図5に示した特徴点情報テーブル501の内容に対応して書かれている。すなわち、CPU(303)は、特徴点情報テーブル501から特徴点の数502(図5の例では5)を取り出して、特徴点情報601に“5”と記載し、次に、特徴点情報テーブル501からX座標504を取り出して、特徴点情報601に“56”と追記し、特徴点情報テーブル501からY座標505を取り出して、特徴点情報601に“10”と追記し、特徴点情報テーブル501から、特徴量値506を取り出して、特徴点情報601に“220”と追記し、特徴点情報テーブル501から、特徴点の方向507を取り出して、特徴点情報601に追記する。
以上の処理を、CPU(303)は、特徴点の数502の数だけ繰り返す。ここでは、特徴点情報601にデータを追記していく際、データの区切り目として、カンマ“、”を記載したが、他の手段でデータの区切り目が分かるようにしてもよい。次に、CPU(303)は、特徴点情報符号化手段603を用いて、特徴点情報601を符号化し、符号化特徴点情報602に変換する。ここでは、JIS X 0510に記載のQRコード(登録商標)を用いた例を示したが、他にも1次元のバーコードを用いたり、MICR(Magnetic Ink Character Recognition)の技術を用いて磁性体のインクで印刷するようにしたり、OCR(Optical Character Recognition)を用いて人が可読可能な文字で記載するようにしたりしてもよい。その場合は、反射画像取得部207は、必要に応じて、磁性体に反応するデバイス等に変更すればよい。符号化特徴点情報602を特徴点情報601に復号化するにも、上述のJIS X 0510に記載のQRコード(登録商標)や、1次元のバーコードを用いたり、MICR、OCRなどの既存の手段を用いたりすることができる。
FIG. 6 is a diagram showing the relationship among feature point information, feature point information encoding means, encoded feature point information, and feature point information decoding means. The feature point information 601 is written corresponding to the contents of the feature point information table 501 shown in FIG. That is, the CPU (303) extracts the number 502 of feature points (5 in the example of FIG. 5) from the feature point information table 501, writes “5” in the feature point information 601, and then the feature point information table. The X coordinate 504 is extracted from the 501, and “56” is added to the feature point information 601. The Y coordinate 505 is extracted from the feature point information table 501, and “10” is added to the feature point information 601. The feature amount value 506 is extracted from 501 and “220” is added to the feature point information 601. The feature point direction 507 is extracted from the feature point information table 501 and added to the feature point information 601.
The CPU (303) repeats the above processing by the number of feature points 502. Here, when adding data to the feature point information 601, a comma “,” is described as the data break, but the data break may be recognized by other means. Next, the CPU (303) encodes the feature point information 601 using the feature point information encoding means 603 and converts it into encoded feature point information 602. Here, an example using the QR code (registered trademark) described in JIS X 0510 has been shown, but other than that, a one-dimensional bar code or a magnetic material using MICR (Magnetic Ink Character Recognition) technology is used. It is also possible to print with the ink of the above, or to describe in human-readable characters using OCR (Optical Character Recognition). In that case, the reflected image acquisition unit 207 may be changed to a device that reacts with a magnetic material, if necessary. In order to decode the encoded feature point information 602 into the feature point information 601, the QR code (registered trademark) described in the above JIS X 0510, a one-dimensional bar code, an existing MICR, OCR, etc. Means can be used.

2−2.照合処理(1)
図7は、紙片の照合処理の流れ(1)を示した図である。まず、CPU(303)は、反射画像取得702で、紙片上に印刷した符号化特徴点情報602を取得する。次に、CPU(303)は、特徴点情報A復号化703にて、符号化特徴点情報602から、復号化特徴点情報601を得る。これを特徴点群Aとする。次に、CPU(303)は、透過画像取得704で照合紙片の透過画像を取得し、取得した透過画像から特徴点群Bを抽出する(705)。次に、CPU(303)は、特徴点群Aと特徴点群Bに含まれる特徴点aと特徴点b同士の対応をとる。CPU(303)は、特徴量点同士の対応にあたっては、各特徴点に付与されている特徴量値506を利用して、特徴量値506が近いもの同士を対応づける。また、CPU(303)は、各特徴点について特徴点方向507が付与されている場合には、特徴点方向507を利用し、特徴点方向が近いもの同士を対応付けるようにしてもよい。また、CPU(303)は、特徴量値506、特徴点方向507の両方を用いることにしてもよい。次に、CPU(303)は、対応づけた特徴点同士の類似度が高い順に対応点を並び替える(707)。類似度の計算には、例えば、特徴点の特徴量値の差や特徴点の方向の差を用いることができる。並び替えた結果は、図8に示される対応点テーブル801の形で与えられる。次に、CPU(303)は、画像変換パラメータの推定に用いる特徴点数Nを予め適宜定める(708)。なお、以下では、例としてアフィン変換を用いる場合を説明するので、それに応じて、N=3とする。続いて、CPU(303)は、対応点テーブル801から、上位N個の対応点を抜出し、集合Gに代入する(709)。次に、CPU(303)は、変数Mに初期値N+1を代入する(710)。なお、この例ではM=4となる。続いてCPU(303)は、集合Gに含まれる対応点からアフィン変換パラメータを推定する(711)。アフィン変換とは、ある画像を回転させたり、拡大・縮小したり、平行移動したりして変形した画像を得ることである。ある画像上の座標(x,y)をもつ点を、3×3の行列を使って、変形後の画像上の座標(x,y)に変換する。すなわち、式1で与えられる。
2-2. Verification process (1)
FIG. 7 is a diagram showing a flow (1) of the collation processing of the piece of paper. First, the CPU (303) acquires the encoded feature point information 602 printed on a piece of paper in the reflected image acquisition 702. Next, the CPU (303) obtains the decoded feature point information 601 from the encoded feature point information 602 in the feature point information A decoding 703. This is defined as a feature point group A. Next, the CPU (303) acquires the transparent image of the collation paper piece by the transparent image acquisition 704, and extracts the feature point group B from the acquired transparent image (705). Next, the CPU (303) takes correspondence between the feature points a and b included in the feature point group A and the feature point group B. In correspondence between feature quantity points, the CPU (303) uses the feature quantity value 506 assigned to each feature point to associate those having similar feature quantity values 506 with each other. In addition, when the feature point direction 507 is assigned to each feature point, the CPU (303) may use the feature point direction 507 to associate the feature point directions close to each other. Further, the CPU (303) may use both the feature value 506 and the feature point direction 507. Next, the CPU (303) rearranges the corresponding points in descending order of similarity between the associated feature points (707). For the calculation of the similarity, for example, a feature value difference of feature points or a difference of feature point directions can be used. The rearranged result is given in the form of a corresponding point table 801 shown in FIG. Next, the CPU (303) appropriately determines the number N of feature points used for estimating the image conversion parameter in advance (708). In the following, a case where affine transformation is used will be described as an example, and accordingly N = 3. Subsequently, the CPU (303) extracts the top N corresponding points from the corresponding point table 801 and substitutes them into the set G (709). Next, the CPU (303) substitutes the initial value N + 1 for the variable M (710). In this example, M = 4. Subsequently, the CPU (303) estimates affine transformation parameters from the corresponding points included in the set G (711). Affine transformation is to obtain a deformed image by rotating, enlarging / reducing, or translating a certain image. A point having coordinates (x, y) on a certain image is converted into coordinates (x , y ) on the image after deformation using a 3 × 3 matrix. That is, it is given by Equation 1.

Figure 2014186659
ここで、a、b、c、d、e、f、は変換パラメータであり、(x,y)と(x,y)の組が3つ与えられれば、6元連立方程式を解く要領で、計算によって求めることができる。集合Gから、登録画像上の特徴点1の座標(x,y)と照合画像上の特徴点1の座標(x’,y’)、登録画像上の特徴点2の座標(x,y)と照合画像上の特徴点2の座標(x’,y’)、登録画像上の特徴点3の座標(x,y)と照合画像上の特徴点3の座標(x’,y’)から、a、b、c、d、e、fを求めることができる。
なお、アフィン変換の代わりに、任意の幾何変換を用いるようにしても良い。例えば、射影変換を用いれば、回転、拡大・縮小、平行移動に加え、台形歪も扱うことができる。その際は、その幾何変換のパラメータを推定するのに必要な座標の数に応じて、特徴点数Nの値を適宜変更する。
次に、CPU(303)は、アフィン変換パラメータの推定に用いなかった登録画像中の特徴点を、上述の手順で算出したアフィン変換パラメータを用いて変換し、照合画像中の座標を求め(712)、アフィン変換によって算出した、その座標に最も近い照合画像中の特徴点を探し、特徴点間の座標のずれを算出する(713)。続いて、CPU(303)は、特徴点間の座標のずれの分散を算出し、変数Vに代入する(714)。アフィン変換によって求めた座標と、その座標に最も近い照合画像中の特徴点は、例えば、図9の点924と点926である。詳細は図9の説明で後述する。
次に、CPU(303)は、V(i)に、集合Gに含まれる対応点群から、i番目の対応点をM番目の対応点に入れ替えて計算した分散を代入する(715)。
Figure 2014186659
Here, a, b, c, d, e, and f are conversion parameters. If three pairs of (x, y) and (x , y ) are given, the procedure for solving the six simultaneous equations And can be obtained by calculation. From the set G, the coordinates of the feature point 1 on the registered image (x 1 , y 1 ), the coordinates of the feature point 1 on the matching image (x ′ 1 , y ′ 1 ), the coordinates of the feature point 2 on the registered image ( x 2 , y 2 ) and the coordinates (x ′ 2 , y ′ 2 ) of the feature point 2 on the matching image, the coordinates (x 3 , y 3 ) of the feature point 3 on the registered image and the feature point 3 on the matching image From the coordinates (x ′ 3 , y ′ 3 ), a, b, c, d, e, and f can be obtained.
An arbitrary geometric transformation may be used instead of the affine transformation. For example, if projective transformation is used, trapezoidal distortion can be handled in addition to rotation, enlargement / reduction, and translation. In that case, the value of the feature point number N is appropriately changed according to the number of coordinates necessary for estimating the parameter of the geometric transformation.
Next, the CPU (303) converts the feature points in the registered image that were not used for estimating the affine transformation parameters using the affine transformation parameters calculated in the above-described procedure, and obtains the coordinates in the collation image (712). ), The feature point in the collation image closest to the coordinates calculated by the affine transformation is searched, and the deviation of the coordinates between the feature points is calculated (713). Subsequently, the CPU (303) calculates the variance of the coordinate deviation between the feature points and substitutes it for the variable V (714). The coordinates obtained by the affine transformation and the feature points in the collation image closest to the coordinates are, for example, the points 924 and 926 in FIG. Details will be described later with reference to FIG.
Next, the CPU (303) substitutes V (i) for the variance calculated by replacing the i-th corresponding point with the M-th corresponding point from the corresponding point group included in the set G (715).

図16は、対応点の入れ替えについての説明図(1)である。すなわち、CPU(303)は、処理714の際、集合G(1601)には、対応点1(1602)、対応点2(1603)、対応点3(1604)の3つの対応点が含まれていたとすると、処理715では、集合G(1601)の対応点1(1602)を対応点M(1606)に置換した、集合G1(1605)、集合G(1601)の対応点2(1603)を対応点M(1606)に置換した、集合G2(1609)、集合G(1601)の対応点3(1604)を対応点M(1606)に置換した、集合G3(1613)の3つの集合を算出する。そして、CPU(303)は、各々の集合に含まれる対応点から分散を算出し、V(i)に代入する。そして、V(i)がVより小さい場合には(716)、VをV(i)で入れ替え(717)、CPU(303)は、集合Gのi番目の対応点とM番目の対応点を入れ替え(718)、Mの値を一つ増やし(719)、ステップ710の直後に戻る。
このようにして、CPU(303)は、集合G、G1、G2、G3の各分散の中から一番小さい分散の値を求めることができる。
そして、CPU(303)は、V(j)とVの差の絶対値を計算し、その値が予め定めた閾値Th1以下の場合(720)、さらに、CPU(303)にV(i)を予め定めた閾値Th2と比較する。V(i)が閾値Th2よりも小さい場合は、CPU(303)は、照合紙片は真券と判断し(722)、照合処理を終了する(723)。そうでない場合は、CPU(303)は、照合券は偽券と判断し、判定結果を表示装置(306)に表示する、及び/又は、RAM(307)に記憶して(724)、照合処理を終了する(725)。

このように、本実施例によれば、対応点同士の類似度が高い順に並び替えた対応点から順番にアフィン変換パラメータを推定し、照合処理を行うことで、すべての対応点同士の組み合わせを計算することなく、効率的に照合処理を行うことができる。また、処理714にて、ずれの絶対値ではなく、ずれの分散を評価値に用いることで、パラメータの推定が安定してできるようになる。
FIG. 16 is an explanatory diagram (1) for replacement of corresponding points. That is, in the process 714, the CPU (303) includes three corresponding points of the corresponding point 1 (1602), the corresponding point 2 (1603), and the corresponding point 3 (1604) in the set G (1601). Assuming that the corresponding point 1 (1602) of the set G (1601) is replaced with the corresponding point M (1606), the corresponding point 2 (1603) of the set G1 (1605) and the set G (1601) is corresponded. Three sets of a set G3 (1613) are calculated by replacing the corresponding point 3 (1604) of the set G2 (1609) and the set G (1601) replaced with the point M (1606) with the corresponding point M (1606). . Then, the CPU (303) calculates the variance from the corresponding points included in each set, and substitutes it for V (i). If V (i) is smaller than V (716), V is replaced with V (i) (717), and the CPU (303) replaces the i-th corresponding point and the M-th corresponding point in the set G. Replace (718), increase the value of M by one (719), and return to immediately after step 710.
In this way, the CPU (303) can determine the smallest variance value from among the variances of the sets G, G1, G2, and G3.
Then, the CPU (303) calculates the absolute value of the difference between V (j) and V. If the value is equal to or smaller than a predetermined threshold Th1 (720), V (i) is further transferred to the CPU (303). Compare with a predetermined threshold Th2. When V (i) is smaller than the threshold value Th2, the CPU (303) determines that the verification paper piece is a genuine note (722), and ends the verification process (723). Otherwise, the CPU (303) determines that the verification ticket is a fake ticket, displays the determination result on the display device (306), and / or stores it in the RAM (307) (724), and performs the verification process. Is finished (725).

As described above, according to the present embodiment, the affine transformation parameters are estimated in order from the corresponding points rearranged in descending order of the similarity between corresponding points, and the matching process is performed. The matching process can be performed efficiently without calculation. Further, in the process 714, the estimation of the parameter can be stably performed by using the variance of the deviation as the evaluation value instead of the absolute value of the deviation.

2−3.照合処理(2)
図14は、紙片の照合処理の流れ(2)を示した図である。
紙片の照合の流れは図14のようにしてもよい。以下では、図7の流れと異なる点を中心に説明する。図14の処理1401〜1409は、図7の処理701〜709にそれぞれ対応し、CPU(303)は、同様の処理を実行する。続いてCPU(303)は、集合Gに含まれる対応点からアフィン変換パラメータを推定する(1410)。次に、CPU(303)は、アフィン変換パラメータの推定に用いなかった照合画像中の特徴点を、上述の手順で算出したアフィン変換パラメータを用いて変換し、登録画像中の座標を求め(1411)、アフィン変換によって算出した、その座標にもっとも近い登録画像中の特徴点を探し、座標のずれを算出する(1412)。続いて、CPU(303)は、座標のずれの分散を算出し、変数Vに代入する(1413)。
続いて、CPU(303)は、処理1409で求めた集合Gに含まれる対応点群、すなわち、1、2、・・・、N番目の対応点の中から対応点i(1≦i≦N)ひとつだけを除外して計算した分散をV(i)に代入する(1414)。
2-3. Verification process (2)
FIG. 14 is a diagram showing a flow (2) of the collation processing of the piece of paper.
The flow of collating the paper pieces may be as shown in FIG. Below, it demonstrates centering on a different point from the flow of FIG. Processes 1401 to 1409 in FIG. 14 correspond to processes 701 to 709 in FIG. 7, respectively, and the CPU (303) executes the same process. Subsequently, the CPU (303) estimates affine transformation parameters from the corresponding points included in the set G (1410). Next, the CPU (303) transforms the feature points in the collation image not used for estimating the affine transformation parameters by using the affine transformation parameters calculated in the above-described procedure, and obtains the coordinates in the registered image (1411). ), The feature point in the registered image closest to the coordinates calculated by the affine transformation is searched, and the deviation of the coordinates is calculated (1412). Subsequently, the CPU (303) calculates the variance of the coordinate deviation and substitutes it into the variable V (1413).
Subsequently, the CPU (303) determines the corresponding point i (1 ≦ i ≦ N) from among the corresponding point group included in the set G obtained in the processing 1409, that is, 1, 2,... ) The variance calculated by excluding only one is substituted for V (i) (1414).

図17は、対応点との入れ替えについての説明図(2)である。すなわち、例えば、処理1413の際は、図17(A)のように、集合G(1614)には、対応点1(1615)、対応点2(1616)、対応点3(1617)、・・・、対応点N−1(1618)、対応点N(1619)のN個の対応点が含まれていたとする。CPU(303)は、処理1414では、集合G(1614)の対応点1(1615)を削除した、集合G1(1620)、集合G(1614)の対応点2(1616)を削除した、集合G2(1625)、集合G(1614)の対応点N(1619)を削除した、集合GN(1630)のN個の集合を算出する。そして、CPU(303)は、各々の集合に含まれる対応点から各々の分散を算出し、V(i)に代入する。
また、CPU(303)は、処理1409で求めた集合Gに含まれる対応点群、すなわち、N+1、N+2、・・・、P番目の対応点の中から対応点j(N+1≦j≦P)ひとつだけを追加して計算した分散をV(j)に代入する(1415)。ただし、j=N+1、N+2、・・・、Pである。ここに、Pは、集合Gに含まれる対応点の個数(最大値)である。すなわち、処理1414の際は、集合G(1614)には、対応点1(1636)、対応点2(1637)、・・・、対応点N(1638)のN個の対応点が含まれていたとする。図17(B)のように、CPU(303)は、処理1415では、集合G(1635)に対応点N+1(1643)を追加した集合GN+1(1639)、集合G(1635)に対応点N+2(1648)を追加した集合GN+2(1644)、・・・、集合G(1635)に対応点Pを追加した集合GP(1649)、のP−N個の集合を算出する。
そして、CPU(303)は、各々の集合に含まれる対応点から各々の分散を算出し、V(i)に代入する。そして、CPU(303)は、V(i)とVを比較し、VよりもV(i)のほうが小さければ、i番目の特徴点を除いた分散を計算してVに代入し(1417)、集合Gからi番目の特徴点を除外し(1418)、Nの値をひとつ減らし(1419)、処理1410の直前に戻る(1420)。このようにして、CPU(303)は、集合G、G1、G2、・・・、GNの各手段の中から一番小さい分数の値を求めることができる。また、もし、V(j)の値がVよりも小さければ(1421)、CPU(303)は、j番目の特徴点を追加した分散を計算してVに代入し(1422)、集合Gにj番目の特徴点を追加し(1423)、Nの値をひとつ増やし(1424)、処理1410の直前に戻る(1425)。このようにして、CPU(303)は、集合G、GN+1、GN+2、・・・、GPの各手段の中から一番小さい分数の値を求めることができる。そして、もし、特徴点jを追加したことによる分散の変化量、すなわち|V(j)−V|が予め定めた閾値Th1よりも小さく、かつ、特徴点iを減らしたことによる分散の変化量、すなわち|V(i)−V|が閾値Th1よりも小さければ(1426)、CPU(303)は、Vを予め定めた閾値Th2と比較する(1427)。閾値Th2よりもVが小さければ(1427)、CPU(303)は、特徴点bを持つ紙片は真券と判定し(1228)、真贋判定処理を終了する(1429)。処理1426の判定結果が偽の場合は、CPU(303)は、特徴点bをもつ紙片は偽券と判定し、判定結果を表示装置(306)に表示する、及び/又は、RAM(307)に記憶して(1430)、処理を終了する(1431)。
FIG. 17 is an explanatory diagram (2) of replacement with corresponding points. That is, for example, in the process 1413, as shown in FIG. 17A, the set G (1614) includes the corresponding point 1 (1615), the corresponding point 2 (1616), the corresponding point 3 (1617),. Suppose that N corresponding points, corresponding point N-1 (1618) and corresponding point N (1619), are included. In the process 1414, the CPU (303) deletes the corresponding point 1 (1615) of the set G (1614), and deletes the corresponding point 2 (1616) of the set G1 (1620) and the set G (1614). (1625) N sets of the set GN (1630) are calculated by deleting the corresponding points N (1619) of the set G (1614). Then, the CPU (303) calculates each variance from the corresponding points included in each set, and substitutes it for V (i).
Further, the CPU (303) determines the corresponding point j (N + 1 ≦ j ≦ P) from among the corresponding point group included in the set G obtained in the processing 1409, that is, the N + 1, N + 2,. The variance calculated by adding only one is substituted for V (j) (1415). However, j = N + 1, N + 2,. Here, P is the number (maximum value) of corresponding points included in the set G. That is, in the process 1414, the set G (1614) includes N corresponding points, corresponding point 1 (1636), corresponding point 2 (1637),..., Corresponding point N (1638). Suppose. As shown in FIG. 17B, in the process 1415, the CPU (303) adds a corresponding point N + 1 (1643) to the set G (1635), a set GN + 1 (1639), and a set G (1635) corresponds to the corresponding point N + 2 ( PN sets of a set GN + 2 (1644) to which 1648) is added, and a set GP (1649) to which the corresponding point P is added to the set G (1635) are calculated.
Then, the CPU (303) calculates each variance from the corresponding points included in each set, and substitutes it for V (i). Then, the CPU (303) compares V (i) and V, and if V (i) is smaller than V, the variance excluding the i-th feature point is calculated and substituted for V (1417). Then, the i-th feature point is excluded from the set G (1418), the value of N is reduced by one (1419), and the process returns to immediately before the processing 1410 (1420). In this way, the CPU (303) can obtain the smallest fractional value from each means of the set G, G1, G2,..., GN. If the value of V (j) is smaller than V (1421), the CPU (303) calculates the variance with the jth feature point added and substitutes it into V (1422). The j-th feature point is added (1423), the value of N is incremented by one (1424), and the process returns to immediately before the processing 1410 (1425). In this way, the CPU (303) can obtain the smallest fractional value from the means of the set G, GN + 1, GN + 2,..., GP. If the feature point j is added, the variance change amount, that is, | V (j) −V | is smaller than a predetermined threshold Th1, and the variance change amount is obtained by reducing the feature point i. That is, if | V (i) −V | is smaller than the threshold value Th1 (1426), the CPU (303) compares V with a predetermined threshold value Th2 (1427). If V is smaller than the threshold Th2 (1427), the CPU (303) determines that the piece of paper having the feature point b is a genuine note (1228), and ends the authenticity determination process (1429). When the determination result of processing 1426 is false, the CPU (303) determines that the piece of paper having the feature point b is a fake ticket, displays the determination result on the display device (306), and / or the RAM (307). (1430), and the process ends (1431).

すなわち、本実施例によると、分散Vを計算する特徴点の集合Gに、特徴点を追加したり、集合Gから特徴点を除外して、分散Vが最小になるように計算を繰り返し、分散Vの変動が閾値以下となった場合に、真券と判定し、閾値以上の場合は偽券と判定する。このような構成にすることにより、最初に、ある選択基準で選んだ特徴点の対を用いて求めたアフィン変換係数が、他の特徴点群を適切に表現できない場合、照合画像は真券を撮影したものであっても、偽券と判定される可能性があるという、公知技術の問題点を解決できる。また、別の公知技術にてランダムに特徴点の候補点対選択した場合に適切な対応点が選択されることがないことがおきる、という公知技術の課題を解決できる。 That is, according to the present embodiment, feature points are added to the feature point set G for calculating the variance V, or feature points are excluded from the set G, and the calculation is repeated so that the variance V is minimized. When the fluctuation of V becomes equal to or less than the threshold, it is determined as a genuine note, and when it is equal to or greater than the threshold, it is determined as a false note. By adopting such a configuration, when the affine transformation coefficient obtained using a pair of feature points selected by a certain selection criterion cannot properly represent other feature point groups, the verification image is a genuine note. It is possible to solve the problem of the known technology that even a photographed image may be determined as a fake ticket. In addition, it is possible to solve the problem of the known technique in which an appropriate corresponding point may not be selected when a candidate point pair of feature points is randomly selected by another known technique.

3.特徴点の対応関係
図9は、本発明の各実施例に用いる、特徴点の対応関係を示した図である。登録用紙片画像901ならびに照合紙片画像902には、特徴点抽出処理部203で抽出した、登録紙片画像上の特徴点1(903)、照合紙片画像上の特徴点1(904)、登録紙片画像上の特徴点1と照合紙片画像上の特徴点1の対応関係(905)、登録紙片画像上の特徴点2(906)、照合紙片画像上の特徴点2(907)、登録紙片画像上の特徴点2と照合紙片画像上の特徴点2の対応関係(908)、登録紙片画像上の特徴点3(909)、照合紙片画像上の特徴点3(910)、登録紙片画像上の特徴点3と照合紙片画像上の特徴点3の対応関係(911)が示されている。
また、登録紙片画像912ならびに照合紙片画像913には、登録紙片画像上の特徴点1(914)、照合紙片画像上の特徴点1(915)、登録紙片画像上の特徴点1と照合紙片画像上の特徴点1の対応関係(916)、登録紙片画像上の特徴点2(917)、照合紙片画像上の特徴点2(918)、登録紙片画像上の特徴点2と照合紙片画像上の特徴点2の対応関係(919)、登録紙片画像上の特徴点3(920)、照合紙片画像上の特徴点3(921)、登録紙片画像上の特徴点3と照合紙片画像上の特徴点3の対応関係(922)、登録紙片画像上の特徴点4(923)、照合紙片画像上の特徴点4(924)、登録紙片画像上の特徴点4と照合紙片画像上の特徴量4の対応関係(925)、照合紙片画像上の特徴点4に最も近い特徴点(926)、照合紙片画像上の特徴点4と照合紙片画像上の特徴点4に最も近い特徴点間の距離(927)、登録紙片画像上の特徴点5(928)、照合紙片画像上の特徴点5(929)、登録紙片画像上の特徴点5と照合紙片画像上の特徴点5の対応関係(930)、照合紙片画像上の特徴点5に最も近い特徴点(931)、照合紙片上の特徴点5と照合紙片上の特徴点5に最も近い特徴点間の距離(932)が示されている。
すなわち、変換行列916、919、922を用いてアフィン変換のパラメータを算出し、算出したアフィン変換のパラメータを用いて登録紙片画像上の特徴点4(923)の座標を変換した座標が、照合紙片画像上の特徴点4(924)である。同様に、登録紙片画像上の特徴点5(928)を変換した座標が、照合紙片画像上の特徴点5(929)である。図9には、説明の都合上、特徴点924、929が記されているが、この位置に必ずしも特徴点が抽出される必要はなく、座標を表している。
前述した、特徴点のずれ量とは、照合紙片画像上の特徴点の座標と、その照合紙片画像上の特徴点に最も近い特徴点の座標の差の平均値のことであり、例えば、差927や差932の平均値を指す。また、特徴点の分散とは、対応する特徴点同士の座標の差の分散のことである。具体的な算出手段を以下に示す。
いま、i番目の特徴点の紙片画像上でのx座標をp(x)、y座標をp(y)、i番目の特徴点に対応する特徴点の紙片画像上でのx座標をp’(x)、y座標をp’(y)、とすると、座標の差Δは以下のようにして求めることができる。
3. Feature Point Correspondence FIG. 9 is a diagram showing the feature point correspondence used in each embodiment of the present invention. The registered sheet piece image 901 and the matching sheet piece image 902 include feature point 1 (903) on the registered sheet piece image, feature point 1 (904) on the matching sheet piece image, and registered sheet piece image extracted by the feature point extraction processing unit 203. Correspondence relationship between the feature point 1 above and the feature point 1 on the collation paper piece image (905), feature point 2 on the registration paper piece image (906), feature point 2 on the collation paper piece image (907), on the registration paper piece image Correspondence relationship between the feature point 2 and the feature point 2 on the collation paper piece image (908), feature point 3 on the registration paper piece image (909), feature point 3 on the collation paper piece image (910), feature point on the registration paper piece image 3 and the correspondence (911) between the feature point 3 on the collation paper piece image.
The registered paper piece image 912 and the verification paper piece image 913 include feature point 1 (914) on the registration paper piece image, feature point 1 (915) on the verification paper piece image, feature point 1 on the registration paper piece image, and the verification paper piece image. Correspondence relationship of feature point 1 above (916), feature point 2 on the registered paper piece image (917), feature point 2 on the collated paper piece image (918), feature point 2 on the registered paper piece image and on the collated paper piece image Correspondence relationship of feature point 2 (919), feature point 3 on registered paper piece image (920), feature point 3 on matching paper piece image (921), feature point 3 on registered paper piece image and feature point on matching paper piece image 3, the feature point 4 on the registered paper piece image (923), the feature point 4 on the matching paper piece image (924), the feature point 4 on the registered paper piece image, and the feature amount 4 on the matching paper piece image. Correspondence (925), closest to feature point 4 on collation paper piece image Marking point (926), distance between feature point 4 on collation paper piece image and feature point closest to feature point 4 on collation paper piece image (927), feature point 5 (928) on registered paper piece image, collation paper piece image Upper feature point 5 (929), correspondence between feature point 5 on registered paper piece image and feature point 5 on matching paper piece image (930), feature point closest to feature point 5 on matching paper piece image (931), The distance (932) between the feature point 5 on the collation paper piece and the feature point closest to the feature point 5 on the collation paper piece is shown.
That is, the affine transformation parameters are calculated using the transformation matrices 916, 919, and 922, and the coordinates obtained by converting the coordinates of the feature point 4 (923) on the registered paper piece image using the calculated affine transformation parameters are the collation paper pieces. This is feature point 4 (924) on the image. Similarly, the coordinate obtained by converting the feature point 5 (928) on the registered paper piece image is the feature point 5 (929) on the collation paper piece image. In FIG. 9, for convenience of explanation, feature points 924 and 929 are shown, but the feature points do not necessarily have to be extracted at these positions, and represent coordinates.
The feature point deviation amount described above is an average value of the difference between the coordinates of the feature point on the collation paper piece image and the coordinate of the feature point closest to the feature point on the collation paper piece image. 927 and the average value of the difference 932. The feature point variance is a variance of coordinate differences between corresponding feature points. Specific calculation means are shown below.
Now, the x-coordinate of the i-th feature point on the paper piece image is p i (x), the y-coordinate is p i (y), and the feature point corresponding to the i-th feature point is the x-coordinate on the paper piece image. If p ′ i (x) and the y coordinate are p ′ i (y), the coordinate difference Δ i can be obtained as follows.

Figure 2014186659
そして、対応する特徴点の数がL個のとき、特徴点のずれ量は、以下のようにして算出することができる。
Figure 2014186659
When the number of corresponding feature points is L, the feature point shift amount can be calculated as follows.

Figure 2014186659
また、特徴点の分散は、以下のようにして算出することができる。
Figure 2014186659
Further, the variance of the feature points can be calculated as follows.

Figure 2014186659
Figure 2014186659

C.画像が局所的に歪んだ場合の紙片の真贋判定システム

本発明の第二の実施例として、第一の実施例において、登録紙片もしくは照合紙片の画像を採取する際、紙の搬送系や光学センサの特性により、画像が局所的に歪んだ場合の例を説明する。
画像照合処理装置の具体的な構成は、図2に示した第一の実施例と同じ構成を用いることができる。また、画像照合処理システムの物理的な構成についても、図3に示した第一の実施例と同じ構成を用いることができる。紙片を登録する流についても、図4に示した第一の実施例と同じ流を用いることができる。
図10に、紙片の照合処理流れ(2)を示す。ただし、図10は、第一の実施例の紙片照合の流れを説明した図7と大部分が同じなので、ここでは、異なる部分を中心に説明する。
図10が図7と異なる点は、特に、CPU(303)が、アフィン変換パラメータによって変換した特徴点の座標と、対応する特徴点座標のずれを算出した(1013)後、CPU(303)は、ずれの大きな対応点を算出して集合Hに格納し(1014)、集合Hを新たな対応点として再帰的にアフィン変換パラメータを推定する(1015)ことである。なお、選択する対応点の個数は実施例1と同様である。
なお、図7の処理701〜713および処理714〜725が図10の処理1001〜1013および処理1016〜1027にそれぞれ対応し、CPU(303)は、上述と同様の処理を実行する。
C. A system for determining the authenticity of a piece of paper when the image is locally distorted

As a second embodiment of the present invention, in the first embodiment, when an image of a registration paper piece or a collation paper piece is taken, the image is locally distorted due to the characteristics of the paper transport system or optical sensor. Will be explained.
The specific configuration of the image matching processing device can be the same as that of the first embodiment shown in FIG. Further, the physical configuration of the image matching processing system can be the same as that of the first embodiment shown in FIG. The same flow as that of the first embodiment shown in FIG. 4 can be used for the flow for registering the paper pieces.
FIG. 10 shows a flow of collation processing (2) for a piece of paper. However, since FIG. 10 is mostly the same as FIG. 7 which demonstrated the flow of the paper piece collation of 1st Example, it demonstrates centering on a different part here.
FIG. 10 differs from FIG. 7 in particular in that the CPU (303) calculates the deviation between the feature point coordinates converted by the affine transformation parameters and the corresponding feature point coordinates (1013), and then the CPU (303) The corresponding points having a large deviation are calculated and stored in the set H (1014), and the affine transformation parameters are recursively estimated using the set H as a new corresponding point (1015). The number of corresponding points to be selected is the same as in the first embodiment.
Note that the processes 701 to 713 and the processes 714 to 725 in FIG. 7 correspond to the processes 1001 to 1013 and the processes 1016 to 1027 in FIG. 10, respectively, and the CPU (303) executes the same processes as described above.

図15は、特徴点の対応を表す説明図である。
以下では、ずれの大きな対応点を算出して集合Hに格納する様子を、図15を用いて説明する。図15の登録紙片画像1501ならびに照合紙片画像1502の上には、登録紙片画像上の特徴点1(1503)の座標をアフィン変換によって、照合紙片画像上に変換した特徴点1(1505)の座標、それらの特徴点の対の対応関係を示す1504、照合紙片画像上に変換した特徴点1(1505)に最も近い特徴点1’(1506)、特徴点1(1505)と特徴点1’(1506)の距離1507、が図示されている。同様に、登録紙片画像上の特徴点2(1508)の座標をアフィン変換によって、照合紙片画像上に変換した特徴点2(1510)の座標、それらの特徴点の対の対応関係を示す1509、照合紙片画像上に変換した特徴点2(1510)に最も近い特徴点2’(1511)、特徴点1(1510)と特徴点1’(1511)の距離1512、が図示されている。
また、登録紙片画像上の特徴点3(1513)の座標をアフィン変換によって、照合紙片画像上に変換した特徴点3(1515)の座標、それらの特徴点の対の対応関係を示す1514、照合紙片画像上に変換した特徴点3(1515)に最も近い特徴点3’(1516)、特徴3(1513)と特徴点3’(1516)の距離1517、が図示されている。さらに、登録紙片画像上の特徴点4(1518)の座標をアフィン変換によって、照合紙片画像上に変換した特徴点4(1520)の座標、それらの特徴点の対の対応関係を示す1519、照合紙片画像上に変換した特徴点4(1520)に最も近い特徴点4’(1521)、特徴点4(1520)と特徴点4’(1521)の距離1522、が図示されている。なお、変換した図面が煩雑になるので、アフィン変換の算出に用いた特徴点の対と対応関係を示す線分は省いてある。
対応した特徴点座標のずれを算出する処理(1013)とは、距離1507、1512、1517、1522を算出することである。そして、ずれ量の大きな対応点を算出して集合Hに格納する処理(1014)とは、距離1507、1512、1517、1522を、事前に決めた所定の閾値と比較し、閾値よりも大きいずれ量を持つ特徴点の対、例えば、特徴点1518と特徴点1521、特徴点1513と特徴点1516を集合Hに含めるということである。
このように第二の実施例では、局所的に特徴点同士の対応をとって照合処理を行うので、部分的に歪みを持つ画像同士の照合を行うことができる。
FIG. 15 is an explanatory diagram showing correspondence between feature points.
In the following, how the corresponding points with large deviation are calculated and stored in the set H will be described with reference to FIG. On the registered paper piece image 1501 and the collated paper piece image 1502 in FIG. 15, the coordinates of the feature point 1 (1505) obtained by converting the coordinates of the feature point 1 (1503) on the registered paper piece image onto the collated paper piece image by affine transformation. , 1504 indicating the correspondence between the pair of feature points, feature point 1 ′ (1506) closest to feature point 1 (1505) converted on the collation paper piece image, feature point 1 (1505) and feature point 1 ′ ( 1506) is shown. Similarly, the coordinates of the feature point 2 (1508) on the registered paper piece image are converted to the coordinates of the feature point 2 (1510) converted on the collation paper piece image by affine transformation, and 1509 indicating the correspondence between these feature points. A feature point 2 ′ (1511) closest to the feature point 2 (1510) converted on the collation paper piece image, and a distance 1512 between the feature point 1 (1510) and the feature point 1 ′ (1511) are illustrated.
In addition, the coordinates of the feature point 3 (1513) on the registered paper piece image are converted to the coordinates of the feature point 3 (1515) converted on the collation paper piece image by affine transformation, and 1514 indicates the correspondence between these feature points. A feature point 3 ′ (1516) closest to the feature point 3 (1515) converted on the piece of paper image, and a distance 1517 between the feature 3 (1513) and the feature point 3 ′ (1516) are shown. Further, the coordinates of the feature point 4 (1518) on the registered paper piece image are converted to the coordinates of the feature point 4 (1520) converted to the collation paper piece image by affine transformation, and 1519 indicates the correspondence between these feature point pairs. The feature point 4 ′ (1521) closest to the feature point 4 (1520) converted on the piece of paper image, and the distance 1522 between the feature point 4 (1520) and the feature point 4 ′ (1521) are shown. In addition, since the converted drawing becomes complicated, a line segment indicating the pair of feature points and the correspondence relationship used for calculating the affine transformation is omitted.
The processing (1013) for calculating the corresponding deviation of the feature point coordinates is to calculate the distances 1507, 1512, 1517, and 1522. The process (1014) of calculating corresponding points with a large amount of deviation and storing them in the set H compares the distances 1507, 1512, 1517, and 1522 with predetermined threshold values that are larger than the threshold values. A feature point pair having a quantity, for example, a feature point 1518 and a feature point 1521 and a feature point 1513 and a feature point 1516 are included in the set H.
As described above, in the second embodiment, since the matching process is performed by locally matching the feature points, it is possible to perform matching between partially distorted images.

D.印鑑照合システム

本発明の第三の実施例として、印影の真贋を判定する、印鑑照合システムを以下で説明する。ここでは、一例として印影について説明するが、本発明および本実施例は、これに限らず適宜の画像に適用可能である。
図11は、印影画像の説明図の例である。登録用印影画像1101について、特徴点抽出処理部203で抽出された、特徴点1103、特徴点1104、特徴点1105、特徴点1106、特徴点1107、特徴点1108、特徴点1109が示されている。また、照合用印影画像1102は、登録用印影画像1101を採取するのに使ったものと同じ印鑑であったが、異なる回転角度で採取された印鑑照合時の印影画像の例であり、特徴点抽出処理部203で抽出された、特徴点1110、特徴点1111、特徴点1112、特徴点1113、特徴点1114、特徴点1115、特徴点1116が示されている。特徴点1103が特徴点1110に、特徴点1104が特徴点1111に、特徴点1105が特徴点1112に、特徴点1106が特徴点1112に、特徴点1107が特徴点1113に、特徴点1108が特徴点1114に、特徴点1109が特徴点1114に、それぞれ対応する。
また、登録用印影像1117について、特徴抽出部203で抽出された、特徴点1119、特徴点1120、特徴点1121、特徴点1122、特徴点1123、特徴点1124、特徴点1125が示されている。また、照合用印影画像1108は、登録用印影画像1117を採取するのに使ったものと同じ印鑑であったが、異なる縮尺で採取された印鑑照合時の印影画像の例であり、特徴抽出処理203で抽出された、特徴点1126、特徴点1127、特徴点1128、特徴点1129、特徴点1130、特徴点1131、特徴点1132が示されている。特徴点1119が特徴点1126に、特徴点1120が特徴点1127に、特徴点1121が特徴点1128に、特徴点1122が特徴点1129に、特徴点1123が特徴点1130に、特徴点1124が特徴点1131に、特徴点1125が特徴点1132に、それぞれ対応する。
D. Seal verification system

As a third embodiment of the present invention, a seal verification system for determining the authenticity of an imprint will be described below. Here, an imprint is described as an example, but the present invention and the present embodiment are not limited to this and can be applied to an appropriate image.
FIG. 11 is an example of an explanatory diagram of an imprint image. A feature point 1103, a feature point 1104, a feature point 1105, a feature point 1106, a feature point 1107, a feature point 1108, and a feature point 1109 extracted by the feature point extraction processing unit 203 are shown for the registration imprint image 1101. . The collation imprint image 1102 is the same seal stamp used to collect the registration imprint image 1101, but is an example of a seal imprint image at the time of stamp collation collected at different rotation angles. A feature point 1110, a feature point 1111, a feature point 1112, a feature point 1113, a feature point 1114, a feature point 1115, and a feature point 1116 extracted by the extraction processing unit 203 are shown. The feature point 1103 is the feature point 1110, the feature point 1104 is the feature point 1111, the feature point 1105 is the feature point 1112, the feature point 1106 is the feature point 1112, the feature point 1107 is the feature point 1113, and the feature point 1108 is the feature The feature point 1109 corresponds to the point 1114 and the feature point 1114, respectively.
In addition, for the registration imprint image 1117, feature points 1119, feature points 1120, feature points 1121, feature points 1122, feature points 1123, feature points 1124, and feature points 1125 extracted by the feature extraction unit 203 are shown. In addition, the collation imprint image 1108 is the same seal stamp used to collect the registration imprint image 1117, but is an example of a seal stamp image at the time of stamp collation collected at a different scale. A feature point 1126, a feature point 1127, a feature point 1128, a feature point 1129, a feature point 1130, a feature point 1131, and a feature point 1132 extracted in 203 are shown. The feature point 1119 is the feature point 1126, the feature point 1120 is the feature point 1127, the feature point 1121 is the feature point 1128, the feature point 1122 is the feature point 1129, the feature point 1123 is the feature point 1130, and the feature point 1124 is the feature A feature point 1125 corresponds to the point 1131 and a feature point 1132, respectively.

図12は、第三の実施例の画像照合処理システムの具体的な構成と、データの流れを示した図である。ここでは、照合する画像として印影を用いた例を示す。印影の照合は、役所等の公的機関や銀行等で、申請書に押された印影が、届け出た印鑑の印影と同一であるかを判断する際に行われる。同図に示したように、画像照合システムは、大きく分けて印鑑登録部31と印鑑照合部32を備える。印鑑登録部31において、印鑑登録者が持参した印鑑を紙等に押印した場合、反射画像取得部1204はその印影1202を取得し、特徴点抽出処理部1205へ送る。反射画像の取得には、市販のフラットベッドタイプのスキャナや、オープンタイプのスキャナ、デジタルスチルカメラ等を用いることができる。特徴点抽出処理部1205は、反射画像取得部1204で得られた反射画像特徴点を抽出する。特徴点の抽出には、第一の実施例の紙片登録手順に関する説明(図4参照)と同様の手順を用いることができる。抽出された特徴点の例を、図11の特徴点1103、1104、・・・、1109等に示す。次に、特徴点情報符号化部1206は、特徴点抽出処理部1205を用いて抽出された特徴点を符号化する。具体的な符号化手順については、第一の実施例の特徴点の符号化手段の説明(図6参照)と同様の手順を用いることができる。また、印鑑所持者ID1201をID取得部1203で取得する。印鑑所持者IDには、例えば、氏名や社会保険番号等の個人を特定できる番号を用いることができる。また、銀行に印鑑を登録する場合は口座番号等の印鑑所持者を特定できる番号を用いることもできる。続いて、DB登録部1207では、ID取得部1203で取得した印鑑所持者ID1201の情報と、特徴点情報符号化部1206で得られた符号化特徴点情報を紐づけて、印鑑DB1208へ送信し、印鑑DB1208に、その情報を記憶する。ここでは、特徴点の情報を印鑑DB1208に登録する形態を示したが、第一の実施例と同様に、紙片の上に印刷する形態にしてもよい。 FIG. 12 is a diagram showing a specific configuration and data flow of the image matching processing system of the third embodiment. Here, an example is shown in which an imprint is used as an image to be collated. The verification of the seal is performed when a public institution such as a government office or a bank determines whether the seal stamped on the application is the same as the seal stamp of the registered seal. As shown in the figure, the image collation system is roughly divided into a seal registration unit 31 and a seal collation unit 32. In the seal registration unit 31, when the seal stamp brought by the seal registrant is stamped on paper or the like, the reflection image acquisition unit 1204 acquires the imprint 1202 and sends it to the feature point extraction processing unit 1205. A commercially available flat bed type scanner, an open type scanner, a digital still camera, or the like can be used for acquiring the reflected image. The feature point extraction processing unit 1205 extracts the reflected image feature points obtained by the reflected image acquisition unit 1204. For the extraction of the feature points, the same procedure as described in the paper piece registration procedure of the first embodiment (see FIG. 4) can be used. Examples of extracted feature points are shown in feature points 1103, 1104,. Next, the feature point information encoding unit 1206 encodes the feature points extracted using the feature point extraction processing unit 1205. As a specific encoding procedure, a procedure similar to the description of the feature point encoding means of the first embodiment (see FIG. 6) can be used. Also, the seal holder ID 1201 is acquired by the ID acquisition unit 1203. For the seal holder ID, for example, a number such as a name or a social insurance number that can identify an individual can be used. In addition, when registering a seal at a bank, a number that can specify the seal holder such as an account number can be used. Subsequently, the DB registration unit 1207 associates the information of the seal holder ID 1201 acquired by the ID acquisition unit 1203 with the encoded feature point information obtained by the feature point information encoding unit 1206, and transmits it to the seal DB 1208. The information is stored in the seal DB 1208. In this example, the feature point information is registered in the seal DB 1208. However, as in the first embodiment, the feature point information may be printed on a piece of paper.

図18に印鑑DBの説明図を示す。印鑑DB1208は、印鑑所持者IDに対して、印影の符号化特徴点情報を記憶する。
印影の照合時には、印鑑照合部32において、照合の対象となる印影1210(以降、照合印影と呼ぶ)の反射画像を反射画像取得部1214で取得し、特徴点抽出処理部1215に送る。特徴点抽出処理部1215では、照合印影の特徴点を抽出し、対応点抽出処理部1216に送る。また、印鑑所持者ID1209を、ID取得部1211で取得し、DB参照部1212に送る。DB参照部1212は、印鑑所持者ID1209をキーに印鑑DB1208を検索し、印鑑所持者ID1209に紐づけられた符号化特徴点情報を取得し、特徴点情報復号化部1213へ送信する。特徴点情報復号化部1213は、符号化特徴点情報を特徴点情報に復号化し、対応点抽出部1216へ送る。具体的な、符号化特徴点情報の復号化手順については、第一の実施例の説明(図6参照)を用いた手順を用いることができる。対応点抽出部1216は、印鑑登録の際に登録した印影の特徴点と、印鑑照合の際に得られた印影の特徴点の対応づけを行い、対応点テーブル801の形で出力する(図8参照)。対応点の抽出には、第一の実施例の説明(図7参照)での手順を用いることができる。次に、アフィンパラメータ推定部1217は、入力された対応点テーブル801から、登録用の印影1202の画像を、回転、拡大・縮小することによって照合用の印影1210の画像ができたと仮定したとき、最も妥当性のある、回転角度や拡大率・縮小率を算出する。具体的なアフィンパラメータの算出方法については、第一の実施例の説明(図7参照)での手順を用いることができる。次に、対応点ずれ量・分散算出部1218では、入力されたアフィンパラメータから、対応点のずれ量・分散を算出する。続いて、対応点更新部1219では、入力された対応点のずれ量・分散を用いて、アフィンパラメータの推定に用いる対応点の入れ替えを行い、アフィンパラメータを再計算する。このとき、対応点更新部1219は評価値が収束するまで、対応点の入れ替えを続ける。つぎに、真贋判定部1220では、登録印影1202の特徴点をアフィンパラメータで変換したときの特徴点座標と、照合印影1210から抽出したときの特徴点座標とを比較し、真贋判定を行う。このとき、特徴点座標同士の距離が小さければ真券と判断し、特徴点座標同士の距離が大きければ偽券と判断する。
FIG. 18 is an explanatory diagram of the seal stamp DB. The seal stamp DB 1208 stores seal stamp encoded feature point information for the seal stamp holder ID.
At the time of collation of an imprint, the seal collation unit 32 obtains a reflection image of an imprint 1210 (hereinafter referred to as collation imprint) to be collated, and sends it to the feature point extraction processing unit 1215. The feature point extraction processing unit 1215 extracts the feature point of the verification seal impression and sends it to the corresponding point extraction processing unit 1216. The seal holder ID 1209 is acquired by the ID acquisition unit 1211 and sent to the DB reference unit 1212. The DB reference unit 1212 searches the seal stamp DB 1208 using the seal stamp owner ID 1209 as a key, acquires the encoded feature point information linked to the seal stamp owner ID 1209, and transmits it to the feature point information decoding unit 1213. The feature point information decoding unit 1213 decodes the encoded feature point information into feature point information and sends the feature point information to the corresponding point extraction unit 1216. As a specific decoding procedure of encoded feature point information, a procedure using the description of the first embodiment (see FIG. 6) can be used. The corresponding point extraction unit 1216 associates the feature points of the seal imprint registered at the time of registering the seal with the feature points of the seal imprint obtained at the time of the seal collation, and outputs them in the form of a corresponding point table 801 (FIG. 8). reference). For extraction of corresponding points, the procedure described in the first embodiment (see FIG. 7) can be used. Next, when the affine parameter estimation unit 1217 assumes that the image of the registration imprint 1202 has been created from the input corresponding point table 801 by rotating, enlarging or reducing the image of the registration imprint 1202, Calculate the most appropriate rotation angle and enlargement / reduction ratio. As a specific affine parameter calculation method, the procedure in the description of the first embodiment (see FIG. 7) can be used. Next, the corresponding point deviation amount / variance calculation unit 1218 calculates the deviation amount / variance of the corresponding points from the input affine parameters. Subsequently, the corresponding point update unit 1219 replaces the corresponding points used for estimating the affine parameters using the input deviation amount / variance of the corresponding points, and recalculates the affine parameters. At this time, the corresponding point update unit 1219 continues to replace the corresponding points until the evaluation value converges. Next, the authenticity determination unit 1220 compares the feature point coordinates obtained by converting the feature points of the registered seal imprint 1202 with affine parameters and the feature point coordinates extracted from the verification seal imprint 1210, and performs authenticity determination. At this time, if the distance between the feature point coordinates is small, it is determined as a genuine note, and if the distance between the feature point coordinates is large, it is determined as a false note.

E.実施例の効果

本発明または本実施例の第一の効果は、登録画像の特徴点と照合画像の特徴点を関係づける画像変換関数のパラメータを高精度に算出できることである。
また、本発明または本実施例の第二の効果は、登録画像に対して照合画像が、部分的に回転していたり、拡大・縮小していたりしても、高精度に画像を照合できることである。
また、本発明および本実施例の第三の効果は、照合したい物体の画像を撮像したときに発生する、画像の回転や歪に対して頑健な認証技術を提供できることである。
E. Effects of the embodiment

The first effect of the present invention or the embodiment is that the parameter of the image conversion function that relates the feature point of the registered image and the feature point of the collation image can be calculated with high accuracy.
The second effect of the present invention or this embodiment is that the collation image can be collated with high accuracy even if the collation image is partially rotated or enlarged / reduced with respect to the registered image. is there.
The third effect of the present invention and this embodiment is to provide an authentication technique that is robust against image rotation and distortion that occurs when an image of an object to be collated is captured.

F.付記

以上では主に登録画像と照合画像の特徴点間のずれの分散を用いる場合について説明したが、これに限らず本発明または本実施例は、相関度、相違度等の適宜の指標を用いることができる。
また、本発明の画像照合方法又は画像照合装置・システムは、その各手順をコンピュータに実行させるための画像照合プログラム、画像照合プログラムを記録したコンピュータ読み取り可能な記録媒体、画像照合プログラムを含みコンピュータの内部メモリにロード可能なプログラム製品、そのプログラムを含むサーバ等のコンピュータ、等により提供されることができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれている。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
F. Appendix

In the above, the case of using the variance of the deviation between the feature points of the registered image and the collation image has been described. However, the present invention or the present embodiment is not limited to this, and an appropriate index such as a correlation degree or a difference degree is used. Can do.
In addition, an image collation method or an image collation apparatus / system of the present invention includes an image collation program for causing a computer to execute each procedure, a computer-readable recording medium recording the image collation program, and an image collation program. It can be provided by a program product that can be loaded into the internal memory, a computer such as a server including the program, and the like.
In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101・・・透過光による紙紋画像、201・・・紙片、202・・・透過画像取得部、203・・・特徴点抽出処理部、204・・・特徴点情報符号化部、205・・・特徴点情報印刷部、206・・・紙片、207・・・反射画像取得部、208・・・特徴点情報複合化部、209・・・透過画像取得部、210・・・特徴点抽出処理部、211・・・対応点抽出部、212・・・アフィンパラメータ推定部、213・・・対応点ずれ量・分散算出部、214・・・対応点更新部、215・・・真贋判定部、301・・・透過型スキャナ、302・・・プリンタ、303・・・CPU、304・・・キーボード、305・・・反射型スキャナ、306・・・表示装置、307・・・RAM、308・・・マウス、309・・・バス、310・・・ネットワーク、311・・・DB、502・・・特徴点情報テーブル、503・・・特徴点ID、504・・・特徴点X座標、505・・・特徴点Y座標、506・・・特徴値、507・・・特徴点方向、601・・・特徴点情報、602・・・符号化特徴点情報、603・・・特徴点情報符号化処理手段、604・・・特徴点情報複合化手段、801・・・対応点テーブル、802・・・対応点ID、803・・・登録紙片上の特徴点ID、804・・・登録紙片上の特徴点のX座標、805・・・登録紙片上の特徴点のY座標、806・・・照合紙片上の特徴点のID、807・・・照合紙片上の特徴点のX座標、808・・・照合紙片上の特徴点のY座標、809・・・対応点類似度、901・・・登録紙片画像、902・・・照合紙片画像、903・・・登録紙片画像上の特徴点1、904・・・照合紙片画像上の特徴点1、905・・・登録紙片画像上の特徴点1と照合紙片画像上の特徴点1の対応、906・・・登録紙片上の特徴点2、907・・・照合紙片上の特徴点2、908・・・登録紙片画像上の特徴点2と照合紙片画像上の特徴点2の対応、909・・・登録紙片画像上の特徴点3、910・・・照合紙片画像上の特徴点3、911・・・登録紙片画像上の特徴点3と照合紙片画像上の特徴点3の対応、912・・・登録紙片画像、913・・・照合紙片画像、914・・・登録紙片画像上の特徴点1、915・・・照合紙片画像上の特徴点1、916・・・登録紙片画像上の特徴点1と照合紙片画像上の特徴点1の対応、917・・・登録紙片画像上の特徴点2、918・・・照合紙片画像上の特徴点2、919・・・登録紙片画像上の特徴点2と照合紙片画像上の特徴点2の対応、920・・・登録紙片画像上の特徴点3、921・・・照合紙片画像上の特徴点3、922・・・登録紙片画像上の特徴点3と照合紙片画像上の特徴点3、923・・・登録紙片画像上の特徴点4、924・・・照合紙片画像上の特徴点4、925・・・登録紙片画像上の特徴点4と照合紙片画像上の特徴量4の対応、926・・・照合紙片画像上の特徴点4に最も近い特徴点、927・・・照合紙片画像上の特徴点4と照合紙片画像上の特徴点4に最も近い特徴点間の距離、928・・・登録紙片画像上の特徴点5、929・・・照合紙片画像上の特徴点5、930・・・登録紙片画像上の特徴点5と照合紙片画像上の特徴点5の対応、931・・・照合紙片画像上の特徴点5に最も近い特徴点、932・・・照合紙片画像上の特徴点5と照合紙片画像上の特徴点5に最も近い特徴点間の距離、1101・・・登録用印影画像、1102・・・照合用印影画像、1103・・・登録用印影画像中の特徴点1、1104・・・登録用印影画像中の特徴点2、1105・・・登録用印影画像中の特徴点3、1106・・・登録用印影画像中の特徴点4、1107・・・登録用印影画像中の特徴点5、1108・・・登録用印影画像中の特徴点6、1109・・・登録用印影画像中の特徴点7、1110・・・照合用印影画像中の特徴点1、1111・・・照合用印影画像中の特徴点2、1112・・・照合用印影画像中の特徴点3、1113・・・照合用印影画像中の特徴点4、1114・・・・照合用印影画像中の特徴点5、1115・・・照合用印影画像中の特徴点6、1116・・・照合用印影画像中の特徴点7、1117・・・登録用印影画像、1118・・・照合用印影画像、1119・・・登録用印影画像中の特徴点1、1120・・・登録用印影画像中の特徴点2、1121・・・登録用印影画像中の特徴点3、1122・・・登録用印影画像中の特徴点4、1123・・・登録用印影画像中の特徴点5、1124・・・登録用印影画像中の特徴点6、1125・・・登録用印影がオズ中の特徴点7、1126・・・照合用印影画像中の特徴点1、1127・・・照合用印影画像中のと、有頂天2、1128・・・照合用印影画像中の特徴点3、1129・・・照合用印影画像中の特徴点4、1130・・・照合用印影画像中の特徴点5、1131・・・照合用印影画像中の特徴点6、1132・・・照合用印影画像中の特徴点7、1201・・・印鑑所持者ID、1202・・・印影、1203・・・ID取得部、1204・・・反射画像取得部、1205・・・特徴点抽出処理部、1206・・・特徴点情報符号化部、1207・・・DB登録部、1208・・・印鑑DB、1209・・・印鑑所持者ID、1210・・・印影、1211・・・ID取得部、1212・・・DB参照部、1213・・・特徴点情報復号化部、1214・・・透過画像取得部、1215・・・特徴点抽出処理部、1216・・・対応点抽出部、1217・・・アフィンパラメータ推定部、1218・・・対応点ずれ量・分散算出部、1219・・・対応点更新部、1220・・・真贋判定部 101 ... Paper pattern image by transmitted light, 201 ... paper piece, 202 ... transparent image acquisition unit, 203 ... feature point extraction processing unit, 204 ... feature point information encoding unit, 205,. Feature point information printing unit, 206 ... paper piece, 207 ... reflection image acquisition unit, 208 ... feature point information composite unit, 209 ... transmission image acquisition unit, 210 ... feature point extraction processing 211, corresponding point extraction unit, 212 ... affine parameter estimation unit, 213 ... corresponding point deviation amount / variance calculation unit, 214 ... corresponding point update unit, 215 ... authenticity determination unit, 301 ... Transmission type scanner 302 ... Printer 303 ... CPU 304 ... Keyboard 305 ... Reflective scanner 306 ... Display device 307 ... RAM 308 ...・ Mouse, 309 ... Bus, 31 ... Network, 311 ... DB, 502 ... Feature point information table, 503 ... Feature point ID, 504 ... Feature point X coordinate, 505 ... Feature point Y coordinate, 506 ... Feature value, 507, feature point direction, 601, feature point information, 602, encoded feature point information, 603, feature point information encoding processing means, 604, feature point information combined Means, 801... Corresponding point table, 802... Corresponding point ID, 803... Feature point ID on registered paper piece, 804. Y coordinate of feature point on top, 806... ID of feature point on collation paper piece, 807. X coordinate of feature point on collation paper piece, 808... Y coordinate of feature point on collation paper piece, 809 ... Similarity of corresponding points, 901 ... Registered paper piece image, 902 Collation paper piece image, 903... Feature point 1 on registered paper piece image, 904... Feature point 1 on collation paper piece image, 905... Feature point 1 on registration paper piece image and feature point on collation paper piece image 1, 906... Feature point 2 on the registration paper piece, 907... Feature point 2 on the verification paper piece, 908... Feature point 2 on the registration paper piece image and feature point 2 on the verification paper piece image. Corresponding, 909... Feature point 3 on registered paper piece image, 910... Feature point 3 on matching paper piece image, 911... Feature point 3 on registered paper piece image and feature point 3 on matching paper piece image Corresponding, 912 ... registered paper piece image, 913 ... collation paper piece image, 914 ... feature point 1 on registered paper piece image, 915 ... feature point 1, 916 on registration paper piece image Correspondence between feature point 1 on image and feature point 1 on collation paper piece image, 917... Registered paper piece image Feature point 2, 918 ... Feature point 2, 919 on matching paper piece image, correspondence between feature point 2 on registered paper piece image and feature point 2 on matching paper piece image, 920 ... Registered paper piece image Feature point 3, 921 ... Feature point 3, 922 ... Feature point 3 on registered paper piece image, Feature point 3, 923 ... Feature point 3, 923 ... On registered paper piece image Feature point 4, 924... Feature point 4 on collation paper piece image, 925... Correspondence between feature point 4 on registered paper piece image and feature amount 4 on collation paper piece image, 926. Feature point closest to feature point 4 927... Distance between feature point 4 on collation paper piece image and feature point 4 nearest to feature point 4 on collation paper piece image, 928... Feature point on registered paper piece image 5,929 ... feature point 5 on collation paper piece image, 930 ... feature point 5 on registered paper piece image Correspondence between feature point 5 on the paper piece image, 931... Feature point closest to feature point 5 on collation paper piece image, 932... Feature point 5 on collation paper piece image and feature point 5 on collation paper piece image Distance between nearest feature points, 1101... Registration image, 1102 .. collation image, 1103 .. feature point 1 in registration image, 1104. Feature points 2, 1105... Feature points 3, 1106..., Feature points 4, 1107..., Feature points 5, 1108. Feature points 6 and 1109 in the registration imprint image Feature points 7 and 1110 in the registration imprint image Feature points 1 and 1111 in the verification imprint image Feature points in the verification imprint image 2, 1112... Feature points 3, 1113. Feature point 4 in the imprinting imprint image, 1114... Feature point 5 in the imprinting image for collation, 1115... Feature point 6 in the imprinting image for collation, 1116. 7, 1117... Registration imprint image, 1118 .. collation imprint image, 1119... Feature point 1 in registration imprint image, 1120... Feature point 2 in registration imprint image. .. Feature point 3, 1122 in registration imprint image Feature point 4, 1123 in registration imprint image Feature point 5, 1124 in registration imprint image In registration imprint image Feature points 6, 1125..., Feature points 7, 1126..., Feature points 1, 1127,... ..Characteristic points 3, 1129 in collation imprint image ... Imprint image for collation Feature point 4 in the image, 1130... Feature point 5 in the verification imprint image, 1131... Feature point 6 in the verification imprint image, 1132... Feature point 7 in the verification imprint image, 1201 ... Seal holder ID, 1202 ... Imprint, 1203 ... ID acquisition unit, 1204 ... Reflected image acquisition unit, 1205 ... Feature point extraction processing unit, 1206 ... Feature point information encoding 1207 ... DB registration part 1208 ... Seal DB, 1209 ... Seal holder ID, 1210 ... Imprint, 1211 ... ID acquisition part, 1212 ... DB reference part, 1213 .. Feature point information decoding unit, 1214 ... Transparent image acquisition unit, 1215 ... Feature point extraction processing unit, 1216 ... Corresponding point extraction unit, 1217 ... Affine parameter estimation unit, 1218 ... Corresponding point deviation amount / variance calculation , 1219 ... the corresponding point updating unit, 1220 ... authenticity determination unit

Claims (15)

画像照合装置であって、
登録部と、
識別部と
を備え、
前記登録部は、
登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶し、
および、
前記識別部は、
照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合し、
相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出し、
再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定し、
判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる
画像照合装置。
An image matching device,
A registration department;
An identification unit,
The registration unit
From the first image acquired from the registered object, the positions of a plurality of first feature points are obtained, printed on the registered object or stored in a database,
and,
The identification unit is
The positions of the plurality of second feature points obtained from the second image acquired from the matching object, and the positions of the plurality of first feature points printed on the matching object or stored in the database. Match
Image conversion in which a plurality of predetermined pairs of the first feature points and the second feature points corresponding to each other are selected and the first feature points and the second feature points are associated with each other An image conversion coefficient representing a function is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added to the image conversion coefficient Is repeatedly recalculated,
Determining the authenticity of the verification object based on the difference or correlation between the position of the feature point of the registered object calculated according to the recalculated image conversion function and the position of the feature point of the verification object;
An image collation apparatus that displays a determination result on a display unit and / or stores it in a storage unit.
請求項1に記載された画像照合装置において、
前記登録部は、
登録物体の透過または反射により前記第1の画像を取得し、
取得した前記第1の画像から該登録物体中または該登録物体上の複数の第1の特徴点を抽出し、
抽出した複数の前記第1の特徴点の位置および特徴量を含む第1の特徴点情報を求め、特徴量が予め定められた閾値より大きい前記第1の特徴点情報を特徴点情報テーブルに記憶し、
前記特徴点情報テーブルを参照し、前記第1の特徴点情報を符号化して第1の符号化特徴点情報を求め、
前記第1の符号化特徴点情報を前記登録物体上に印刷するまたはデータベースに記憶する
ことを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The registration unit
Obtaining the first image by transmission or reflection of a registered object;
Extracting a plurality of first feature points in or on the registered object from the acquired first image;
First feature point information including the positions and feature amounts of the plurality of extracted first feature points is obtained, and the first feature point information whose feature amount is larger than a predetermined threshold value is stored in the feature point information table. And
Referencing the feature point information table, encoding the first feature point information to obtain first encoded feature point information,
An image collating apparatus, wherein the first encoded feature point information is printed on the registered object or stored in a database.
請求項1に記載された画像照合装置において、
上記識別部は、
前記第1の画像を取得した透過または反射と同様に、真贋判定をしたい照合物体の前記第2の画像を取得し、
取得した前記第2の画像から該照合物体中または該照合物体上の複数の第2の特徴点を抽出し、
抽出した複数の前記第2の特徴点の位置および特徴量を含む第2の特徴点情報を求め、
前記照合物体上に印刷されたまたは前記データベースに記憶された前記第1の符号化特徴情報を読み取って復号化して第1の特徴点情報を求め、
複数の前記第1の特徴点情報に含まれる複数の前記第1の情報点と、複数の前記第2の特徴点情報に含まれる複数の前記第2の情報点とを照合する
ことを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The identification part is
Similar to the transmission or reflection from which the first image is acquired, the second image of the verification object to be authenticated is acquired,
Extracting a plurality of second feature points in or on the verification object from the acquired second image;
Obtaining second feature point information including positions and feature amounts of the plurality of extracted second feature points;
First feature point information is obtained by reading and decoding the first encoded feature information printed on the verification object or stored in the database;
A plurality of the first information points included in the plurality of first feature point information and a plurality of the second information points included in the plurality of second feature point information, Image collation device.
請求項1に記載された画像照合装置において、
前記識別部は、
前記登録物体の前記第1の特徴点と、該第1の特徴点に対応する前記照合物体の前記第2の特徴点を抽出し、類似度の大きい順に対応関係を対応点テーブルとして記憶し、
前記対応点テーブルを参照して、前記画像変換関数に応じて定められる数の複数の対応データを選択し、選択した複数の対応データに基づいて、前記登録物体の前記第1の画像を前記照合物体の前記第2の画像に変換する前記画像変換関数の前記変換関数係数を算出し、
前記第1の特徴点の位置を前記変換関数係数で変換した位置と、対応する前記第2の特徴点の位置との間のずれ量および該ずれ量の分散を算出し、
前記ずれ量の分散を用いて、前記変換関数係数の推定に用いる前記対応データの少なくともひとつの入れ替え又は削除又は追加を行い、前記変換関数係数を再計算し、評価値が収束するまで、前記対応データの少なくともひとつの入れ替え又は削除又は追加を続け、
前記第1の特徴点の位置を前記変換関数係数で変換した特徴点の位置と、前記第2の特徴点の位置との距離が予め定められた閾値より小さければ真と判断し、大きければ偽と判断する
ことを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The identification unit is
Extracting the first feature point of the registered object and the second feature point of the matching object corresponding to the first feature point, and storing the correspondence as a corresponding point table in descending order of similarity;
With reference to the corresponding point table, a plurality of pieces of correspondence data determined according to the image conversion function are selected, and the first image of the registered object is compared with the selected plurality of pieces of correspondence data. Calculating the conversion function coefficient of the image conversion function to convert to the second image of an object;
A shift amount between a position obtained by converting the position of the first feature point with the conversion function coefficient and a corresponding position of the second feature point and a variance of the shift amount;
Using the variance of the deviation amount, perform at least one replacement, deletion or addition of the corresponding data used for the estimation of the conversion function coefficient, recalculate the conversion function coefficient, and until the evaluation value converges, the correspondence Continue to replace, delete or add at least one of the data,
If the distance between the position of the first feature point converted from the position of the feature point by the conversion function coefficient and the position of the second feature point is smaller than a predetermined threshold, it is determined to be true. An image collating apparatus characterized in that
請求項4に記載された画像照合装置において、
前記識別部は、
前記画像変換係数の推定に用いる前記第1の特徴点および前記第2の特徴点の前記対応データの組を、前記画像変換関数を求めるために必要な数であるN個抜出して集合Gとし、前記集合Gに含まれる複数の前記対応点から、i(i=1〜N)番目の対応データをN+1番目の対応データに入れ替えた複数の集合G(i)について、前記第1の特徴点を画像変換した特徴点座標と、前記第1の特徴点に対応する前記第2の特徴点の特徴点座標との間の座標のずれの分散をそれぞれ算出し、
算出した前記分散の一番小さい値が、予め定められた閾値よりも小さい場合は、前記照合物体は真と判断し、小さくない場合は偽と判断する
ことを特徴とする画像照合装置。
In the image collating device according to claim 4,
The identification unit is
The set of the corresponding data of the first feature point and the second feature point used for the estimation of the image conversion coefficient is extracted as N as a set G, which is a number necessary for obtaining the image conversion function, For a plurality of sets G (i) in which the i (i = 1 to N) -th corresponding data is replaced with the (N + 1) -th corresponding data from the plurality of corresponding points included in the set G, the first feature points are Calculating variances of coordinate deviations between the feature point coordinates after image conversion and the feature point coordinates of the second feature point corresponding to the first feature point;
An image collating apparatus, wherein the collation object is determined to be true when the calculated smallest value of the variance is smaller than a predetermined threshold value, and false when not small.
請求項4に記載された画像照合装置において、
前記識別部は、
前記画像変換係数の推定に用いる前記第1の特徴点および前記第2の特徴点の対応データの組を、前記画像変換関数を求めるために必要な数であるN個抜出して集合Gとし、前記集合Gに含まれる対応点の中から対応点i(1≦i≦N)ひとつを除外した複数の集合について、前記第1の特徴点を画像変換した特徴点座標と、前記第2の特徴点の特徴点座標との間の座標のずれを表す第1の分散V(i)をそれぞれ計算し、
前記集合Gに含まれる対応点の中から対応点j(N+1≦j≦P、Pは、集合Gに含まれる対応データの個数)ひとつを追加した複数の集合について、前記第1の特徴点を画像変換した特徴点座標と、前記第1の特徴点に対応する前記第2の特徴点の特徴点座標の間の座標のずれを表す第2の分散V(j)を計算し、
算出した前記第1の分散V(i)の一番小さい値および前記第2の分散V(j)の一番小さい値が、それぞれ予め定められた閾値よりも小さければ真と判定し、小さくなければ偽と判定する
ことを特徴とする画像照合装置。
In the image collating device according to claim 4,
The identification unit is
The set of correspondence data of the first feature point and the second feature point used for the estimation of the image conversion coefficient is extracted as N to obtain a set G, which is a number necessary for obtaining the image conversion function, For a plurality of sets excluding one corresponding point i (1 ≦ i ≦ N) from corresponding points included in the set G, the feature point coordinates obtained by image-converting the first feature point, and the second feature point A first variance V (i) representing a deviation in coordinates between the feature point coordinates of
For a plurality of sets obtained by adding one corresponding point j (N + 1 ≦ j ≦ P, P is the number of corresponding data included in the set G) among the corresponding points included in the set G, the first feature point is Calculating a second variance V (j) representing a coordinate shift between the image-converted feature point coordinates and the feature point coordinates of the second feature point corresponding to the first feature point;
If the calculated smallest value of the first variance V (i) and the smallest value of the second variance V (j) are each smaller than a predetermined threshold, it is determined to be true, and must be small. An image collating apparatus characterized in that it is determined to be false.
請求項4に記載された画像照合装置において、
前記識別部は、
前記ずれの比較的大きな対応点を、前記画像変換関数に応じて定められる数の複数選択して集合Hとし、前記集合Hを新たな対応点として再帰的に前記画像変換係数を推定することを特徴とする画像照合装置。
In the image collating device according to claim 4,
The identification unit is
Selecting a plurality of corresponding points having a relatively large deviation as a set H by selecting a plurality of points determined according to the image conversion function, and recursively estimating the image conversion coefficient using the set H as a new corresponding point. A featured image matching device.
請求項1に記載された画像照合装置において、
前記登録部は、
ID情報と、前記第1の特徴点情報を対応づけて前記データベースへ記憶または前記登録物体に印刷し、
前記識別部は、
前記データベースまたは前記印刷を参照し、前記ID情報に従い前記第1の符号化特徴点情報を取得する
ことを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The registration unit
ID information and the first feature point information are associated with each other and stored in the database or printed on the registered object,
The identification unit is
An image collating apparatus that refers to the database or the print and obtains the first encoded feature point information according to the ID information.
請求項1に記載された画像照合装置において、
前記登録部または前記識別部は、
前記第1の画像を取得する際に、前記登録物体の全体の画像を取得すること、または、前記登録物体の一部の領域の画像を取得すること、または、前記登録物体の複数の部分領域の画像を取得することを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The registration unit or the identification unit is
When acquiring the first image, acquiring an entire image of the registered object, acquiring an image of a partial area of the registered object, or a plurality of partial areas of the registered object An image collating apparatus characterized by acquiring an image.
請求項9に記載された画像照合装置において、
前記登録部は、前記第1の画像を取得する領域をコードに符号化し、前記登録物体上に印刷しまたはデータベースに記憶し、
前記識別部は、印刷されたコードまたは前記データベースに記憶されたコードから前記領域を求め、前記領域に従い前記照合画像から前記第2の画像を抽出することを特徴とする画像照合装置。
In the image collating device according to claim 9,
The registration unit encodes a region for acquiring the first image into a code, prints on the registered object, or stores it in a database,
The identification unit obtains the area from a printed code or a code stored in the database, and extracts the second image from the collation image according to the area.
請求項9に記載された画像照合装置において、
前記登録部および前記識別部は、予め前記領域を定め、前記領域に従い、前記第1の画像および前記第2の画像をそれぞれ取得することを特徴とする画像照合装置。
In the image collating device according to claim 9,
The registration unit and the identification unit determine the region in advance, and acquire the first image and the second image, respectively, according to the region.
請求項1に記載された画像照合装置において、
前記登録部または前記識別部は、
前記第1の画像または前記第2の画像を、透過光若しくは反射光によって得ること、または、非可視光領域の波長を用いて得ること、または、磁気若しくは他のセンサによって得ることを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The registration unit or the identification unit is
The first image or the second image is obtained by transmitted light or reflected light, obtained by using a wavelength in a non-visible light region, or obtained by a magnetic or other sensor. Image matching device.
請求項1に記載された画像照合装置において、
前記登録部は、前記第1の特徴点情報を、他装置にある前記データベースにネットワークを経由して送信して登録することを特徴とする画像照合装置。
The image collating apparatus according to claim 1,
The registration unit transmits and registers the first feature point information to the database in another device via a network.
画像照合装置における画像照合方法であって、
前記画像照合装置は、
登録部と、
識別部と
を備え、
前記登録部は、
登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶し、
および、
前記識別部は、
照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合し、
相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出し、
再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定し、
判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる
画像照合方法。
An image matching method in an image matching device,
The image matching device
A registration department;
An identification unit,
The registration unit
From the first image acquired from the registered object, the positions of a plurality of first feature points are obtained, printed on the registered object or stored in a database,
and,
The identification unit is
The positions of the plurality of second feature points obtained from the second image acquired from the matching object, and the positions of the plurality of first feature points printed on the matching object or stored in the database. Match
Image conversion in which a plurality of predetermined pairs of the first feature points and the second feature points corresponding to each other are selected and the first feature points and the second feature points are associated with each other An image conversion coefficient representing a function is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added to the image conversion coefficient Is repeatedly recalculated,
Determining the authenticity of the verification object based on the difference or correlation between the position of the feature point of the registered object calculated according to the recalculated image conversion function and the position of the feature point of the verification object;
An image collation method for displaying a determination result on a display unit and / or storing it in a storage unit.
画像照合装置における画像照合プログラムであって、
前記画像照合装置の処理部が、登録物体より取得した第1の画像から、複数の第1の特徴点の位置を求め、前記登録物体上に印刷しまたはデータベースに記憶する手順と、
および、
前記処理部が、照合物体より取得した第2の画像から求めた、複数の第2の特徴点の位置と、前記照合物体上に印刷されたまたは前記データベースに記憶された複数の前記第1の特徴点の位置とを照合する手順と、
前記処理部が、相互に対応する前記第1の特徴点と前記第2の特徴点の組を予め定められた複数組選択して、前記第1の特徴点と前記第2の特徴点とを相互に対応付ける画像変換関数を表す画像変換係数を算出し、前記画像変換係数の算出に用いる前記複数の組の少なくともひとつを他の組に入れ替えて若しくは削除して、または、他の組を追加して前記画像変換係数を繰り返し再算出する手順と、
前記処理部が、再算出した前記画像変換関数に従い算出した前記登録物体の特徴点の位置と前記照合物体の特徴点の位置の相違度または相関度に基づいて前記照合物体の真贋を判定する手順と、
前記処理部が、判定結果を表示部に表示させる、及び/又は、記憶部に記憶させる手順と
をコンピュータに実行させるための画像照合プログラム。
An image matching program in an image matching device,
A procedure in which a processing unit of the image collating device obtains positions of a plurality of first feature points from a first image acquired from a registered object, and prints the position on the registered object or stores it in a database;
and,
The processing unit obtains positions of a plurality of second feature points obtained from the second image acquired from the collation object, and a plurality of the first feature points printed on the collation object or stored in the database. A procedure for matching the positions of feature points;
The processing unit selects a plurality of predetermined pairs of the first feature point and the second feature point corresponding to each other, and selects the first feature point and the second feature point. An image conversion coefficient representing an image conversion function to be associated with each other is calculated, and at least one of the plurality of sets used for calculating the image conversion coefficient is replaced with another set or deleted, or another set is added Repeatedly recalculating the image conversion coefficient,
A procedure for determining the authenticity of the collation object based on a difference or correlation between the position of the feature point of the registered object and the position of the feature point of the collation object calculated by the processing unit according to the recalculated image conversion function. When,
An image collation program for causing the computer to execute a procedure for causing the processing unit to display the determination result on the display unit and / or to store the determination result in the storage unit.
JP2013062496A 2013-03-25 2013-03-25 Image collation device, image collation method, and image collation program Expired - Fee Related JP5998090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013062496A JP5998090B2 (en) 2013-03-25 2013-03-25 Image collation device, image collation method, and image collation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013062496A JP5998090B2 (en) 2013-03-25 2013-03-25 Image collation device, image collation method, and image collation program

Publications (2)

Publication Number Publication Date
JP2014186659A true JP2014186659A (en) 2014-10-02
JP5998090B2 JP5998090B2 (en) 2016-09-28

Family

ID=51834140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013062496A Expired - Fee Related JP5998090B2 (en) 2013-03-25 2013-03-25 Image collation device, image collation method, and image collation program

Country Status (1)

Country Link
JP (1) JP5998090B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184957A (en) * 2015-09-28 2015-12-23 深圳怡化电脑股份有限公司 Paper currency discrimination method and system
JP2017151797A (en) * 2016-02-25 2017-08-31 Kddi株式会社 Geometry verification device, program and method
CN116245735A (en) * 2023-05-08 2023-06-09 北京惠朗时代科技有限公司 Print control instrument operation supervision system based on data analysis

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62236090A (en) * 1986-04-07 1987-10-16 Mitsubishi Electric Corp Pattern collating system
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2007534067A (en) * 2004-04-22 2007-11-22 コダック グラフィック コミュニケーションズ カナダ カンパニー Concealed authentication method and apparatus
US20100327050A1 (en) * 2006-03-13 2010-12-30 Smi Holdings, Inc. Expression codes for microparticle marks based on signature strings
JP2012128754A (en) * 2010-12-17 2012-07-05 Hitachi Omron Terminal Solutions Corp Paper piece identification system and paper piece identification device
JP2012212287A (en) * 2011-03-31 2012-11-01 Dainippon Printing Co Ltd Individual identification device, individual identification method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62236090A (en) * 1986-04-07 1987-10-16 Mitsubishi Electric Corp Pattern collating system
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2007534067A (en) * 2004-04-22 2007-11-22 コダック グラフィック コミュニケーションズ カナダ カンパニー Concealed authentication method and apparatus
US20100327050A1 (en) * 2006-03-13 2010-12-30 Smi Holdings, Inc. Expression codes for microparticle marks based on signature strings
JP2012128754A (en) * 2010-12-17 2012-07-05 Hitachi Omron Terminal Solutions Corp Paper piece identification system and paper piece identification device
JP2012212287A (en) * 2011-03-31 2012-11-01 Dainippon Printing Co Ltd Individual identification device, individual identification method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016021497; 小林 正季、亀山 啓輔: '"照明不変特徴量に基づくSIFTを利用した画像内容検索"' 電子情報通信学会技術研究報告 Vol.109, No.249, 20091015, pp.1-6, 社団法人電子情報通信学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184957A (en) * 2015-09-28 2015-12-23 深圳怡化电脑股份有限公司 Paper currency discrimination method and system
JP2017151797A (en) * 2016-02-25 2017-08-31 Kddi株式会社 Geometry verification device, program and method
CN116245735A (en) * 2023-05-08 2023-06-09 北京惠朗时代科技有限公司 Print control instrument operation supervision system based on data analysis

Also Published As

Publication number Publication date
JP5998090B2 (en) 2016-09-28

Similar Documents

Publication Publication Date Title
US9946865B2 (en) Document authentication based on expected wear
US20210124919A1 (en) System and Methods for Authentication of Documents
US11755867B2 (en) Composite code pattern, generating device, reading device, method, and program
EP2240878B1 (en) Identification and verification of an unknown document according to an eigen image process
AU2008335637B2 (en) Document verification using dynamic document identification framework
US8379261B2 (en) Creation and placement of two-dimensional barcode stamps on printed documents for storing authentication information
JP4557765B2 (en) Image processing apparatus and method
US20110121066A1 (en) Document authentication using hierarchical barcode stamps to detect alterations of barcode
US9098765B2 (en) Systems and methods for capturing and storing image data from a negotiable instrument
TWI725465B (en) Image processing system, image processing method and program product
Jain et al. Passive classification of source printer using text-line-level geometric distortion signatures from scanned images of printed documents
TW202006597A (en) Image processing system, image processing method, and program
US20100310192A1 (en) Document storage system
JP5998090B2 (en) Image collation device, image collation method, and image collation program
CN114283273A (en) Collation system, collation method, and information storage medium
Rajapashe et al. Multi-format document verification system
JP2019032645A (en) Document management device, document management method, and program for document management device
JP4670619B2 (en) Biological information verification system
JP4309881B2 (en) ID card recognition apparatus and ID card recognition method
CN113887484B (en) Card type file image identification method and device
JP2008129791A (en) Document processing system
CN113971804A (en) Signature falsification detection device and method, computing device and storage medium
CN115270840A (en) Lattice code counterfeit identification method and system
KR20170037103A (en) A simplifying system for statements decree using a watermark
JPH10222674A (en) Method for automatically collating stamp and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R150 Certificate of patent or registration of utility model

Ref document number: 5998090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees