JP4161942B2 - Image collation method, image collation apparatus, and program - Google Patents
Image collation method, image collation apparatus, and program Download PDFInfo
- Publication number
- JP4161942B2 JP4161942B2 JP2004180832A JP2004180832A JP4161942B2 JP 4161942 B2 JP4161942 B2 JP 4161942B2 JP 2004180832 A JP2004180832 A JP 2004180832A JP 2004180832 A JP2004180832 A JP 2004180832A JP 4161942 B2 JP4161942 B2 JP 4161942B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- converted
- converted image
- unit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、例えば、血管画像、指紋画像、静止画像、動画像等の2つの画像につき、その画像の内の直線成分に基づいて照合を行う画像照合方法、画像照合装置、およびプログラムに関するものである。 The present invention relates to an image collation method, an image collation apparatus, and a program for collating two images such as a blood vessel image, a fingerprint image, a still image, and a moving image based on a linear component of the images. is there.
従来、画像情報に基づいて照合を行う装置として、種々の画像照合装置が知られている。例えば登録画像と、比較対象となる照合画像とを所定の位置関係で比較し相関値を算出し、その相関値に基づいて登録画像と照合画像の照合を行う画像照合装置、あるいは相関値を生成する際には、画素単位の演算により相関値を生成する画像照合装置が知られている。 2. Description of the Related Art Conventionally, various image matching devices are known as devices that perform matching based on image information. For example, a registered image and a comparison image to be compared are compared with each other in a predetermined positional relationship, a correlation value is calculated, and an image matching device or a correlation value is generated based on the correlation value. In this case, an image collation apparatus that generates a correlation value by calculation in units of pixels is known.
しかし、上述した画像照合装置では、相関が小さい画像であっても、画像内のパターンの種類、例えば直線成分を多く含み登録画像と照合画像の内の直線成分の交点が多い場合には、その交点が相関値に大きく寄与して、相関値が大きくなって充分な照合精度が得られないことがあり、改善が望まれている。 However, in the above-described image matching device, even if the image has a small correlation, if there are many types of patterns in the image, for example, if there are many straight line components and there are many intersections between the registered image and the straight line components in the matching image, Since the intersections greatly contribute to the correlation value and the correlation value becomes large and sufficient collation accuracy cannot be obtained, improvement is desired.
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像の照合を高精度に行うことができる画像照合方法、画像照合装置、およびプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide an image collation method, an image collation apparatus, and a program capable of collating images with high accuracy.
本発明によれば、第1の画像と第2の画像の内の直線成分を基に照合を行うため、
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離、および、前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1のステップと、
前記第1のステップにより生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2のステップと
を有し、
前記第1のステップにおいて、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3のステップをさらに有し、
前記第2のステップにおいて、前記第3のステップにおける処理より、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、
前記第3のステップにおいて、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する、
画像照合方法が提供される。 According to the present invention, since the matching is performed based on the linear component in the first image and the second image ,
For each of the first image and the second image, the distance from the reference position to the shortest point to the straight line passing through the point in the image, and the straight line passing through the reference position and the shortest point, and the reference position converting a point in front Symbol image to a pattern of curves based on the angle between the reference axis including, a linear component in the image, it performs image processing for converting the pattern of multiple overlapping the curves, the first A first step of generating a converted image and a second converted image;
Degree of overlapping of patterns in the first converted image and the second converted image generated by the first step, matching and mismatching of patterns in the first converted image and the second converted image, respectively And a second step of collating the first image and the second image based on
Have
In the first step, for each of the first converted image and the second converted image, a third region in which the degree of overlapping of the pattern of the curve in one converted image is equal to or greater than a preset threshold value is extracted. And further comprising steps
In the second step, the first image is based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image, respectively, by the processing in the third step. And the second image,
In the third step, the threshold value is controlled based on the size of the extracted region so that the size of the extracted region is larger than a set value.
An image matching method is provided.
また本発明によれば、第1の画像と第2の画像の内の直線成分を基に照合を行うため、Further, according to the present invention, since the matching is performed based on the linear component in the first image and the second image,
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離、および、前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1のステップと、For each of the first image and the second image, the distance from the reference position to the shortest point to the straight line passing through the point in the image, and the straight line passing through the reference position and the shortest point, and the reference position A first conversion is performed by converting a point in the image into a curved pattern based on an angle with a reference axis including the image, and converting a linear component in the image into a plurality of overlapping curved patterns. A first step of generating an image and a second converted image;
前記第1のステップにより生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2のステップとDegree of overlapping of patterns in the first converted image and the second converted image generated by the first step, matching and mismatching of patterns in the first converted image and the second converted image, respectively And a second step of collating the first image and the second image based on
を有し、Have
前記第1のステップにおいて、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3のステップをさらに有し、In the first step, for each of the first converted image and the second converted image, a third region in which the degree of overlapping of the pattern of the curve in one converted image is equal to or greater than a preset threshold value is extracted. And further comprising steps
前記第2のステップにおいて、前記第3のステップにおける処理より、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、In the second step, the first image is based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image, respectively, by the processing in the third step. And the second image,
前記第3のステップにおいて、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する、In the third step, the threshold value is controlled based on the size of the extracted region so that the size of the extracted region is within a set range.
画像照合方法が提供される。An image matching method is provided.
好ましくは、前記第3のステップにおいて、前記抽出した領域の大きさが設定値以下の場合には当該画像を破棄する。Preferably, in the third step, when the size of the extracted area is equal to or smaller than a set value, the image is discarded.
また好ましくは、前記第1のステップにおいて、前記第1の画像および第2の画像それぞれについてハフ変換処理により第1の変換画像および第2の変換画像を生成する。Preferably, in the first step, a first converted image and a second converted image are generated by a Hough conversion process for each of the first image and the second image.
好ましくは、前記第2のステップにおいて、前記第1のステップにより生成された前記第1の変換画像および前記第2の変換画像の中の異なる複数の位置関係それぞれについて比較処理を行い、前記比較処理の結果により相関値としての類似度を生成し、前記生成した類似度に基づいて前記第1の画像と前記第2の画像とを照合する。Preferably, in the second step, a comparison process is performed for each of a plurality of different positional relationships in the first converted image and the second converted image generated in the first step, and the comparison process is performed. Based on the result, a similarity as a correlation value is generated, and the first image and the second image are collated based on the generated similarity.
また好ましくは、前記第1のステップの処理の前に、前記第1の画像および第2の画像の位置補正処理を行う第10のステップをさらに有し、前記第1のステップにおいて、前記第10のステップによる位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成する。Preferably, the method further includes a tenth step of performing position correction processing of the first image and the second image before the processing of the first step, and in the first step, the tenth step The image processing is performed on each of the first image and the second image as a result of the position correction processing in step S1 to generate a first converted image and a second converted image.
好ましくは、前記第10のステップにおいて、前記位置補正処理として、前記第1の画像と前記第2の画像との回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関値を生成し、前記生成した相関値に基づいて前記第1の画像および第2の画像の位置補正処理を行う。Preferably, in the tenth step, based on a phase component as a result of a rotation angle correction process or an enlargement ratio correction process between the first image and the second image and a Fourier transform process as the position correction process. Then, a correlation value is generated, and position correction processing of the first image and the second image is performed based on the generated correlation value.
好ましくは、前記第10のステップにおいて、前記第1の画像および第2の画像に基づいて相関処理により補正位置を示す複数の相関値を生成し、前記生成した複数の相関値に基づいて前記第1の画像および第2の画像の複数の位置補正処理を行い、前記第1のステップにおいて、前記第10のステップの処理による複数の位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成し、前記第2のステップにおいて、前記第1のステップの処理により生成された前記第1の変換画像および第2の変換画像中のパターンに基づいて相関値を生成し、前記生成した相関値および予め設定された閾値に基づいて前記第1の画像および第2の画像の照合を行う。Preferably, in the tenth step, a plurality of correlation values indicating correction positions are generated by correlation processing based on the first image and the second image, and the first value is calculated based on the generated plurality of correlation values. A plurality of position correction processes of one image and a second image are performed, and in the first step, each of the first image and the second image as a result of the plurality of position correction processes by the process of the tenth step The image processing is performed to generate a first converted image and a second converted image, and in the second step, the first converted image and the second converted image generated by the processing of the first step are generated. A correlation value is generated based on the pattern in the converted image, and the first image and the second image are collated based on the generated correlation value and a preset threshold value.
好ましくは、前記第2のステップにおいて、前記第1のステップにより生成された複数の位置補正処理の結果に基づいて、異なる位置に対応する相関値の総和値および予め設定された閾値に基づいて前記第1の画像および第2の画像の照合を行う。Preferably, in the second step, based on a result of a plurality of position correction processes generated in the first step, the sum of correlation values corresponding to different positions and a preset threshold value are used. The first image and the second image are collated.
本発明によれば、第1の画像と第2の画像の内の直線成分を基に照合を行うため、According to the present invention, since the matching is performed based on the linear component in the first image and the second image,
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する変換手段と、前記変換手段が生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、および、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う照合手段とを有し、For each of the first image and the second image, a distance from a reference position to a shortest point to a straight line passing through a point in the image, and a reference including the reference position, a straight line passing through the shortest point, and the reference position Converting a point in the image into a curved pattern based on an angle with an axis, and performing image processing to convert a linear component in the image into a plurality of overlapping curved patterns, the first converted image and Conversion means for generating a second conversion image; a degree of overlapping of the patterns in the first conversion image and the second conversion image generated by the conversion means; and the first conversion image and the second conversion image. Collating means for collating the first image and the second image based on matching and mismatching of patterns in each of the converted images,
前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する抽出手段をさらに有し、For each of the first converted image and the second converted image, the image processing apparatus further includes an extracting unit that extracts an area in which the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold value,
前記照合手段は、前記抽出手段が、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出した領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、The collation unit is configured to collate the first image and the second image based on the match and mismatch of the patterns in the regions extracted by the extraction unit in the first converted image and the second converted image, respectively. And
前記抽出手段は、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する、The extraction means controls the threshold based on the size of the extracted region so that the size of the extracted region is larger than a set value;
画像照合装置が提供される。An image verification device is provided.
また本発明によれば、第1の画像と第2の画像の内の直線成分を基に照合を行うため、前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する変換手段と、前記変換手段が生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、および、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う照合手段とを有し、Further, according to the present invention, in order to perform the collation based on the linear components in the first image and the second image, the points in the image are determined from the reference position for each of the first image and the second image. Converting the points in the image into a curved pattern based on the distance to the shortest point to the straight line passing through and the angle between the reference position and the straight line passing through the shortest point and the reference axis including the reference position; Image processing for converting a linear component in the image into a plurality of overlapping patterns of the curve to generate a first converted image and a second converted image, and the first generated by the converting unit Based on the degree of overlapping of the patterns in the converted image and the second converted image, and the matching and mismatching of the patterns in the first converted image and the second converted image, respectively. Second picture And a collating means that performs collation,
前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する抽出手段をさらに有し、For each of the first converted image and the second converted image, the image processing apparatus further includes an extracting unit that extracts an area in which the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold value,
前記照合手段は、前記抽出手段が、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出した領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、The collation unit is configured to collate the first image and the second image based on the match and mismatch of the patterns in the regions extracted by the extraction unit in the first converted image and the second converted image, respectively. And
前記抽出手段は、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する、The extraction means controls the threshold based on the size of the extracted region so that the size of the extracted region is within a set range;
画像照装置が提供される。An image illumination device is provided.
本発明によれば、情報処理装置に実行させ、第1の画像と第2の画像の内の直線成分を基に照合を行わせるプログラムであって、
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1の手順と、前記第1の手順により生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、および、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2の手順とを実行させ際、
前記第1の手順では、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3の手順を実行させ、
前記第2の手順では、前記第3の手順により前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う処理と、
前記第3の手順において、前記抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する処理を
実行させるプログラムが提供される。 According to the present invention, there is provided a program for causing an information processing apparatus to perform verification based on a linear component in a first image and a second image,
For each of the first image and the second image, a distance from a reference position to a shortest point to a straight line passing through a point in the image, and a reference including the reference position, a straight line passing through the shortest point, and the reference position Converting a point in the image into a curved pattern based on an angle with an axis, and performing image processing to convert a linear component in the image into a plurality of overlapping curved patterns, the first converted image and A first procedure for generating a second converted image, a degree of overlapping of patterns in the first converted image and the second converted image generated by the first procedure, and the first converted image. And a second procedure for performing matching between the first image and the second image based on matching and mismatching of patterns in each of the second converted images,
In the first procedure, for each of the first converted image and the second converted image, a third region is extracted in which the degree of overlapping of the pattern of curves in one converted image is equal to or greater than a preset threshold value. Let the procedure run,
In the second procedure, the first image and the second image based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image by the third procedure, respectively. Processing to match the images of
In the third procedure, a process for controlling the threshold based on the size of the extracted region so that the size of the extracted region is larger than a set value.
A program to be executed is provided.
また本発明によれば、情報処理装置に実行させ、第1の画像と第2の画像の内の直線成分を基に照合を行わせるプログラムであって、
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1の手順と、前記第1の手順により生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合いおよび前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2の手順とを実行させ際、
前記第1の手順では、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3の手順を実行させ、
前記第2の手順では、前記第3の手順により前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う処理と、
前記第3の手順において、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する処理を
実行させるプログラムが提供される。 According to the present invention, there is also provided a program for causing an information processing apparatus to execute verification based on a linear component in a first image and a second image,
For each of the first image and the second image, a distance from a reference position to a shortest point to a straight line passing through a point in the image, and a reference including the reference position, a straight line passing through the shortest point, and the reference position Converting a point in the image into a curved pattern based on an angle with an axis, and performing image processing to convert a linear component in the image into a plurality of overlapping curved patterns, the first converted image and A first procedure for generating a second converted image, a degree of overlapping of the patterns in the first converted image and the second converted image generated by the first procedure, the first converted image, and the When executing the second procedure of matching the first image and the second image based on the matching and mismatching of the patterns in each of the second converted images,
In the first procedure, for each of the first converted image and the second converted image, a third region is extracted in which the degree of overlapping of the pattern of curves in one converted image is equal to or greater than a preset threshold value. Let the procedure run,
In the second procedure, the first image and the second image based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image by the third procedure, respectively. Processing to match the images of
In the third procedure, a process of controlling the threshold value based on the size of the extracted region so that the size of the extracted region is within a set range.
A program to be executed is provided.
本発明によれば、画像の照合を高精度に行うことができる画像照合方法、画像照合装置、およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image collation method, an image collation apparatus, and a program that can collate images with high accuracy.
図1は、本発明に係る画像照合装置の第1実施形態のハードウェア的な機能ブロック図である。
本実施形態に係る画像照合装置1は、図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
例えば画像入力部11はメモリ12に接続され、メモリ12、FFT処理部13、座標変換部14、ハフ変換部15、およびCPU16は、バスBSにより接続されている。動作処理部17はCPU16に接続されている。
FIG. 1 is a hardware functional block diagram of the first embodiment of the image collating apparatus according to the present invention.
As shown in FIG. 1, the
For example, the
画像入力部11は、外部からの画像を入力するための入力部である。例えば、画像入力部11には、登録画像AIM、および登録画像AIMの比較対象である画像(照合画像RIMともいう)が入力される。
メモリ12は、例えば画像入力部11から入力された画像等が記憶される。また、例えばメモリ12には、図1に示すように登録画像AIM、照合画像RIM、およびプログラムPRG等が記憶されている。
プログラムPRGは、例えばCPU16で実行され、本発明に係る変換処理、相関処理、照合処理等に関する機能を実現させる手順を含む。
The
The
The program PRG is executed by, for example, the
FFT処理部13は、例えばCPU16の制御により、メモリ12が記憶する画像等に基づいて2次元フーリエ変換処理を行い、処理結果を座標変換部14およびCPU16等に出力する。
For example, under the control of the
座標変換部14は、例えばCPU16の制御により、FFT処理部13が処理した2次元フーリエ変換処理の結果に基づいて対数−極座標変換し、座標変換結果をCPU16に出力する。
動作処理部17は、後述するCPU16の処理の結果に基づいて、例えば登録画像AIMと照合画像RIMが一致した場合には、電子鍵を解除する等の所定処理を行う。
The coordinate
The
ハフ変換部15は、CPU16の制御により後述するハフ変換処理を行い、処理結果をCPU16に出力する。ハフ変換部15は、例えば高速にハフ変換処理を行うために、ハードウェアで構成された専用回路を用いることが好ましい。
The
CPU16は、例えばメモリ12に記憶されているプログラムPRG、登録画像AIM、および照合画像RIMに基づいて、本発明の実施形態に係る照合処理を行う。また、CPU16は、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ変換部15、および動作処理部17等の制御を行い、本実施形態に係る処理を実現する。
The
図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。
例えば、CPU16がメモリ12内のプログラムPRGを実行することにより、図2に示すように、位置補正部161、ハフ変換部162、抽出部163、および判別部164の機能を実現する。
位置補正部161は本発明に係る位置補正手段に相当し、ハフ変換部162は本発明に係る変換手段に相当し、抽出部163は本発明に係る抽出手段に相当し、判別部164は本発明に係る照合手段に相当する。
FIG. 2 is a software functional block diagram of the image collating apparatus shown in FIG.
For example, when the
The
位置補正部161は、例えばメモリ12が記憶する登録画像AIMおよび照合画像RIMの内の画像パターンに基づいて、2つの画像それぞれの左右上下方向の位置ずれや、拡大率、および回転角度等のずれを補正し、補正した画像をハフ変換部162に出力する。
詳細には、例えば位置補正部161は、登録画像AIMおよび照合画像RIMそれぞれにつき位置補正処理を行い、信号S1611,S1612としてハフ変換部162に出力する。
For example, based on the image pattern in the registered image AIM and the collation image RIM stored in the
Specifically, for example, the
ハフ変換部162は、例えばハードウェア的に専用のハフ変換処理を行うハフ変換部15に、ハフ変換処理を実行させる。
詳細には、例えばハフ変換部162は、位置補正処理された登録画像AIMである信号S1611に基づいてハフ変換処理を行い、処理結果を信号S1621として出力する。
また、ハフ変換部162は、位置補正処理された照合画像RIMである信号S1612に基づいてハフ変換処理を行い、処理結果を信号S1622として出力する。
For example, the
Specifically, for example, the
Further, the
図3は、図2に示したハフ変換部の動作を説明するための図である。
ハフ変換部162は、例えば、第1の画像および第2の画像それぞれについて、基準位置Oから画像内の点を通る直線L0への最短の点P0までの距離ρ0、および、基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸との角度θに基づいて、画像内の点を曲線のパターンに変換し、画像内の直線成分を、複数の重なり合った曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する。
FIG. 3 is a diagram for explaining the operation of the Hough transform unit shown in FIG.
The
簡単な説明のため、例えば図3(a)に示すように、x−y平面上に、直線L0、直線L0上の点P(x1,y1),点P2(x2,y2),点P3(x3,y3)があるとする。
原点0を通り直線L0に垂直な直線をn0とすると、例えば直線n0と基準軸としてのx軸とは角度θ0の関係があり、原点Oから直線L0まで距離|ρ0|の関係があるとする。ここで|ρ0|はρ0の絶対値を示す。直線L0は、(ρ0,θ0)というパラメータで表現できる。
x−y平面上の座標(x,y)に対するハフ(Hough)変換は、例えば数式(1)により定義される。
For simple explanation, for example, as shown in FIG. 3A, on the xy plane, the straight line L0, the point P (x1, y1), the point P2 (x2, y2), the point P3 ( Suppose x3, y3).
Assuming that a straight line passing through the
The Hough transform for coordinates (x, y) on the xy plane is defined by, for example, Expression (1).
〔数1〕
ρ=x・cosθ+y・sinθ
…(1)
[Equation 1]
ρ = x · cos θ + y · sin θ
... (1)
例えば点P1,P2,P3それぞれについて数式(1)に示すハフ変換を行うと、図3(b)に示すようにρ−θ空間上の曲線に変換される。詳細にはハフ変換は、点P1(x1,y1)は曲線PL1(x1・cosθ+y1・sinθ)に、点P2(x2,y2)は曲線PL2(x2・cosθ+y2・sinθ)に、点P3(x3,y3)は曲線PL3(x3・cosθ+y3・sinθ)に変換する。
この曲線PL1,PL2,PL3のパターンは、ρ−θ空間上で交点CP(ρ0,θ0)で交わる。ρ−θ空間上では交点P(ρ0,θ0)は、x−y空間上では直線成分L0に相当する。
逆に、図3(a)に示すようにx−y平面上の直線成分L0は、ρ−θ空間では曲線PL1,PL2,PL3のパターンの交点CPに相当する。
For example, when the Hough transform shown in Formula (1) is performed for each of the points P1, P2, and P3, the points are converted into curves in the ρ-θ space as shown in FIG. Specifically, in the Hough transform, the point P1 (x1, y1) is on the curve PL1 (x1 · cos θ + y1 · sin θ), the point P2 (x2, y2) is on the curve PL2 (x2 · cos θ + y2 · sin θ), and the point P3 (x3, x3). y3) is converted into a curve PL3 (x3 · cos θ + y3 · sin θ).
The patterns of the curves PL1, PL2, and PL3 intersect at an intersection CP (ρ0, θ0) in the ρ-θ space. The intersection point P (ρ0, θ0) on the ρ-θ space corresponds to the linear component L0 on the xy space.
Conversely, as shown in FIG. 3A, the linear component L0 on the xy plane corresponds to the intersection CP of the patterns PL1, PL2, and PL3 in the ρ-θ space.
上述したように、2値化した画像にハフ変換処理を行い、処理結果のρ−θ空間上での曲線のパターンの重なりの度合いにより、変換前のx−y平面においてどのような直線成分が支配的であるかを判別することができる。 As described above, the Hough transform process is performed on the binarized image, and depending on the degree of overlapping of the pattern of the curve in the ρ-θ space of the process result, what linear component is present on the xy plane before the conversion. It can be determined whether it is dominant.
図4は、図2に示したハフ変換部の動作を説明するための図である。
ハフ変換部162は、例えば図4(a)に示す位置補正処理された登録画像AIMをハフ変換処理を行い、図4(c)に示す画像S1621を生成し、図4(b)に示す位置補正処理された照合画像RIMをハフ変換処理を行い画像S1622を生成する。
画像S1621,S1622の内の各画素には、曲線のパターンの重なりの度合いに応じた値が設定される。本実施形態では所定の階調で示される画像の内、曲線のパターンの重なりの度合いが高いほど白く表示されている。
後述するように、照合部1642は、この曲線パターンの重なりの度合いに基づいて照合処理を行うので、元のx−y空間上の直線成分を基に照合処理を行うことになる。
FIG. 4 is a diagram for explaining the operation of the Hough transform unit shown in FIG.
For example, the
Each pixel in the images S1621, S1622 is set to a value corresponding to the degree of curve pattern overlap. In the present embodiment, the image is displayed in white as the degree of overlap of the curved pattern is higher in the image indicated by the predetermined gradation.
As will be described later, the
抽出部163は、第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する。
詳細には、例えば抽出部163は、図4(c)に示す第1の変換画像としての信号S1621に基づいて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、図4(e)に示す画像S1631を生成し照合部1642に出力する。
また、例えば抽出部163は、図4(d)に示す第2の変換画像としての信号S1622に基づいて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、図4(f)に示す画像S1632を生成し照合部1642に出力する。
この抽出処理を行うことにより、例えば登録画像AIMおよび照合画像RIMのx−y空間上の直線成分と異なるノイズ成分、例えば点成分を除去する。
The
Specifically, for example, based on the signal S1621 as the first converted image shown in FIG. 4C, the extracting
Further, for example, the
By performing this extraction process, for example, noise components different from the linear components in the xy space of the registered image AIM and the collation image RIM, for example, point components are removed.
判別部164は、第1の変換画像および第2の変換画像内のパターンの重なりの度合い、第1の変換画像および第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う。
詳細には、判別部164は、例えば信号S1631および信号S1632に基づいて照合を行い、照合結果を信号S164として出力する。
The
Specifically, the
判別部164は、例えば図2に示すように、類似度生成部1641、および照合部1642を有する。
類似度生成部1641は、例えば、第1の変換画像および第2の変換画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果に基づいて相関値としての類似度を生成する。
詳細には、類似度生成部1641は、例えば信号S1631および信号S1632に基づいて2つの画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果に基づいて相関値としての類似度を生成する。
For example, as illustrated in FIG. 2, the
For example, the
Specifically, the
例えば類似度生成部1641は、2つの画像それぞれをf1(m,n),f2(m,n)とすると、例えば類似度Simを数式(2)により算出し、算出結果をS1641として出力する。
For example, if the two images are assumed to be f1 (m, n) and f2 (m, n), for example, the
図5は、図2に示した類似度生成部の動作を説明するための図である。
類似度生成部1641は、例えば図5(a),(b)に示す線成分(線形状ともいう)を含む2つの画像の類似度を生成する場合には、
図5(c)に示すように、2つの画像の交点CPの数に応じた類似度を生成する。ここでは、簡単な説明のために、線成分をビット値’1’の黒画素で示し、その他をビット値’0’の白画素で示した。
FIG. 5 is a diagram for explaining the operation of the similarity generation unit shown in FIG.
For example, when the
As shown in FIG. 5C, the similarity according to the number of intersection points CP of the two images is generated. Here, for the sake of simple explanation, the line component is indicated by a black pixel having a bit value “1”, and the other is indicated by a white pixel having a bit value “0”.
照合部1642は、類似度生成部1641が生成した類似度を示す信号S1641に基づいて、登録画像AIMと照合画像RIMの照合を行う。
例えば、照合部1642は、類似度が所定の値よりも大きい場合には、登録画像AIMと照合画像RIMとが一致していると判別する。
The
For example, the
図6は、図1に示した本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。図6を参照しながら、画像照合装置の動作をCPUの動作を中心に説明する。 FIG. 6 is a flowchart for explaining the operation of the image collating apparatus according to the present embodiment shown in FIG. With reference to FIG. 6, the operation of the image collating apparatus will be described focusing on the operation of the CPU.
例えば、画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリ12にそれぞれのデータが格納される。
ステップST101において、位置補正部161は、例えば図2に示すように、メモリ12が記憶する登録画像AIMおよび照合画像RIMの内の画像パターンに基づいて位置補正処理を行い、詳細には、2つの画像それぞれの左右上下方向の位置ずれや、拡大率、および回転角度等のずれを補正し、補正した画像を信号S1611,S1612としてハフ変換部162に出力する。
For example, a registered image AIM and a collation image RIM are input by the
In step ST101, for example, as shown in FIG. 2, the
ステップST102において、ハフ変換部162では、例えば図4(a)に示す位置補正処理された登録画像AIMである信号S1611に基づいて、図3(a)に示すように、基準位置Oから画像内の点を通る直線L0への最短の点P0までの距離ρ0、および、基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸としてのx軸との角度θに基づいて、画像内の点を曲線PLのパターンに変換し、画像内の直線成分Lを、複数の重なり合った曲線PLのパターンに変換する画像処理を行い、例えば図4(c)に示すように、ρ−θ空間上に変換画像として信号S1621を生成する。
また、ハフ変換部162は、例えば図4(b)に示す位置補正処理された照合画像RIMである信号S1612に基づいて同様のハフ変換処理を行い、例えば図4(d)に示すように、ρ−θ空間上に変換画像として信号S1622を生成する。
In step ST102, the
Further, the
ステップST103において、抽出部163では、変換画像S1621および変換画像S1622それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する。
詳細には、上述したように、画像S1621,S1622の内の各画素には、曲線のパターンの重なりの度合いに応じた値が設定されており、所定の階調で示される画像の内、曲線のパターンの重なりの度合いが高いほど白く表示されている。
例えば抽出部163は、図4(c)に示す変換画像S1621内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、例えば図4(e)に示す画像S1631を生成し、照合部1642に出力する。
例えば抽出部163は、図4(d)に示す変換画像S1622内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、例えば図4(f)に示す画像S1632を生成し、照合部1642に出力する。
In step ST103, the
Specifically, as described above, each pixel in the images S1621, S1622 is set to a value corresponding to the degree of overlap of the curve patterns. The higher the degree of pattern overlap, the more white it is displayed.
For example, the
For example, the
照合部1642では、変換画像S1631および変換画像S1632内のパターンの重なりの度合い、変換画像S1631および変換画像S1632それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行う。
The
詳細には、ステップST104において、類似度生成部1641は、変換画像S1631および変換画像S1632の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果により相関値として、例えば数式(2)に示すように類似度Simを生成し、信号S1641として出力する。
Specifically, in step ST104, the
ステップST105において、照合部1642は、類似度生成部1641が生成した相関値としての類似度Simに基づいて、登録画像AIMおよび照合画像RIMの照合処理を行う。詳細には、照合部1642は、類似度Simが予め設定された閾値より高い場合には、登録画像AIMと照合画像RIMが一致していると判別し、閾値以下の場合には不一致であると判別する。
例えば、セキュリティ分野における静脈パターン照合装置に本実施形態に係る画像照合装置を適用した場合には、動作処理部17が電子錠を解除する等といった所定の処理を行う。
In step ST105, the
For example, when the image matching device according to the present embodiment is applied to a vein pattern matching device in the security field, the
以上説明したように、登録画像AIMおよび照合画像RIMそれぞれについて、ハフ変換処理、詳細には基準位置Oから画像内の点を通る直線Lへの最短の点P0までの距離ρ、および基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸としてのx軸との角度θに基づいて、画像内の点を曲線PLのパターンに変換し、画像内の直線成分を、複数の重なり合った曲線PLのパターンに変換する画像処理を行い、変換画像S1621および変換画像S1622を生成するハフ変換部15と、ハフ変換部15が生成した変換画像S1621および変換画像S1622内のパターンの内の重なりの度合い、および変換画像S1621および変換画像S1622それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行う判別部164とを設けたので、直線成分を特徴として含む画像の照合を高精度に行うことができる。
As described above, for each of the registered image AIM and the matching image RIM, the Hough transform process, specifically, the distance ρ from the reference position O to the shortest point P0 to the straight line L passing through the point in the image, and the reference position O And the straight line n0 passing through the shortest point P0 and the angle θ between the x axis as the reference axis including the reference position O, the points in the image are converted into the pattern of the curve PL, and a plurality of linear components in the image are converted. Hough transform
つまり、ハフ変換部15が、ハフ変換処理を行うことにより、登録画像AIMおよび照合画像RIMの内の直線成分(線形状ともいう)を考慮した変換画像を生成し、判別部164が、変換画像それぞれの内の曲線のパターンの重なり具合に基づいて照合を行うので、直線成分を特徴として含む画像の照合を高精度に行うことができる。
That is, the
更に、ハフ変換部162に続いて抽出部163を有するようにすれば、抽出部163が、変換画像S1621,S1622それぞれの1つの変換画像内の曲線PLのパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、つまり登録画像AIMおよび照合画像RIM上のノイズ成分である点成分を除去し、直線成分のみを抽出して、画像S1631,S1632を生成し、判別部164が抽出された領域内のパターンの一致および不一致に基づいて登録画像AIMおよび照合画像RIMの照合を行うので、さらに向上した高精度の照合処理を行うことができる。
Further, if the
また、判別部164に、変換画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果により相関値としての類似度Simを生成する類似度生成部1641を設け、生成した類似度Simに基づいて登録画像AIMおよび照合画像RIMとを照合する照合部1642とを設け、簡単な計算により相関値としての類似度を生成し、その類似度に基づいて照合処理を行うことで、高速に照合処理を行うことができる。
The
本実施形態では、ステップST101において位置補正処理を行ったが、この形態に限られるものではない。例えば、位置補正処理を行う必要がない場合には、ハフ変換部15は、登録画像AIMおよび照合画像RIMそれぞれについてハフ変換処理を行ってよい。こうすることにより処理負担が軽減され、高速に照合処理を行うことができる。
In the present embodiment, the position correction process is performed in step ST101, but the present invention is not limited to this form. For example, when it is not necessary to perform position correction processing, the
また、本実施形態では、ステップST103において、抽出部163により、曲線PLのパターンの重なりの度合いに応じて予め設定された閾値以上の領域を抽出したが、この形態に限られるものではない。
例えば、抽出部163が抽出処理を行わずに、判別部164が、画像S1621および画像S1622の内のパターンの重なりの度合い、画像S1621および画像S1622それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行ってもよい。こうすることにより処理負担が軽減され、高速に照合処理を行うことができる。
In the present embodiment, in step ST103, the
For example, without the
図7は、本発明に係る画像照合装置の第2実施形態の位置補正部を示す図である。
本実施形態に係る画像照合装置1aでは、ハードウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1aのソフトウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161、ハフ変換部162、抽出部163、および判別部164の機能を実現する。
同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
FIG. 7 is a diagram showing a position correction unit of the second embodiment of the image collating device according to the present invention.
In the
The software functional block of the
The same functions are denoted by the same reference numerals, description thereof is omitted, and only differences are described.
相違点としては、位置補正部161が、位置補正処理として、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関値を生成し、生成した相関値に基づいて登録画像AIMと照合画像RIMの位置補正処理を行う点である。
詳細には、本実施形態に係る位置補正部161は、CPU16がプログラムPRGを実行し、FFT処理部13および座標変換部14等を制御することにより、例えば図7に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、ズレ情報生成部24、および補正部25の機能を実現する。
The difference is that the
Specifically, in the
倍率情報−回転情報部21および補正部22は、登録画像AIMおよび照合画像RIMとの回転角度補正処理または拡大率補正処理を行う。
倍率情報−回転情報部21は、登録画像AIMおよび照合画像RIMに基づいて倍率情報および/または回転情報を生成し信号S21として、補正部22に出力する。
倍率情報は、登録画像AIMおよび照合画像RIMの拡大・縮小率を示す情報を含む。回転情報は、登録画像AIMおよび照合画像RIMの回転角度を示す情報を含む。
The magnification information-
The magnification information-
The magnification information includes information indicating the enlargement / reduction ratio of the registered image AIM and the collation image RIM. The rotation information includes information indicating the rotation angle of the registered image AIM and the collation image RIM.
詳細には例えば倍率情報−回転情報部21は、フーリエ・メリン変換部211、位相限定相関部212、および倍率情報−回転情報生成部213を有する。
フーリエ・メリン変換部211は、それぞれの画像情報に基いて後述するフーリエ・メリン変換を行い、それぞれの変換結果を示す信号SA211,SR211を位相限定相関部212に出力する。
Specifically, for example, the magnification information-
The Fourier-
詳細には、フーリエ・メリン変換部211は、フーリエ変換部21111,21112、対数変換部21121,21122、および対数−極座標変換部21131,21132を有する。
Specifically, the Fourier-
フーリエ変換部21111は、例えば、登録画像AIMがN×N画像の場合に、登録画像AIMをf1(m,n)とすると、数式(3)に示すようにフーリエ変換を行い、フーリエ画像データF1(u,v)を生成し、対数変換部21121に出力する。フーリエ変換部21112は、例えば、照合画像RIMがN×N画像の場合に、照合画像RIMをf2(m,n)とすると、数式(4)に示すようにフーリエ変換を行い、フーリエ画像データF2(u,v)を生成し、対数変換部21122に出力する。
For example, when the registered image AIM is an N × N image and the registered image AIM is f1 (m, n), the
フーリエ画像データF1(u,v)は、数式(3)に示すように振幅スペクトルA(u,v)および位相スペクトルΘ(u,v)で構成され、フーリエ画像データF2(u,v)は、数式(4)に示すように振幅スペクトルB(u,v)および位相スペクトルΦ(u,v)で構成される。 The Fourier image data F1 (u, v) is composed of an amplitude spectrum A (u, v) and a phase spectrum Θ (u, v) as shown in Equation (3), and the Fourier image data F2 (u, v) is As shown in Equation (4), it is composed of an amplitude spectrum B (u, v) and a phase spectrum Φ (u, v).
対数変換部21121,21122は、フーリエ変換部21111,21112で生成された、フーリエ画像データF1(u,v),F2(u,v)の振幅成分に基いて対数処理を行う。この振幅成分の対数処理は、画像データの詳細な特徴情報を含む高周波成分を強調する。
The logarithmic conversion units 21121, 2112 perform logarithmic processing based on the amplitude components of the Fourier image data F1 (u, v), F2 (u, v) generated by the
詳細には、対数変換部21121は数式(5)に示すように振幅成分A(u,v)に基いて対数処理を行いA’(u,v)を生成し対数−極座標変換部21131に出力する。対数変換部21122は数式(6)に示すように振幅成分B(u,v)に基いて対数処理を行いB’(u,v)を生成し対数−極座標変換部21132に出力する。
More specifically, the logarithmic conversion unit 21121 performs logarithmic processing based on the amplitude component A (u, v) as shown in Expression (5) to generate A ′ (u, v) and outputs it to the logarithmic-polar coordinate
対数−極座標変換部21131,21132は、対数変換部21121,21122から出力された信号に基いて、対数−極座標系(例えばlog−r,Θ)に変換する。
一般的に例えば点(x,y)に対して数式(7),(8)に示すように定義すると、r=eμの場合にはμ=log(r)であり、任意の点(x,y)に対応する一義的な(log(r),Θ)が存在する。この性質により対数−極座標変換部21131,21132は座標変換を行う。
The logarithm-polar coordinate
In general, for example, when the point (x, y) is defined as shown in the equations (7) and (8), when r = e μ , μ = log (r), and an arbitrary point (x , Y), there is a unique (log (r), Θ). Due to this property, the logarithm-polar coordinate
詳細には、対数−極座標変換部21131,21132は、数式(9)に示す集合(ri 、θj )、および数式(10)に示す関数f(ri 、θj )を定義する。
Specifically, the logarithmic-polar coordinate
対数−極座標変換部21131,21132は、数式(9),(10)で定義した集合(ri 、θj ),関数f(ri 、θj )を用いて、画像データA’(u,v),B’(u,v)それぞれを、数式(11),(12)に示すように対数−極座標変換を行い、pA(ri 、θj )、pB(ri 、θj )を生成し、それぞれ信号SA211、信号SR211として、位相限定相関部212に出力する。
The logarithm-polar coordinate
図8は、図7に示したフーリエ・メリン変換部211の動作を説明するための図である。
画像f1(m,n),画像f2(m,n)は、例えばx,y軸に対して異なる所定角度を持った矩形領域W1,W2を含む。
フーリエ・メリン変換部211において、例えば図8に示すように、画像f1(m,n)が、フーリエ変換部21111によりフーリエ変換されて、フーリエ画像データF1(u,v)が生成され、対数変換部21121および対数−極座標変換部21131により、画像データpA(r,θ)が生成される。
FIG. 8 is a diagram for explaining the operation of the Fourier-
The image f1 (m, n) and the image f2 (m, n) include rectangular regions W1 and W2 having different predetermined angles with respect to the x and y axes, for example.
In the Fourier-
同様に、画像f2(m,n)が、フーリエ変換部21112によりフーリエ変換されて、フーリエ画像データF2(u,v)が生成され、対数変換部21122および対数−極座標変換部21132により、画像データpB(r,θ)が生成される。
Similarly, the image f2 (m, n) is Fourier-transformed by the
上述したように、画像f1(m,n),f2(m,n)は、フーリエ変換および対数−極座標変換により、デカルト座標から対数−極座標系(フーリエ・メリン空間とも言う)上に変換される。
フーリエ・メリン空間では、画像のスケーリングに応じて、成分がlog−rの軸に沿って移動し、画像の回転角度に応じてθ軸に沿って移動する性質がある。
この性質を用いて、画像f1(m,n),f2(m,n)のスケーリング(倍率情報)および回転角度を、フーリエ・メリン空間上のlog−rの軸に沿った移動量、およびθ軸に沿った移動量に基いて、求めることができる。
As described above, the images f1 (m, n) and f2 (m, n) are transformed from Cartesian coordinates onto a logarithmic-polar coordinate system (also referred to as Fourier-Melin space) by Fourier transformation and logarithmic-polar transformation. .
In the Fourier-Melin space, the component moves along the log-r axis according to the scaling of the image, and moves along the θ axis according to the rotation angle of the image.
Using this property, the scaling (magnification information) and the rotation angle of the images f1 (m, n) and f2 (m, n) are changed to the amount of movement along the log-r axis in the Fourier-Merlin space, and θ It can be determined based on the amount of movement along the axis.
位相限定相関部212は、例えば位相限定フィルタ(SPOMF:Symmetric phase-only matched filter )を用いた位相限定相関法により、フーリエ・メリン変換部211から出力されたパターンデータを示す信号SA211および信号SR211に基いて、それぞれの平行移動量を求める。
位相限定相関部212は、例えば図7に示すように、フーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124を有する。
The phase-
For example, as illustrated in FIG. 7, the phase
フーリエ変換部2120,2121は、対数−極座標変換部21131,21132から出力された信号SA211(pA(m,n)),SR211(pB(m,n))に基いて数式(13),(14)により、フーリエ変換を行う。ここで、X(u,v),Y(u,v)は、フーリエ係数である。フーリエ係数X(u,v)は数式(13)に示すように振幅スペクトルC(u,v)および位相スペクトルθ(u,v)により構成される。フーリエ係数Y(u,v)は数式(14)に示すように振幅スペクトルD(u,v)および位相スペクトルφ(u,v)により構成される。
The
合成部2122は、フーリエ変換部2120,2121で生成されたX(u,v),Y(u,v)を合成して相関をとる。例えば合成部2122は、X(u,v)・Y* (u,v)を生成し、位相抽出部2123に出力する。ここで、Y* (u,v)は、Y(u,v)の複素共役である。
The combining
位相抽出部2123は、合成部2122から出力された合成信号に基いて振幅成分を除去して位相情報を抽出する。
例えば位相抽出部2123は、例えばX(u,v)Y* (u,v)に基いて、その位相成分Z(u,v)=ej (θ(u,v )-φ(u,v ))を抽出する。
The
For example, the
位相情報の抽出は、上述した形態に限られるものではない。例えば、フーリエ変換部2120,2121の出力、数式(15),(16)に基いて位相情報を抽出した後、数式(17)に示すように位相成分のみ合成を行い、Z(u,v)を生成してもよい。
The extraction of the phase information is not limited to the above-described form. For example, after extracting phase information based on the outputs of the
逆フーリエ変換部2124は、位相抽出部2123から出力された、位相情報のみの信号Z(u,v)に基いて、逆フーリエ変換処理を行い、相関強度画像を生成する。
詳細には、逆フーリエ変換部2124は、数式(18)に示すように、信号Z(u,v)に基いて逆フーリエ変換処理を行い、相関強度画像G(p,q)を生成する。
The inverse
Specifically, the inverse
倍率情報−回転情報生成部213は、逆フーリエ変換部2124により生成された相関強度画像G(p、q)におけるピーク位置の画像中心からのずれ量が、すなわち登録画像AIMと、照合画像RIMに対してフーリエ・メリン変換を行った結果得られたパターンデータ間の平行移動量と等価であるので、このずれ量を検出することにより、登録画像AIMに対する照合画像RIMの倍率情報(拡大/縮小率)および回転角度情報を示すデータを含む補正情報S21を生成する。
The magnification information-rotation
補正部22は、倍率情報−回転情報部21の倍率情報−回転情報生成部213から出力された補正情報S21に基いて、照合画像RIMの補正を行う。詳細には、補正部22は、補正情報S21に含まれる倍率情報および回転角度情報に基づいて、照合画像RIMを拡大/縮小処理し、回転処理を行い、位相限定相関部23に出力する。補正部22の補正処理により、登録画像AIMと照合画像RIM間のスケーリングおよび回転成分の差異が除去される。
このため、登録画像AIMと、補正処理された照合画像RIMとの間には、平行移動成分のみが差異として残っている。
The correcting
For this reason, only the translation component remains as a difference between the registered image AIM and the corrected collation image RIM.
位相限定相関部23は、上述した登録画像AIMと、補正処理された照合画像RIMとの間の平行移動成分、およびその相関値を検出する。この検出は、例えば上述した位相限定フィルタを用いた位相限定相関法により求める。
詳細には、位相限定相関部23は、フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234を有する。
The phase
Specifically, the phase
フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234それぞれは、上述した位相限定相関部212のフーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124それぞれと同じ機能を有するので簡単に説明する。
The
フーリエ変換部2311は、登録画像AIMをフーリエ変換し合成部232に出力する。この際、予めフーリエ変換部21111でフーリエ変換処理した登録画像AIMをメモリ12に記憶しておき、それを合成部232に出力してもよい。こうすることにより2重にフーリエ変換処理を行うことがないために、処理が軽減される。
フーリエ変換部2312は、補正部22により、補正された画像S22をフーリエ変換を行い、処理結果のフーリエ画像を合成部232に出力する。
The
The
合成部232は、フーリエ変換部2311,2312から出力されたフーリエ画像S2311,S2312を合成し、合成画像S232を位相抽出部233に出力する。
位相抽出部233は,合成画像S232に基づいて上述したように位相情報を抽出して信号S233を逆フーリエ変換部234に出力する。
逆フーリエ変換部234は、信号S233に基づいて逆フーリエ変換を行い相関強度画像(相関画像データ)を生成し、信号S23としてずれ情報生成部24に出力する。
The synthesizing
The
The inverse
上述の位相限定相関法における平行移動量の検出処理の詳細な説明を行う。
例えば、原画像f1(m,n)、原画像f2(m,n)、および画像f2(m,n)を平行移動した画像f3(m,n)=f2(m+α,n+β)それぞれをフーリエ変換処理し、数式(19)〜(21)に示すように、フーリエ係数F1(u,v),F2(u,v),F3(u,v)を生成する。
A detailed description of the parallel displacement detection process in the above-described phase-only correlation method will be given.
For example, the original image f1 (m, n), the original image f2 (m, n), and the image f3 (m, n) = f2 (m + α, n + β) obtained by translating the image f2 (m, n) are Fourier transformed. Processing is performed to generate Fourier coefficients F1 (u, v), F2 (u, v), and F3 (u, v) as shown in equations (19) to (21).
フーリエ係数F1(u,v)〜F3(u,v)に基づいて、数式(22)〜(24)に示すように、位相情報のみの位相画像F’1(u,v)〜F’3(u,v)を生成する。 Based on the Fourier coefficients F1 (u, v) to F3 (u, v), as shown in the mathematical expressions (22) to (24), the phase images F′1 (u, v) to F′3 having only phase information. (U, v) is generated.
位相画像F’1(u,v)と位相画像F’2(u,v)の相関の位相画像の相関Z12(u,v)を数式(25)に示すように計算し、位相画像F’1(u,v)と位相画像F’3(u,v)の相関の位相画像の相関Z13(u,v)を数式(26)に示すように計算する。 The correlation Z12 (u, v) of the phase image of the correlation between the phase image F′1 (u, v) and the phase image F′2 (u, v) is calculated as shown in the equation (25), and the phase image F ′ The correlation Z13 (u, v) of the phase image of the correlation between 1 (u, v) and the phase image F′3 (u, v) is calculated as shown in equation (26).
相関Z12(u,v)の相関強度画像G12(r,s)、および相関Z13(u,v)の相関強度画像G13(r,s)を数式(27),(28)に示すように計算する。 The correlation strength image G12 (r, s) of the correlation Z12 (u, v) and the correlation strength image G13 (r, s) of the correlation Z13 (u, v) are calculated as shown in equations (27) and (28). To do.
数式(27),(28)に示すように、画像f3(m,n)が、画像2(m,n)に比べて(+α、+β)だけずれている場合には、位相限定相関法では、相関強画像において、(−α,−β)だけずれた位置に相関強度のピークが生成される。この相関強度位置の位置により、2つの画像間の平行移動量を求めることができる。
また、上述したフーリエ・メリン空間上で、この位相限定相関法を用いることにより、フーリエ・メリン空間上の平行移動量が検出できる。この平行移動量は、上述したように実空間では倍率情報および回転角度情報に相当する。
As shown in equations (27) and (28), when the image f3 (m, n) is shifted by (+ α, + β) compared to the image 2 (m, n), the phase-only correlation method is used. In the strong correlation image, a correlation strength peak is generated at a position shifted by (−α, −β). Based on the position of the correlation strength position, the amount of parallel movement between the two images can be obtained.
In addition, by using this phase-only correlation method on the above-described Fourier-Melin space, the amount of parallel movement on the Fourier-Melin space can be detected. This parallel movement amount corresponds to magnification information and rotation angle information in the real space as described above.
図9は、自己相関法と位相限定相関法の相違点を説明するための図である。
自己相関法では、例えば図9(a),(b)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い自己相関関数SG1を生成すると、図9(c)に示すように、相関強度が高いピークと、その周辺部に小さい相関強度を有する相関強度分布が得られる。図9(c)において縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。
FIG. 9 is a diagram for explaining the difference between the autocorrelation method and the phase only correlation method.
In the autocorrelation method, for example, as shown in FIGS. 9A and 9B, when the image IM1 and the image IM2 that is the same as the image IM1 are subjected to Fourier transform to generate the autocorrelation function SG1, the result shown in FIG. 9C is obtained. As described above, a correlation strength distribution having a peak having a high correlation strength and a small correlation strength at the periphery thereof is obtained. In FIG. 9C, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and y-axis indicate the shift amount.
一方、上述した位相限定相関法では、図9(d),(e)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い、位相情報のみを相関すると図9(f)に示すように、相関強度が高く鋭いピークのみを有する相関強度分布が得られる。このように位相限定法では自己相関法に比べて相関に関して明確な情報を得ることができる。図9(f)において、縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。 On the other hand, in the above-described phase-only correlation method, as shown in FIGS. 9D and 9E, when the image IM1 and the image IM2 that is the same as the image IM1 are subjected to Fourier transform and only the phase information is correlated, FIG. ), A correlation strength distribution having a high correlation strength and only a sharp peak is obtained. Thus, the phase-only method can obtain clear information regarding the correlation as compared with the autocorrelation method. In FIG. 9F, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and the y-axis indicate the shift amount.
図10は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
例えば図10(a),(b)に示すような画像IM1、および画像IM1より数画素平行移動している画像IM3の画像の位相限定法における相関強度分布は、例えば図10(c)に示すように、相関強度が高く鋭いピークが、図9(f)に示した相関画像データの内のピーク位置から、平行移動量に応じた距離だけずれた位置に分布している。しかし、図10(c)に示すピーク強度は、図9(f)に示したピーク強度に比べて小さい。これは画像IM1,IM2に比べて、画像IM1,IM3の一致している画素領域が小さいためである。
FIG. 10 is a diagram for explaining a correlation intensity distribution when there is a parallel shift between two images in the phase only correlation method.
For example, the correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 10A and 10B and the image IM3 moved several pixels parallel from the image IM1 is shown in FIG. 10C, for example. Thus, sharp peaks with high correlation strength are distributed at positions shifted from the peak positions in the correlation image data shown in FIG. 9F by a distance corresponding to the amount of parallel movement. However, the peak intensity shown in FIG. 10C is smaller than the peak intensity shown in FIG. This is because the matching pixel regions of the images IM1 and IM3 are smaller than those of the images IM1 and IM2.
図11は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
図11(a),(b)に示すような画像IM1、および画像IM1より数度回転している画像IM4の位相限定法における相関強度分布は、例えば図11に示すように、弱い相関強度の相関強度分布が得られる。単純に位相限定相関法を用いた場合には回転ずれにより、相関を検出することが困難である。
FIG. 11 is a diagram for explaining the correlation strength distribution when there is a rotational shift between two images in the phase limiting method.
The correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 11A and 11B and the image IM4 rotated several degrees from the image IM1 is, for example, as shown in FIG. A correlation strength distribution is obtained. If the phase-only correlation method is simply used, it is difficult to detect the correlation due to rotational deviation.
このため、本実施形態に係る画像照合装置1aでは、登録画像AIMおよび照合画像RIMを、フーリエ・メリン変換を行い、フーリエ・メリン空間上で、位相限定相関法を用いることにより、平行移動量を検出し、登録画像AIMおよび照合画像RIMの倍率情報、および回転角度情報を検出する。その情報に基づいて、照合画像の倍率および回転角度を補正する。
補正した照合画像RIMおよび登録画像AIM間の平行移動ずれを、位相限定相関法により検出し、同時に相関ピークに基づいて画像間の照合を行う。
For this reason, in the
A translation shift between the corrected collation image RIM and the registered image AIM is detected by the phase only correlation method, and at the same time, collation between the images is performed based on the correlation peak.
図12は、位相限定相関部23が出力する相関画像データを説明するための図である。図12(a)は登録画像AIM、図12(b)は照合画像RIM、図12(c)は相関画像データの一具体例を示す図である。図13は図12(c)に示した相関画像データを説明するための図である。
FIG. 12 is a diagram for explaining the correlation image data output by the phase
登録画像AIM,照合画像RIMとして、例えば手書き文字や血管パターン等の2値化および線形状のパターンを含む場合、例えば図12(a),(b)に示すような登録画像AIM,照合画像RIMの場合、位相限定相関部23は信号S23として図12(c)に示すような相関画像データを出力する。
When the registered image AIM and collation image RIM include, for example, binarized and linear patterns such as handwritten characters and blood vessel patterns, for example, the registered image AIM and collation image RIM as shown in FIGS. In this case, the phase
図12(c)において、z軸方向は相関画像データにおける相関ピーク強度を示し、相関ピーク強度は登録画像AIMと照合画像RIM間の相関度に相当する。図12(c)および図13に示すように、x軸方向,y軸方向での相関ピーク位置PPは、例えば画像中心からのずれ量が登録画像AIMと照合画像RIM間の平行移動量に相当する。 In FIG. 12C, the z-axis direction indicates the correlation peak intensity in the correlation image data, and the correlation peak intensity corresponds to the correlation degree between the registered image AIM and the collation image RIM. As shown in FIGS. 12C and 13, the correlation peak position PP in the x-axis direction and the y-axis direction has a deviation amount from the center of the image, for example, corresponding to the parallel movement amount between the registered image AIM and the collation image RIM. To do.
ずれ情報生成部24は、23位相限定相関部23から出力された信号S23に基づいて、画像中心からのずれ量をずれ情報として生成し、信号S24を補正部25に出力する。
The shift
補正部25は、ずれ情報生成部24から出力されたずれ情報としての信号S24および照合画像RIMに基づいて、照合画像RIMの位置補正処理を行い、信号S1612として出力する。
The
図14は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1aの動作を図14を参照しながら、第1実施形態との相違点のみ説明する。
FIG. 14 is a flowchart for explaining the operation of the
例えば画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリにそれぞれの画像データが格納される(ST1)。
ここで、登録画像AIMに対する照合画像RIMの倍率(拡大/縮小率)および回転角度情報を求めるために、登録画像AIMがメモリ12から読み出され(ST2)、倍率情報−回転情報部21のフーリエ変換部21111により、フーリエ変換処理され(ST3)、フーリエ画像データS21111がメモリ12に格納、記憶される(ST4)。
フーリエ画像データS21111の内の振幅成分は、対数変換部21121により対数処理が行われ、対数−極座標変換部21131により、対数−極座標系に変換される(ST5)。
For example, the registered image AIM and the collation image RIM are input by the
Here, in order to obtain the magnification (enlargement / reduction ratio) and rotation angle information of the collation image RIM with respect to the registration image AIM, the registration image AIM is read from the memory 12 (ST2), and the Fourier of the magnification information-
The amplitude component in the Fourier image data S21111 is subjected to logarithmic processing by the logarithmic conversion unit 21121 and converted to a logarithmic-polar coordinate system by the logarithmic-polar coordinate conversion unit 21131 (ST5).
照合画像RIMが、メモリ12から読み出され(ST6)、同様にフーリエ変換部21112によりフーリエ変換処理され(ST7)、フーリエ画像データS21112の内の振幅成分が、対数変換部21122により対数処理が行われ、対数−極座標変換部21132により、対数−極座標系に変換される(ST8)。
The collation image RIM is read from the memory 12 (ST6), and similarly subjected to Fourier transform processing by the Fourier transform unit 21112 (ST7). The amplitude component in the Fourier image data S21112 is subjected to logarithmic processing by the
上述した登録画像AIMおよび照合画像RIMにフーリエ・メリン変換を行った結果得られた、画像信号(パターンデータとも言う)SA211、SR211それぞれは、位相限定相関部212のフーリエ変換部2120,2121によりフーリエ変換処理され(ST9)、合成部2122により合成され(ST10)、位相抽出部2123により合成信号から振幅成分が除去され(ST11)、残りの位相成分が、逆フーリエ変換部2124により逆フーリエ変換処理され(ST12)、得られた相関画像データのピーク位置の画像中心からのずれ量に基づいて、倍率情報−回転情報生成部213により倍率情報および回転情報を含む補正情報が生成(検出)される(ST13)。
The image signals (also referred to as pattern data) SA211 and SR211 obtained as a result of performing the Fourier-Melin transform on the registered image AIM and the collation image RIM described above are Fourier transformed by the
補正部22では、補正情報に基づいて照合画像の拡大/縮小および回転処理の補正処理が行われ、画像間のスケーリング成分、および回転成分が除去される(ST14)。残る差異は平行移動成分のみであり、位相限定相関法を用いて検出される。
The
補正処理が行われた照合画像RIMは、位相限定相関部23のフーリエ変換部2312によりフーリエ変換されて(ST15)フーリエ画像データS2312が生成され、メモリ12に格納されたフーリエ変換された登録画像AIMが読み出され(ST16)、合成部232により合成データS232が生成される(ST17)。
The corrected image RIM subjected to the correction process is Fourier-transformed by the
この際、登録画像AIMがフーリエ変換部2311によりフーリエ変換されてフーリエ画像データS2311が生成されて合成部232に入力されてもよい。
合成データS232の内の振幅情報が位相抽出部233により除去され(ST18)、残りの位相情報が逆フーリエ変換部234に入力され、相関画像データとして信号S23が出力される(ST19)。
信号23に基づいて、ずれ情報生成部24により、ピーク位置のずれ量が検出され、ずれ情報として信号S24が出力される(ST20)。
補正部25では、ずれ情報としての信号S24および照合画像RIMに基づいて、登録画像AIMと照合画像RIMの位置補正処理が行われ、信号S1612が出力される。また、登録画像AIMが信号S1611として出力される(ST21)。
At this time, the registered image AIM may be Fourier-transformed by the
The amplitude information in the synthesized data S232 is removed by the phase extraction unit 233 (ST18), the remaining phase information is input to the inverse
Based on the
The
以下、第1実施形態と同様の動作であり、ハフ変換部162がハフ変換処理を行い(ST22)、抽出部163が抽出処理を行い(ST23)、類似度生成部1641が類似度Simを生成する(ST24)。
ステップST25において、照合部1642では、類似度Simが予め設定された閾値より大きいか(超えているか)否かが判別され、大きい場合には、登録画像AIMおよび照合画像RIMが一致すると判別し(ST26)、閾値より小さい場合には不一致であると判別する(ST27)。
Hereinafter, the operation is the same as that of the first embodiment, the
In step ST25, the
以上、説明したように本実施形態では、位置補正部161が位置補正処理として、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関値を生成し、生成した相関値に基づいて登録画像AIMおよび照合画像RIMの位置補正処理を行うので、高精度に位置補正処理を行うことができ、その結果高精度に照合処理を行うことができる。
As described above, in the present embodiment, the
図15は、本発明に係る画像照合装置の第3実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1bは、ハードウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1bのソフトウェア的な機能ブロックは、第2実施形態に係る画像照合装置1と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161b、ハフ変換部162、抽出部163、および判別部164bの機能を実現する。図15では、同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
FIG. 15 is a functional block diagram of the third embodiment of the image collating apparatus according to the present invention.
The image collating apparatus 1b according to the present embodiment has a hardware functional block substantially the same configuration as the
The software functional block of the image collating device 1b has substantially the same configuration as that of the
大きな相違点としては、位置補正部161bや判別部164b等が異なる点である。
本実施形態において、位置補正部161bは、登録画像AIMおよび照合画像RIMに基づいて相関処理により、補正位置を示す複数の相関値を生成し、生成した複数の相関値に基づいて、登録画像AIMおよび照合画像RIMの複数の位置補正処理を行う。
The major difference is that the
In the present embodiment, the
図16は、図15に示した位置補正部の動作を説明するための図である。数値は、相関画像データのX−Y面上での相関画像データの相関ピーク強度を示す。
例えば2値化した線成分(線形状)のパターンを含む登録画像AIM,照合画像RIMの場合、相関の大きい画像同士でも、相関ピーク強度(相関強度とも言う)が図16(a),(b)に示すように値が小さい。
例えば、位置補正部161bのずれ情報生成部24は、信号S23に基づいて、例えば図16(a)に示すように相関強度の上位N個、本実施形態では8個の相関値および相関ピーク位置を、登録画像AIMと照合画像RIMとの2次元上の位置関係の候補として特定する。
位置補正部161bは、複数の相関値およびそれに対応する相関ピーク位置に基づいて、必要に応じて複数の位置補正処理を行う。
FIG. 16 is a diagram for explaining the operation of the position correction unit shown in FIG. The numerical value indicates the correlation peak intensity of the correlation image data on the XY plane of the correlation image data.
For example, in the case of a registered image AIM and a collation image RIM including a binarized line component (line shape) pattern, correlation peak intensities (also referred to as correlation intensities) between images having a large correlation are shown in FIGS. The value is small as shown in
For example, the deviation
The
ハフ変換部162は、複数の位置補正処理の結果の登録画像AIMおよび照合画像RIMそれぞれについてハフ変換処理を行い、変換画像S1621,S1622を生成する。
判別部164bは、2つの変換画像中のパターンに基づいて相関値を生成し、生成した相関値および予め設定された閾値に基づいて登録画像AIMおよび照合画像RIMの照合処理を行う。また、判別部164bは、複数の位置補正処理の結果に基づいて、異なる位置に対応する相関値の総和値および予め設定された閾値に基づいて照合処理を行う。
The
The determination unit 164b generates a correlation value based on the patterns in the two converted images, and performs a matching process on the registered image AIM and the matching image RIM based on the generated correlation value and a preset threshold value. Further, the determination unit 164b performs a matching process based on the sum of correlation values corresponding to different positions and a preset threshold value based on the results of the plurality of position correction processes.
詳細には、判別部164bは、類似度生成部1641、照合部1642b、および積算部1643を有する。
類似度生成部1641は、例えば上述したように信号S1631,S1632に基づいて、数式(2)により類似度Simを生成し、信号S1641として積算部1643および照合部1642bに出力する。
Specifically, the determination unit 164b includes a
For example, as described above, the
積算部1643は、信号S1641に基づいて類似度Simを積算し、積算結果を信号S1643として照合部1642bに出力する。
照合部1642bは、信号S1641および信号S1643に基づいて、登録画像AIMおよび照合画像RIMの照合処理を行う。
第1実施形態に係る照合部1642との相違点は、照合部1642bは、積算部による類似度Simの積算値である信号S1643が、所定の閾値よりも大きい場合に、登録画像AIMと照合画像RIMが一致していると判別する点である。
The
The
The difference from the
図17は、本発明に係る画像照合装置の第3実施形態の動作を説明するためのフローチャートである。図14,17を参照しながら、画像照合装置の動作をCPU16の動作を中心に、第1実施形態および第2実施形態との相違点のみ説明する。
FIG. 17 is a flowchart for explaining the operation of the third embodiment of the image collating apparatus according to the present invention. With reference to FIGS. 14 and 17, the operation of the image collating apparatus will be described only with respect to the operation of the
ステップST1〜ST19については、図14に示した第2実施形態と同様の動作なので説明を省略する。
ステップST19により位相限定相関部23から出力された相関画像データS23に基づいて、ずれ情報生成部24により相関画像データS23における相関ピーク強度の上位側から、例えばN個の候補Pi (P0 ,P1 ,P2 ,…,Pn-1 )が選定される(ST28)。
Steps ST1 to ST19 are the same as those in the second embodiment shown in FIG.
Based in step ST19 to the correlation image data S23 output from the phase-
ステップST29において、積算部1643は、積算のための変数を初期化する。例えば変数iを0、積算値Sを0に初期化する。
補正部25は、例えば各候補(座標)Pi およびそれに対応する相関画像データの中心からのずれ量に基づいて、登録画像AIM,照合画像RIMの位置補正処理を行う(ST30)。
In step ST29, the integrating
The
次に、上述したようにハフ変換部162により登録画像AIMおよび照合画像RIMそれぞれのハフ変換処理を行い(ST31)、抽出部163により抽出処理が行われ(ST32)、類似度生成部1641により類似度Sim(i)が算出され、積算部1643および照合部1642bに出力される(ST33)。
Next, as described above, the
照合部1642bでは、類似度Sim(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim(i)が第1の閾値より小さい場合には(ST34)、積算部1643では、類似度Sim(i)を積算し、詳細には数式S=S+Sim(i)により積算し照合部1642bに出力する(ST35)。
ステップST35において、照合部1642bでは、積算値Sと予め設定した第2の閾値th2とを比較し(ST36)、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST27)、変数iがN−1と一致していない場合には、変数iに1加算し(ST28)、ステップST30の処理に戻る。ステップST27において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST39)。
The
In step ST35, the
一方、ステップST34の比較処理において、照合部1642bでは、類似度Sim(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST36の比較処理において、照合部1642bでは、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST40)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部17が行う。
On the other hand, in the comparison process of step ST34, the
以上、説明したように、本実施形態では、位置補正部161では、補正位置を示す複数の相関値を生成し、生成した複数の相関値に基づいて、登録画像AIMおよび照合画像RIMの複数の位置補正処理を行い、ハフ変換部162では、複数の位置補正処理の結果の登録画像AIMおよび照合画像RIMそれぞれについて画像処理としてハフ変換処理を行い、照合部1642bでは、それぞれの変換画像中のパターンに応じた相関値としての類似度の積算値に基づいて照合処理を行うので、例えば、比較対照を行う2枚の画像データ間の相関が小さい場合であっても、複数の各候補の位置関係それぞれについて算出される類似度を積算することにより、類似度単独で照合を行う場合に比べて、高精度に照合を行うことができる。
As described above, in the present embodiment, the
また、類似度Simが第1の閾値th1よりも大きい場合には一致していると判別するので、高速に照合処理を行うことができる。 In addition, when the similarity Sim is larger than the first threshold th1, it is determined that they match, so that the matching process can be performed at high speed.
図18は、本発明に係る画像照合装置の第4実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1cは、ハードウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1cのソフトウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161、ハフ変換部162、抽出部163c、および判別部164の機能を実現する。図18では、同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
FIG. 18 is a functional block diagram of the fourth embodiment of the image collating apparatus according to the present invention.
The image collating apparatus 1c according to the present embodiment has a hardware functional block substantially the same configuration as the image collating apparatus according to the above-described embodiment. For example, as illustrated in FIG. 12, an
The software functional block of the image collating apparatus 1c has substantially the same configuration as that of the image collating apparatus according to the above-described embodiment. When the
大きな相違点としては、抽出部163cが異なる点である。
本実施形態において、抽出部163cは、第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定値よりも大きくなるように閾値を制御する。
また、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御する。
A major difference is that the
In the present embodiment, the
Further, the
図19は、図17に示した画像照合装置1cの動作を説明するための図である。
図19(a)は、画像IM11の一具体例を示す図である。図19(b)は、図19(a)に示した画像IM11から第1閾値以上の領域を抽出した画像を示す図である。図19(c)は、図19(a)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。
図19(d)は、画像IM12の一具体例を示す図である。図19(e)は、図19(d)に示した画像IM12から第1閾値以上の領域を抽出した画像を示す図である。図19(f)は、図19(d)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。
FIG. 19 is a diagram for explaining the operation of the image collating apparatus 1c shown in FIG.
FIG. 19A shows a specific example of the image IM11. FIG. 19B is a diagram illustrating an image obtained by extracting a region equal to or greater than the first threshold value from the image IM11 illustrated in FIG. FIG. 19C is a diagram illustrating an image obtained by extracting a region greater than or equal to the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG.
FIG. 19D is a diagram showing a specific example of the image IM12. FIG. 19E is a diagram illustrating an image obtained by extracting a region having a first threshold value or more from the image IM12 illustrated in FIG. FIG. 19F is a diagram illustrating an image obtained by extracting a region equal to or larger than the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG.
例えば、上述した実施形態では、登録画像や照合画像にハフ変換処理を施した後、変換画像から特徴量(パラメータ)を抽出する際に、閾値が固定であるため、画像によっては充分な特徴量を抽出できない場合や、逆に冗長な特徴量まで抽出してしまう場合がある。 For example, in the above-described embodiment, the threshold value is fixed when the feature value (parameter) is extracted from the converted image after the Hough transform process is performed on the registered image or the collation image. May not be extracted, or on the contrary, redundant feature amounts may be extracted.
詳細には、例えば図19(a)に示した画像IM11にハフ変換処理を施した後、変換画像から第1閾値よりも大きい領域を抽出すると、図19(b)に示すような画像IM111が生成され、第2閾値よりも大きい領域を抽出すると、図19(c)に示すような画像IM112が生成される。 Specifically, for example, after performing a Hough transform process on the image IM11 illustrated in FIG. 19A, and extracting an area larger than the first threshold from the converted image, an image IM111 as illustrated in FIG. 19B is obtained. When an area that is generated and larger than the second threshold is extracted, an image IM112 as shown in FIG. 19C is generated.
また、例えば図19(d)に示した画像IM12にハフ変換処理を施した後、変換画像から第1閾値よりも大きい領域を抽出すると、図19(e)に示すような画像IM121が生成され、第2閾値よりも大きい領域を抽出すると、図19(f)に示すような画像IM122が生成される。 Further, for example, when a region larger than the first threshold is extracted from the converted image after the Hough conversion process is performed on the image IM12 illustrated in FIG. 19D, an image IM121 illustrated in FIG. 19E is generated. When an area larger than the second threshold is extracted, an image IM122 as shown in FIG. 19F is generated.
例えば、画像IM112および画像IM121は、照合処理に関して適正なデータ量(特徴量)を有する一具体例である。
また、画像IM111は、照合処理に関して冗長なデータ量(特徴量)を有する一具体例である。
また、画像IM122は、照合処理に関して十分なデータ量(特徴量)を抽出できていない一具体例である。
For example, the image IM112 and the image IM121 are a specific example having an appropriate data amount (feature amount) regarding the collation processing.
The image IM111 is a specific example having a redundant data amount (feature amount) regarding the collation processing.
The image IM122 is a specific example in which a sufficient data amount (feature amount) cannot be extracted with respect to the matching process.
例えば閾値を固定した場合には、画像IM111と画像IM121間、または画像IM112と画像122間で比較・照合処理を行うため、十分な判定精度を確保できない場合がある。
例えば閾値を変化させて照合処理に関して十分なデータ量(特徴量)を有する画像IM112と画像IM121間で比較・照合処理を行うと判定精度が向上する。
For example, when the threshold value is fixed, the comparison / collation processing is performed between the image IM111 and the image IM121 or between the image IM112 and the image 122, so that sufficient determination accuracy may not be ensured.
For example, when the threshold value is changed and the comparison / collation processing is performed between the image IM112 and the image IM121 having a sufficient data amount (feature amount) regarding the collation processing, the determination accuracy is improved.
このため本実施形態に係る抽出部163cは、上述したようにハフ変換処理後の変換画像に対して特徴量を抽出する際に、ある閾値を用いて抽出された特徴量が照合に適切な範囲内に収まっていない場合には、閾値を変更して再度特徴量抽出を行ない、特徴量が適切な範囲内となるように制御を行う。
Therefore, when the
図20は、本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。図20を参照しながら、画像照合装置の動作を図14に示した実施形態との相違点を中心に説明する。 FIG. 20 is a flowchart for explaining the operation of the image collating apparatus according to the present embodiment. With reference to FIG. 20, the operation of the image collating apparatus will be described focusing on the differences from the embodiment shown in FIG.
ステップST1〜ステップST22の動作については、同じ動作であるので説明を省略する。
ステップST231において、抽出部163cは、ハフ変換部162が生成した各変換画像S1612,S1622に、予め設定した閾値を超えるパラメータ部分のみを特徴量として抽出する。
Since operations in steps ST1 to ST22 are the same, description thereof is omitted.
In step ST231, the
抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御する。
詳細には、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが最小値minよりも大きくなるように閾値を制御し、当該抽出した領域の大きさが、当該最小値minよりも大きい最大値maxよりも小さくなるように閾値を制御する。
Based on the size of the extracted region, the
Specifically, based on the size of the extracted region, the
例えばステップST232において、抽出部163cは、特徴量として抽出した領域の大きさが、最小値minよりも大きいか否かを判別し、大きくないと判別した場合には閾値を所定量だけ下げて(小さくして)(ST233)、ステップSTST231の処理に戻る。
一方、ステップST232において、抽出部163cは、特徴量として抽出した領域の大きさが、最小値minよりも大きいと判別した場合にはステップST234の処理に進む。
For example, in step ST232, the
On the other hand, in step ST232, if the
ステップST234において、抽出部163cは、特徴量として抽出した領域の大きさが、最大値maxよりも小さいか否かを判別し、小さくないと判別した場合には閾値を所定量だけ上げて(大きくして)(ST233)、ステップSTST231の処理に戻る。
一方、ステップST234において、抽出部163cは、特徴量として抽出した領域の大きさが、最大値maxよりも小さいと判別した場合にはステップST24の処理に進む。
In step ST234, the
On the other hand, in step ST234, if the
ステップST24以降の処理は図14の処理と同様なので説明を省略する。 Since the process after step ST24 is the same as the process of FIG. 14, description is abbreviate | omitted.
以上、説明したように、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御するので、照合処理に係る冗長なデータを低減することができ、さらに照合処理に最適なデータを抽出することができる。
また、照合処理に適正な画像を得ることができ、照合部164はより高精度に照合処理を行うことができる。
また、例えば撮像系が大幅に変化し、入力画像の情報量が極端に変化するような場合であっても、比較照合処理については何ら変更を加えることなく対処することができる。
As described above, the
Further, an image suitable for the collation process can be obtained, and the
Further, for example, even when the imaging system changes significantly and the information amount of the input image changes extremely, the comparison / collation process can be handled without any change.
図21は、本発明に係る画像照合装置の第5実施形態の動作を説明するためのフローチャートである。
本実施形態に係る画像照合処理装置は、ハードウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
FIG. 21 is a flowchart for explaining the operation of the fifth embodiment of the image collating apparatus according to the present invention.
The image collation processing device according to the present embodiment has a hardware functional block that has substantially the same configuration as the image collation device according to the above-described embodiment. For example, as illustrated in FIG. 12, an
例えば照合画像や登録画像の特徴量が著しく少ないような場合には、比較照合に充分な特徴量を得られず、充分な判定精度が得られない場合がある。
本実施形態に係る画像照合装置では、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、抽出した領域の大きさが設定値以下の場合には当該画像を破棄する。
For example, when the feature amount of the collation image or registered image is remarkably small, there may be a case where a feature amount sufficient for comparison and collation cannot be obtained and sufficient determination accuracy cannot be obtained.
In the image matching apparatus according to the present embodiment, an area where the degree of overlapping of the pattern of curves in one converted image is equal to or larger than a preset threshold is extracted, and the size of the extracted area is equal to or smaller than a set value. Discard the image.
以下、図21を参照しながら、上述した実施形態との相違点を中心に、例えば血管パターンを用いる個人認証装置等の用途において、ある画像データを照合用の登録画像として保存する場合を説明する。 Hereinafter, with reference to FIG. 21, a description will be given of a case where certain image data is stored as a registered image for collation in applications such as a personal authentication device using a blood vessel pattern, with a focus on differences from the above-described embodiment. .
ステップST101において、CPU16は、画像入力部11により、登録画像AIMとして保存するための画像データを取り込み、メモリ12に画像データを格納する。CPU16は、ハフ変換部15に、取り込んだ画像データにハフ変換処理を施させる(ST102)。
In step ST <b> 101, the
ステップST103において、CPU16は、予め設定された閾値を超える領域を特徴量として抽出する(ST103)。
ステップST104において、CPU16は、抽出された領域の大きさが照合処理に最低限必要な最小値minよりも大きいか否かを判別し、大きい場合には登録画像AIMとして充分な情報量を有しているものとしてメモリ12に保存する(ST105)。
In step ST103, the
In step ST104, the
一方、ステップST104において、最小値minよりも大きくない場合には、入力された画像を破棄し(ST106)、登録画像AIMとしての情報量が不足している旨を表示する等して、画像データの再入力を要求する(ST107)。以下、上述した照合処理を行う。 On the other hand, if it is not larger than the minimum value min in step ST104, the input image is discarded (ST106), and the image data is displayed by displaying that the amount of information as the registered image AIM is insufficient. Is requested again (ST107). Hereinafter, the above-described collation process is performed.
以上、説明したように本実施形態では登録時に、登録変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、その抽出した領域の大きさが、設定値(最小値min)以下の場合には当該画像を破棄するので、照合処理に係る特徴量を比較的多く有する登録画像を確実に得ることができる。また、高精度に照合処理を行うことができる。 As described above, in the present embodiment, at the time of registration, an area where the degree of overlap of curve patterns in the registered conversion image is equal to or greater than a preset threshold is extracted, and the size of the extracted area is set to a set value ( Since the image is discarded when it is equal to or smaller than the minimum value (min), a registered image having a relatively large amount of features related to the matching process can be obtained with certainty. Further, the collation process can be performed with high accuracy.
図22は、本発明に係る画像照合装置の第6実施形態に係る画像照合装置の動作を説明するためのフローチャートである。
次に、予めメモリ12に記憶した登録画像AIMに対して、外部から入力した照合画像RIMを照合する場合を、図22を参照しながら説明する。
FIG. 22 is a flowchart for explaining the operation of the image collating apparatus according to the sixth embodiment of the image collating apparatus according to the present invention.
Next, the case where the collation image RIM input from the outside is collated with the registered image AIM stored in the
ステップST201において、CPU16は、画像入力部11により、照合画像RIMとして画像データを取り込み、メモリ12に画像データを格納する。CPU16は、ハフ変換部15に、取り込んだ照合画像RIMにハフ変換処理を施させる(ST202)。
In step ST <b> 201, the
ステップST203において、CPU16は、予め設定された閾値を超える領域を特徴量として抽出する(ST203)。
ステップST204において、CPU16は、抽出された領域の大きさが照合処理に最低限必要な最小値minよりも大きいか否かを判別し、大きくない場合には照合画像RIMとして充分な情報量を有していないとして画像を破棄し(ST205)、情報量が不足している旨を表示する等を行い、画像データの再入力を促し(ST206)、照合処理を終了する。
In step ST203, the
In step ST204, the
一方、ステップST204の判別において、最小値minよりも大きい場合には、照合画像RIMとして充分な情報量を有しているものと判断し、後続のステップST2〜ST27の照合処理に進む。 On the other hand, if it is determined in step ST204 that the value is larger than the minimum value min, it is determined that the verification image RIM has a sufficient amount of information, and the subsequent verification processing in steps ST2 to ST27 is performed.
以下、ステップST2〜ステップST27の動作は、図14に示した動作と同様なので説明を省略する。 Hereinafter, the operations in steps ST2 to ST27 are the same as the operations shown in FIG.
以上説明したように、本実施形態では照合時に、照合変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、その抽出した領域の大きさが、設定値(最小値min)以下の場合には当該画像を破棄するので、照合処理に係る特徴量を比較的多く有する照合画像を確実に得ることができる。また、高精度に照合処理を行うことができる。 As described above, in the present embodiment, at the time of matching, a region where the degree of overlapping of the curve pattern in the matching conversion image is equal to or greater than a preset threshold value is extracted, and the size of the extracted region is a set value ( Since the image is discarded when it is equal to or smaller than the minimum value (min), it is possible to reliably obtain a collation image having a relatively large amount of features related to the collation processing. Further, the collation process can be performed with high accuracy.
なお、本発明は本実施の形態に限られるものではなく、任意好適な種々の改変が可能である。
例えば、本実施形態では、類似度生成部は、数式(2)により類似度を算出したが、この形態に限られるものではない。例えば類似度生成部は直線成分(線形状のパターン)の相関に適した類似度を算出する処理を行えればよい。
Note that the present invention is not limited to the present embodiment, and various suitable modifications can be made.
For example, in the present embodiment, the similarity generation unit calculates the similarity using Equation (2), but the present invention is not limited to this form. For example, the similarity generation unit only needs to perform a process of calculating a similarity suitable for the correlation of linear components (line-shaped patterns).
本実施形態では、フーリエ変換処理、対数変換処理、および対数−局座標変換を行い、フーリエ・メリン空間上での平行移動量を算出することにより、倍率情報および回転角度情報を生成したが、この形態に限られるものではない。例えば、倍率情報および回転角度情報が検出可能な空間に、座標変換を行ってもよい。 In the present embodiment, Fourier transform processing, logarithmic transformation processing, and logarithm-station coordinate transformation are performed, and the magnification information and the rotation angle information are generated by calculating the parallel movement amount in the Fourier-Merlin space. It is not limited to form. For example, coordinate conversion may be performed in a space where magnification information and rotation angle information can be detected.
また、第1の閾値th1と、第2の閾値th2を固定値にしたが、この形態に限られるものではない。例えば閾値それぞれを、画像パターンにより可変にすることで、より高精度の照合を行うことができる。 In addition, the first threshold th1 and the second threshold th2 are fixed values, but the present invention is not limited to this form. For example, by making each of the threshold values variable depending on the image pattern, it is possible to perform more accurate matching.
1,1a,1b…画像照合装置、11…画像入力部、12…メモリ、13…FFT処理部、14…座標変換部、15…ハフ変換部、16…CPU、17…動作処理部、21…倍率情報−回転情報部、22…補正部、23…平行移動部、24…ずれ情報生成部、161,161b…位置補正部、162…ハフ変換部、163…抽出部、164,164b…判別部、211…フーリエ・メリン変換部、212…位相限定相関部、213…倍率情報−回転情報生成部、232…合成部、233…位相抽出部、234…逆フーリエ変換部、241…候補特定部、242…類似度生成部、243…積算部、244…照合部、1641…類似度生成部、1642,1642b…照合部、1643…積算部、2120,2121…フーリエ変換部、2122…合成部、2123…位相抽出部、2124…逆フーリエ変換部、2311,2312…フーリエ変換部、2421…類似度補正部、21111,21112…フーリエ変換部、21121,21122…対数変換部、21131,21132…対数−極座標変換部。
DESCRIPTION OF
Claims (27)
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離、および、前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1のステップと、
前記第1のステップにより生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2のステップと
を有し、
前記第1のステップにおいて、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3のステップをさらに有し、
前記第2のステップにおいて、前記第3のステップにおける処理より、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、
前記第3のステップにおいて、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する、
画像照合方法。 In order to perform collation based on the linear component in the first image and the second image ,
For each of the first image and the second image, the distance from the reference position to the shortest point to the straight line passing through the point in the image, and the straight line passing through the reference position and the shortest point, and the reference position converting a point in front Symbol image to a pattern of curves based on the angle between the reference axis including, a linear component in the image, it performs image processing for converting the pattern of multiple overlapping the curves, the first A first step of generating a converted image and a second converted image;
Degree of overlapping of patterns in the first converted image and the second converted image generated by the first step, matching and mismatching of patterns in the first converted image and the second converted image, respectively And a second step of collating the first image and the second image based on
Have
In the first step, for each of the first converted image and the second converted image, a third region in which the degree of overlapping of the pattern of the curve in one converted image is equal to or greater than a preset threshold value is extracted. And further comprising steps
In the second step, the first image is based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image, respectively, by the processing in the third step. And the second image,
In the third step, the threshold value is controlled based on the size of the extracted region so that the size of the extracted region is larger than a set value.
Image matching method.
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離、および、前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1のステップと、
前記第1のステップにより生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合い、前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2のステップと
を有し、
前記第1のステップにおいて、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3のステップをさらに有し、
前記第2のステップにおいて、前記第3のステップにおける処理より、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、
前記第3のステップにおいて、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する、
画像照合方法。 In order to perform collation based on the linear component in the first image and the second image,
For each of the first image and the second image, the distance from the reference position to the shortest point to the straight line passing through the point in the image, and the straight line passing through the reference position and the shortest point, and the reference position A first conversion is performed by converting a point in the image into a curved pattern based on an angle with a reference axis including the image, and converting a linear component in the image into a plurality of overlapping curved patterns. A first step of generating an image and a second converted image;
Degree of overlapping of patterns in the first converted image and the second converted image generated by the first step, matching and mismatching of patterns in the first converted image and the second converted image, respectively And a second step of collating the first image and the second image based on
Have
In the first step, for each of the first converted image and the second converted image, a third region in which the degree of overlapping of the pattern of the curve in one converted image is equal to or greater than a preset threshold value is extracted. And further comprising steps
In the second step, the first image is based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image, respectively, by the processing in the third step. And the second image,
In the third step, the threshold value is controlled based on the size of the extracted region so that the size of the extracted region is within a set range.
Image matching method.
請求項1または2に記載の画像照合方法。 In the third step, if the size of the extracted area is equal to or smaller than a set value , the image is discarded .
The image collation method according to claim 1 or 2 .
請求項1または2に記載の画像照合方法。 In the first step , a first converted image and a second converted image are generated by a Hough transform process for each of the first image and the second image .
The image collation method according to claim 1 or 2 .
請求項1または2に記載の画像照合方法。 In the second step , a comparison process is performed for each of a plurality of different positional relationships in the first converted image and the second converted image generated in the first step , and according to a result of the comparison process Generating a similarity as a correlation value, and collating the first image with the second image based on the generated similarity ;
The image collation method according to claim 1 or 2 .
前記第1のステップにおいて、前記第10のステップによる位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成する、
請求項1または2に記載の画像照合方法。 Prior to the processing of the first step, it further includes a tenth step of performing position correction processing of the first image and the second image,
In the first step , the image processing is performed on each of the first image and the second image as a result of the position correction processing in the tenth step, and a first converted image and a second converted image are generated. ,
The image collation method according to claim 1 or 2 .
請求項6に記載の画像照合方法。 In the tenth step , as the position correction process, a correlation value based on a phase component as a result of a rotation angle correction process or an enlargement ratio correction process between the first image and the second image and a Fourier transform process. And performing position correction processing of the first image and the second image based on the generated correlation value,
The image collating method according to claim 6 .
前記第1のステップにおいて、前記第10のステップの処理による複数の位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成し、
前記第2のステップにおいて、前記第1のステップの処理により生成された前記第1の変換画像および第2の変換画像中のパターンに基づいて相関値を生成し、前記生成した相関値および予め設定された閾値に基づいて前記第1の画像および第2の画像の照合を行う、
請求項6に記載の画像照合方法。 In the tenth step of the plurality of generated correlation values indicating the I Riho normal position in the correlation process based on the first image and the second image, before based on the plurality of correlation values the generated SL Performing a plurality of position correction processes of the first image and the second image;
In the first step, it performs the image processing for the first respectively the image and the second image of the results of a plurality of position correction processing according to the processing of the tenth step, the first converted image and the second Generate a converted image,
In the second step , a correlation value is generated based on the first converted image generated by the processing of the first step and a pattern in the second converted image, and the generated correlation value and the preset value are set in advance. for matching of the first image and the second image based on the threshold,
The image collating method according to claim 6 .
請求項8に記載の画像照合方法。 In the second step , based on the result of the plurality of position correction processes generated in the first step , the first value based on a total value of correlation values corresponding to different positions and a preset threshold value. Verifying the image and the second image ,
The image collating method according to claim 8 .
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する変換手段と、
前記変換手段が生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合いおよび前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う照合手段と を有し、
前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する抽出手段をさらに有し、
前記照合手段は、前記抽出手段が、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出した領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、
前記抽出手段は、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する、
画像照合装置。 In order to perform collation based on the linear component in the first image and the second image ,
Wherein the first respective image and the second image, the reference position and distance us good beauty before Symbol reference position to the nearest point to the straight line passing through the points in the image and a straight line through the points of the shortest reference converting a point in front Symbol image to a pattern of curves based on the angle between the reference axis including the position, the linear component in the image, performs image processing for converting the pattern of multiple overlapping the curves, the Conversion means for generating one converted image and a second converted image;
Based on the degree of overlapping of the patterns in the first converted image and the second converted image generated by the converting means, and the match and mismatch of the patterns in the first converted image and the second converted image, respectively. Collating means for collating the first image and the second image ,
For each of the first converted image and the second converted image, the image processing apparatus further includes an extracting unit that extracts an area in which the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold value,
The collation unit is configured to collate the first image and the second image based on the match and mismatch of the patterns in the regions extracted by the extraction unit in the first converted image and the second converted image, respectively. And
The extraction means controls the threshold based on the size of the extracted region so that the size of the extracted region is larger than a set value;
Image matching device.
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する変換手段と、
前記変換手段が生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合いおよび前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う照合手段と を有し、
前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する抽出手段をさらに有し、
前記照合手段は、前記抽出手段が、前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出した領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行い、
前記抽出手段は、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する、
画像照装置。 In order to perform collation based on the linear component in the first image and the second image,
For each of the first image and the second image, a distance from a reference position to a shortest point to a straight line passing through a point in the image, and a reference including the reference position, a straight line passing through the shortest point, and the reference position Converting a point in the image into a curved pattern based on an angle with an axis, and performing image processing to convert a linear component in the image into a plurality of overlapping curved patterns, the first converted image and Conversion means for generating a second converted image;
Based on the degree of overlapping of the patterns in the first converted image and the second converted image generated by the converting means, and the match and mismatch of the patterns in the first converted image and the second converted image, respectively. Collating means for collating the first image and the second image ,
For each of the first converted image and the second converted image, the image processing apparatus further includes an extracting unit that extracts an area in which the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold value,
The collation unit is configured to collate the first image and the second image based on the match and mismatch of the patterns in the regions extracted by the extraction unit in the first converted image and the second converted image, respectively. And
The extraction means controls the threshold based on the size of the extracted region so that the size of the extracted region is within a set range;
Image lighting device.
請求項10または11に記載の画像照合装置。 The extraction means discards the image when the size of the extracted area is a set value or less;
The image collation apparatus according to claim 10 or 11 .
請求項10または11に記載の画像照合装置。 The converting means generates a first converted image and a second converted image by a Hough conversion process for each of the first image and the second image.
The image collation apparatus according to claim 10 or 11 .
請求項10または11に記載の画像照合装置。 The collating means performs a comparison process for each of a plurality of different positional relationships in the first converted image and the second converted image generated by the converting means, and the similarity as a correlation value is determined according to the result of the comparison process. Generating a degree, and collating the first image with the second image based on the generated similarity,
The image collation apparatus according to claim 10 or 11 .
前記変換手段は、前記位置補正手段による位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成する、
請求項10または11に記載の画像照合装置。 As a pre-process of the process of the converting means , it further has a position correcting means for performing a position correcting process of the first image and the second image,
The conversion unit performs the image processing on each of the first image and the second image as a result of the position correction process by the position correction unit, and generates a first converted image and a second converted image.
The image collation apparatus according to claim 10 or 11 .
請求項15に記載の画像照合装置。 The position correction unit generates a correlation value based on a phase component as a result of a rotation angle correction process or an enlargement ratio correction process between the first image and the second image, and a Fourier transform process, and the generated Performing position correction processing of the first image and the second image based on the correlation value;
The image collating apparatus according to claim 15 .
前記変換手段は、前記位置補正手段による複数の位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成し、
前記照合手段は、前記変換手段が生成した前記第1の変換画像および第2の変換画像中のパターンに基づいて相関値を生成し、前記生成した相関値および予め設定された閾値に基づいて前記第1の画像および第2の画像の照合を行う、
請求項15に記載の画像照合装置。 It said position correcting means, by the correlation processing based on the first image and the second image to generate a plurality of correlation values indicating the correction positions, a plurality of first SL before on the basis of the correlation values the product Performing a plurality of position correction processes of the image and the second image;
The converting unit performs the image processing on each of the first image and the second image as a result of the plurality of position correction processes by the position correcting unit, and generates a first converted image and a second converted image;
The collating unit generates a correlation value based on the patterns in the first converted image and the second converted image generated by the converting unit, and based on the generated correlation value and a preset threshold value, Collating the first image and the second image;
The image collating apparatus according to claim 15 .
請求項17に記載の画像照合装置。 The comparison means, the converting means of the plurality of position correction processing generated results Based on the correlation values corresponding to different positions sum and preset threshold value in the first image and the second based Collate images ,
The image collation apparatus according to claim 17 .
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1の手順と、
前記第1の手順により生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合いおよび前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2の手順と
を実行させ際、
前記第1の手順では、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3の手順を実行させ、
前記第2の手順では、前記第3の手順により前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う処理と、
前記第3の手順において、前記抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定値よりも大きくなるように前記閾値を制御する処理を
実行させるプログラム。 A program that is executed by an information processing device and that performs collation based on a linear component of a first image and a second image,
Wherein the first respective image and the second image, the reference position and distance us good beauty before Symbol reference position to the nearest point to the straight line passing through the points in the image and a straight line through the points of the shortest reference converting a point in front Symbol image to a pattern of curves based on the angle between the reference axis including the position, the linear component in the image, performs image processing for converting the pattern of multiple overlapping the curves, the A first procedure for generating one converted image and a second converted image;
Match and mismatch pattern within each of said first of said first produced by the procedure of the converted image and the second degree overlap of patterns in the converted image and the first converted image and the second converted image A second procedure for collating the first image and the second image based on
When executing
In the first procedure, for each of the first converted image and the second converted image, a third region is extracted in which the degree of overlapping of the pattern of curves in one converted image is equal to or greater than a preset threshold value. Let the procedure run,
In the second procedure, the first image and the second image based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image by the third procedure, respectively. Processing to match the images of
In the third procedure, a program for executing processing for controlling the threshold value based on the size of the extracted region so that the size of the extracted region is larger than a set value .
前記第1の画像および第2の画像それぞれについて、基準位置から画像内の点を通る直線への最短の点までの距離および前記基準位置と前記最短の点を通る直線と前記基準位置を含む基準軸との角度に基づいて前記画像内の点を曲線のパターンに変換し、前記画像内の直線成分を、複数の重なり合った前記曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する第1の手順と、
前記第1の手順により生成した前記第1の変換画像および第2の変換画像内のパターンの重なりの度合いおよび前記第1の変換画像および前記第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う第2の手順と
を実行させ際、
前記第1の手順では、前記第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する第3の手順を実行させ、
前記第2の手順では、前記第3の手順により前記第1の変換画像および前記第2の変換画像それぞれにおいて抽出された領域内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う処理と、
前記第3の手順において、前記抽出した領域の大きさに基づいて当該抽出した領域の大きさが設定範囲内となるように前記閾値を制御する処理を
実行させるプログラム。 A program that is executed by an information processing device and that performs collation based on a linear component of a first image and a second image,
For each of the first image and the second image, a distance from a reference position to a shortest point to a straight line passing through a point in the image, and a reference including the reference position, a straight line passing through the shortest point, and the reference position Converting a point in the image into a curved pattern based on an angle with an axis, and performing image processing to convert a linear component in the image into a plurality of overlapping curved patterns, the first converted image and A first procedure for generating a second converted image;
The degree of overlapping of the patterns in the first converted image and the second converted image generated by the first procedure, and the match and mismatch of the patterns in the first converted image and the second converted image, respectively A second procedure for collating the first image and the second image based on
When executing
In the first procedure, for each of the first converted image and the second converted image, a third region is extracted in which the degree of overlapping of the pattern of curves in one converted image is equal to or greater than a preset threshold value. Let the procedure run,
In the second procedure, the first image and the second image based on the matching and mismatching of the patterns in the regions extracted in the first converted image and the second converted image by the third procedure, respectively. Processing to match the images of
In the third procedure, a process of controlling the threshold value based on the size of the extracted region so that the size of the extracted region is within a set range.
The program to be executed.
請求項19または20に記載のプログラム。 In the third procedure, if the size of the extracted area is equal to or smaller than a set value, the image is discarded.
The program according to claim 19 or 20 .
請求項19または20に記載のプログラム。 The first procedure generates a first converted image and a second converted image by a Hough transform process for each of the first image and the second image.
The program according to claim 19 or 20 .
請求項19または20に記載のプログラム。 In the second procedure, a comparison process is performed for each of a plurality of different positional relationships in the first converted image and the second converted image generated by the first procedure, and a result of the comparison process is performed. Generating a similarity as a correlation value, and collating the first image with the second image based on the generated similarity;
The program according to claim 19 or 20 .
前記第1の手順は、前記第10の手順による位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成する、
請求項19または20に記載のプログラム。 Prior to the processing of the first procedure , a tenth procedure for performing position correction processing of the first image and the second image is performed,
The first procedure performs the image processing on each of the first image and the second image as a result of the position correction process according to the tenth procedure, and generates a first converted image and a second converted image. ,
The program according to claim 19 or 20 .
請求項24に記載のプログラム。 In the tenth procedure, as the position correction process, a correlation value based on a rotation angle correction process or an enlargement ratio correction process between the first image and the second image, and a phase component as a result of a Fourier transform process. And the position correction processing of the first image and the second image is performed based on the generated correlation value
The program according to claim 24 .
前記第1の手順は、前記第10の手順による複数の位置補正処理の結果の第1の画像および第2の画像それぞれについて前記画像処理を行い、第1の変換画像および第2の変換画像を生成し、
前記第2の手順は、前記第1の手順により生成された前記第1の変換画像および第2の変換画像中のパターンに基づいて相関値を生成し、前記生成した相関値および予め設定された閾値に基づいて前記第1の画像および第2の画像の照合を行う、
請求項24に記載のプログラム。 In the tenth procedure, a plurality of correlation values indicating correction positions are generated by correlation processing based on the first image and the second image, and the first procedure is performed based on the generated plurality of correlation values. A plurality of position correction processes of the image and the second image,
In the first procedure, the image processing is performed on each of the first image and the second image as a result of the plurality of position correction processes in the tenth procedure, and the first converted image and the second converted image are obtained. Generate
The second procedure generates a correlation value based on the first converted image and the pattern in the second converted image generated by the first procedure, and the generated correlation value and a preset value are set. Collating the first image and the second image based on a threshold;
The program according to claim 24 .
請求項26に記載のプログラム。 The second procedure is the first procedure a plurality of positions of the correction processing of the correlation values corresponding to different positions on the basis of the result sum and preset threshold value to the first on the basis of that generated by Verifying the image and the second image,
The program according to claim 26 .
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004180832A JP4161942B2 (en) | 2003-06-30 | 2004-06-18 | Image collation method, image collation apparatus, and program |
EP05751549.6A EP1758060B1 (en) | 2004-06-18 | 2005-06-15 | Image correlation method, image correlation device, and program |
PCT/JP2005/010926 WO2005124688A1 (en) | 2004-06-18 | 2005-06-15 | Image correlation method, image correlation device, and program |
KR1020067002379A KR101122944B1 (en) | 2004-06-18 | 2005-06-15 | Image correlation method, image correlation device, and program |
TW094119754A TW200614098A (en) | 2004-06-18 | 2005-06-15 | Image verification device, image verification method, and program |
US10/567,182 US7848576B2 (en) | 2004-06-18 | 2005-06-15 | Image matching method, image matching apparatus, and program |
CNB2005800007334A CN100371953C (en) | 2004-06-18 | 2005-06-15 | Image correlation method, image correlation device, and program |
HK06112612A HK1092259A1 (en) | 2004-06-18 | 2006-11-16 | Image matching method and image matching apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003188122 | 2003-06-30 | ||
JP2004180832A JP4161942B2 (en) | 2003-06-30 | 2004-06-18 | Image collation method, image collation apparatus, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008131378A Division JP4466764B2 (en) | 2003-06-30 | 2008-05-19 | Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005038412A JP2005038412A (en) | 2005-02-10 |
JP4161942B2 true JP4161942B2 (en) | 2008-10-08 |
Family
ID=34220506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004180832A Expired - Fee Related JP4161942B2 (en) | 2003-06-30 | 2004-06-18 | Image collation method, image collation apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4161942B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4645198B2 (en) * | 2005-01-13 | 2011-03-09 | ソニー株式会社 | Image collation apparatus, image collation method, and program |
JP4038777B2 (en) * | 2006-02-28 | 2008-01-30 | ソニー株式会社 | Registration device and authentication device |
JP5103899B2 (en) * | 2006-12-28 | 2012-12-19 | カシオ計算機株式会社 | Image composition apparatus, image composition program, and image composition method |
CN104820796A (en) * | 2014-01-31 | 2015-08-05 | 株式会社茉菲莉亚 | Personal identification system, personal information medium, terminal device, and personal identification method |
JP6564076B2 (en) * | 2018-01-12 | 2019-08-21 | 株式会社トプコン | Ophthalmic equipment |
CN113506331A (en) * | 2021-06-29 | 2021-10-15 | 武汉联影智融医疗科技有限公司 | Method, apparatus, computer device and storage medium for registering tissue and organ |
-
2004
- 2004-06-18 JP JP2004180832A patent/JP4161942B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005038412A (en) | 2005-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101122944B1 (en) | Image correlation method, image correlation device, and program | |
JP4345426B2 (en) | Image collation method, program, and image collation apparatus | |
JP4428067B2 (en) | Image collation apparatus, program, and image collation method | |
JP2004240931A (en) | Image collation device, image collation method, and program | |
JP2009245347A (en) | Pattern aligning method, verifying method, and verifying device | |
JP5045763B2 (en) | Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method | |
JP4161942B2 (en) | Image collation method, image collation apparatus, and program | |
Kisku et al. | Multisensor biometric evidence fusion for person authentication using wavelet decomposition and monotonic-decreasing graph | |
JP3574301B2 (en) | Pattern matching device | |
Bharadi et al. | Hybrid wavelets based feature vector generation from multidimensional data set for on-line handwritten signature recognition | |
JP2004192633A (en) | Pattern collation device | |
JP4380205B2 (en) | Image collation device and image collation method | |
Li et al. | Hierarchical identification of palmprint using line-based hough transform | |
JP2007179267A (en) | Pattern matching device | |
JP4645198B2 (en) | Image collation apparatus, image collation method, and program | |
JP4622477B2 (en) | Collation method, computer, and program | |
Li et al. | A two-level matching scheme for speedy and accurate palmprint identification | |
Khan et al. | Signature verification using velocity-based directional filter bank | |
Neware et al. | Finger knuckle identification using RLF and dynamic time warping | |
Mohanakrishnan et al. | Multi Biometric Authentication: A Secure Method with Modified Local Binary Pattern and PCA | |
Ranbida et al. | A Review on Detection and Analysis of Fingerprint | |
Chadha et al. | Rotation, Scaling and Translation Analysis of Biometric Signature Templates | |
Kisku et al. | Biometrics sensor fusion | |
Thamaraiselvi et al. | NOVEL APPROACHES OF BIOMETRIC FINGER PRINT MINUTIAE DETECTION AND EXTRACTION PROCESS | |
KA | Fusion of Finger Inner Knuckle Print and Hand Geometry Features to Enhance the Performance of Biometric Virification System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080714 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110801 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4161942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110801 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110801 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120801 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120801 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130801 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |