JP5045763B2 - Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method - Google Patents

Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method Download PDF

Info

Publication number
JP5045763B2
JP5045763B2 JP2010001603A JP2010001603A JP5045763B2 JP 5045763 B2 JP5045763 B2 JP 5045763B2 JP 2010001603 A JP2010001603 A JP 2010001603A JP 2010001603 A JP2010001603 A JP 2010001603A JP 5045763 B2 JP5045763 B2 JP 5045763B2
Authority
JP
Japan
Prior art keywords
image
blood vessel
linear component
unit
linear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010001603A
Other languages
Japanese (ja)
Other versions
JP2010118068A (en
Inventor
健 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010001603A priority Critical patent/JP5045763B2/en
Publication of JP2010118068A publication Critical patent/JP2010118068A/en
Application granted granted Critical
Publication of JP5045763B2 publication Critical patent/JP5045763B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、血管画像、指紋画像、静止画像、動画像等の2つの画像につき、その画像の内の直線成分に基づいて照合を行う画像照合方法、画像照合装置に関するものである。
より特定的には、本発明は、生体認証装置、生体認証方法、血管情報記憶装置および血管情報記憶方法に関する。
The present invention relates to an image collation method and an image collation apparatus that collate two images such as a blood vessel image, a fingerprint image, a still image, and a moving image based on a linear component of the images.
More specifically, the present invention relates to a biometric authentication device, a biometric authentication method, a blood vessel information storage device, and a blood vessel information storage method.

従来、たとえば、生体認証または血管情報処理などの画像情報に基づいて照合を行う装置として、種々の画像照合装置が知られている。例えば登録画像と、比較対象となる照合画像とを所定の位置関係で比較し相関値を算出し、その相関値に基づいて登録画像と照合画像の照合を行う画像照合装置、あるいは相関値を生成する際には、画素単位の演算により相関値を生成する画像照合装置が知られている。   2. Description of the Related Art Conventionally, various image matching devices are known as devices that perform matching based on image information such as biometric authentication or blood vessel information processing. For example, a registered image and a comparison image to be compared are compared with each other in a predetermined positional relationship, a correlation value is calculated, and an image matching device or a correlation value is generated based on the correlation value. In this case, an image collation apparatus that generates a correlation value by calculation in units of pixels is known.

しかし、上述した画像照合装置では、相関が小さい画像であっても、画像内のパターンの種類、例えば直線成分を多く含み登録画像と照合画像の内の直線成分の交点が多い場合には、その交点が相関値に大きく寄与して、相関値が大きくなって充分な照合精度が得られないことがあり、改善が望まれている。   However, in the above-described image matching device, even if the image has a small correlation, if there are many types of patterns in the image, for example, if there are many straight line components and there are many intersections between the registered image and the straight line components in the matching image, Since the intersections greatly contribute to the correlation value and the correlation value becomes large and sufficient collation accuracy cannot be obtained, improvement is desired.

本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像の照合を高精度に行うことができる画像照合方法、画像照合装置を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image collation method and an image collation apparatus capable of collating images with high accuracy.

より特定的には、画像の照合を高精度に行うことができる画像照合技術を適用した生体認証装置、生体認証方法、血管情報記憶装置および血管情報記憶方法を提供する。   More specifically, a biometric authentication device, a biometric authentication method, a blood vessel information storage device, and a blood vessel information storage method to which an image verification technology capable of performing image verification with high accuracy is applied.

本発明によれば、血管画像を取得する血管画像取得手段と、この血管画像取得手段で取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換手段と、上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出手段であって、上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出手段と、この直線成分抽出手段で抽出された上記複数の第2の直線成分の相対的位置関係に基づき、ハフ変換が実行されている照合用の血管情報と照合することにより、上記血管画像取得手段で取得した上記血管画像が、上記照合用血管情報と対応することを認証する認証手段と、を備える、生体認証装置が提供される。 According to the present invention, a blood vessel image acquiring means for acquiring a blood vessel image, the above blood vessel image acquired by the blood vessel image acquiring means by executing the Hough transform to generate a plurality of first linear components, those plurality of a linear component converting means for converting the first linear component to the first linear component information some of the plurality of indicating each of the line components, the plurality of first line component obtained as a result of the conversion in the straight line component conversion means A linear component extraction unit that extracts a plurality of second linear components that are greater than or equal to an extraction threshold value from information, wherein one conversion is performed on the plurality of first linear component information obtained as a result of conversion in the linear component conversion unit. a preset threshold value or more regions the degree of overlap of the pattern of the curves in the image a plurality extracted, extracting the plurality of second linear components, and the straight line component extracting means, the linear component extracted hand In based on the relative positional relationship of the extracted plurality of second linear components, by comparing the blood vessel information for collation Hough transform is being performed, the above blood vessel image acquired by the blood vessel image acquiring means A biometric authentication device is provided, comprising: an authentication unit that authenticates the correspondence with the blood vessel information for verification.

また本発明によれば、血管画像を取得する血管画像取得手段と、この血管画像取得手段で取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換手段と、上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出手段であって、上記直線成分変換手段における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、上記直線成分抽出手段と、この直線成分抽出手段で抽出された上記複数の第2の直線成分を、認証処理に用いる情報として記憶部に記憶する記憶手段と、を備える、血管情報記憶装置が提供される。
According to the present invention, a blood vessel image acquiring means for acquiring a blood vessel image, by performing a Hough transform to generate a plurality of first linear component in the blood vessel image acquired by the blood vessel image acquiring unit, those plural the first and the linear component conversion means for converting the first linear component information some of the plurality of indicating each of the line components for line component, the plurality of first straight line obtained as a result of the conversion in the straight line component conversion means A linear component extraction unit that extracts a plurality of second linear components that are greater than or equal to an extraction threshold value from component information, wherein one converted image is obtained for the first linear component information obtained as a result of conversion in the linear component conversion unit. a preset threshold value or more regions the degree of overlap of the patterns of curves of the inner and multiple extraction, extracting the plurality of second linear components, and the straight line component extraction unit, extracting the linear component The plurality of second linear component extracted by the stage, and a storage means for storing in the storage unit as the information used for authentication processing, vessel information storage device is provided.

本発明によれば、血管画像を取得する血管画像取得工程と、この血管画像取得工程において取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換工程と、上記直線成分変換工程における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い直線成分を複数抽出する直線成分抽出工程であって、上記直線成分変換工程における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出工程と、この直線成分抽出工程において抽出された上記複数の第2の直線成分の相対的位置関係に基づき、ハフ変換が実行された照合用血管情報と照合することにより、上記血管画像取得工程において取得した上記血管画像が、上記照合用血管情報と対応することを認証する認証工程と、を備える、生体認証方法が提供される。 According to the present invention, a blood vessel image acquisition step of acquiring a blood vessel image, by performing a Hough transform to generate a plurality of first linear component in the blood vessel images obtained in this blood vessel image acquisition step, of the plurality first and a linear component conversion step of converting the first linear component information some of the plurality of indicating each of the line components for one of linear components, the plurality of first linear component information obtained as a result of the conversion in the straight line component conversion process A linear component extraction step of extracting a plurality of linear components greater than or equal to the extraction threshold, wherein the first linear component information obtained as a result of the conversion in the linear component conversion step is a curve pattern in one converted image. the degree of overlap is a plurality extracting a preset threshold value or more regions of extracting the plurality of second linear components, and the straight line component extracting step, apply in this line component extraction step Based on the relative positional relationship of the extracted plurality of second linear components Te, by matching the matching vessel information Hough transform has been performed, the blood vessel image is obtained in the blood vessel image acquiring step, the There is provided a biometric authentication method comprising: an authentication step of authenticating the correspondence with the blood vessel information for verification.

また本発明によれば、血管画像を取得する血管画像取得工程と、この血管画像取得工程において取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換工程と、この直線成分変換工程における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出工程であって、上記直線成分変換工程における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出工程と、この直線成分抽出工程において抽出された上記複数の第2の直線成分を、認証処理に用いる情報として記憶部に記憶する記憶工程と、を備える、血管情報記憶方法が提供される。 Further, according to the present invention, a blood vessel image acquisition step of acquiring a blood vessel image, a Hough transform is performed on the blood vessel image acquired in the blood vessel image acquisition step, and a plurality of first linear components are generated. and a linear component conversion step of converting the first linear component to the first linear component information some of the plurality of indicating each of the line components, the plurality of first line component obtained as a result of the conversion in the straight line component conversion process A linear component extraction step for extracting a plurality of second linear components that are greater than or equal to the extraction threshold value from the information, wherein the first linear component information obtained as a result of the conversion in the linear component conversion step is within one converted image. of a preset threshold value or more regions the degree of overlap of the patterns of curves with multiple extraction, extracting the plurality of second linear components, and the straight line component extraction step, the linear component extracted The plurality of second linear component extracted in step, and a storage step of storing in the storage unit as the information used for authentication processing, vessel information storage method is provided.

本発明によれば、生体認証を高精度に行うことができる生体認証装置と生体認証方法を提供することができる。
また本発明によれば、血管情報記憶装置と血管情報記憶方法を提供することができる。
According to the present invention, it is possible to provide a biometric authentication apparatus and a biometric authentication method that can perform biometric authentication with high accuracy.
Further, according to the present invention, a blood vessel information storage device and a blood vessel information storage method can be provided.

図1は本発明に係る画像照合装置の第1実施形態のハードウェア的な機能ブロック図である。FIG. 1 is a hardware functional block diagram of a first embodiment of an image collating apparatus according to the present invention. 図2は図1に示した画像照合装置のソフトウェア的な機能ブロック図である。FIG. 2 is a software functional block diagram of the image collating apparatus shown in FIG. 図3は図2に示したハフ変換部の動作を説明するための図である。FIG. 3 is a diagram for explaining the operation of the Hough transform unit shown in FIG. 図4は図2に示したハフ変換部の動作を説明するための図である。FIG. 4 is a diagram for explaining the operation of the Hough transform unit shown in FIG. 図5は図2に示した類似度生成部の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the similarity generation unit shown in FIG. 図6は図1に示した本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining the operation of the image collating apparatus according to the present embodiment shown in FIG. 図7は本発明に係る画像照合装置の第2実施形態の位置補正部を示す図である。FIG. 7 is a diagram showing a position correction unit of the second embodiment of the image collating apparatus according to the present invention. 図8は図7に示したフーリエ・メリン変換部211の動作を説明するための図である。FIG. 8 is a diagram for explaining the operation of the Fourier-Melin transform unit 211 shown in FIG. 図9は自己相関法と位相限定相関法の相違点を説明するための図である。FIG. 9 is a diagram for explaining the difference between the autocorrelation method and the phase-only correlation method. 図10は位相限定相関法において2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。FIG. 10 is a diagram for explaining the correlation intensity distribution when there is a parallel displacement between two images in the phase only correlation method. 図11は位相限定法において2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。FIG. 11 is a diagram for explaining the correlation intensity distribution when there is a rotational shift between two images in the phase-only method. 図12は位相限定相関部23が出力する相関画像データを説明するための図である。FIG. 12 is a diagram for explaining the correlation image data output by the phase only correlation unit 23. 図13は図12(c)に示した相関画像データを説明するための図である。FIG. 13 is a diagram for explaining the correlation image data shown in FIG. 図14は図1に示した画像照合装置1の動作を説明するためのフローチャートである。FIG. 14 is a flowchart for explaining the operation of the image collating apparatus 1 shown in FIG. 図15は本発明に係る画像照合装置の第3実施形態の機能ブロック図である。FIG. 15 is a functional block diagram of the third embodiment of the image collating apparatus according to the present invention. 図16は図15に示した位置補正部の動作を説明するための図である。FIG. 16 is a diagram for explaining the operation of the position correction unit shown in FIG. 図17は本発明に係る画像照合装置の第3実施形態の動作を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining the operation of the third embodiment of the image collating apparatus according to the present invention. 図18は本発明に係る画像照合装置の第4実施形態の機能ブロック図である。FIG. 18 is a functional block diagram of the fourth embodiment of the image collating apparatus according to the present invention. 図19は図17に示した画像照合装置1cの動作を説明するための図である。図19(a)は、画像IM11の一具体例を示す図である。図19(b)は、(a)に示した画像IM11から第1閾値以上の領域を抽出した画像を示す図である。図19(c)は、図19(a)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。図19(d)は、画像IM12の一具体例を示す図である。図19(e)は、図19(d)に示した画像IM12から第1閾値以上の領域を抽出した画像を示す図である。図19(f)は、図19(d)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。FIG. 19 is a diagram for explaining the operation of the image collating apparatus 1c shown in FIG. FIG. 19A shows a specific example of the image IM11. FIG. 19B is a diagram illustrating an image obtained by extracting a region equal to or greater than the first threshold value from the image IM11 illustrated in FIG. FIG. 19C is a diagram illustrating an image obtained by extracting a region greater than or equal to the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG. FIG. 19D is a diagram showing a specific example of the image IM12. FIG. 19E is a diagram illustrating an image obtained by extracting a region having a first threshold value or more from the image IM12 illustrated in FIG. FIG. 19F is a diagram illustrating an image obtained by extracting a region equal to or larger than the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG. 図20は本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining the operation of the image collating apparatus according to this embodiment. 図21は本発明に係る画像照合装置の第5実施形態の動作を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining the operation of the fifth embodiment of the image collating apparatus according to the present invention. 図22は本発明に係る画像照合装置の第6実施形態に係る画像照合装置の動作を説明するためのフローチャートである。FIG. 22 is a flowchart for explaining the operation of the image collating apparatus according to the sixth embodiment of the image collating apparatus according to the present invention.

第1実施の形態
図1は、本発明に係る画像照合装置の第1実施形態のハードウェア的な機能ブロック図である。
本実施形態に係る画像照合装置1は、図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
例えば画像入力部11はメモリ12に接続され、メモリ12、FFT処理部13、座標変換部14、ハフ変換部15、およびCPU16は、バスBSにより接続されている。動作処理部17はCPU16に接続されている。
First Embodiment FIG. 1 is a hardware functional block diagram of a first embodiment of an image collating apparatus according to the present invention.
As shown in FIG. 1, the image matching device 1 according to the present embodiment includes an image input unit 11, a memory 12, an FFT processing unit 13, a coordinate conversion unit 14, a Hough conversion unit 15, a CPU 16, and an operation processing unit. 17.
For example, the image input unit 11 is connected to the memory 12, and the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, the Hough conversion unit 15, and the CPU 16 are connected by a bus BS. The operation processing unit 17 is connected to the CPU 16.

画像入力部11は、外部からの画像を入力するための入力部である。例えば、画像入力部11には、登録画像AIM、および登録画像AIMの比較対象である画像(照合画像RIMともいう)が入力される。
メモリ12は、例えば画像入力部11から入力された画像等が記憶される。また、例えばメモリ12には、図1に示すように登録画像AIM、照合画像RIM、およびプログラムPRG等が記憶されている。
プログラムPRGは、例えばCPU16で実行され、本発明に係る変換処理、相関処理、照合処理等に関する機能を実現させる手順を含む。
The image input unit 11 is an input unit for inputting an image from the outside. For example, the registered image AIM and an image to be compared with the registered image AIM (also referred to as a collation image RIM) are input to the image input unit 11.
The memory 12 stores, for example, an image input from the image input unit 11. Further, for example, as shown in FIG. 1, the memory 12 stores a registered image AIM, a collation image RIM, a program PRG, and the like.
The program PRG is executed by, for example, the CPU 16 and includes a procedure for realizing functions related to conversion processing, correlation processing, collation processing, and the like according to the present invention.

FFT処理部13は、例えばCPU16の制御により、メモリ12が記憶する画像等に基づいて2次元フーリエ変換処理を行い、処理結果を座標変換部14およびCPU16等に出力する。   For example, under the control of the CPU 16, the FFT processing unit 13 performs a two-dimensional Fourier transform process based on the image stored in the memory 12 and outputs the processing result to the coordinate conversion unit 14, the CPU 16, and the like.

座標変換部14は、例えばCPU16の制御により、FFT処理部13が処理した2次元フーリエ変換処理の結果に基づいて対数−極座標変換し、座標変換結果をCPU16に出力する。
動作処理部17は、後述するCPU16の処理の結果に基づいて、例えば登録画像AIMと照合画像RIMが一致した場合には、電子鍵を解除する等の所定処理を行う。
The coordinate conversion unit 14 performs logarithmic-polar coordinate conversion based on the result of the two-dimensional Fourier transform process processed by the FFT processing unit 13 under the control of the CPU 16, for example, and outputs the coordinate conversion result to the CPU 16.
The operation processing unit 17 performs a predetermined process such as releasing the electronic key when the registered image AIM and the collation image RIM match, for example, based on the result of the processing of the CPU 16 described later.

ハフ変換部15は、CPU16の制御により後述するハフ変換処理を行い、処理結果をCPU16に出力する。ハフ変換部15は、例えば高速にハフ変換処理を行うために、ハードウェアで構成された専用回路を用いることが好ましい。   The Hough conversion unit 15 performs a Hough conversion process, which will be described later, under the control of the CPU 16 and outputs the processing result to the CPU 16. The Hough conversion unit 15 preferably uses a dedicated circuit configured by hardware in order to perform Hough conversion processing at high speed, for example.

CPU16は、例えばメモリ12に記憶されているプログラムPRG、登録画像AIM、および照合画像RIMに基づいて、本発明の実施形態に係る照合処理を行う。また、CPU16は、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ変換部15、および動作処理部17等の制御を行い、本実施形態に係る処理を実現する。   The CPU 16 performs collation processing according to the embodiment of the present invention based on, for example, the program PRG, the registered image AIM, and the collation image RIM stored in the memory 12. Further, the CPU 16 controls the image input unit 11, the memory 12, the FFT processing unit 13, the coordinate conversion unit 14, the Hough conversion unit 15, the operation processing unit 17, and the like to realize the processing according to the present embodiment.

図2は、図1に示した画像照合装置のソフトウェア的な機能ブロック図である。
例えば、CPU16がメモリ12内のプログラムPRGを実行することにより、図2に示すように、位置補正部161、ハフ変換部162、抽出部163、および判別部164の機能を実現する。
位置補正部161は本発明に係る位置補正手段に相当し、ハフ変換部162は本発明に係る変換手段に相当し、抽出部163は本発明に係る抽出手段に相当し、判別部164は本発明に係る照合手段に相当する。
FIG. 2 is a software functional block diagram of the image collating apparatus shown in FIG.
For example, when the CPU 16 executes the program PRG in the memory 12, the functions of the position correction unit 161, the Hough conversion unit 162, the extraction unit 163, and the determination unit 164 are realized as shown in FIG.
The position correction unit 161 corresponds to the position correction unit according to the present invention, the Hough conversion unit 162 corresponds to the conversion unit according to the present invention, the extraction unit 163 corresponds to the extraction unit according to the present invention, and the determination unit 164 This corresponds to the collating means according to the invention.

位置補正部161は、例えばメモリ12が記憶する登録画像AIMおよび照合画像RIMの内の画像パターンに基づいて、2つの画像それぞれの左右上下方向の位置ずれや、拡大率、および回転角度等のずれを補正し、補正した画像をハフ変換部162に出力する。 詳細には、例えば位置補正部161は、登録画像AIMおよび照合画像RIMそれぞれにつき位置補正処理を行い、信号S1611,S1612としてハフ変換部162に出力する。   For example, based on the image pattern in the registered image AIM and the collation image RIM stored in the memory 12, the position correction unit 161 shifts the position of each of the two images in the horizontal and vertical directions, the magnification, the rotation angle, and the like. , And the corrected image is output to the Hough transform unit 162. Specifically, for example, the position correction unit 161 performs position correction processing for each of the registered image AIM and the collation image RIM, and outputs the result to the Hough conversion unit 162 as signals S1611 and S1612.

ハフ変換部162は、例えばハードウェア的に専用のハフ変換処理を行うハフ変換部15に、ハフ変換処理を実行させる。
詳細には、例えばハフ変換部162は、位置補正処理された登録画像AIMである信号S1611に基づいてハフ変換処理を行い、処理結果を信号S1621として出力する。 また、ハフ変換部162は、位置補正処理された照合画像RIMである信号S1612に基づいてハフ変換処理を行い、処理結果を信号S1622として出力する。
For example, the Hough conversion unit 162 causes the Hough conversion unit 15 that performs a dedicated Hough conversion process in hardware to execute the Hough conversion process.
Specifically, for example, the Hough transform unit 162 performs a Hough transform process based on the signal S1611 that is the registered image AIM subjected to the position correction process, and outputs the processing result as a signal S1621. Further, the Hough transform unit 162 performs a Hough transform process based on the signal S1612 that is the collation image RIM subjected to the position correction process, and outputs the processing result as a signal S1622.

図3は、図2に示したハフ変換部の動作を説明するための図である。
ハフ変換部162は、例えば、第1の画像および第2の画像それぞれについて、基準位置Oから画像内の点を通る直線L0への最短の点P0までの距離ρ0、および、基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸との角度θに基づいて、画像内の点を曲線のパターンに変換し、画像内の直線成分を、複数の重なり合った曲線のパターンに変換する画像処理を行い、第1の変換画像および第2の変換画像を生成する。
FIG. 3 is a diagram for explaining the operation of the Hough transform unit shown in FIG.
The Hough transform unit 162, for example, for each of the first image and the second image, the distance ρ0 from the reference position O to the shortest point P0 to the straight line L0 passing through the point in the image, and the reference position O and the shortest Based on the angle θ between the straight line n0 passing through the point P0 and the reference axis including the reference position O, the point in the image is converted into a curved pattern, and the linear component in the image is converted into a plurality of overlapping curved patterns. Image processing to be converted is performed to generate a first converted image and a second converted image.

説明を簡単にするため、例えば図3(a)に示すように、x−y平面上に、直線L0、直線L0上の点P(x1,y1),点P2(x2,y2),点P3(x3,y3)があるとする。
原点0を通り直線L0に垂直な直線をn0とすると、例えば直線n0と基準軸としてのx軸とは角度θ0の関係があり、原点Oから直線L0まで距離|ρ0|の関係があるとする。ここで|ρ0|はρ0の絶対値を示す。直線L0は、(ρ0,θ0)というパラメータで表現できる。
x−y平面上の座標(x,y)に対するハフ(Hough)変換は、例えば数式(1)により定義される。
In order to simplify the explanation, for example, as shown in FIG. 3A, on the xy plane, the straight line L0, the point P (x1, y1), the point P2 (x2, y2), the point P3 on the straight line L0. Assume that (x3, y3) exists.
Assuming that a straight line passing through the origin 0 and perpendicular to the straight line L0 is n0, for example, the straight line n0 and the x-axis as the reference axis have a relationship of an angle θ0, and there is a relationship of a distance | ρ0 | . Here, | ρ0 | indicates the absolute value of ρ0. The straight line L0 can be expressed by a parameter (ρ0, θ0).
The Hough transform for coordinates (x, y) on the xy plane is defined by, for example, Expression (1).

〔数1〕
ρ=x・cosθ+y・sinθ
…(1)
[Equation 1]
ρ = x · cos θ + y · sin θ
... (1)

例えば点P1,P2,P3それぞれについて数式(1)に示すハフ変換を行うと、図3(b)に示すようにρ−θ空間上の曲線に変換される。詳細にはハフ変換は、点P1(x1,y1)は曲線PL1(x1・cosθ+y1・sinθ)に、点P2(x2,y2)は曲線PL2(x2・cosθ+y2・sinθ)に、点P3(x3,y3)は曲線PL3(x3・cosθ+y3・sinθ)に変換する。
この曲線PL1,PL2,PL3のパターンは、ρ−θ空間上で交点CP(ρ0,θ0)で交わる。ρ−θ空間上では交点P(ρ0,θ0)は、x−y空間上では直線成分L0に相当する。
逆に、図3(a)に示すようにx−y平面上の直線成分L0は、ρ−θ空間では曲線PL1,PL2,PL3のパターンの交点CPに相当する。
For example, when the Hough transform shown in Formula (1) is performed for each of the points P1, P2, and P3, the points are converted into curves in the ρ-θ space as shown in FIG. Specifically, in the Hough transform, the point P1 (x1, y1) is on the curve PL1 (x1 · cos θ + y1 · sin θ), the point P2 (x2, y2) is on the curve PL2 (x2 · cos θ + y2 · sin θ), and the point P3 (x3, x3). y3) is converted into a curve PL3 (x3 · cos θ + y3 · sin θ).
The patterns of the curves PL1, PL2, and PL3 intersect at an intersection CP (ρ0, θ0) in the ρ-θ space. The intersection point P (ρ0, θ0) on the ρ-θ space corresponds to the linear component L0 on the xy space.
Conversely, as shown in FIG. 3A, the linear component L0 on the xy plane corresponds to the intersection CP of the patterns PL1, PL2, and PL3 in the ρ-θ space.

上述したように、2値化した画像にハフ変換処理を行い、処理結果のρ−θ空間上での曲線のパターンの重なりの度合いにより、変換前のx−y平面においてどのような直線成分が支配的であるかを判別することができる。   As described above, the Hough transform process is performed on the binarized image, and depending on the degree of overlapping of the pattern of the curve in the ρ-θ space of the process result, what linear component is present on the xy plane before the conversion. It can be determined whether it is dominant.

図4は、図2に示したハフ変換部の動作を説明するための図である。
ハフ変換部162は、例えば図4(a)に示す位置補正処理された登録画像AIMをハフ変換処理を行い、図4(c)に示す画像S1621を生成し、図4(b)に示す位置補正処理された照合画像RIMをハフ変換処理を行い画像S1622を生成する。
画像S1621,S1622の内の各画素には、曲線のパターンの重なりの度合いに応じた値が設定される。本実施形態では所定の階調で示される画像の内、曲線のパターンの重なりの度合いが高いほど白く表示されている。
後述するように、照合部1642は、この曲線パターンの重なりの度合いに基づいて照合処理を行うので、元のx−y空間上の直線成分を基に照合処理を行うことになる。
FIG. 4 is a diagram for explaining the operation of the Hough transform unit shown in FIG.
For example, the Hough transform unit 162 performs a Hough transform process on the registered image AIM subjected to the position correction process illustrated in FIG. 4A to generate an image S1621 illustrated in FIG. 4C, and the position illustrated in FIG. The corrected collation image RIM is subjected to Hough transform processing to generate an image S1622.
Each pixel in the images S1621, S1622 is set to a value corresponding to the degree of curve pattern overlap. In the present embodiment, the image is displayed in white as the degree of overlap of the curved pattern is higher in the image indicated by the predetermined gradation.
As will be described later, the matching unit 1642 performs the matching process based on the degree of the overlap of the curve patterns, and therefore performs the matching process based on the linear component in the original xy space.

抽出部163は、第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する。 詳細には、例えば抽出部163は、図4(c)に示す第1の変換画像としての信号S1621に基づいて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、図4(e)に示す画像S1631を生成し照合部1642に出力する。
また、例えば抽出部163は、図4(d)に示す第2の変換画像としての信号S1622に基づいて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、図4(f)に示す画像S1632を生成し照合部1642に出力する。
この抽出処理を行うことにより、例えば登録画像AIMおよび照合画像RIMのx−y空間上の直線成分と異なるノイズ成分、例えば点成分を除去する。
The extraction unit 163 extracts, for each of the first converted image and the second converted image, a region where the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold. Specifically, for example, based on the signal S1621 as the first converted image shown in FIG. 4C, the extracting unit 163 has a degree of overlapping of the curve patterns in one converted image equal to or greater than a preset threshold value. Are extracted, and an image S1631 shown in FIG. 4E is generated and output to the collation unit 1642.
Further, for example, the extraction unit 163 has an area where the degree of overlapping of the pattern of curves in one converted image is equal to or more than a preset threshold based on the signal S1622 as the second converted image shown in FIG. Is extracted, and an image S1632 shown in FIG. 4F is generated and output to the collation unit 1642.
By performing this extraction process, for example, noise components different from the linear components in the xy space of the registered image AIM and the collation image RIM, for example, point components are removed.

判別部164は、第1の変換画像および第2の変換画像内のパターンの重なりの度合い、第1の変換画像および第2の変換画像それぞれの内のパターンの一致および不一致に基づいて前記第1の画像および第2の画像の照合を行う。
詳細には、判別部164は、例えば信号S1631および信号S1632に基づいて照合を行い、照合結果を信号S164として出力する。
The determination unit 164 determines the first conversion image based on the degree of overlapping of the patterns in the first converted image and the second converted image, and the matching and mismatching of the patterns in the first converted image and the second converted image, respectively. The second image and the second image are collated.
Specifically, the determination unit 164 performs collation based on, for example, the signal S1631 and the signal S1632, and outputs the collation result as the signal S164.

判別部164は、例えば図2に示すように、類似度生成部1641、および照合部1642を有する。
類似度生成部1641は、例えば、第1の変換画像および第2の変換画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果に基づいて相関値としての類似度を生成する。
詳細には、類似度生成部1641は、例えば信号S1631および信号S1632に基づいて2つの画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果に基づいて相関値としての類似度を生成する。
For example, as illustrated in FIG. 2, the determination unit 164 includes a similarity generation unit 1641 and a collation unit 1642.
For example, the similarity generation unit 1641 performs a comparison process for each of a plurality of different positional relationships in the first converted image and the second converted image, and generates a similarity as a correlation value based on the result of the comparison process To do.
Specifically, the similarity generation unit 1641 performs comparison processing for each of a plurality of different positional relationships in two images based on, for example, the signal S1631 and the signal S1632, and based on the result of the comparison processing, the similarity as a correlation value Generate degrees.

例えば類似度生成部1641は、2つの画像それぞれをf1(m,n),f2(m,n)とすると、例えば類似度Simを数式(2)により算出し、算出結果をS1641として出力する。   For example, if the two images are assumed to be f1 (m, n) and f2 (m, n), for example, the similarity generation unit 1641 calculates, for example, the similarity Sim according to Equation (2), and outputs the calculation result as S1641.

Figure 0005045763
…(2)
Figure 0005045763
... (2)

図5は、図2に示した類似度生成部の動作を説明するための図である。
類似度生成部1641は、例えば図5(a),(b)に示す線成分(線形状ともいう)を含む2つの画像の類似度を生成する場合には、
図5(c)に示すように、2つの画像の交点CPの数に応じた類似度を生成する。ここでは、簡単な説明のために、線成分をビット値’1’の黒画素で示し、その他をビット値’0’の白画素で示した。
FIG. 5 is a diagram for explaining the operation of the similarity generation unit shown in FIG.
For example, when the similarity generation unit 1641 generates the similarity between two images including the line components (also referred to as line shapes) illustrated in FIGS.
As shown in FIG. 5C, the similarity according to the number of intersection points CP of the two images is generated. Here, for the sake of simple explanation, the line component is indicated by a black pixel having a bit value “1”, and the other is indicated by a white pixel having a bit value “0”.

照合部1642は、類似度生成部1641が生成した類似度を示す信号S1641に基づいて、登録画像AIMと照合画像RIMの照合を行う。
例えば、照合部1642は、類似度が所定の値よりも大きい場合には、登録画像AIMと照合画像RIMとが一致していると判別する。
The collation unit 1642 collates the registered image AIM and the collation image RIM based on the signal S1641 indicating the similarity generated by the similarity generation unit 1641.
For example, the collation unit 1642 determines that the registered image AIM matches the collation image RIM when the similarity is greater than a predetermined value.

図6は、図1に示した本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。図6を参照しながら、画像照合装置の動作をCPUの動作を中心に説明する。   FIG. 6 is a flowchart for explaining the operation of the image collating apparatus according to the present embodiment shown in FIG. With reference to FIG. 6, the operation of the image collating apparatus will be described focusing on the operation of the CPU.

例えば、画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリ12にそれぞれのデータが格納される。
ステップST101において、位置補正部161は、例えば図2に示すように、メモリ12が記憶する登録画像AIMおよび照合画像RIMの内の画像パターンに基づいて位置補正処理を行い、詳細には、2つの画像それぞれの左右上下方向の位置ずれや、拡大率、および回転角度等のずれを補正し、補正した画像を信号S1611,S1612としてハフ変換部162に出力する。
For example, a registered image AIM and a collation image RIM are input by the image input unit 11, and each data is stored in the memory 12.
In step ST101, for example, as shown in FIG. 2, the position correction unit 161 performs position correction processing based on the image patterns in the registered image AIM and the collation image RIM stored in the memory 12, and in detail, The positional deviation in the horizontal and vertical directions of each image and the deviation such as the enlargement ratio and the rotation angle are corrected, and the corrected images are output to the Hough transforming unit 162 as signals S1611 and S1612.

ステップST102において、ハフ変換部162では、例えば図4(a)に示す位置補正処理された登録画像AIMである信号S1611に基づいて、図3(a)に示すように、基準位置Oから画像内の点を通る直線L0への最短の点P0までの距離ρ0、および、基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸としてのx軸との角度θに基づいて、画像内の点を曲線PLのパターンに変換し、画像内の直線成分Lを、複数の重なり合った曲線PLのパターンに変換する画像処理を行い、例えば図4(c)に示すように、ρ−θ空間上に変換画像として信号S1621を生成する。
また、ハフ変換部162は、例えば図4(b)に示す位置補正処理された照合画像RIMである信号S1612に基づいて同様のハフ変換処理を行い、例えば図4(d)に示すように、ρ−θ空間上に変換画像として信号S1622を生成する。
In step ST102, the Hough transform unit 162, based on the signal S1611 that is the registered image AIM subjected to the position correction process shown in FIG. 4A, for example, displays the image from the reference position O as shown in FIG. Based on the distance ρ0 to the shortest point P0 to the straight line L0 passing through the point and the angle θ between the reference position O and the straight line n0 passing through the shortest point P0 and the x axis as the reference axis including the reference position O. Then, a point in the image is converted into a curve PL pattern, and a linear component L in the image is converted into a plurality of overlapping curve PL patterns. For example, as shown in FIG. A signal S1621 is generated as a converted image on the -θ space.
Further, the Hough transform unit 162 performs a similar Hough transform process based on the signal S1612 that is the collation image RIM subjected to the position correction process illustrated in FIG. 4B, for example, as illustrated in FIG. 4D. A signal S1622 is generated as a converted image in the ρ-θ space.

ステップST103において、抽出部163では、変換画像S1621および変換画像S1622それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出する。
詳細には、上述したように、画像S1621,S1622の内の各画素には、曲線のパターンの重なりの度合いに応じた値が設定されており、所定の階調で示される画像の内、曲線のパターンの重なりの度合いが高いほど白く表示されている。
例えば抽出部163は、図4(c)に示す変換画像S1621内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、例えば図4(e)に示す画像S1631を生成し、照合部1642に出力する。
例えば抽出部163は、図4(d)に示す変換画像S1622内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、例えば図4(f)に示す画像S1632を生成し、照合部1642に出力する。
In step ST103, the extraction unit 163 extracts, for each of the converted image S1621 and the converted image S1622, an area where the degree of overlapping of the curve patterns in one converted image is equal to or greater than a preset threshold.
Specifically, as described above, each pixel in the images S1621, S1622 is set to a value corresponding to the degree of overlap of the curve patterns. The higher the degree of pattern overlap, the more white it is displayed.
For example, the extraction unit 163 extracts an area where the degree of overlapping of the curve patterns in the converted image S1621 shown in FIG. 4C is equal to or more than a preset threshold, and for example, an image S1631 shown in FIG. It is generated and output to the collation unit 1642.
For example, the extraction unit 163 extracts an area where the degree of overlapping of the curve patterns in the converted image S1622 shown in FIG. 4D is equal to or more than a preset threshold, and for example, an image S1632 shown in FIG. It is generated and output to the collation unit 1642.

照合部1642では、変換画像S1631および変換画像S1632内のパターンの重なりの度合い、変換画像S1631および変換画像S1632それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行う。   The collation unit 1642 collates the registered image AIM and the collation image RIM based on the overlapping degree of the patterns in the conversion image S1631 and the conversion image S1632, and the matching and mismatching of the patterns in each of the conversion image S1631 and the conversion image S1632. Do.

詳細には、ステップST104において、類似度生成部1641は、変換画像S1631および変換画像S1632の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果により相関値として、例えば数式(2)に示すように類似度Simを生成し、信号S1641として出力する。   Specifically, in step ST104, the similarity generation unit 1641 performs a comparison process for each of a plurality of different positional relationships in the converted image S1631 and the converted image S1632, and uses, for example, a mathematical expression (2) as a correlation value based on the result of the comparison process. ), The similarity Sim is generated and output as a signal S1641.

ステップST105において、照合部1642は、類似度生成部1641が生成した相関値としての類似度Simに基づいて、登録画像AIMおよび照合画像RIMの照合処理を行う。詳細には、照合部1642は、類似度Simが予め設定された閾値より高い場合には、登録画像AIMと照合画像RIMが一致していると判別し、閾値以下の場合には不一致であると判別する。
例えば、セキュリティ分野における静脈パターン照合装置に本実施形態に係る画像照合装置を適用した場合には、動作処理部17が電子錠を解除する等といった所定の処理を行う。
In step ST105, the matching unit 1642 performs a matching process on the registered image AIM and the matching image RIM based on the similarity Sim as the correlation value generated by the similarity generation unit 1641. Specifically, the collation unit 1642 determines that the registered image AIM and the collation image RIM match when the similarity Sim is higher than a preset threshold value, and does not match when the similarity image Sim is equal to or less than the threshold value. Determine.
For example, when the image matching device according to the present embodiment is applied to a vein pattern matching device in the security field, the operation processing unit 17 performs predetermined processing such as releasing the electronic lock.

以上説明したように、登録画像AIMおよび照合画像RIMそれぞれについて、ハフ変換処理、詳細には基準位置Oから画像内の点を通る直線Lへの最短の点P0までの距離ρ、および基準位置Oと最短の点P0を通る直線n0と基準位置Oを含む基準軸としてのx軸との角度θに基づいて、画像内の点を曲線PLのパターンに変換し、画像内の直線成分を、複数の重なり合った曲線PLのパターンに変換する画像処理を行い、変換画像S1621および変換画像S1622を生成するハフ変換部15と、ハフ変換部15が生成した変換画像S1621および変換画像S1622内のパターンの内の重なりの度合い、および変換画像S1621および変換画像S1622それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行う判別部164とを設けたので、直線成分を特徴として含む画像の照合を高精度に行うことができる。   As described above, for each of the registered image AIM and the matching image RIM, the Hough transform process, specifically, the distance ρ from the reference position O to the shortest point P0 to the straight line L passing through the point in the image, and the reference position O And the straight line n0 passing through the shortest point P0 and the angle θ between the x axis as the reference axis including the reference position O, the points in the image are converted into the pattern of the curve PL, and a plurality of linear components in the image are converted. Hough transform unit 15 that performs image processing to convert the pattern PL into the overlapping curve PL and generates converted image S1621 and converted image S1622, and among the patterns in converted image S1621 and converted image S1622 generated by Hough transform unit 15 Registered image AIM based on the degree of overlap and the matching and mismatching of the patterns in each of converted image S1621 and converted image S1622. Since the discrimination unit 164 that collates the collation image RIM is provided, it is possible to collate an image including a linear component as a feature with high accuracy.

つまり、ハフ変換部15が、ハフ変換処理を行うことにより、登録画像AIMおよび照合画像RIMの内の直線成分(線形状ともいう)を考慮した変換画像を生成し、判別部164が、変換画像それぞれの内の曲線のパターンの重なり具合に基づいて照合を行うので、直線成分を特徴として含む画像の照合を高精度に行うことができる。   That is, the Hough conversion unit 15 performs a Hough conversion process to generate a converted image in consideration of the linear component (also referred to as a line shape) in the registered image AIM and the collation image RIM, and the determination unit 164 converts the converted image. Since collation is performed based on the degree of overlapping of the patterns of the respective curves, it is possible to perform collation of images including linear components as features with high accuracy.

更に、ハフ変換部162に続いて抽出部163を有するようにすれば、抽出部163が、変換画像S1621,S1622それぞれの1つの変換画像内の曲線PLのパターンの重なりの度合いが予め設定された閾値以上の領域を抽出して、つまり登録画像AIMおよび照合画像RIM上のノイズ成分である点成分を除去し、直線成分のみを抽出して、画像S1631,S1632を生成し、判別部164が抽出された領域内のパターンの一致および不一致に基づいて登録画像AIMおよび照合画像RIMの照合を行うので、さらに向上した高精度の照合処理を行うことができる。   Further, if the extraction unit 163 is provided following the Hough conversion unit 162, the degree of overlap of the pattern of the curve PL in one converted image of each of the converted images S1621, S1622 is set in advance by the extraction unit 163. An area equal to or greater than the threshold value is extracted, that is, the point component that is a noise component on the registered image AIM and the matching image RIM is removed, and only the straight line components are extracted to generate images S1631 and S1632, and the determination unit 164 extracts Since the registered image AIM and the collation image RIM are collated based on the matching and mismatching of the patterns in the set area, further improved high-precision collation processing can be performed.

また、判別部164に、変換画像の中の異なる複数の位置関係それぞれについて比較処理を行い、比較処理の結果により相関値としての類似度Simを生成する類似度生成部1641を設け、生成した類似度Simに基づいて登録画像AIMおよび照合画像RIMとを照合する照合部1642とを設け、簡単な計算により相関値としての類似度を生成し、その類似度に基づいて照合処理を行うことで、高速に照合処理を行うことができる。   The discrimination unit 164 is provided with a similarity generation unit 1641 that performs a comparison process for each of a plurality of different positional relationships in the converted image and generates a similarity Sim as a correlation value based on the result of the comparison process. A collation unit 1642 that collates the registered image AIM and the collation image RIM based on the degree Sim, generates a similarity as a correlation value by simple calculation, and performs a collation process based on the similarity, Collation processing can be performed at high speed.

本実施形態では、ステップST101において位置補正処理を行ったが、この形態に限られるものではない。例えば、位置補正処理を行う必要がない場合には、ハフ変換部15は、登録画像AIMおよび照合画像RIMそれぞれについてハフ変換処理を行ってよい。こうすることにより処理負担が軽減され、高速に照合処理を行うことができる。   In the present embodiment, the position correction process is performed in step ST101, but the present invention is not limited to this form. For example, when it is not necessary to perform position correction processing, the Hough conversion unit 15 may perform Hough conversion processing for each of the registered image AIM and the collation image RIM. By doing so, the processing load is reduced, and the collation process can be performed at high speed.

また、本実施形態では、ステップST103において、抽出部163により、曲線PLのパターンの重なりの度合いに応じて予め設定された閾値以上の領域を抽出したが、この形態に限られるものではない。
例えば、抽出部163が抽出処理を行わずに、判別部164が、画像S1621および画像S1622の内のパターンの重なりの度合い、画像S1621および画像S1622それぞれの内のパターンの一致および不一致に基づいて、登録画像AIMおよび照合画像RIMの照合を行ってもよい。こうすることにより処理負担が軽減され、高速に照合処理を行うことができる。
In the present embodiment, in step ST103, the extraction unit 163 extracts an area that is equal to or greater than a threshold set in advance according to the degree of overlap of the patterns of the curve PL. However, the present invention is not limited to this form.
For example, without the extraction unit 163 performing the extraction process, the determination unit 164 determines whether or not the patterns S1621 and S1622 overlap, and the patterns S1621 and S1622 match and do not match. The registered image AIM and the verification image RIM may be verified. By doing so, the processing load is reduced, and the collation process can be performed at high speed.

第2実施の形態
図7は、本発明に係る画像照合装置の第2実施形態の位置補正部を示す図である。
本実施形態に係る画像照合装置1aでは、ハードウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1aのソフトウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161、ハフ変換部162、抽出部163、および判別部164の機能を実現する。
同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
Second Embodiment FIG. 7 is a diagram showing a position correction unit of a second embodiment of the image collating apparatus according to the present invention.
In the image collating apparatus 1a according to the present embodiment, the hardware functional blocks have substantially the same configuration as the image collating apparatus 1 according to the first embodiment. For example, as illustrated in FIG. The memory 12 includes an FFT processing unit 13, a coordinate conversion unit 14, a Hough conversion unit 15, a CPU 16, and an operation processing unit 17.
The software functional block of the image collating apparatus 1a has substantially the same configuration as that of the image collating apparatus 1 according to the first embodiment. When the CPU 16 executes the program PRG, the position correcting unit 161, the Hough converting unit 162, The functions of the extraction unit 163 and the determination unit 164 are realized.
The same functions are denoted by the same reference numerals, description thereof is omitted, and only differences are described.

相違点としては、位置補正部161が、位置補正処理として、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関値を生成し、生成した相関値に基づいて登録画像AIMと照合画像RIMの位置補正処理を行う点である。
詳細には、本実施形態に係る位置補正部161は、CPU16がプログラムPRGを実行し、FFT処理部13および座標変換部14等を制御することにより、例えば図7に示すように、倍率情報−回転情報部21、補正部22、位相限定相関部23、ズレ情報生成部24、および補正部25の機能を実現する。
The difference is that the position correction unit 161 calculates the correlation value based on the phase component as a result of the rotation angle correction process or enlargement ratio correction process between the registered image AIM and the collation image RIM and the Fourier transform process as the position correction process. It is a point which produces | generates and performs the position correction process of the registration image AIM and the collation image RIM based on the produced | generated correlation value.
Specifically, in the position correction unit 161 according to the present embodiment, the CPU 16 executes the program PRG and controls the FFT processing unit 13, the coordinate conversion unit 14, and the like, for example, as shown in FIG. The functions of the rotation information unit 21, the correction unit 22, the phase only correlation unit 23, the deviation information generation unit 24, and the correction unit 25 are realized.

倍率情報−回転情報部21および補正部22は、登録画像AIMおよび照合画像RIMとの回転角度補正処理または拡大率補正処理を行う。
倍率情報−回転情報部21は、登録画像AIMおよび照合画像RIMに基づいて倍率情報および/または回転情報を生成し信号S21として、補正部22に出力する。
倍率情報は、登録画像AIMおよび照合画像RIMの拡大・縮小率を示す情報を含む。回転情報は、登録画像AIMおよび照合画像RIMの回転角度を示す情報を含む。
The magnification information-rotation information unit 21 and the correction unit 22 perform a rotation angle correction process or an enlargement ratio correction process on the registered image AIM and the collation image RIM.
The magnification information-rotation information unit 21 generates magnification information and / or rotation information based on the registered image AIM and the collation image RIM, and outputs the information to the correction unit 22 as a signal S21.
The magnification information includes information indicating the enlargement / reduction ratio of the registered image AIM and the collation image RIM. The rotation information includes information indicating the rotation angle of the registered image AIM and the collation image RIM.

詳細には例えば倍率情報−回転情報部21は、フーリエ・メリン変換部211、位相限定相関部212、および倍率情報−回転情報生成部213を有する。
フーリエ・メリン変換部211は、それぞれの画像情報に基いて後述するフーリエ・メリン変換を行い、それぞれの変換結果を示す信号SA211,SR211を位相限定相関部212に出力する。
Specifically, for example, the magnification information-rotation information unit 21 includes a Fourier-Melin transform unit 211, a phase only correlation unit 212, and a magnification information-rotation information generation unit 213.
The Fourier-Merlin transform unit 211 performs Fourier-Merlin transform, which will be described later, based on the respective image information, and outputs signals SA211 and SR211 indicating the respective transformation results to the phase-only correlation unit 212.

詳細には、フーリエ・メリン変換部211は、フーリエ変換部21111,21112、対数変換部21121,21122、および対数−極座標変換部21131,21132を有する。   Specifically, the Fourier-Melin transform unit 211 includes Fourier transform units 2111, 21112, logarithmic transform units 21121, 2112, and logarithmic-polar coordinate transform units 2111, 211132.

フーリエ変換部21111は、例えば、登録画像AIMがN×N画像の場合に、登録画像AIMをf1(m,n)とすると、数式(3)に示すようにフーリエ変換を行い、フーリエ画像データF1(u,v)を生成し、対数変換部21121に出力する。フーリエ変換部21112は、例えば、照合画像RIMがN×N画像の場合に、照合画像RIMをf2(m,n)とすると、数式(4)に示すようにフーリエ変換を行い、フーリエ画像データF2(u,v)を生成し、対数変換部21122に出力する。   For example, when the registered image AIM is an N × N image and the registered image AIM is f1 (m, n), the Fourier transform unit 21111 performs Fourier transform as shown in Equation (3), and Fourier image data F1 (U, v) is generated and output to the logarithmic conversion unit 21121. For example, when the collation image RIM is an N × N image and the collation image RIM is f2 (m, n), the Fourier transform unit 21112 performs Fourier transform as shown in Equation (4), and Fourier image data F2 (U, v) is generated and output to the logarithmic conversion unit 21122.

フーリエ画像データF1(u,v)は、数式(3)に示すように振幅スペクトルA(u,v)および位相スペクトルΘ(u,v)で構成され、フーリエ画像データF2(u,v)は、数式(4)に示すように振幅スペクトルB(u,v)および位相スペクトルΦ(u,v)で構成される。   The Fourier image data F1 (u, v) is composed of an amplitude spectrum A (u, v) and a phase spectrum Θ (u, v) as shown in Equation (3), and the Fourier image data F2 (u, v) is As shown in Equation (4), it is composed of an amplitude spectrum B (u, v) and a phase spectrum Φ (u, v).

Figure 0005045763
…(3)
Figure 0005045763
... (3)

Figure 0005045763
…(4)
Figure 0005045763
... (4)

対数変換部21121,21122は、フーリエ変換部21111,21112で生成された、フーリエ画像データF1(u,v),F2(u,v)の振幅成分に基いて対数処理を行う。この振幅成分の対数処理は、画像データの詳細な特徴情報を含む高周波成分を強調する。   The logarithmic conversion units 21121, 2112 perform logarithmic processing based on the amplitude components of the Fourier image data F1 (u, v), F2 (u, v) generated by the Fourier transformation units 2111, 21112. This logarithmic processing of amplitude components emphasizes high frequency components including detailed feature information of image data.

詳細には、対数変換部21121は数式(5)に示すように振幅成分A(u,v)に基いて対数処理を行いA’(u,v)を生成し対数−極座標変換部21131に出力する。対数変換部21122は数式(6)に示すように振幅成分B(u,v)に基いて対数処理を行いB’(u,v)を生成し対数−極座標変換部21132に出力する。   More specifically, the logarithmic conversion unit 21121 performs logarithmic processing based on the amplitude component A (u, v) as shown in Expression (5) to generate A ′ (u, v) and outputs it to the logarithmic-polar coordinate conversion unit 21131. To do. The logarithmic conversion unit 21122 performs logarithmic processing based on the amplitude component B (u, v) as shown in Equation (6) to generate B ′ (u, v) and outputs it to the logarithmic-polar coordinate conversion unit 21132.

Figure 0005045763
…(5)
Figure 0005045763
... (5)

Figure 0005045763
…(6)
Figure 0005045763
(6)

対数−極座標変換部21131,21132は、対数変換部21121,21122から出力された信号に基いて、対数−極座標系(例えばlog−r,Θ)に変換する。
一般的に例えば点(x,y)に対して数式(7),(8)に示すように定義すると、r=eμの場合にはμ=log(r)であり、任意の点(x,y)に対応する一義的な(log(r),Θ)が存在する。この性質により対数−極座標変換部21131,21132は座標変換を行う。
The logarithm-polar coordinate converters 21131, 21132 convert the logarithm-polar coordinate system (for example, log-r, Θ) based on the signals output from the logarithmic converters 21121, 2112.
In general, for example, when the point (x, y) is defined as shown in the equations (7) and (8), when r = eμ, μ = log (r), and any point (x, There is a unique (log (r), Θ) corresponding to y). Due to this property, the logarithm-polar coordinate conversion units 21131, 21132 perform coordinate conversion.

Figure 0005045763
…(7)
Figure 0005045763
... (7)

Figure 0005045763
…(8)
Figure 0005045763
(8)

詳細には、対数−極座標変換部21131,21132は、数式(9)に示す集合(ri 、θj )、および数式(10)に示す関数f(ri 、θj )を定義する。   Specifically, the logarithmic-polar coordinate conversion units 21131, 21132 define a set (ri, θj) shown in Equation (9) and a function f (ri, θj) shown in Equation (10).

Figure 0005045763

…(9)
Figure 0005045763

... (9)

Figure 0005045763
…(10)
Figure 0005045763
(10)

対数−極座標変換部21131,21132は、数式(9),(10)で定義した集合(ri 、θj ),関数f(ri 、θj )を用いて、画像データA’(u,v),B’(u,v)それぞれを、数式(11),(12)に示すように対数−極座標変換を行い、pA(ri 、θj )、pB(ri 、θj )を生成し、それぞれ信号SA211、信号SR211として、位相限定相関部212に出力する。   The logarithm-polar coordinate converters 21131, 21132 use the set (ri, θj) and the function f (ri, θj) defined by the mathematical expressions (9), (10) to generate image data A ′ (u, v), B. '(U, v) is subjected to logarithmic-polar coordinate conversion as shown in equations (11) and (12) to generate pA (ri, θj) and pB (ri, θj), respectively, and signal SA211 It is output to the phase only correlation unit 212 as SR211.

Figure 0005045763
…(11)
Figure 0005045763
... (11)

Figure 0005045763
…(12)
Figure 0005045763
(12)

図8は、図7に示したフーリエ・メリン変換部211の動作を説明するための図である。
画像f1(m,n),画像f2(m,n)は、例えばx,y軸に対して異なる所定角度を持った矩形領域W1,W2を含む。
フーリエ・メリン変換部211において、例えば図8に示すように、画像f1(m,n)が、フーリエ変換部21111によりフーリエ変換されて、フーリエ画像データF1(u,v)が生成され、対数変換部21121および対数−極座標変換部21131により、画像データpA(r,θ)が生成される。
FIG. 8 is a diagram for explaining the operation of the Fourier-Melin transform unit 211 shown in FIG.
The image f1 (m, n) and the image f2 (m, n) include rectangular regions W1 and W2 having different predetermined angles with respect to the x and y axes, for example.
In the Fourier-Melin transform unit 211, for example, as shown in FIG. 8, the image f1 (m, n) is Fourier transformed by the Fourier transform unit 21111 to generate Fourier image data F1 (u, v), and logarithmic transformation is performed. Image data pA (r, θ) is generated by the unit 21121 and the log-polar coordinate conversion unit 21131.

同様に、画像f2(m,n)が、フーリエ変換部21112によりフーリエ変換されて、フーリエ画像データF2(u,v)が生成され、対数変換部21122および対数−極座標変換部21132により、画像データpB(r,θ)が生成される。   Similarly, the image f2 (m, n) is Fourier-transformed by the Fourier transform unit 21112 to generate Fourier image data F2 (u, v). The logarithmic transform unit 21122 and the logarithmic-polar coordinate transform unit 21132 produce image data. pB (r, θ) is generated.

上述したように、画像f1(m,n),f2(m,n)は、フーリエ変換および対数−極座標変換により、デカルト座標から対数−極座標系(フーリエ・メリン空間とも言う)上に変換される。
フーリエ・メリン空間では、画像のスケーリングに応じて、成分がlog−rの軸に沿って移動し、画像の回転角度に応じてθ軸に沿って移動する性質がある。
この性質を用いて、画像f1(m,n),f2(m,n)のスケーリング(倍率情報)および回転角度を、フーリエ・メリン空間上のlog−rの軸に沿った移動量、およびθ軸に沿った移動量に基いて、求めることができる。
As described above, the images f1 (m, n) and f2 (m, n) are transformed from Cartesian coordinates onto a logarithmic-polar coordinate system (also referred to as Fourier-Melin space) by Fourier transformation and logarithmic-polar transformation. .
In the Fourier-Melin space, the component moves along the log-r axis according to the scaling of the image, and moves along the θ axis according to the rotation angle of the image.
Using this property, the scaling (magnification information) and the rotation angle of the images f1 (m, n) and f2 (m, n) are changed to the amount of movement along the log-r axis in the Fourier-Merlin space, and θ It can be determined based on the amount of movement along the axis.

位相限定相関部212は、例えば位相限定フィルタ(SPOMF:Symmetric phase-only matched filter )を用いた位相限定相関法により、フーリエ・メリン変換部211から出力されたパターンデータを示す信号SA211および信号SR211に基いて、それぞれの平行移動量を求める。
位相限定相関部212は、例えば図7に示すように、フーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124を有する。
The phase-only correlation unit 212 converts the signal SA211 and the signal SR211 indicating the pattern data output from the Fourier-Melin transform unit 211 by a phase-only correlation method using, for example, a phase-only filter (SPOMF: Symmetric phase-only matched filter). Based on this, the amount of each parallel movement is obtained.
For example, as illustrated in FIG. 7, the phase only correlation unit 212 includes Fourier transform units 2120 and 2121, a synthesis unit 2122, a phase extraction unit 2123, and an inverse Fourier transform unit 2124.

フーリエ変換部2120,2121は、対数−極座標変換部21131,21132から出力された信号SA211(pA(m,n)),SR211(pB(m,n))に基いて数式(13),(14)により、フーリエ変換を行う。ここで、X(u,v),Y(u,v)は、フーリエ係数である。フーリエ係数X(u,v)は数式(13)に示すように振幅スペクトルC(u,v)および位相スペクトルθ(u,v)により構成される。フーリエ係数Y(u,v)は数式(14)に示すように振幅スペクトルD(u,v)および位相スペクトルφ(u,v)により構成される。   The Fourier transform units 2120 and 2121 are based on the signals SA211 (pA (m, n)) and SR211 (pB (m, n)) output from the logarithmic-polar coordinate conversion units 21131 and 21132, respectively. ) To perform a Fourier transform. Here, X (u, v) and Y (u, v) are Fourier coefficients. The Fourier coefficient X (u, v) is composed of an amplitude spectrum C (u, v) and a phase spectrum θ (u, v) as shown in Equation (13). The Fourier coefficient Y (u, v) is composed of an amplitude spectrum D (u, v) and a phase spectrum φ (u, v) as shown in Equation (14).

Figure 0005045763
…(13)
Figure 0005045763
... (13)

Figure 0005045763
…(14)
Figure 0005045763
... (14)

合成部2122は、フーリエ変換部2120,2121で生成されたX(u,v),Y(u,v)を合成して相関をとる。例えば合成部2122は、X(u,v)・Y* (u,v)を生成し、位相抽出部2123に出力する。ここで、Y* (u,v)は、Y(u,v)の複素共役である。   The combining unit 2122 combines X (u, v) and Y (u, v) generated by the Fourier transform units 2120 and 2121 to obtain a correlation. For example, the synthesizing unit 2122 generates X (u, v) · Y * (u, v) and outputs it to the phase extracting unit 2123. Here, Y * (u, v) is a complex conjugate of Y (u, v).

位相抽出部2123は、合成部2122から出力された合成信号に基いて振幅成分を除去して位相情報を抽出する。
例えば位相抽出部2123は、例えばX(u,v)Y* (u,v)に基いて、その位相成分Z(u,v)=ej (θ(u,v)-φ(u,v))を抽出する。
The phase extraction unit 2123 extracts phase information by removing the amplitude component based on the combined signal output from the combining unit 2122.
For example, the phase extraction unit 2123, for example, based on X (u, v) Y * (u, v), the phase component Z (u, v) = ej (θ (u, v) −φ (u, v) ) Is extracted.

位相情報の抽出は、上述した形態に限られるものではない。例えば、フーリエ変換部2120,2121の出力、数式(15),(16)に基いて位相情報を抽出した後、数式(17)に示すように位相成分のみ合成を行い、Z(u,v)を生成してもよい。   The extraction of the phase information is not limited to the above-described form. For example, after extracting the phase information based on the outputs of the Fourier transform units 2120 and 2121 and the equations (15) and (16), only the phase component is synthesized as shown in the equation (17), and Z (u, v) May be generated.

Figure 0005045763
…(15)
Figure 0005045763
... (15)

Figure 0005045763
…(16)
Figure 0005045763
... (16)

Figure 0005045763
…(17)
Figure 0005045763
... (17)

逆フーリエ変換部2124は、位相抽出部2123から出力された、位相情報のみの信号Z(u,v)に基いて、逆フーリエ変換処理を行い、相関強度画像を生成する。
詳細には、逆フーリエ変換部2124は、数式(18)に示すように、信号Z(u,v)に基いて逆フーリエ変換処理を行い、相関強度画像G(p,q)を生成する。
The inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v) having only phase information output from the phase extraction unit 2123 to generate a correlation strength image.
Specifically, the inverse Fourier transform unit 2124 performs an inverse Fourier transform process based on the signal Z (u, v), as shown in Equation (18), and generates a correlation strength image G (p, q).

Figure 0005045763
…(18)
Figure 0005045763
... (18)

倍率情報−回転情報生成部213は、逆フーリエ変換部2124により生成された相関強度画像G(p、q)におけるピーク位置の画像中心からのずれ量が、すなわち登録画像AIMと、照合画像RIMに対してフーリエ・メリン変換を行った結果得られたパターンデータ間の平行移動量と等価であるので、このずれ量を検出することにより、登録画像AIMに対する照合画像RIMの倍率情報(拡大/縮小率)および回転角度情報を示すデータを含む補正情報S21を生成する。   The magnification information-rotation information generation unit 213 determines the shift amount from the image center of the peak position in the correlation strength image G (p, q) generated by the inverse Fourier transform unit 2124, that is, the registered image AIM and the collation image RIM. Since this is equivalent to the amount of translation between the pattern data obtained as a result of the Fourier-Melin transformation, the magnification information (enlargement / reduction ratio) of the matching image RIM with respect to the registered image AIM is detected by detecting this deviation amount. ) And correction information S21 including data indicating the rotation angle information is generated.

補正部22は、倍率情報−回転情報部21の倍率情報−回転情報生成部213から出力された補正情報S21に基いて、照合画像RIMの補正を行う。詳細には、補正部22は、補正情報S21に含まれる倍率情報および回転角度情報に基づいて、照合画像RIMを拡大/縮小処理し、回転処理を行い、位相限定相関部23に出力する。補正部22の補正処理により、登録画像AIMと照合画像RIM間のスケーリングおよび回転成分の差異が除去される。
このため、登録画像AIMと、補正処理された照合画像RIMとの間には、平行移動成分のみが差異として残っている。
The correcting unit 22 corrects the collation image RIM based on the correction information S21 output from the magnification information-rotation information-rotation information unit 21 magnification information-rotation information generation unit 213. Specifically, the correction unit 22 performs an enlargement / reduction process on the collation image RIM based on the magnification information and the rotation angle information included in the correction information S21, performs the rotation process, and outputs the result to the phase-only correlation unit 23. By the correction process of the correction unit 22, the difference in scaling and rotation components between the registered image AIM and the collation image RIM is removed.
For this reason, only the translation component remains as a difference between the registered image AIM and the corrected collation image RIM.

位相限定相関部23は、上述した登録画像AIMと、補正処理された照合画像RIMとの間の平行移動成分、およびその相関値を検出する。この検出は、例えば上述した位相限定フィルタを用いた位相限定相関法により求める。
詳細には、位相限定相関部23は、フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234を有する。
The phase only correlation unit 23 detects a translation component between the above-described registered image AIM and the corrected collation image RIM, and a correlation value thereof. This detection is obtained, for example, by the phase only correlation method using the above-described phase only filter.
Specifically, the phase only correlation unit 23 includes Fourier transform units 2311 and 2312, a synthesis unit 232, a phase extraction unit 233, and an inverse Fourier transform unit 234.

フーリエ変換部2311,2312、合成部232、位相抽出部233、および逆フーリエ変換部234それぞれは、上述した位相限定相関部212のフーリエ変換部2120,2121、合成部2122、位相抽出部2123、および逆フーリエ変換部2124それぞれと同じ機能を有するので簡単に説明する。   The Fourier transform units 2311 and 2312, the synthesis unit 232, the phase extraction unit 233, and the inverse Fourier transform unit 234 are respectively the Fourier transform units 2120 and 2121, the synthesis unit 2122, the phase extraction unit 2123, and the phase-only correlation unit 212 described above. Since it has the same function as each of the inverse Fourier transform units 2124, it will be briefly described.

フーリエ変換部2311は、登録画像AIMをフーリエ変換し合成部232に出力する。この際、予めフーリエ変換部21111でフーリエ変換処理した登録画像AIMをメモリ12に記憶しておき、それを合成部232に出力してもよい。こうすることにより2重にフーリエ変換処理を行うことがないために、処理が軽減される。
フーリエ変換部2312は、補正部22により、補正された画像S22をフーリエ変換を行い、処理結果のフーリエ画像を合成部232に出力する。
The Fourier transform unit 2311 performs Fourier transform on the registered image AIM and outputs the result to the synthesis unit 232. At this time, the registered image AIM subjected to the Fourier transform process by the Fourier transform unit 21111 may be stored in the memory 12 and output to the combining unit 232. By doing so, the Fourier transform processing is not performed twice, so that the processing is reduced.
The Fourier transform unit 2312 performs Fourier transform on the image S22 that has been corrected by the correction unit 22 and outputs a Fourier image as a processing result to the synthesis unit 232.

合成部232は、フーリエ変換部2311,2312から出力されたフーリエ画像S2311,S2312を合成し、合成画像S232を位相抽出部233に出力する。
位相抽出部233は,合成画像S232に基づいて上述したように位相情報を抽出して信号S233を逆フーリエ変換部234に出力する。
逆フーリエ変換部234は、信号S233に基づいて逆フーリエ変換を行い相関強度画像(相関画像データ)を生成し、信号S23としてずれ情報生成部24に出力する。
The synthesizing unit 232 synthesizes the Fourier images S2311, S2312 output from the Fourier transform units 2311, 2312 and outputs the synthesized image S232 to the phase extraction unit 233.
The phase extraction unit 233 extracts the phase information as described above based on the composite image S232 and outputs the signal S233 to the inverse Fourier transform unit 234.
The inverse Fourier transform unit 234 performs inverse Fourier transform based on the signal S233 to generate a correlation strength image (correlation image data), and outputs the correlation strength image (correlation image data) to the shift information generation unit 24.

上述の位相限定相関法における平行移動量の検出処理の詳細な説明を行う。
例えば、原画像f1(m,n)、原画像f2(m,n)、および画像f2(m,n)を平行移動した画像f3(m,n)=f2(m+α,n+β)それぞれをフーリエ変換処理し、数式(19)〜(21)に示すように、フーリエ係数F1(u,v),F2(u,v),F3(u,v)を生成する。
A detailed description of the parallel displacement detection process in the above-described phase-only correlation method will be given.
For example, the original image f1 (m, n), the original image f2 (m, n), and the image f3 (m, n) = f2 (m + α, n + β) obtained by translating the image f2 (m, n) are Fourier transformed. Processing is performed to generate Fourier coefficients F1 (u, v), F2 (u, v), and F3 (u, v) as shown in equations (19) to (21).

Figure 0005045763
…(19)
Figure 0005045763
... (19)

Figure 0005045763
…(20)
Figure 0005045763
... (20)

Figure 0005045763
…(21)
Figure 0005045763
... (21)

フーリエ係数F1(u,v)〜F3(u,v)に基づいて、数式(22)〜(24)に示すように、位相情報のみの位相画像F’1(u,v)〜F’3(u,v)を生成する。   Based on the Fourier coefficients F1 (u, v) to F3 (u, v), as shown in the mathematical expressions (22) to (24), the phase images F′1 (u, v) to F′3 having only phase information. (U, v) is generated.

Figure 0005045763
…(22)
Figure 0005045763
... (22)

Figure 0005045763
…(23)
Figure 0005045763
... (23)

Figure 0005045763
…(24)
Figure 0005045763
... (24)

位相画像F’1(u,v)と位相画像F’2(u,v)の相関の位相画像の相関Z12(u,v)を数式(25)に示すように計算し、位相画像F’1(u,v)と位相画像F’3(u,v)の相関の位相画像の相関Z13(u,v)を数式(26)に示すように計算する。   The correlation Z12 (u, v) of the phase image of the correlation between the phase image F′1 (u, v) and the phase image F′2 (u, v) is calculated as shown in the equation (25), and the phase image F ′ The correlation Z13 (u, v) of the phase image of the correlation between 1 (u, v) and the phase image F′3 (u, v) is calculated as shown in equation (26).

Figure 0005045763
…(25)
Figure 0005045763
... (25)

Figure 0005045763
…(26)
Figure 0005045763
... (26)

相関Z12(u,v)の相関強度画像G12(r,s)、および相関Z13(u,v)の相関強度画像G13(r,s)を数式(27),(28)に示すように計算する。   The correlation strength image G12 (r, s) of the correlation Z12 (u, v) and the correlation strength image G13 (r, s) of the correlation Z13 (u, v) are calculated as shown in equations (27) and (28). To do.

Figure 0005045763
…(27)
Figure 0005045763
... (27)

Figure 0005045763
…(28)
Figure 0005045763
... (28)

数式(27),(28)に示すように、画像f3(m,n)が、画像2(m,n)に比べて(+α、+β)だけずれている場合には、位相限定相関法では、相関強画像において、(−α,−β)だけずれた位置に相関強度のピークが生成される。この相関強度位置の位置により、2つの画像間の平行移動量を求めることができる。
また、上述したフーリエ・メリン空間上で、この位相限定相関法を用いることにより、フーリエ・メリン空間上の平行移動量が検出できる。この平行移動量は、上述したように実空間では倍率情報および回転角度情報に相当する。
As shown in equations (27) and (28), when the image f3 (m, n) is shifted by (+ α, + β) compared to the image 2 (m, n), the phase-only correlation method is used. In the strong correlation image, a correlation strength peak is generated at a position shifted by (−α, −β). Based on the position of the correlation strength position, the amount of parallel movement between the two images can be obtained.
In addition, by using this phase-only correlation method on the above-described Fourier-Melin space, the amount of parallel movement on the Fourier-Melin space can be detected. This parallel movement amount corresponds to magnification information and rotation angle information in the real space as described above.

図9は、自己相関法と位相限定相関法の相違点を説明するための図である。
自己相関法では、例えば図9(a),(b)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い自己相関関数SG1を生成すると、図9(c)に示すように、相関強度が高いピークと、その周辺部に小さい相関強度を有する相関強度分布が得られる。図9(c)において縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。
FIG. 9 is a diagram for explaining the difference between the autocorrelation method and the phase only correlation method.
In the autocorrelation method, for example, as shown in FIGS. 9A and 9B, when the image IM1 and the image IM2 that is the same as the image IM1 are subjected to Fourier transform to generate the autocorrelation function SG1, the result shown in FIG. 9C is obtained. As described above, a correlation strength distribution having a peak having a high correlation strength and a small correlation strength at the periphery thereof is obtained. In FIG. 9C, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and y-axis indicate the shift amount.

一方、上述した位相限定相関法では、図9(d),(e)に示すように、画像IM1、および画像IM1と同じ画像IM2をフーリエ変換を行い、位相情報のみを相関すると図9(f)に示すように、相関強度が高く鋭いピークのみを有する相関強度分布が得られる。このように位相限定法では自己相関法に比べて相関に関して明確な情報を得ることができる。図9(f)において、縦軸(z軸)は相関強度を示し、x軸,y軸はずれ量を示す。   On the other hand, in the above-described phase-only correlation method, as shown in FIGS. 9D and 9E, when the image IM1 and the image IM2 that is the same as the image IM1 are subjected to Fourier transform and only the phase information is correlated, FIG. ), A correlation strength distribution having a high correlation strength and only a sharp peak is obtained. Thus, the phase-only method can obtain clear information regarding the correlation as compared with the autocorrelation method. In FIG. 9F, the vertical axis (z-axis) indicates the correlation strength, and the x-axis and the y-axis indicate the shift amount.

図10は、位相限定相関法において、2つの画像間で平行移動ずれがある場合の相関強度分布を説明するための図である。
例えば図10(a),(b)に示すような画像IM1、および画像IM1より数画素平行移動している画像IM3の画像の位相限定法における相関強度分布は、例えば図10(c)に示すように、相関強度が高く鋭いピークが、図9(f)に示した相関画像データの内のピーク位置から、平行移動量に応じた距離だけずれた位置に分布している。しかし、図10(c)に示すピーク強度は、図9(f)に示したピーク強度に比べて小さい。これは画像IM1,IM2に比べて、画像IM1,IM3の一致している画素領域が小さいためである。
FIG. 10 is a diagram for explaining a correlation intensity distribution when there is a parallel shift between two images in the phase only correlation method.
For example, the correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 10A and 10B and the image IM3 moved several pixels parallel from the image IM1 is shown in FIG. 10C, for example. Thus, sharp peaks with high correlation strength are distributed at positions shifted from the peak positions in the correlation image data shown in FIG. 9F by a distance corresponding to the amount of parallel movement. However, the peak intensity shown in FIG. 10C is smaller than the peak intensity shown in FIG. This is because the matching pixel regions of the images IM1 and IM3 are smaller than those of the images IM1 and IM2.

図11は、位相限定法において、2つの画像間で回転ずれがある場合の相関強度分布を説明するための図である。
図11(a),(b)に示すような画像IM1、および画像IM1より数度回転している画像IM4の位相限定法における相関強度分布は、例えば図11に示すように、弱い相関強度の相関強度分布が得られる。単純に位相限定相関法を用いた場合には回転ずれにより、相関を検出することが困難である。
FIG. 11 is a diagram for explaining the correlation strength distribution when there is a rotational shift between two images in the phase limiting method.
The correlation intensity distribution in the phase limiting method of the image IM1 as shown in FIGS. 11A and 11B and the image IM4 rotated several degrees from the image IM1 is, for example, as shown in FIG. A correlation strength distribution is obtained. If the phase-only correlation method is simply used, it is difficult to detect the correlation due to rotational deviation.

このため、本実施形態に係る画像照合装置1aでは、登録画像AIMおよび照合画像RIMを、フーリエ・メリン変換を行い、フーリエ・メリン空間上で、位相限定相関法を用いることにより、平行移動量を検出し、登録画像AIMおよび照合画像RIMの倍率情報、および回転角度情報を検出する。その情報に基づいて、照合画像の倍率および回転角度を補正する。
補正した照合画像RIMおよび登録画像AIM間の平行移動ずれを、位相限定相関法により検出し、同時に相関ピークに基づいて画像間の照合を行う。
For this reason, in the image collation apparatus 1a according to the present embodiment, the registered image AIM and the collation image RIM are subjected to Fourier-Melin transform, and the phase-only correlation method is used in the Fourier-Melin space to obtain the translation amount. And detecting magnification information and rotation angle information of the registered image AIM and the collation image RIM. Based on the information, the magnification and rotation angle of the verification image are corrected.
A translation shift between the corrected collation image RIM and the registered image AIM is detected by the phase only correlation method, and at the same time, collation between the images is performed based on the correlation peak.

図12は、位相限定相関部23が出力する相関画像データを説明するための図である。図12(a)は登録画像AIM、図12(b)は照合画像RIM、図12(c)は相関画像データの一具体例を示す図である。図13は図12(c)に示した相関画像データを説明するための図である。   FIG. 12 is a diagram for explaining the correlation image data output by the phase only correlation unit 23. 12A is a registered image AIM, FIG. 12B is a collation image RIM, and FIG. 12C is a diagram showing a specific example of correlation image data. FIG. 13 is a diagram for explaining the correlation image data shown in FIG.

登録画像AIM,照合画像RIMとして、例えば手書き文字や血管パターン等の2値化および線形状のパターンを含む場合、例えば図12(a),(b)に示すような登録画像AIM,照合画像RIMの場合、位相限定相関部23は信号S23として図12(c)に示すような相関画像データを出力する。   When the registered image AIM and collation image RIM include, for example, binarized and linear patterns such as handwritten characters and blood vessel patterns, for example, the registered image AIM and collation image RIM as shown in FIGS. In this case, the phase only correlation unit 23 outputs correlation image data as shown in FIG.

図12(c)において、z軸方向は相関画像データにおける相関ピーク強度を示し、相関ピーク強度は登録画像AIMと照合画像RIM間の相関度に相当する。図12(c)および図13に示すように、x軸方向,y軸方向での相関ピーク位置PPは、例えば画像中心からのずれ量が登録画像AIMと照合画像RIM間の平行移動量に相当する。   In FIG. 12C, the z-axis direction indicates the correlation peak intensity in the correlation image data, and the correlation peak intensity corresponds to the correlation degree between the registered image AIM and the collation image RIM. As shown in FIGS. 12C and 13, the correlation peak position PP in the x-axis direction and the y-axis direction has a deviation amount from the center of the image, for example, corresponding to the parallel movement amount between the registered image AIM and the collation image RIM. To do.

ずれ情報生成部24は、23位相限定相関部23から出力された信号S23に基づいて、画像中心からのずれ量をずれ情報として生成し、信号S24を補正部25に出力する。   The shift information generation unit 24 generates a shift amount from the image center as shift information based on the signal S23 output from the 23 phase only correlation unit 23, and outputs the signal S24 to the correction unit 25.

補正部25は、ずれ情報生成部24から出力されたずれ情報としての信号S24および照合画像RIMに基づいて、照合画像RIMの位置補正処理を行い、信号S1612として出力する。   The correction unit 25 performs position correction processing of the collation image RIM based on the signal S24 and the collation image RIM as deviation information output from the deviation information generation unit 24, and outputs the result as a signal S1612.

図14は、図1に示した画像照合装置1の動作を説明するためのフローチャートである。以上説明した構成の画像照合装置1aの動作を図14を参照しながら、第1実施形態との相違点のみ説明する。   FIG. 14 is a flowchart for explaining the operation of the image collating apparatus 1 shown in FIG. Only the differences from the first embodiment will be described with reference to FIG. 14 for the operation of the image collating apparatus 1a having the configuration described above.

例えば画像入力部11により、登録画像AIMおよび照合画像RIMが入力され、メモリにそれぞれの画像データが格納される(ST1)。
ここで、登録画像AIMに対する照合画像RIMの倍率(拡大/縮小率)および回転角度情報を求めるために、登録画像AIMがメモリ12から読み出され(ST2)、倍率情報−回転情報部21のフーリエ変換部21111により、フーリエ変換処理され(ST3)、フーリエ画像データS21111がメモリ12に格納、記憶される(ST4)。
フーリエ画像データS21111の内の振幅成分は、対数変換部21121により対数処理が行われ、対数−極座標変換部21131により、対数−極座標系に変換される(ST5)。
For example, the registered image AIM and the collation image RIM are input by the image input unit 11, and each image data is stored in the memory (ST1).
Here, in order to obtain the magnification (enlargement / reduction ratio) and rotation angle information of the collation image RIM with respect to the registration image AIM, the registration image AIM is read from the memory 12 (ST2), and the Fourier of the magnification information-rotation information unit 21 is read. The transform unit 21111 performs Fourier transform processing (ST3), and Fourier image data S21111 is stored and stored in the memory 12 (ST4).
The amplitude component in the Fourier image data S21111 is subjected to logarithmic processing by the logarithmic conversion unit 21121 and converted to a logarithmic-polar coordinate system by the logarithmic-polar coordinate conversion unit 21131 (ST5).

照合画像RIMが、メモリ12から読み出され(ST6)、同様にフーリエ変換部21112によりフーリエ変換処理され(ST7)、フーリエ画像データS21112の内の振幅成分が、対数変換部21122により対数処理が行われ、対数−極座標変換部21132により、対数−極座標系に変換される(ST8)。   The collation image RIM is read from the memory 12 (ST6), and similarly subjected to Fourier transform processing by the Fourier transform unit 21112 (ST7). The amplitude component in the Fourier image data S21112 is subjected to logarithmic processing by the logarithmic transform unit 21122. Then, the logarithmic-polar coordinate conversion unit 21132 converts the logarithmic-polar coordinate system (ST8).

上述した登録画像AIMおよび照合画像RIMにフーリエ・メリン変換を行った結果得られた、画像信号(パターンデータとも言う)SA211、SR211それぞれは、位相限定相関部212のフーリエ変換部2120,2121によりフーリエ変換処理され(ST9)、合成部2122により合成され(ST10)、位相抽出部2123により合成信号から振幅成分が除去され(ST11)、残りの位相成分が、逆フーリエ変換部2124により逆フーリエ変換処理され(ST12)、得られた相関画像データのピーク位置の画像中心からのずれ量に基づいて、倍率情報−回転情報生成部213により倍率情報および回転情報を含む補正情報が生成(検出)される(ST13)。   The image signals (also referred to as pattern data) SA211 and SR211 obtained as a result of performing the Fourier-Melin transform on the registered image AIM and the collation image RIM described above are Fourier transformed by the Fourier transform units 2120 and 2121 of the phase only correlation unit 212, respectively. It is transformed (ST9), synthesized by the synthesizer 2122 (ST10), the amplitude component is removed from the synthesized signal by the phase extractor 2123 (ST11), and the remaining phase component is inverse Fourier transformed by the inverse Fourier transformer 2124. (ST12) Based on the amount of deviation of the peak position of the obtained correlation image data from the image center, the magnification information-rotation information generation unit 213 generates (detects) correction information including the magnification information and the rotation information. (ST13).

補正部22では、補正情報に基づいて照合画像の拡大/縮小および回転処理の補正処理が行われ、画像間のスケーリング成分、および回転成分が除去される(ST14)。残る差異は平行移動成分のみであり、位相限定相関法を用いて検出される。   The correction unit 22 performs correction processing for enlargement / reduction of the collation image and rotation processing based on the correction information, and removes the scaling component and the rotation component between the images (ST14). The remaining difference is only the translation component and is detected using the phase only correlation method.

補正処理が行われた照合画像RIMは、位相限定相関部23のフーリエ変換部2312によりフーリエ変換されて(ST15)フーリエ画像データS2312が生成され、メモリ12に格納されたフーリエ変換された登録画像AIMが読み出され(ST16)、合成部232により合成データS232が生成される(ST17)。   The corrected image RIM subjected to the correction process is Fourier-transformed by the Fourier transform unit 2312 of the phase-only correlation unit 23 (ST15) to generate Fourier image data S2312, and the Fourier-transformed registered image AIM stored in the memory 12 Is read (ST16), and the combining unit 232 generates combined data S232 (ST17).

この際、登録画像AIMがフーリエ変換部2311によりフーリエ変換されてフーリエ画像データS2311が生成されて合成部232に入力されてもよい。
合成データS232の内の振幅情報が位相抽出部233により除去され(ST18)、残りの位相情報が逆フーリエ変換部234に入力され、相関画像データとして信号S23が出力される(ST19)。
信号23に基づいて、ずれ情報生成部24により、ピーク位置のずれ量が検出され、ずれ情報として信号S24が出力される(ST20)。
補正部25では、ずれ情報としての信号S24および照合画像RIMに基づいて、登録画像AIMと照合画像RIMの位置補正処理が行われ、信号S1612が出力される。また、登録画像AIMが信号S1611として出力される(ST21)。
At this time, the registered image AIM may be Fourier-transformed by the Fourier transform unit 2311 to generate Fourier image data S2311 and input to the synthesis unit 232.
The amplitude information in the synthesized data S232 is removed by the phase extraction unit 233 (ST18), the remaining phase information is input to the inverse Fourier transform unit 234, and the signal S23 is output as correlation image data (ST19).
Based on the signal 23, the shift information generation unit 24 detects the shift amount of the peak position, and outputs a signal S24 as shift information (ST20).
The correction unit 25 performs position correction processing of the registered image AIM and the collation image RIM based on the signal S24 as the deviation information and the collation image RIM, and outputs a signal S1612. Also, the registered image AIM is output as signal S1611 (ST21).

以下、第1実施形態と同様の動作であり、ハフ変換部162がハフ変換処理を行い(ST22)、抽出部163が抽出処理を行い(ST23)、類似度生成部1641が類似度Simを生成する(ST24)。
ステップST25において、照合部1642では、類似度Simが予め設定された閾値より大きいか(超えているか)否かが判別され、大きい場合には、登録画像AIMおよび照合画像RIMが一致すると判別し(ST26)、閾値より小さい場合には不一致であると判別する(ST27)。
Hereinafter, the operation is the same as that of the first embodiment, the Hough transform unit 162 performs the Hough transform process (ST22), the extractor 163 performs the extract process (ST23), and the similarity generation unit 1641 generates the similarity Sim. (ST24).
In step ST25, the collation unit 1642 determines whether or not the similarity Sim is greater than (or exceeds) a preset threshold value. If it is greater, it is determined that the registered image AIM and the collation image RIM match ( ST26) If it is smaller than the threshold, it is determined that there is a mismatch (ST27).

以上、説明したように本実施形態では、位置補正部161が位置補正処理として、登録画像AIMと照合画像RIMとの回転角度補正処理または拡大率補正処理、およびフーリエ変換処理の結果の位相成分に基づいて相関値を生成し、生成した相関値に基づいて登録画像AIMおよび照合画像RIMの位置補正処理を行うので、高精度に位置補正処理を行うことができ、その結果高精度に照合処理を行うことができる。   As described above, in the present embodiment, the position correction unit 161 uses the phase component as a result of the rotation angle correction process or the enlargement ratio correction process between the registered image AIM and the matching image RIM and the Fourier transform process as the position correction process. Since the correlation value is generated based on the position and the position correction processing of the registered image AIM and the matching image RIM is performed based on the generated correlation value, the position correction processing can be performed with high accuracy. As a result, the matching processing can be performed with high accuracy. It can be carried out.

第3実施の形態
図15は、本発明に係る画像照合装置の第3実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1bは、ハードウェア的な機能ブロックは、第1実施形態に係る画像照合装置1と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1bのソフトウェア的な機能ブロックは、第2実施形態に係る画像照合装置1と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161b、ハフ変換部162、抽出部163、および判別部164bの機能を実現する。図15では、同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
Third Embodiment FIG. 15 is a functional block diagram of a third embodiment of an image collating apparatus according to the present invention.
The image collating apparatus 1b according to the present embodiment has a hardware functional block substantially the same configuration as the image collating apparatus 1 according to the first embodiment. For example, as illustrated in FIG. The memory 12 includes an FFT processing unit 13, a coordinate conversion unit 14, a Hough conversion unit 15, a CPU 16, and an operation processing unit 17.
The software functional block of the image collating device 1b has substantially the same configuration as that of the image collating device 1 according to the second embodiment. When the CPU 16 executes the program PRG, the position correcting unit 161b, the Hough converting unit 162, The functions of the extraction unit 163 and the determination unit 164b are realized. In FIG. 15, the same functions are denoted by the same reference numerals, description thereof is omitted, and only differences are described.

大きな相違点としては、位置補正部161bや判別部164b等が異なる点である。
本実施形態において、位置補正部161bは、登録画像AIMおよび照合画像RIMに基づいて相関処理により、補正位置を示す複数の相関値を生成し、生成した複数の相関値に基づいて、登録画像AIMおよび照合画像RIMの複数の位置補正処理を行う。
The major difference is that the position correction unit 161b and the determination unit 164b are different.
In the present embodiment, the position correction unit 161b generates a plurality of correlation values indicating the correction position by correlation processing based on the registered image AIM and the collation image RIM, and the registered image AIM based on the generated plurality of correlation values. In addition, a plurality of position correction processes for the collation image RIM are performed.

図16は、図15に示した位置補正部の動作を説明するための図である。数値は、相関画像データのX−Y面上での相関画像データの相関ピーク強度を示す。
例えば2値化した線成分(線形状)のパターンを含む登録画像AIM,照合画像RIMの場合、相関の大きい画像同士でも、相関ピーク強度(相関強度とも言う)が図16(a),(b)に示すように値が小さい。
例えば、位置補正部161bのずれ情報生成部24は、信号S23に基づいて、例えば図16(a)に示すように相関強度の上位N個、本実施形態では8個の相関値および相関ピーク位置を、登録画像AIMと照合画像RIMとの2次元上の位置関係の候補として特定する。
位置補正部161bは、複数の相関値およびそれに対応する相関ピーク位置に基づいて、必要に応じて複数の位置補正処理を行う。
FIG. 16 is a diagram for explaining the operation of the position correction unit shown in FIG. The numerical value indicates the correlation peak intensity of the correlation image data on the XY plane of the correlation image data.
For example, in the case of a registered image AIM and a collation image RIM including a binarized line component (line shape) pattern, correlation peak intensities (also referred to as correlation intensities) between images having a large correlation are shown in FIGS. The value is small as shown in
For example, the deviation information generation unit 24 of the position correction unit 161b can generate, based on the signal S23, the top N correlation strengths, for example, eight correlation values and correlation peak positions in this embodiment, as shown in FIG. Is specified as a candidate for a two-dimensional positional relationship between the registered image AIM and the collation image RIM.
The position correction unit 161b performs a plurality of position correction processes as necessary based on the plurality of correlation values and the corresponding correlation peak positions.

ハフ変換部162は、複数の位置補正処理の結果の登録画像AIMおよび照合画像RIMそれぞれについてハフ変換処理を行い、変換画像S1621,S1622を生成する。 判別部164bは、2つの変換画像中のパターンに基づいて相関値を生成し、生成した相関値および予め設定された閾値に基づいて登録画像AIMおよび照合画像RIMの照合処理を行う。また、判別部164bは、複数の位置補正処理の結果に基づいて、異なる位置に対応する相関値の総和値および予め設定された閾値に基づいて照合処理を行う。   The Hough transform unit 162 performs a Hough transform process on each of the registered image AIM and the collation image RIM as a result of the plurality of position correction processes, and generates converted images S1621, S1622. The determination unit 164b generates a correlation value based on the patterns in the two converted images, and performs a matching process on the registered image AIM and the matching image RIM based on the generated correlation value and a preset threshold value. Further, the determination unit 164b performs a matching process based on the sum of correlation values corresponding to different positions and a preset threshold value based on the results of the plurality of position correction processes.

詳細には、判別部164bは、類似度生成部1641、照合部1642b、および積算部1643を有する。
類似度生成部1641は、例えば上述したように信号S1631,S1632に基づいて、数式(2)により類似度Simを生成し、信号S1641として積算部1643および照合部1642bに出力する。
Specifically, the determination unit 164b includes a similarity generation unit 1641, a collation unit 1642b, and an integration unit 1643.
For example, as described above, the similarity generation unit 1641 generates the similarity Sim based on Expression (2) based on the signals S1631 and S1632, and outputs the similarity Sim to the integration unit 1643 and the collation unit 1642b as the signal S1641.

積算部1643は、信号S1641に基づいて類似度Simを積算し、積算結果を信号S1643として照合部1642bに出力する。
照合部1642bは、信号S1641および信号S1643に基づいて、登録画像AIMおよび照合画像RIMの照合処理を行う。
第1実施形態に係る照合部1642との相違点は、照合部1642bは、積算部による類似度Simの積算値である信号S1643が、所定の閾値よりも大きい場合に、登録画像AIMと照合画像RIMが一致していると判別する点である。
The integration unit 1643 integrates the similarity Sim based on the signal S1641, and outputs the integration result to the collation unit 1642b as a signal S1643.
The matching unit 1642b performs a matching process on the registered image AIM and the matching image RIM based on the signal S1641 and the signal S1643.
The difference from the collation unit 1642 according to the first embodiment is that the collation unit 1642b differs from the registered image AIM and the collation image when the signal S1643, which is the accumulated value of the similarity Sim by the accumulation unit, is larger than a predetermined threshold. The point is that the RIM matches.

図17は、本発明に係る画像照合装置の第3実施形態の動作を説明するためのフローチャートである。図14,17を参照しながら、画像照合装置の動作をCPU16の動作を中心に、第1実施形態および第2実施形態との相違点のみ説明する。   FIG. 17 is a flowchart for explaining the operation of the third embodiment of the image collating apparatus according to the present invention. With reference to FIGS. 14 and 17, the operation of the image collating apparatus will be described only with respect to the operation of the CPU 16, and only the differences from the first embodiment and the second embodiment.

ステップST1〜ST19については、図14に示した第2実施形態と同様の動作なので説明を省略する。
ステップST19により位相限定相関部23から出力された相関画像データS23に基づいて、ずれ情報生成部24により相関画像データS23における相関ピーク強度の上位側から、例えばN個の候補Pi (P0 ,P1 ,P2 ,…,Pn-1 )が選定される(ST28)。
Steps ST1 to ST19 are the same as those in the second embodiment shown in FIG.
On the basis of the correlation image data S23 output from the phase-only correlation unit 23 in step ST19, for example, N candidates Pi (P0, P1,. P2,..., Pn-1) are selected (ST28).

ステップST29において、積算部1643は、積算のための変数を初期化する。例えば変数iを0、積算値Sを0に初期化する。
補正部25は、例えば各候補(座標)Pi およびそれに対応する相関画像データの中心からのずれ量に基づいて、登録画像AIM,照合画像RIMの位置補正処理を行う(ST30)。
In step ST29, the integrating unit 1643 initializes variables for integration. For example, the variable i is initialized to 0 and the integrated value S is initialized to 0.
The correcting unit 25 performs position correction processing of the registered image AIM and the collation image RIM based on, for example, each candidate (coordinate) Pi and the amount of deviation from the center of the corresponding correlation image data (ST30).

次に、上述したようにハフ変換部162により登録画像AIMおよび照合画像RIMそれぞれのハフ変換処理を行い(ST31)、抽出部163により抽出処理が行われ(ST32)、類似度生成部1641により類似度Sim(i)が算出され、積算部1643および照合部1642bに出力される(ST33)。   Next, as described above, the Hough conversion unit 162 performs a Hough conversion process for each of the registered image AIM and the collation image RIM (ST31), the extraction unit 163 performs an extraction process (ST32), and the similarity generation unit 1641 performs a similar process. Degree Sim (i) is calculated and output to integrating section 1643 and collating section 1642b (ST33).

照合部1642bでは、類似度Sim(i)と、予め設定した第1の閾値th1とを比較し、類似度Sim(i)が第1の閾値より小さい場合には(ST34)、積算部1643では、類似度Sim(i)を積算し、詳細には数式S=S+Sim(i)により積算し照合部1642bに出力する(ST35)。
ステップST35において、照合部1642bでは、積算値Sと予め設定した第2の閾値th2とを比較し(ST36)、積算値Sが第2の閾値th2よりも小さい場合には、変数iと値N−1とが比較され(ST27)、変数iがN−1と一致していない場合には、変数iに1加算し(ST28)、ステップST30の処理に戻る。ステップST27において、変数iがN−1と一致した場合には、画像が不一致であるとする(ST39)。
The matching unit 1642b compares the similarity Sim (i) with a preset first threshold th1. If the similarity Sim (i) is smaller than the first threshold (ST34), the integrating unit 1643 Then, the similarity Sim (i) is integrated, and in detail, it is integrated by the formula S = S + Sim (i) and output to the collation unit 1642b (ST35).
In step ST35, the collation unit 1642b compares the integrated value S with a preset second threshold th2 (ST36). If the integrated value S is smaller than the second threshold th2, the variable i and the value N -1 is compared (ST27), and if the variable i does not match N-1, 1 is added to the variable i (ST28), and the process returns to step ST30. In step ST27, if the variable i matches N-1, it is assumed that the images do not match (ST39).

一方、ステップST34の比較処理において、照合部1642bでは、類似度Sim(i)が第1の閾値以上の場合には、画像が一致していると判別し、また、ステップST36の比較処理において、照合部1642bでは、積算値Sが第2の閾値th2以上の場合には、画像が一致しているとし(ST40)、例えばセキュリティ分野における静脈パターン照合装置に、本実施形態に係る画像照合装置を適用した場合には、電子錠を解除するといった処理を動作処理部17が行う。   On the other hand, in the comparison process of step ST34, the collation unit 1642b determines that the images match when the similarity Sim (i) is equal to or greater than the first threshold value. In the comparison process of step ST36, In the matching unit 1642b, when the integrated value S is equal to or greater than the second threshold th2, it is assumed that the images match (ST40). For example, the image matching device according to the present embodiment is applied to the vein pattern matching device in the security field. When applied, the operation processing unit 17 performs processing such as releasing the electronic lock.

以上、説明したように、本実施形態では、位置補正部161では、補正位置を示す複数の相関値を生成し、生成した複数の相関値に基づいて、登録画像AIMおよび照合画像RIMの複数の位置補正処理を行い、ハフ変換部162では、複数の位置補正処理の結果の登録画像AIMおよび照合画像RIMそれぞれについて画像処理としてハフ変換処理を行い、照合部1642bでは、それぞれの変換画像中のパターンに応じた相関値としての類似度の積算値に基づいて照合処理を行うので、例えば、比較対照を行う2枚の画像データ間の相関が小さい場合であっても、複数の各候補の位置関係それぞれについて算出される類似度を積算することにより、類似度単独で照合を行う場合に比べて、高精度に照合を行うことができる。   As described above, in the present embodiment, the position correction unit 161 generates a plurality of correlation values indicating the correction position, and based on the generated plurality of correlation values, a plurality of registered images AIM and matching images RIM. Position correction processing is performed, and the Hough conversion unit 162 performs Hough conversion processing as image processing for each of the registered image AIM and the verification image RIM as a result of the plurality of position correction processing, and the verification unit 1642b performs pattern conversion in each converted image. Since the collation process is performed based on the integrated value of the similarity as the correlation value according to, for example, even when the correlation between the two pieces of image data to be compared is small, the positional relationship between each of a plurality of candidates By summing up the similarities calculated for each of them, it is possible to perform collation with higher accuracy than in the case where collation is performed by the similarity alone.

また、類似度Simが第1の閾値th1よりも大きい場合には一致していると判別するので、高速に照合処理を行うことができる。   In addition, when the similarity Sim is larger than the first threshold th1, it is determined that they match, so that the matching process can be performed at high speed.

第4実施の形態
図18は、本発明に係る画像照合装置の第4実施形態の機能ブロック図である。
本実施形態に係る画像照合装置1cは、ハードウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
画像照合装置1cのソフトウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、CPU16がプログラムPRGを実行することにより、位置補正部161、ハフ変換部162、抽出部163c、および判別部164の機能を実現する。図18では、同一の機能は同一の符号を付して説明を省略し、相違点のみ説明する。
Fourth Embodiment FIG. 18 is a functional block diagram of an image collating apparatus according to a fourth embodiment of the present invention.
The image collating apparatus 1c according to the present embodiment has a hardware functional block substantially the same configuration as the image collating apparatus according to the above-described embodiment. For example, as illustrated in FIG. 12, an FFT processing unit 13, a coordinate conversion unit 14, a Hough conversion unit 15, a CPU 16, and an operation processing unit 17.
The software functional block of the image collating apparatus 1c has substantially the same configuration as that of the image collating apparatus according to the above-described embodiment. When the CPU 16 executes the program PRG, the position correcting unit 161, the Hough converting unit 162, and the extraction are performed. The functions of the unit 163c and the determination unit 164 are realized. In FIG. 18, the same functions are denoted by the same reference numerals, description thereof is omitted, and only differences are described.

大きな相違点としては、抽出部163cが異なる点である。
本実施形態において、抽出部163cは、第1の変換画像および第2の変換画像それぞれについて、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定値よりも大きくなるように閾値を制御する。
また、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御する。
A major difference is that the extraction unit 163c is different.
In the present embodiment, the extraction unit 163c extracts, for each of the first converted image and the second converted image, a region where the degree of overlapping of the curved pattern in one converted image is equal to or greater than a preset threshold value, Based on the size of the extracted region, the threshold value is controlled so that the size of the extracted region is larger than the set value.
Further, the extraction unit 163c controls the threshold based on the size of the extracted region so that the size of the extracted region is within the setting range.

図19は、図17に示した画像照合装置1cの動作を説明するための図である。
図19(a)は、画像IM11の一具体例を示す図である。図19(b)は、図19(a)に示した画像IM11から第1閾値以上の領域を抽出した画像を示す図である。図19(c)は、図19(a)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。
図19(d)は、画像IM12の一具体例を示す図である。図19(e)は、図19(d)に示した画像IM12から第1閾値以上の領域を抽出した画像を示す図である。図19(f)は、図19(d)に示した画像IM11から第1閾値よりも大きい第2閾値以上の領域を抽出した画像を示す図である。
FIG. 19 is a diagram for explaining the operation of the image collating apparatus 1c shown in FIG.
FIG. 19A shows a specific example of the image IM11. FIG. 19B is a diagram illustrating an image obtained by extracting a region equal to or greater than the first threshold value from the image IM11 illustrated in FIG. FIG. 19C is a diagram illustrating an image obtained by extracting a region greater than or equal to the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG.
FIG. 19D is a diagram showing a specific example of the image IM12. FIG. 19E is a diagram illustrating an image obtained by extracting a region having a first threshold value or more from the image IM12 illustrated in FIG. FIG. 19F is a diagram illustrating an image obtained by extracting a region equal to or larger than the second threshold value that is larger than the first threshold value from the image IM11 illustrated in FIG.

例えば、上述した実施形態では、登録画像や照合画像にハフ変換処理を施した後、変換画像から特徴量(パラメータ)を抽出する際に、閾値が固定であるため、画像によっては充分な特徴量を抽出できない場合や、逆に冗長な特徴量まで抽出してしまう場合がある。   For example, in the above-described embodiment, the threshold value is fixed when the feature value (parameter) is extracted from the converted image after the Hough transform process is performed on the registered image or the collation image. May not be extracted, or on the contrary, redundant feature amounts may be extracted.

詳細には、例えば図19(a)に示した画像IM11にハフ変換処理を施した後、変換画像から第1閾値よりも大きい領域を抽出すると、図19(b)に示すような画像IM111が生成され、第2閾値よりも大きい領域を抽出すると、図19(c)に示すような画像IM112が生成される。   Specifically, for example, after performing a Hough transform process on the image IM11 illustrated in FIG. 19A, and extracting an area larger than the first threshold from the converted image, an image IM111 as illustrated in FIG. 19B is obtained. When an area that is generated and larger than the second threshold is extracted, an image IM112 as shown in FIG. 19C is generated.

また、例えば図19(d)に示した画像IM12にハフ変換処理を施した後、変換画像から第1閾値よりも大きい領域を抽出すると、図19(e)に示すような画像IM121が生成され、第2閾値よりも大きい領域を抽出すると、図19(f)に示すような画像IM122が生成される。   Further, for example, when a region larger than the first threshold is extracted from the converted image after the Hough conversion process is performed on the image IM12 illustrated in FIG. 19D, an image IM121 illustrated in FIG. 19E is generated. When an area larger than the second threshold is extracted, an image IM122 as shown in FIG. 19F is generated.

例えば、画像IM112および画像IM121は、照合処理に関して適正なデータ量(特徴量)を有する一具体例である。
また、画像IM111は、照合処理に関して冗長なデータ量(特徴量)を有する一具体例である。
また、画像IM122は、照合処理に関して十分なデータ量(特徴量)を抽出できていない一具体例である。
For example, the image IM112 and the image IM121 are a specific example having an appropriate data amount (feature amount) regarding the collation processing.
The image IM111 is a specific example having a redundant data amount (feature amount) regarding the collation processing.
The image IM122 is a specific example in which a sufficient data amount (feature amount) cannot be extracted with respect to the matching process.

例えば閾値を固定した場合には、画像IM111と画像IM121間、または画像IM112と画像122間で比較・照合処理を行うため、十分な判定精度を確保できない場合がある。
例えば閾値を変化させて照合処理に関して十分なデータ量(特徴量)を有する画像IM112と画像IM121間で比較・照合処理を行うと判定精度が向上する。
For example, when the threshold value is fixed, the comparison / collation processing is performed between the image IM111 and the image IM121 or between the image IM112 and the image 122, so that sufficient determination accuracy may not be ensured.
For example, when the threshold value is changed and the comparison / collation processing is performed between the image IM112 and the image IM121 having a sufficient data amount (feature amount) regarding the collation processing, the determination accuracy is improved.

このため本実施形態に係る抽出部163cは、上述したようにハフ変換処理後の変換画像に対して特徴量を抽出する際に、ある閾値を用いて抽出された特徴量が照合に適切な範囲内に収まっていない場合には、閾値を変更して再度特徴量抽出を行ない、特徴量が適切な範囲内となるように制御を行う。   Therefore, when the extraction unit 163c according to the present embodiment extracts a feature amount from the converted image after the Hough conversion process as described above, the feature amount extracted using a certain threshold value is in a range suitable for matching. If it is not within the range, the threshold value is changed and the feature quantity is extracted again, and control is performed so that the feature quantity falls within an appropriate range.

図20は、本実施形態に係る画像照合装置の動作を説明するためのフローチャートである。図20を参照しながら、画像照合装置の動作を図14に示した実施形態との相違点を中心に説明する。   FIG. 20 is a flowchart for explaining the operation of the image collating apparatus according to the present embodiment. With reference to FIG. 20, the operation of the image collating apparatus will be described focusing on the differences from the embodiment shown in FIG.

ステップST1〜ステップST22の動作については、同じ動作であるので説明を省略する。
ステップST231において、抽出部163cは、ハフ変換部162が生成した各変換画像S1612,S1622に、予め設定した閾値を超えるパラメータ部分のみを特徴量として抽出する。
Since operations in steps ST1 to ST22 are the same, description thereof is omitted.
In step ST231, the extraction unit 163c extracts, as the feature amount, only the parameter portion exceeding the preset threshold value in each of the converted images S1612 and S1622 generated by the Hough conversion unit 162.

抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御する。
詳細には、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが最小値minよりも大きくなるように閾値を制御し、当該抽出した領域の大きさが、当該最小値minよりも大きい最大値maxよりも小さくなるように閾値を制御する。
Based on the size of the extracted region, the extraction unit 163c controls the threshold so that the size of the extracted region is within the set range.
Specifically, based on the size of the extracted region, the extraction unit 163c controls the threshold so that the size of the extracted region is larger than the minimum value min, and the size of the extracted region is The threshold value is controlled to be smaller than a maximum value max that is larger than the minimum value min.

例えばステップST232において、抽出部163cは、特徴量として抽出した領域の大きさが、最小値minよりも大きいか否かを判別し、大きくないと判別した場合には閾値を所定量だけ下げて(小さくして)(ST233)、ステップSTST231の処理に戻る。
一方、ステップST232において、抽出部163cは、特徴量として抽出した領域の大きさが、最小値minよりも大きいと判別した場合にはステップST234の処理に進む。
For example, in step ST232, the extraction unit 163c determines whether or not the size of the region extracted as the feature amount is larger than the minimum value min. If it is determined that the size is not larger, the extraction unit 163c decreases the threshold by a predetermined amount ( (Reduced) (ST233), the process returns to step STST231.
On the other hand, in step ST232, if the extraction unit 163c determines that the size of the region extracted as the feature amount is larger than the minimum value min, the process proceeds to step ST234.

ステップST234において、抽出部163cは、特徴量として抽出した領域の大きさが、最大値maxよりも小さいか否かを判別し、小さくないと判別した場合には閾値を所定量だけ上げて(大きくして)(ST233)、ステップSTST231の処理に戻る。 一方、ステップST234において、抽出部163cは、特徴量として抽出した領域の大きさが、最大値maxよりも小さいと判別した場合にはステップST24の処理に進む。   In step ST234, the extraction unit 163c determines whether or not the size of the region extracted as the feature amount is smaller than the maximum value max. If it is determined that the region is not small, the extraction unit 163c increases the threshold by a predetermined amount (larger). (ST233), the process returns to step STST231. On the other hand, in step ST234, if the extraction unit 163c determines that the size of the region extracted as the feature amount is smaller than the maximum value max, the extraction unit 163c proceeds to the process of step ST24.

ステップST24以降の処理は図14の処理と同様なので説明を省略する。   The processing after step ST24 is the same as the processing in FIG.

以上、説明したように、抽出部163cは、抽出した領域の大きさに基づいて、当該抽出した領域の大きさが設定範囲内となるように閾値を制御するので、照合処理に係る冗長なデータを低減することができ、さらに照合処理に最適なデータを抽出することができる。
また、照合処理に適正な画像を得ることができ、照合部164はより高精度に照合処理を行うことができる。
また、例えば撮像系が大幅に変化し、入力画像の情報量が極端に変化するような場合であっても、比較照合処理については何ら変更を加えることなく対処することができる。
As described above, the extraction unit 163c controls the threshold value based on the size of the extracted region so that the size of the extracted region is within the set range. Further, it is possible to extract optimum data for the collation process.
Further, an image suitable for the collation process can be obtained, and the collation unit 164 can perform the collation process with higher accuracy.
Further, for example, even when the imaging system changes significantly and the information amount of the input image changes extremely, the comparison / collation process can be handled without any change.

第5実施の形態
図21は、本発明に係る画像照合装置の第5実施形態の動作を説明するためのフローチャートである。
本実施形態に係る画像照合処理装置は、ハードウェア的な機能ブロックは、上述した実施形態に係る画像照合装置と略同様の構成であり、例えば図1に示すように、画像入力部11、メモリ12、FFT処理部13、座標変換部14、ハフ(Hough)変換部15、CPU16、および動作処理部17を有する。
Fifth Embodiment FIG. 21 is a flowchart for explaining the operation of the fifth embodiment of the image collating apparatus according to the present invention.
The image collation processing device according to the present embodiment has a hardware functional block that has substantially the same configuration as the image collation device according to the above-described embodiment. For example, as illustrated in FIG. 12, an FFT processing unit 13, a coordinate conversion unit 14, a Hough conversion unit 15, a CPU 16, and an operation processing unit 17.

例えば照合画像や登録画像の特徴量が著しく少ないような場合には、比較照合に充分な特徴量を得られず、充分な判定精度が得られない場合がある。
本実施形態に係る画像照合装置では、1つの変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、抽出した領域の大きさが設定値以下の場合には当該画像を破棄する。
For example, when the feature amount of the collation image or registered image is remarkably small, there may be a case where a feature amount sufficient for comparison and collation cannot be obtained and sufficient determination accuracy cannot be obtained.
In the image matching apparatus according to the present embodiment, an area where the degree of overlapping of the pattern of curves in one converted image is equal to or larger than a preset threshold is extracted, and the size of the extracted area is equal to or smaller than a set value. Discard the image.

以下、図21を参照しながら、上述した実施形態との相違点を中心に、例えば血管パターンを用いる個人認証装置等の用途において、ある画像データを照合用の登録画像として保存する場合を説明する。   Hereinafter, with reference to FIG. 21, a description will be given of a case where certain image data is stored as a registered image for collation in applications such as a personal authentication device using a blood vessel pattern, with a focus on differences from the above-described embodiment. .

ステップST101において、CPU16は、画像入力部11により、登録画像AIMとして保存するための画像データを取り込み、メモリ12に画像データを格納する。CPU16は、ハフ変換部15に、取り込んだ画像データにハフ変換処理を施させる(ST102)。   In step ST <b> 101, the CPU 16 uses the image input unit 11 to capture image data to be saved as the registered image AIM, and stores the image data in the memory 12. The CPU 16 causes the Hough converter 15 to perform a Hough conversion process on the captured image data (ST102).

ステップST103において、CPU16は、予め設定された閾値を超える領域を特徴量として抽出する(ST103)。
ステップST104において、CPU16は、抽出された領域の大きさが照合処理に最低限必要な最小値minよりも大きいか否かを判別し、大きい場合には登録画像AIMとして充分な情報量を有しているものとしてメモリ12に保存する(ST105)。
In step ST103, the CPU 16 extracts a region exceeding a preset threshold value as a feature amount (ST103).
In step ST104, the CPU 16 determines whether or not the size of the extracted area is larger than the minimum value min necessary for the collation process. If it is larger, the CPU 16 has a sufficient amount of information as the registered image AIM. Are stored in the memory 12 (ST105).

一方、ステップST104において、最小値minよりも大きくない場合には、入力された画像を破棄し(ST106)、登録画像AIMとしての情報量が不足している旨を表示する等して、画像データの再入力を要求する(ST107)。以下、上述した照合処理を行う。   On the other hand, if it is not larger than the minimum value min in step ST104, the input image is discarded (ST106), and the image data is displayed by displaying that the amount of information as the registered image AIM is insufficient. Is requested again (ST107). Hereinafter, the above-described collation process is performed.

以上、説明したように本実施形態では登録時に、登録変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、その抽出した領域の大きさが、設定値(最小値min)以下の場合には当該画像を破棄するので、照合処理に係る特徴量を比較的多く有する登録画像を確実に得ることができる。また、高精度に照合処理を行うことができる。   As described above, in the present embodiment, at the time of registration, an area where the degree of overlap of curve patterns in the registered conversion image is equal to or greater than a preset threshold is extracted, and the size of the extracted area is set to a set value ( Since the image is discarded when it is equal to or smaller than the minimum value (min), a registered image having a relatively large amount of features related to the matching process can be obtained with certainty. Further, the collation process can be performed with high accuracy.

第6実施の形態
図22は、本発明に係る画像照合装置の第6実施形態に係る画像照合装置の動作を説明するためのフローチャートである。
次に、予めメモリ12に記憶した登録画像AIMに対して、外部から入力した照合画像RIMを照合する場合を、図22を参照しながら説明する。
Sixth Embodiment FIG. 22 is a flowchart for explaining the operation of an image collating apparatus according to a sixth embodiment of the image collating apparatus according to the present invention.
Next, the case where the collation image RIM input from the outside is collated with the registered image AIM stored in the memory 12 in advance will be described with reference to FIG.

ステップST201において、CPU16は、画像入力部11により、照合画像RIMとして画像データを取り込み、メモリ12に画像データを格納する。CPU16は、ハフ変換部15に、取り込んだ照合画像RIMにハフ変換処理を施させる(ST202)。   In step ST <b> 201, the CPU 16 uses the image input unit 11 to capture image data as a collation image RIM and stores the image data in the memory 12. The CPU 16 causes the Hough converter 15 to perform a Hough conversion process on the captured collation image RIM (ST202).

ステップST203において、CPU16は、予め設定された閾値を超える領域を特徴量として抽出する(ST203)。
ステップST204において、CPU16は、抽出された領域の大きさが照合処理に最低限必要な最小値minよりも大きいか否かを判別し、大きくない場合には照合画像RIMとして充分な情報量を有していないとして画像を破棄し(ST205)、情報量が不足している旨を表示する等を行い、画像データの再入力を促し(ST206)、照合処理を終了する。
In step ST203, the CPU 16 extracts a region exceeding a preset threshold value as a feature amount (ST203).
In step ST204, the CPU 16 determines whether or not the size of the extracted area is larger than the minimum value min necessary for the collation process. If not, the CPU 16 has a sufficient amount of information as the collation image RIM. If not, the image is discarded (ST205), a message indicating that the amount of information is insufficient is displayed, the user is prompted to re-input the image data (ST206), and the collation process is terminated.

一方、ステップST204の判別において、最小値minよりも大きい場合には、照合画像RIMとして充分な情報量を有しているものと判断し、後続のステップST2〜ST27の照合処理に進む。   On the other hand, if it is determined in step ST204 that the value is larger than the minimum value min, it is determined that the verification image RIM has a sufficient amount of information, and the subsequent verification processing in steps ST2 to ST27 is performed.

以下、ステップST2〜ステップST27の動作は、図14に示した動作と同様なので説明を省略する。   Hereinafter, the operations in steps ST2 to ST27 are the same as the operations shown in FIG.

以上説明したように、本実施形態では照合時に、照合変換画像内の曲線のパターンの重なりの度合いが予め設定された閾値以上の領域を抽出し、その抽出した領域の大きさが、設定値(最小値min)以下の場合には当該画像を破棄するので、照合処理に係る特徴量を比較的多く有する照合画像を確実に得ることができる。また、高精度に照合処理を行うことができる。   As described above, in the present embodiment, at the time of matching, a region where the degree of overlapping of the curve pattern in the matching conversion image is equal to or greater than a preset threshold value is extracted, and the size of the extracted region is a set value ( Since the image is discarded when it is equal to or smaller than the minimum value (min), it is possible to reliably obtain a collation image having a relatively large amount of features related to the collation processing. Further, the collation process can be performed with high accuracy.

なお、本発明は本実施の形態に限られるものではなく、任意好適な種々の改変が可能である。
例えば、本実施形態では、類似度生成部は、数式(2)により類似度を算出したが、この形態に限られるものではない。例えば類似度生成部は直線成分(線形状のパターン)の相関に適した類似度を算出する処理を行えればよい。
Note that the present invention is not limited to the present embodiment, and various suitable modifications can be made.
For example, in the present embodiment, the similarity generation unit calculates the similarity using Equation (2), but the present invention is not limited to this form. For example, the similarity generation unit only needs to perform a process of calculating a similarity suitable for the correlation of linear components (line-shaped patterns).

本実施形態では、フーリエ変換処理、対数変換処理、および対数−局座標変換を行い、フーリエ・メリン空間上での平行移動量を算出することにより、倍率情報および回転角度情報を生成したが、この形態に限られるものではない。例えば、倍率情報および回転角度情報が検出可能な空間に、座標変換を行ってもよい。   In the present embodiment, Fourier transform processing, logarithmic transformation processing, and logarithm-station coordinate transformation are performed, and the magnification information and the rotation angle information are generated by calculating the parallel movement amount in the Fourier-Merlin space. It is not limited to form. For example, coordinate conversion may be performed in a space where magnification information and rotation angle information can be detected.

また、第1の閾値th1と、第2の閾値th2を固定値にしたが、この形態に限られるものではない。例えば閾値それぞれを、画像パターンにより可変にすることで、より高精度の照合を行うことができる。   In addition, the first threshold th1 and the second threshold th2 are fixed values, but the present invention is not limited to this form. For example, by making each of the threshold values variable depending on the image pattern, it is possible to perform more accurate collation.

1,1a,1b…画像照合装置、11…画像入力部、12…メモリ、13…FFT処理部、14…座標変換部、15…ハフ変換部、16…CPU、17…動作処理部、21…倍率情報−回転情報部、22…補正部、23…平行移動部、24…ずれ情報生成部、161,161b…位置補正部、162…ハフ変換部、163…抽出部、164,164b…判別部、211…フーリエ・メリン変換部、212…位相限定相関部、213…倍率情報−回転情報生成部、232…合成部、233…位相抽出部、234…逆フーリエ変換部、241…候補特定部、242…類似度生成部、243…積算部、244…照合部、1641…類似度生成部、1642,1642b…照合部、1643…積算部、2120,2121…フーリエ変換部、2122…合成部、2123…位相抽出部、2124…逆フーリエ変換部、2311,2312…フーリエ変換部、2421…類似度補正部、21111,21112…フーリエ変換部、21121,21122…対数変換部、21131,21132…対数−極座標変換部。   DESCRIPTION OF SYMBOLS 1, 1a, 1b ... Image collation apparatus, 11 ... Image input part, 12 ... Memory, 13 ... FFT processing part, 14 ... Coordinate conversion part, 15 ... Hough conversion part, 16 ... CPU, 17 ... Operation processing part, 21 ... Magnification information-rotation information part, 22 ... correction part, 23 ... parallel movement part, 24 ... deviation information generation part, 161, 161b ... position correction part, 162 ... Hough conversion part, 163 ... extraction part, 164,164b ... discrimination part 211 ... Fourier-Merin transform unit 212 ... Phase-only correlation unit 213 ... Magnification information-rotation information generation unit 232 ... Synthesis unit 233 ... Phase extraction unit 234 ... Inverse Fourier transform unit 241 ... Candidate identification unit, 242 ... Similarity generation unit, 243 ... integration unit, 244 ... collation unit, 1641 ... similarity generation unit, 1642, 1642b ... collation unit, 1643 ... integration unit, 2120, 2121 ... Fourier transform unit, 2122 Synthesis unit, 2123 ... phase extraction unit, 2124 ... inverse Fourier transform unit, 2311, 2312 ... Fourier transform unit, 2421 ... similarity correction unit, 211111, 21112 ... Fourier transform unit, 2111, 21212 ... logarithmic transform unit, 21131, 21132 ... Logarithm-polar coordinate converter.

Claims (4)

血管画像を取得する血管画像取得手段と、
この血管画像取得手段で取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換手段と、
上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出手段であって、上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出手段と、
この直線成分抽出手段で抽出された上記複数の第2の直線成分の相対的位置関係に基づき、ハフ変換が実行されている照合用の血管情報と照合することにより、上記血管画像取得手段で取得した上記血管画像が、上記照合用血管情報と対応することを認証する認証手段と、
を備える、生体認証装置。
Blood vessel image acquisition means for acquiring a blood vessel image;
Run the Hough transform to generate a plurality of first linear component in the blood vessel image acquired by the blood vessel image acquiring means, a plurality of respectively show some of each line components for the first linear component of this plurality of first Linear component conversion means for converting into one linear component information;
Linear component extraction means for extracting a plurality of second linear components that are larger than an extraction threshold from the plurality of first linear component information obtained as a result of conversion in the linear component conversion means, the linear component conversion means For the plurality of first linear component information obtained as a result of the conversion, a plurality of regions where the degree of overlapping of the curve patterns in one converted image is greater than or equal to a preset threshold value are extracted, and the plurality of second line components are extracted. Linear component extraction means for extracting a linear component;
Based on the relative positional relationship between the second linear components extracted in said plurality in the straight line component extracting means, by comparing the blood vessel information for collation Hough transform it is executed, acquired by the blood vessel image acquiring means Authentication means for authenticating that the blood vessel image corresponding to the verification blood vessel information;
A biometric authentication device.
血管画像を取得する血管画像取得手段と、
この血管画像取得手段で取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換手段と、
上記直線成分変換手段における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出手段であって、上記直線成分変換手段における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、上記直線成分抽出手段と、
この直線成分抽出手段で抽出された上記複数の第2の直線成分を、認証処理に用いる情報として記憶部に記憶する記憶手段と、
を備える、
血管情報記憶装置。
Blood vessel image acquisition means for acquiring a blood vessel image;
Run the Hough transform to generate a plurality of first linear component in the blood vessel image acquired by the blood vessel image acquiring means, a plurality of respectively show some of each line components for the first linear component of this plurality of first Linear component conversion means for converting into one linear component information;
Linear component extraction means for extracting a plurality of second linear components that are larger than an extraction threshold from the plurality of first linear component information obtained as a result of conversion in the linear component conversion means, the linear component conversion means For the first linear component information obtained as a result of the conversion, a plurality of regions where the degree of overlapping of the curve patterns in one converted image is greater than or equal to a preset threshold are extracted, and the plurality of second linear components are extracted. Extracting the linear component, and
The linear component extraction means second linear components extracted in said plurality, a storage means for storing in the storage unit as the information used for the authentication process,
Comprising
Blood vessel information storage device.
血管画像を取得する血管画像取得工程と、
この血管画像取得工程において取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換工程と、
上記直線成分変換工程における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出工程であって、上記直線成分変換工程における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出工程と、
この直線成分抽出工程において抽出された上記複数の第2の直線成分の相対的位置関係に基づき、ハフ変換が実行された照合用血管情報と照合することにより、上記血管画像取得工程において取得した上記血管画像が、上記照合用血管情報と対応することを認証する認証工程と、
を備える、生体認証方法。
A blood vessel image acquisition step of acquiring a blood vessel image;
A plurality of first linear components are generated by performing Hough transform on the blood vessel image acquired in the blood vessel image acquiring step to generate a plurality of first linear components, and each of the plurality of first linear components indicates the degree of each linear component . A linear component conversion process for converting into linear component information of
A linear component extraction step for extracting a plurality of second linear components greater than an extraction threshold from the plurality of first linear component information obtained as a result of the conversion in the linear component conversion step, wherein the linear component conversion step For the first linear component information obtained as a result of the conversion, a plurality of regions where the degree of overlapping of the curve patterns in one converted image is greater than or equal to a preset threshold are extracted, and the plurality of second linear components are extracted. Extracting a linear component, and
Based on the relative positional relationship of the plurality of second linear component extracted in the straight line component extraction step, by matching the matching vessel information Hough transform has been performed, the acquired in the blood vessel image acquiring step An authentication step of authenticating that the blood vessel image corresponds to the blood vessel information for verification;
A biometric authentication method.
血管画像を取得する血管画像取得工程と、
この血管画像取得工程において取得した上記血管画像にハフ変換を実行して複数の第1の直線成分を生成し、当該複数の第1の直線成分について各直線成分の多少を各々示す複数の第1の直線成分情報に変換する直線成分変換工程と、
この直線成分変換工程における変換の結果得られる上記複数の第1の直線成分情報から、抽出閾値以上に多い第2の直線成分を複数抽出する直線成分抽出工程であって、上記直線成分変換工程における変換の結果得られる上記第1の直線成分情報について、1つの変換画像内の曲線のパターンの重なり合いの度合いが予め設定された閾値以上の領域を複数抽出して、上記複数の第2の直線成分を抽出する、直線成分抽出工程と、
この直線成分抽出工程において抽出された上記複数の第2の直線成分を、認証処理に用いる情報として記憶部に記憶する記憶工程と、
を備える、血管情報記憶方法。
A blood vessel image acquisition step of acquiring a blood vessel image;
A plurality of first linear components are generated by performing Hough transform on the blood vessel image acquired in the blood vessel image acquiring step to generate a plurality of first linear components, and each of the plurality of first linear components indicates the degree of each linear component . A linear component conversion process for converting into linear component information of
A linear component extraction step for extracting a plurality of second linear components greater than an extraction threshold from the plurality of first linear component information obtained as a result of the conversion in the linear component conversion step, wherein the linear component conversion step For the first linear component information obtained as a result of the conversion, a plurality of regions where the degree of overlapping of the curve patterns in one converted image is greater than or equal to a preset threshold are extracted, and the plurality of second linear components are extracted. Extracting a linear component, and
A second linear components extracted in the plural form in the straight line component extracting step, a storage step of storing in the storage unit as the information used for the authentication process,
A blood vessel information storage method comprising:
JP2010001603A 2003-06-30 2010-01-06 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method Expired - Fee Related JP5045763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010001603A JP5045763B2 (en) 2003-06-30 2010-01-06 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003188122 2003-06-30
JP2003188122 2003-06-30
JP2010001603A JP5045763B2 (en) 2003-06-30 2010-01-06 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008131378A Division JP4466764B2 (en) 2003-06-30 2008-05-19 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method

Publications (2)

Publication Number Publication Date
JP2010118068A JP2010118068A (en) 2010-05-27
JP5045763B2 true JP5045763B2 (en) 2012-10-10

Family

ID=40048953

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008131378A Expired - Fee Related JP4466764B2 (en) 2003-06-30 2008-05-19 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method
JP2010001603A Expired - Fee Related JP5045763B2 (en) 2003-06-30 2010-01-06 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008131378A Expired - Fee Related JP4466764B2 (en) 2003-06-30 2008-05-19 Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method

Country Status (1)

Country Link
JP (2) JP4466764B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022784A (en) 2009-07-15 2011-02-03 Sony Corp Information processor, block detection method and program
JP5546950B2 (en) 2010-05-24 2014-07-09 株式会社マキタ Position adjustment mechanism of movable cover in cutting tool
JP6349817B2 (en) 2014-03-19 2018-07-04 富士通株式会社 Alignment apparatus, alignment method, and computer program for alignment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162139A (en) * 1996-11-28 1998-06-19 Nikon Corp Image processor, and medium where image processing program is recorded
JPH113421A (en) * 1997-06-11 1999-01-06 Meidensha Corp Method for detecting line segment

Also Published As

Publication number Publication date
JP4466764B2 (en) 2010-05-26
JP2008269629A (en) 2008-11-06
JP2010118068A (en) 2010-05-27

Similar Documents

Publication Publication Date Title
KR101122944B1 (en) Image correlation method, image correlation device, and program
JP4345426B2 (en) Image collation method, program, and image collation apparatus
JP4428067B2 (en) Image collation apparatus, program, and image collation method
JP2004240931A (en) Image collation device, image collation method, and program
Nandakumar et al. Local Correlation-based Fingerprint Matching.
JP5045763B2 (en) Biometric authentication device, biometric authentication method, blood vessel information storage device, and blood vessel information storage method
Kisku et al. Multisensor biometric evidence fusion for person authentication using wavelet decomposition and monotonic-decreasing graph
JPH10124667A (en) Pattern collating device
JP4161942B2 (en) Image collation method, image collation apparatus, and program
Bharadi et al. Hybrid wavelets based feature vector generation from multidimensional data set for on-line handwritten signature recognition
JP4380205B2 (en) Image collation device and image collation method
Mandi et al. Rotation–invariant fingerprint identification system
Sabir Sensitivity and specificity analysis of fingerprints based algorithm
JP2007179267A (en) Pattern matching device
JP4622477B2 (en) Collation method, computer, and program
JP4645198B2 (en) Image collation apparatus, image collation method, and program
Tian et al. Fingerprint matching using dual Hilbert scans
JP5048813B2 (en) Pattern matching device
Ranbida et al. A Review on Detection and Analysis of Fingerprint
Yager et al. Nonparametric fingerprint deformation modelling
Abdoos et al. A combined feature for fingerprint recognition
Thamaraiselvi et al. NOVEL APPROACHES OF BIOMETRIC FINGER PRINT MINUTIAE DETECTION AND EXTRACTION PROCESS
Krivec et al. A hybrid fingerprint verification matcher on card
Dai et al. A Low Complexity Fingerprint Verification Algorithm with Reduced Hardware Resources.
Anuradha Vein Pattern Extraction: A Review

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5045763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees