KR20120060424A - Matching judgment method of matching target image - Google Patents

Matching judgment method of matching target image Download PDF

Info

Publication number
KR20120060424A
KR20120060424A KR1020100121913A KR20100121913A KR20120060424A KR 20120060424 A KR20120060424 A KR 20120060424A KR 1020100121913 A KR1020100121913 A KR 1020100121913A KR 20100121913 A KR20100121913 A KR 20100121913A KR 20120060424 A KR20120060424 A KR 20120060424A
Authority
KR
South Korea
Prior art keywords
image
matching
matrix
target image
processing
Prior art date
Application number
KR1020100121913A
Other languages
Korean (ko)
Other versions
KR101208446B1 (en
Inventor
김희승
Original Assignee
김희승
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김희승 filed Critical 김희승
Priority to KR1020100121913A priority Critical patent/KR101208446B1/en
Publication of KR20120060424A publication Critical patent/KR20120060424A/en
Application granted granted Critical
Publication of KR101208446B1 publication Critical patent/KR101208446B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Abstract

PURPOSE: A matching determining method of a matching target image is provided to determine whether a pair of a binary line image or a binary edge image is the same target. CONSTITUTION: A matching matrix is obtained by repeating selected pixels which are V= {(x,y)Pe(x,y)=1} of a reference image(S18). A summation value of the obtained matching matrix is calculated(S19). A matching coefficient K=SM/SP is obtained(S20). Matching of the reference image and a matching target image is determined by using matching coefficient K(S21).

Description

정합대상영상의 정합판정방법{Matching judgment method of matching target image}Matching judgment method of matching target image}

본 발명은 정합대상영상의 정합판정방법에 관한 것으로, 특히 디지털 영상처리에서 같은 위치에서 같은 거리만큼 떨어진 곳에서 동일한 영상획득장치를 이용하여 촬영하고, 세선화처리(thinning process) 또는 에지검출처리(edge detection process) 등의 전처리에 의하여 얻는 한 쌍의 2진화 선 영상(binary line image) 또는 2진화 에지 영상(binary edge image)의 객체 영상(기준영상, 정합대상영상)이 동일한 대상인지 또는 아닌지를 판정하는 정합대상영상의 정합판정방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a matching determination method of a matching target image. In particular, a digital image processing photographs using the same image acquisition device at a same distance from the same position, and thinning or edge detection processing ( Whether a pair of binary line images or binary object images (reference images, registration target images) obtained by preprocessing, such as edge detection processes, are the same object or not A registration determination method of a matching target image to be determined.

디지털 영상 처리 중에서 영상 객체를 이해하기 위해서는 영상 정합(image matching) 처리과정을 거쳐야 한다. In order to understand an image object in digital image processing, an image matching process must be performed.

영상처리 혹은 컴퓨터 비전 분야에서 대표적으로 사용되고 있는 정합방법은 허프(Hough)에 의하여 제안된 대수식으로 표현되는 기하학적인 도형의 정합방법을 일반화한 GHT(Generalized Hough Transform) 방식[문헌 1]이다. The matching method that is typically used in the field of image processing or computer vision is the Generalized Hough Transform (GHT) method that generalizes the matching method of geometric figures represented by the algebra proposed by Hough [Document 1].

이 방식에서는 도 1에서 주어진 기준 영상의 곡선에 대하여 기준점 L을 선택한 후에 곡선 상의 임의의 에지까지의 거리 R과 각도 φ를 각각 R(θ)와 φ(θ)로 나타낸다. 그리고 이 곡선 상에서 측정한 모든 에지 픽셀에 대하여 R(θ)와 φ(θ)를 표로 작성한다. 미지의 곡선 영상에서 미지의 점을 선택한 후에 R(θ)와 φ(θ)의 표에 맞는 에지 점이 발견될 때마다 계수를 한다. 이렇게 하여 가장 많은 계수가 되면 그것들이 정합되는 것으로 판정한다.In this method, after selecting the reference point L for the curve of the reference image given in Fig. 1, the distance R and the angle φ to any edge on the curve are represented by R (θ) and φ (θ), respectively. Then, R (θ) and φ (θ) are created in a table for all edge pixels measured on this curve. After selecting an unknown point in the unknown curve image, the coefficient is counted whenever an edge point matching the table of R (θ) and φ (θ) is found. In this way, when the most coefficients are reached, they are determined to match.

이러한 정합방법에서는 L점을 선정해야하고 R, φ, θ를 영상으로부터 산출해야 하며, R(θ)와 φ(θ)의 표를 작성해야 하는는 등 많은 측정과 계산을 해야 하므로 많은 처리 시간이 상당히 소요된다. This matching method requires a lot of processing time because the L point must be selected, R, φ, θ must be calculated from the image, and the tables of R (θ) and φ (θ) must be measured and calculated. It takes

한편, 영상 정합 기술은 활발하게 연구되고 있는 분야이다. 웨이블릿(wavelet)에 기반한 영상정합 방법[문헌 2, 3, 4], 하우스도르프 거리(Hausdorf distance)를 이용한 방법[문헌 5] 등 다양한 것이 제안되어 있으나 정확도가 높지 않고 계산 과정이 복잡하다.
On the other hand, image matching technology is an active area of research. Wavelet-based image matching methods [documents 2, 3, 4] and Hausdorf distance methods [document 5] have been proposed, but the accuracy is not high and the calculation process is complicated.

[문헌 1] Generalizing the Hough transform to detect arbitrary shapes, Ballard, D. H, Pattern Recognition 13,111-122, 1981)Generalizing the Hough transform to detect arbitrary shapes, Ballard, D. H, Pattern Recognition 13, 111-122, 1981

[문헌 2] A wavelet-based coarse-to-fine image matching scheme in a parallel virtual machine environment, You, J.; Bhattacharya, P. IEEE Transactions on Image Processing, Volume 9, Sep. 2000 Page(s):1547 - 1559A wavelet-based coarse-to-fine image matching scheme in a parallel virtual machine environment, You, J .; Bhattacharya, P. IEEE Transactions on Image Processing, Volume 9, Sep. 2000 Page (s): 1547-1559

[문헌 3] Image Matching Algorithm Based on Subdivision Wavelet and Local Projection Entropy, Xianjiu Guo; Wei Wang, The Sixth World Congress on Intelligent Control and Automation, 2006. Vol. 2, Page(s):10380 - 10383Document Matching Algorithm Based on Subdivision Wavelet and Local Projection Entropy, Xianjiu Guo; Wei Wang, The Sixth World Congress on Intelligent Control and Automation, 2006. Vol. 2, Page (s): 10380-10383

[문헌 4] An investigation into the applicability of the wavelet transform to digital stereo image matching, Moon, P.; de Jager, G. Proceedings of the 1993 IEEE South African Symposium on Communications and Signal Processing, 1993., Aug. 1993 Page(s):75 - 79[4] An investigation into the applicability of the wavelet transform to digital stereo image matching, Moon, P .; de Jager, G. Proceedings of the 1993 IEEE South African Symposium on Communications and Signal Processing, 1993., Aug. 1993 Page (s): 75-79

[문헌 5] Reliable image matching via modified Hausdorff distance with normalized gradient consistency measure, Chyuan-Huei Thomas Yang; Shang-Hong Lai; Long-Wen Chang, 3rd International Conference on Information Technology: Research and Education, 2005. June 2005 Page(s): 158 - 161
Reference Image 5 Reliable image matching via modified Hausdorff distance with normalized gradient consistency measure, Chyuan-Huei Thomas Yang; Shang-Hong Lai; Long-Wen Chang, 3rd International Conference on Information Technology: Research and Education, 2005. June 2005 Page (s): 158-161

본 발명은 상기와 같은 문제점을 해결하기 위해 창안한 것으로, 디지털 영상처리에서 같은 위치에서 같은 거리만큼 떨어진 곳에서 동일한 영상획득장치를 이용하여 촬영하고, 세선화처리(thinning process) 또는 에지검출처리(edge detection process) 등의 전처리에 의하여 얻는 한 쌍의 2진화 선 영상(binary line image) 또는 2진화 에지 영상(binary edge image)의 객체 영상(기준영상, 정합대상영상)이 동일한 대상인지 또는 아닌지를 판정하는 정합대상영상의 정합판정방법을 제공함을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and is photographed using the same image acquisition device at the same distance from the same position in the digital image processing, and thinning process or edge detection process ( Whether a pair of binary line images or binary object images (reference images, registration target images) obtained by preprocessing, such as edge detection processes, are the same object or not An object of the present invention is to provide a matching determination method for determining matching images.

또한, 본 발명은 중심원(중심픽셀)을 중심으로 대칭인 여러 가지 모양(정방형, 원형, 타원형 등)의 0으로 초기화한 정합행렬(Matching matrix)을 사용한다. 기준 영상(prototype image)과 정합대상영상(시험 영상, test image)을 일단 2진화 에지 혹은 선 영상으로 변환한 후, 2진화 기준 영상에서 값이 "1" 인 픽셀을 선정하고 이것과 같은 지점의 2진화 시험 영상위의 픽셀에 상기한 정합행렬을 맞추고 정합행렬의 범위 안에 있는 2진화 시험 영상의 픽셀의 값들을 정합행렬의 대응원에 합산시키는 과정을 수행한다.In addition, the present invention uses a matching matrix initialized to zero of various shapes (square, round, elliptical, etc.) which are symmetric about the center circle (center pixel). After converting a prototype image and a test target image (test image) into binarized edge or line images, a pixel having a value of "1" in the binarized reference image is selected and The above process is performed by fitting the above matching matrix to the pixels on the binarization test image and adding the values of the pixels of the binarization test image within the range of the matching matrix to the corresponding sources of the matching matrix.

본 발명은 같은 거리에서 같은 위치의 객체를 촬영하기만 하면, 종래와 같은 종류의 계산을 전혀 할 필요가 없다. 오직 2진화된 기준 영상의 1인 픽셀의 좌표를 시험 영상의 좌표로 지목하고, 그곳에 정합행렬을 적용하여 누적 합산 시키는 간단한 과정으로 정합 판정을 내릴 수 있다.
The present invention does not need to perform the same kind of calculation as before, as long as the object is photographed at the same distance and at the same distance. Only the coordinates of one pixel of the binarized reference image can be identified as the coordinates of the test image, and the matching decision can be made by a simple process of applying a matching matrix to the cumulative summation.

상기와 같은 목적을 이루기 위해 본 발명은 기준영상(Prototype image, P)을 기준으로 정합대상영상(Target image, T)의 정합을 판정하는 정합대상영상의 정합판정방법에 있어서, (a)상기 기준영상(P영상)에 대해 2진화 에지 또는 선 영상처리를 하여 2진화기준영상(Pe영상)을 획득하는 단계; (b)상기 기준영상(P영상) 획득시 사용된 동일한 영상획득장치를 이용하여 정합대상영상(T영상)을 획득한 후, 2진화 에지검출처리, 세선화처리 또는 골격선 처리를 하여 2진화 정합대상영상(Te영상)을 획득하는 단계; (c)(2n+1)×(2n+1)크기의 정합행렬M(i,j)을 설정하는 정합행렬 설정단계; (단, i,j∈R이고, R={-n, …, -1, 0, 1, …n}) (d)상기 2진화 기준영상(Pe)의 픽셀좌표(x,y)(여기서, 픽셀좌표(x,y)는 V={(x,y)|Pe(x,y)=1} 인 점 (x,y) 들의 집합 V 중의 임의의 원)와 동일한 위치에 대응되는, 정합대상영상(T영상)에서의 픽셀좌표(x',y')(여기서, x=x', y=y'임)를 구하는 정합대상영상의 픽셀좌표 획득단계; (e)단계(c)에서 설정한 정합행렬M(i,j)의 중심(픽셀)을, 상기 단계(d)에서 구한 정합대상영상(Te영상)의 픽셀좌표(x',y') 지점에 일치시킨 후, 정합행렬 M(i,j)의 각 원에 대응하는 2진화 정합대상영상(Te영상)의 "1"인 픽셀의 값을 정합행렬의 각 원에 누적 합산시켜서 획득하는 누적된 정합행렬의 획득 단계; (f)상기 단계 (d)와 (e)를, 기준영상(P영상)의 V={(x,y)|Pe(x,y)=1} 즉, Pe(x,y)=1 인 픽셀 집합 전부 혹은 그중에서 선택된 픽셀들에 대하여 반복 수행함으로서 누적된 정합행렬을 획득하는 단계; (g)상기 단계 (f)에서 구한 누적정합행렬의 각 원소를 합산한 값(SM)을 구하는 원소합산단계; 및 (h)정합계수K=SM/SP(여기서, SP는 2진화된 기준영상(Pe영상)의 픽셀들 중에서 상기 단계 (f)에서 취하여 사용한 픽셀들의 개수임, 특히 V={(x,y)|Pe(x,y)=1}인 픽셀들을 모두 사용한 경우에는 V={(x,y)|Pe(x,y)=1}인 픽셀들의 총 개수임)를 구하고, 이 정합계수K를 이용하여 기준영상(P영상)과 정합대상영상(T영상)의 정합을 판정하는 정합판정단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a matching determination method of a matching target image for determining a matching of a target image (T) based on a reference image (P), (a) the reference Obtaining a binarization reference image (Pe image) by performing binarization edge or line image processing on the image (P image); (b) after acquiring the matching target image (T image) using the same image acquisition device used to acquire the reference image (P image), and performing binarization by binarization edge detection processing, thinning processing, or skeletal line processing. Obtaining a matching target image (Te image); (c) a matching matrix setting step of setting a matching matrix M (i, j) having a size of (2n + 1) × (2n + 1); (Where i, j ∈ R and R = {-n, ..., -1, 0, 1, ... n}) (d) Pixel coordinates (x, y) of the binarized reference image Pe (where , The pixel coordinate (x, y) corresponds to the same position as V = {(x, y) | Pe (x, y) = 1} any position in the set V of points (x, y)) Acquiring pixel coordinates of the matching target image to obtain pixel coordinates x ', y' (where x = x ', y = y') in the target image (T image); (e) The pixel coordinates (x ', y') of the registration target image (Te image) obtained at the center (pixel) of the registration matrix M (i, j) set in step (c). After matching to, the accumulated value obtained by cumulatively adding the values of pixels "1" of the binarized matching target image (Te image) corresponding to each circle of the matching matrix M (i, j) to each circle of the matching matrix Obtaining a matching matrix; (f) Steps (d) and (e) may be defined as V = {(x, y) | Pe (x, y) = 1}, that is, Pe (x, y) = 1 of the reference image (P image). Obtaining the accumulated matching matrix by iterating over all or a selected pixel of the pixel set; (g) an element summing step of obtaining a value S M obtained by summing each element of the cumulative matching matrix obtained in the step (f); And (h) matching coefficient K = S M / S P (where S P is the number of pixels taken from step (f) among the pixels of the binarized reference image (Pe image), in particular V = {( x, y) | Pe (x, y) = 1} is used, the total number of pixels with V = {(x, y) | Pe (x, y) = 1} is calculated. And a matching determination step of determining a matching between the reference image (P image) and the matching target image (T image) using the matching coefficient K.

본 발명은 일례로서, 상기 단계(h)에서, 정합계수(K)가 4.5 이하이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일하지 않은 것으로 판단하고, 정합계수(K)가 4.5이상이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일한 것으로 판단하는 것을 특징으로 한다. 이 경우 정합계수(K) 4.5가 정합 또는 비정합을 판단하는 문턱치가 된다.According to an exemplary embodiment of the present invention, in the step (h), when the matching coefficient K is 4.5 or less, it is determined that the object of the matching target image (T image) is not the same as the object of the reference image (P image), and the matching coefficient is If (K) is 4.5 or more, it is determined that the object of the registration target image (T image) is the same as the object of the reference image (P image). In this case, the matching coefficient K 4.5 is a threshold for determining matching or non-matching.

상기 기준영상 획득단계 및 정합대상영상 획득단계는 영상획득장치를 이용하여 기준영상을 획득한 후, 에지 또는 세선화 처리 또는 골격화 처리를 수행하는 단계; 상기 에지 또는 골격화 또는 세선화 처리된 기준영상을 데이터베이스에 저장하는 단계; 및 상기 기준영상과 동일한 거리 및 방향에서 그리고 동일한 영상획득장치를 이용하여 정합대상영상을 획득한 후, 에지 또는 골격화 또는 세선화처리를 수행하는 단계를 포함하여 이루어지는 것을 특징으로 한다.The step of acquiring the reference image and the acquiring the target image may include performing an edge or thinning process or a skeletal process after acquiring the reference image using the image acquisition device; Storing the edge or skeletalized or thinned reference image in a database; And acquiring a registration target image at the same distance and direction as the reference image and using the same image acquisition device, and then performing an edge or skeletalization or thinning process.

상기 단계(e) 내지 단계(g)는, (i-1)에지 또는 세선화 처리되어 2진화된 기준영상(Pe영상)의 "0"이 아닌 "1"인 픽셀 중 하나의 픽셀좌표(x,y)를 선택하는 단계; (i-2) 2진화 정합대상영상(Te영상)에 대하여 상기 단계(i-1)에서 구한 픽셀 좌표와 동일한 위치(x,y)의 픽셀에 정합행렬의 중심픽셀을 맞추고 정합행렬의 각 원소에 대응하는 정합대상영상의 각 원소를 정합행렬의 각 원에 누적 합산하는 단계; (i-3)상기 단계 (i-1)와 (i-2)를 반복수행하여 2진화된 기준영상(Pe영상)의 "0"이 아닌 "1"인 픽셀 전부 혹은 그중에서 선택된 다수의 픽셀과 동일한 위치에 있는 2진화 정합대상영상(Te영상)의 픽셀다수에 대해 각각 정합행렬을 누적하는 단계; 및 (i-4)상기 단계(i-3)에서 구한 누적 정합행렬의 모든 원을 합산한 값(SM)을 구하는 단계를 포함하는 것을 특징으로 한다. Steps (e) to (g) are pixel coordinates (x) of one of pixels (i-1) or "1" instead of "0" of the thinned and binarized reference image (Pe image). , y); (i-2) For the binarized registration target image (Te image), the center pixel of the registration matrix is aligned with the pixel at the same position (x, y) as the pixel coordinates obtained in step (i-1), and each element of the registration matrix is Cumulatively adding each element of the matching target image to each circle of the matching matrix; (i-3) Repeating the steps (i-1) and (i-2), all or a plurality of pixels selected from "1" instead of "0" of the binarized reference image (Pe image) Accumulating a matching matrix for each of a plurality of pixels of a binarized matching target image (Te image) at the same position as; And (i-4) obtaining a value S M obtained by summing all circles of the cumulative matching matrix obtained in step (i-3).

상기 기준영상(P영상) 및 정합대상영상(T영상)에 대해 2진화 에지 또는 선 영상(Pe, Te)은 영상획득장치에 의해 획득된 기준영상(P영상) 및 정합대상영상(T영상)에 대해 에지 검출 처리, 세선화 처리 또는 골격화 처리를 수행하여 획득하는 것을 특징으로 한다.The binarized edge or line image (Pe, Te) for the reference image (P image) and registration target image (T image) is a reference image (P image) and a matching target image (T image) obtained by an image acquisition device. It is characterized by obtaining by performing edge detection processing, thinning processing or skeletal processing for.

상기 정합행렬의 형태는 정방형, 원형, 타원형, 정삼각형 등 다양하다.
The matching matrix may have various shapes such as square, circle, ellipse, and equilateral triangle.

또한, 본 발명은 기준(Prototype, P)영상을 기준으로 정합비교(Target, T)영상의 정합을 판정하는 정합대상영상의 정합판정방법에 있어서, (a)상기 기준영상(P영상)에 대해 2진화 에지 또는 선 영상을 획득하고, 그 획득된 영상(Pe영상)에 대해 V={(x,y)|Pe(x,y)=1}인 지점의 픽셀좌표(x,y)를 구하는 기준영상 획득단계; (b)상기 기준영상(P영상) 획득시 사용된 동일한 영상획득장치를 이용하여 정합대상영상(T영상)을 획득한 후, 2진화 에지검출처리, 세선화처리 또는 골격선 처리를 하여 2진화 정합대상영상(Te영상)을 획득하는 단계; (c)(2n+1)×(2n+1)크기의 정합행렬M(i,j)을 설정하는 정합행렬 설정단계; (단, i,j∈R이고, R={-n, …, -1, 0, 1, …n}) (d)상기 단계(a)에서 상기 획득된 기준영상(Pe영상)의 픽셀좌표(x,y)에 대응되는, 정합대상영상(Te영상)에서의 픽셀좌표(x',y')를 구하는 정합대상영상의 픽셀좌표 획득단계; (e)단계(c)에서 설정한 정합행렬M(i,j)의 중심(픽셀)을, 상기 단계(d)에서 구한 정합대상영상(T영상)의 픽셀좌표(x',y') 지점에 일치시킨 후, 2진화 에지 또는 선 영상인 정합대상영상(Te영상)의 "1"인 픽셀의 값을 누적 합산시켜 통합행렬을 구하는 통합행렬 획득단계; (f)상기 통합행렬의 각 원소를 합산한 값(SM)을 구하는 원소합산단계; 및 (g)정합계수K=SM/SP(여기서, SP는 2진화된 기준영상(Pe영상)의 픽셀들 중에서 단계(f)에서 취하여 사용한 픽셀들의 개수임, 특히 V={(x,y)|Pe(x,y)=1}인 픽셀들을 모두 사용한 경우에는 V={(x,y)|Pe(x,y)=1} 인 픽셀들의 총 개수임)를 구하고, 이 정합계수K를 이용하여 정합대상영상(T영상)의 정합을 판정하는 정합대상영상의 정합판정단계를 포함하는 것을 특징으로 한다.In addition, the present invention provides a method of determining a matching target image for determining matching of target (T) images based on a prototype (P) image, (a) for the reference image (P image) Acquiring a binarized edge or line image and obtaining pixel coordinates (x, y) of a point where V = {(x, y) | Pe (x, y) = 1} with respect to the obtained image (Pe image). Obtaining a reference image; (b) after acquiring the matching target image (T image) using the same image acquisition device used to acquire the reference image (P image), and performing binarization by binarization edge detection processing, thinning processing, or skeletal line processing. Obtaining a matching target image (Te image); (c) a matching matrix setting step of setting a matching matrix M (i, j) having a size of (2n + 1) × (2n + 1); (Where i, j ∈ R and R = {-n, ..., -1, 0, 1, ... n}) (d) Pixel coordinates of the obtained reference image (Pe image) in step (a) acquiring pixel coordinates of the target image to obtain pixel coordinates (x ', y') of the target image (Te image) corresponding to (x, y); (e) The pixel (x ', y') point of the registration target image (T image) obtained from the center (pixel) of the registration matrix M (i, j) set in step (c). Acquiring the integrated matrix by accumulating and summing the values of the pixels "1" of the registration target image (Te image), which is a binarized edge or line image; (f) an element summing step of obtaining a value S M of the sum of the elements of the integrated matrix; And (g) the matching coefficient K = S M / S P (where S P is the number of pixels taken from step (f) among the pixels of the binarized reference image (Pe image), in particular V = {(x , y) | Pe (x, y) = 1}, when all the pixels with Pe (x, y) = 1} are used, V = {(x, y) | Pe (x, y) = 1} And a matching determination step of the matching target image for determining the matching of the matching target image (T image) using the coefficient K.

상기 단계(g)에서, 정합계수(K)가 기준값(문턱치) 미만이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일하지 않은 것으로 판단하고, 정합계수(K)가 기준값(문턱치) 이상이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일한 것으로 판단하는 것을 특징으로 한다.
In the step (g), if the matching coefficient K is less than the reference value (threshold), it is determined that the object of the matching target image (T image) is not the same as the object of the reference image (P image), and the matching coefficient (K). Is greater than or equal to the reference value (threshold), it is characterized in that the object of the matching target image (T image) is determined to be the same as the object of the reference image (P image).

이상에서 설명한 바와 같이 본 발명의 정합대상영상의 정합판정방법은 기준 영상 획득 시와 같은 거리만큼 떨어진 객체를 동일한 영상획득장치를 이용하여 촬영하고, 촬영된 영상을 세선화처리(thinning process) 또는 에지검출처리(edge detection process) 등의 전처리에 의하여 얻는 한 쌍의 2진화 선 영상(binary line image) 또는 2진화 에지 영상(binary edge image)의 객체 영상(기준영상, 정합대상영상)의 객체가 동일한 것인지 또는 아닌지를 판정하는 것이다.As described above, in the matching determination method of the matching target image of the present invention, an object separated by the same distance as the reference image is acquired using the same image acquisition device, and the thinned process or the edge of the captured image is taken. Objects of a pair of binary line images or binary edge images (reference images, registration target images) obtained by preprocessing such as an edge detection process are the same. Is to determine whether or not.

이로써, 본 발명은 종래의 문헌과 같은 복잡한 계산을 하지 않고서도 정확도가 99.3%에 이르는 등 그 정합의 정확도를 매우 높일 수 있으며, 또한 정합 처리시간이 짧아진다는 효과도 있다.
As a result, the present invention can greatly increase the accuracy of the matching without the complicated calculation as in the conventional literature, such as 99.3%, and also has the effect of shortening the matching processing time.

도 1은 종래의 기술에 따른 기하학적인 도형의 정합방법을 일반화한 GHT방식 설명도(문헌1 참조)
도 2는 본 발명에 따른 패턴 정합방법을 나타내는 순서도
도 3은 본 발명의 일실시예에 따른 패턴정합방법을 설명하기 위한 예시도로, 검지의 혈관 영상을 세선화처리와 2진화 처리를 거친 기준 영상(Pe)과 정합대상영상(Te1)을 예시한 도면
도 4a 내지 도 4f는 도 3의 각 지점을 행렬로 표시한 도면
도 4g는 도 4a 내지 도 4f의 행렬을 합산시킨 행렬을 나타내는 도면
도 5는 본 발명의 다른 일실시예에 따른 패턴정합방법을 설명하기 위한 예시도로, 검지의 혈관 영상을 세선화처리와 2진화 처리를 거친 기준 영상(Pe)과 정합대상영상(Te2)을 예시한 도면
도 6a 내지 도 6f는 도 3의 각 지점을 행렬로 표시한 도면
도 6g는 도 6a 내지 도 6f의 행렬을 합산시킨 행렬을 나타내는 도면
도 7a는 도 3에서 예시한 정합대상영상(Te1)을 통해 산출한 정합행렬
도 7b는 도 5에서 예시한 정합대상영상(Te2)을 통해 산출한 정합행렬
도 8은 본 발명의 실험을 통해 얻어진 정합계수의 분포를 나타내는 도면
1 is an explanatory diagram of a GHT method generalizing the matching method of geometric figures according to the prior art (see Document 1).
2 is a flow chart showing a pattern matching method according to the present invention
FIG. 3 is a diagram illustrating a pattern matching method according to an embodiment of the present invention. FIG. 3 illustrates a reference image Pe and a matching target image Te1 that have undergone thinning and binarization of a blood vessel image of an index finger. drawing
4A to 4F are matrixes of the points of FIG. 3.
4G is a diagram showing a matrix in which the matrices of FIGS. 4A to 4F are summed;
5 is an exemplary view illustrating a pattern matching method according to another embodiment of the present invention. FIG. 5 illustrates a reference image Pe and a matching target image Te2 that have undergone thinning and binarization of a blood vessel image of an index finger. One drawing
6A to 6F are diagrams showing each point of FIG. 3 in a matrix.
FIG. 6G is a diagram illustrating a matrix in which the matrices of FIGS. 6A to 6F are summed; FIG.
FIG. 7A illustrates a registration matrix calculated through the registration target image Te1 illustrated in FIG. 3.
FIG. 7B illustrates a registration matrix calculated through the registration target image Te2 illustrated in FIG. 5.
8 is a view showing the distribution of the matching coefficient obtained through the experiment of the present invention

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are used as much as possible even if displayed on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명에 따른 패턴 정합방법을 나타낸 순서도이고, 도 3은 본 발명의 일실시예에 따른 패턴정합방법을 설명하기 위한 예시도로, 검지의 혈관 영상을 세선화처리와 2진화 처리를 거친 기준 영상(Pe)과 정합대상영상(Te1)을 예시한 도면이며, 도 4a 내지 도 4f는 도 3의 각 지점을 행렬로 표시한 도면이고, 도 4g는 도 4a 내지 도 4f의 행렬을 합산시킨 행렬을 나타내는 도면이다. 또한, 도 5는 본 발명의 다른 일실시예에 따른 패턴정합방법을 설명하기 위한 예시도로, 검지의 혈관 영상을 세선화처리와 2진화 처리를 거친 기준 영상(Pe)과 정합대상영상(Te2)을 예시한 도면이고, 도 6a 내지 도 6f는 도 3의 각 지점을 행렬로 표시한 도면이며, 도 6g는 도 6a 내지 도 6f의 행렬을 합산시킨 행렬을 나타내는 도면이고, 도 7a는 도 3에서 예시한 정합대상영상(Te1)을 통해 산출한 정합행렬이며, 도 7b는 도 5에서 예시한 정합대상영상(Te2)을 통해 산출한 정합행렬이다. 또한, 도 3의 우측에 위치한 영상은 상기 기준영상과 동일한 동일인에 대한 영상(Te1)이며, 도 5의 우측에 위치한 영상은 상기 기준영상과 다른 제3자에 대한 영상(Te2)이다.2 is a flow chart showing a pattern matching method according to the present invention, Figure 3 is an exemplary view for explaining the pattern matching method according to an embodiment of the present invention, the blood vessel image of the index finger through the thinning process and binarization process 4A to 4F are diagrams showing respective points of FIG. 3 in a matrix, and FIG. 4G is a summation of the matrices of FIGS. 4A to 4F. A diagram showing a matrix. FIG. 5 is an exemplary view illustrating a pattern matching method according to another embodiment of the present invention. A reference image Pe and a matching target image Te2 which have undergone thinning and binarization of a blood vessel image of an index finger are illustrated. 6A to 6F are diagrams in which each point of FIG. 3 is represented by a matrix, and FIG. 6G is a diagram illustrating a matrix in which the matrixes of FIGS. 6A to 6F are added together, and FIG. 7A is in FIG. 3. 7. FIG. 7B is a matching matrix calculated using the matching target image Te1. FIG. 7B is a matching matrix calculated using the matching target image Te2. In addition, the image located on the right side of FIG. 3 is an image Te1 of the same person as the reference image, and the image located on the right side of FIG. 5 is an image Te2 of a third party different from the reference image.

본 발명은 기준(Prototype)영상(Pe)을 기준으로 정합대상(Target)영상(Te; Te1, Te2)의 정합을 판정하는 정합대상영상의 정합판정방법으로, 도 2에 도시한 바와 같이, 기준영상 획득단계(S10~S12), 정합대상영상 획득단계(S13~S14), 정합행렬 설정단계(S15), 정합대상영상의 픽셀좌표 획득단계(S16), 정합행렬 획득단계(S17~S18), 원소합산단계(S19) 및 정합판단단계(S20~S21)를 포함하여 이루어진다.The present invention is a matching determination method of a matching target image for determining matching of target images Te (Te; Te1, Te2) based on a prototype image (Pe), as shown in FIG. Image acquisition step (S10 ~ S12), registration target image acquisition step (S13 ~ S14), registration matrix setting step (S15), pixel coordinate acquisition step (S16) of registration target image, registration matrix acquisition step (S17 ~ S18), It includes the element adding step (S19) and matching determination step (S20 ~ S21).

먼저, 기준영상 획득단계(S10~S12)에서는 기준영상(P)에 대하여 2진화 에지 또는 선 영상(Pe)을 획득하고, V={(x,y)|Pe(x,y)=1}인 지점의 픽셀좌표(x,y)를 구한다.First, in the reference image acquisition steps S10 to S12, a binarized edge or line image Pe is obtained with respect to the reference image P, and V = {(x, y) | Pe (x, y) = 1} Find the pixel coordinate (x, y) at the point of.

즉, 영상획득장치(카메라 등)를 이용하여 손가락 등의 혈관이나 지문에 대한 영상을 획득한 후, 상기 획득된 기준영상(P영상)에 대해 에지 검출 처리, 세선화 처리 또는 골격화 처리를 수행하여 2진화 에지 또는 선 영상(Pe)을 획득한다.That is, after an image of a blood vessel or a fingerprint such as a finger is acquired using an image acquisition device (camera, etc.), edge detection, thinning, or skeletalization processing is performed on the obtained reference image (P image). To obtain a binarized edge or line image Pe.

여기서, 에지 검출 처리(edge detection process)는 일례로서 Canny 에지 검출 방법, Sobel 에지 검출방법, Prewitt 에지 검출 방법, Robert 에지검출 방법 등이 있다. 각각의 에지 검출방법은 공지된 기술이므로 이에 대한 상세한 설명은 생략하기로 한다.Here, the edge detection process includes, for example, the Canny edge detection method, the Sobel edge detection method, the Prewitt edge detection method, the Robert edge detection method, and the like. Since each edge detection method is a known technique, a detailed description thereof will be omitted.

세선화 처리(thinning process)는 일례로서 Hildich에 의한 세선화 방법, Deutch에 의한 세선화 방법 등이 있다. 각각의 세선화 방법은 공지된 기술이므로 이에 대한 상세한 설명은 생략하기로 한다.The thinning process includes, for example, a thinning method by Hildich, a thinning method by Deutch, and the like. Since each thinning method is a known technique, a detailed description thereof will be omitted.

골격화 처리(skeletonization process)는 세선화 처리와 유사한 기술에 해당한다.The skeletonization process corresponds to a technique similar to the thinning process.

상기와 같이, 기준영상 획득단계(S10~S12)를 통해 획득된 2진화 에지 또는 선 영상인 기준영상(Pe)은 도 3 및 도 5의 좌측에 위치한 영상이다.As described above, the reference image Pe, which is a binarized edge or line image obtained through the reference image acquisition steps S10 to S12, is an image located on the left side of FIGS. 3 and 5.

2진화 에지 또는 선 영상은 픽셀의 값이 "0" 또는 "1"로 나타낼 수 있는 것으로, 일례로서, 도 3 및 도 5의 기준영상(Pe)에서 실선(實線)으로 표시된 부분이 픽셀의 값이 "1"에 해당하고, 실선 이외의 부분(공백(空白)부분)이 픽셀의 값이 "0"에 해당한다.The binarized edge or line image may have a pixel value of “0” or “1”. For example, in the reference image Pe of FIGS. 3 and 5, the portion indicated by the solid line is the The value corresponds to "1", and the portion other than the solid line (the blank portion) corresponds to the value of the pixel "0".

상기 V={(x,y)|Pe(x,y)=1}은 Pe(x,y)=1인 조건을 만족하는 픽셀 좌표들의 집합을 의미하며, Pe(x,y)=1은 기준영상의 2진화 에지 또는 선 영상(Pe)에서 1인 픽셀을 의미한다. 2진화 에지 또는 선 처리된 기준영상(Pe)는 2진 영상이므로 Pe의 모든 픽셀은 0 혹은 1이며, 그 중 1인 픽셀은 에지 픽셀이거나 세선화 결과의 에지 혹은 선을 나타내는 픽셀을 의미한다.V = {(x, y) | Pe (x, y) = 1} means a set of pixel coordinates satisfying a condition of Pe (x, y) = 1, and Pe (x, y) = 1 A pixel equal to 1 in the binarized edge or line image Pe of the reference image. Since the binarized edge or preprocessed reference image Pe is a binary image, all pixels of Pe are 0 or 1, and one of the pixels is an edge pixel or a pixel representing an edge or line of the thinning result.

이에, V={(x,y)|Pe(x,y)=1}인 지점의 픽셀좌표(x,y)를 구한다는 것은 상기 2진화 에지 또는 선 영상인 기준영상(Pe)에서, 픽셀의 값이 "0"이 아닌 "1"인 지점의 픽셀좌표(x,y)를 구한다는 것을 의미한다.Therefore, obtaining the pixel coordinates (x, y) at the point where V = {(x, y) | Pe (x, y) = 1} means that in the binarized edge or line image, the reference image Pe is a pixel. This means that the pixel coordinate (x, y) of the point at which the value of is not "0" is "1".

일례로, 도 3 및 도 5의 좌측에 위치한 기준영상(P영상, Pe)에서, 픽셀의 값이 "1"인 지점의 픽셀좌표(x,y) 6개(굵은점으로 표시, ①~⑥지점)를 표본으로 선정하였다.For example, in the reference image (P image, Pe) located on the left side of FIGS. 3 and 5, six pixel coordinates (x, y) at the point where the pixel value is "1" (indicated by bold dots, ① to ⑥) Point) was selected as a sample.

그 선정된 6개의 픽셀좌표(x,y)는 제1픽셀좌표(①, (x1,y1)), 제2픽셀좌표(②, (x2,y2)), 제3픽셀좌표(③, (x3,y3)), 제4픽셀좌표(④, (x4,y4)), 제5픽셀좌표(⑤, (x5,y5)), 제6픽셀좌표(⑥, (x6,y6))이다. The selected six pixel coordinates (x, y) are the first pixel coordinates (①, (x1, y1)), the second pixel coordinates (②, (x2, y2)), and the third pixel coordinates (③, (x3). , y3)), the fourth pixel coordinates ④, (x4, y4), the fifth pixel coordinates ⑤, (x5, y5), and the sixth pixel coordinates ⑥, (x6, y6).

여기서, 픽셀좌표(x,y) 6개를 선정할 때, 서로 근접되게 선정할 수도 있다. 이처럼, 6개의 픽셀좌표를 근접 선정함에 따라 추후 정합행렬의 중심원을 그 6개의 픽셀좌표에 일치하였을 때, 정방형의 정합행렬이 서로 겹치게 될 수도 있다.Here, when selecting six pixel coordinates (x, y), it may be selected to be close to each other. As such, when the six pixel coordinates are closely selected, when the center circle of the matching matrix coincides with the six pixel coordinates later, the square matching matrix may overlap each other.

본 발명의 일실시예에서는 픽셀좌표(x,y) 6개를 선정하였는데, 이에 한정하지는 않는다. V={(x,y)|Pe(x,y)=1}인 모든 좌표를 선정하여도 무방하다. 실제적인 정합 처리에서는 선택에 따른 오버헤드를 줄이기 위하여 V={(x,y)|Pe(x,y)=1}인 모든 좌표를 선정함이 좋다.In an embodiment of the present invention, six pixel coordinates (x, y) are selected, but the present invention is not limited thereto. All coordinates where V = {(x, y) | Pe (x, y) = 1} may be selected. In the actual matching process, it is preferable to select all the coordinates of V = {(x, y) | Pe (x, y) = 1} in order to reduce the overhead caused by the selection.

상기 기준영상에 대한 2진화 에지 또는 선 영상뿐만 아니라 기준영상(Pe)에서 픽셀의 값이 "1"인 지점의 픽셀좌표(x,y)는 DB(데이터베이스)부(미도시)에 저장된다.In addition to the binarized edge or line image of the reference image, the pixel coordinates x and y of the point at which the pixel value is "1" in the reference image Pe are stored in a DB (database) unit (not shown).

상기와 같이, 본 발명은 기준영상 획득단계(S10~S12)를 수행한 후, 정합대상영상 획득단계(S13~S14)를 수행한다.As described above, the present invention performs the matching image acquisition step (S13 ~ S14) after performing the reference image acquisition step (S10 ~ S12).

정합대상영상 획득단계(S13~S14)에서는 정합대상영상(T영상; T1, T2)을 획득한 후, 2진화 에지 또는 선 영상(Te1, Te2)을 획득한다.In the registration target image acquisition step (S13 to S14), after obtaining the registration target image (T image; T1, T2), a binarized edge or line image (Te1, Te2) is obtained.

즉, 상기 기준영상 획득시 사용된 동일한 영상획득장치를 이용하여 정합대상영상(T1, T2)을 획득하고, 이 획득된 정합대상영상에 대해 에지 검출 처리, 세선화 처리 또는 골격화 처리를 수행하여 2진화 에지 또는 선 영상(Te1, Te2)을 획득한다.That is, the target image T1 and T2 are acquired using the same image acquisition device used when the reference image is acquired, and edge detection, thinning, or skeletal processing is performed on the acquired target image. Binarized edge or line images Te1 and Te2 are acquired.

여기서, 정합대상영상(Te1, Te2)은 상기 기준영상(Pe)과 비교하여 기준영상과의 정합여부를 판단하게 될 영상을 말한다.Here, the matching target images Te1 and Te2 refer to images that are determined to be matched with the reference image in comparison with the reference image Pe.

상기와 같이, 정합대상영상 획득단계를 통해 획득된 2진화 에지 또는 선 영상인 정합대상영상(T영상, Te)은 도 3 및 도 5의 우측에 위치한 영상이다.As described above, the registration target image (T image, Te), which is a binarized edge or line image obtained through the registration target image acquisition step, is an image located on the right side of FIGS. 3 and 5.

도 3의 우측에 위치한 정합대상영상을 Te1이라 하고, 도 5의 우측에 위치한 정합대상영상을 Te2이라 한다. The matching target image located on the right side of FIG. 3 is called Te1, and the matching target image located on the right side of FIG. 5 is called Te2.

상기 정합대상영상(Te1, Te2)에 대한 2진화 에지 또는 선 영상은 DB(데이터베이스)부에 저장해 두는 것이 좋다.The binarized edge or line image for the registration target images Te1 and Te2 may be stored in a DB (database) unit.

상기와 같이, 본 발명은 정합대상영상 획득단계(S13~S14)를 수행한 후, 정합행렬 설정단계(S15)를 수행한다.As described above, the present invention performs a registration matrix setting step (S15) after performing the registration target image acquisition step (S13 ~ S14).

정합행렬 설정단계에서는 중심원(Center element, 중심픽셀이라고도 함)을 가진 (2n+1)×(2n+1)크기의 정합행렬M(i,j)을 설정한다. 여기서, i,j∈R이고, R={-n, …, -1, 0, 1, …n}이다.In the matching matrix setting step, a matching matrix M (i, j) having a size of (2n + 1) × (2n + 1) having a center circle (also called a center pixel) is set. Where i, j∈R, where R = {-n,... , -1, 0, 1,... n}.

상기 정합행렬M(i,j)은 격자구조의 다수의 픽셀 형태로 구성되며, 여기서 픽셀 각각의 좌표를 픽셀좌표라 한다. 일례로, 정합행렬의 중심부에 위치한 중심픽셀(도 4(a)의 정중앙에 검정색음영으로 표시된 픽셀임)은 정합행렬M(0,0)가 된다.The matching matrix M (i, j) is configured in the form of a plurality of pixels in a lattice structure, wherein coordinates of each pixel are referred to as pixel coordinates. For example, the center pixel located at the center of the registration matrix (the pixel indicated by black shading in the center of FIG. 4A) becomes the registration matrix M (0,0).

이처럼 정합행렬M(i,j)은 (2n+1)×(2n+1)크기이면서 중심원을 가진 그 어떤 형태이든지 무관하다. 일례로, 중심원을 중심으로 대칭인 형태(정방형, 원형, 타원형, 정삼각형 등)의 0으로 초기화한 정합행렬(Matching matrix)을 사용한다. As such, the matching matrix M (i, j) is (2n + 1) × (2n + 1) and has any shape with a center circle. For example, a matching matrix initialized to zero in a symmetrical form (square, circle, ellipse, equilateral triangle, etc.) is used.

본 발명의 일실시예에서는 정방형태의 정합행렬(간략히, 정방형 정합행렬이라 명명함)을 사용한다. In an embodiment of the present invention, a square matching matrix (abbreviatedly referred to as a square matching matrix) is used.

정방형 정합행렬인 경우, M(i,j)의 인덱스 i와 j는 인덱스 집합 R={-n, …, -1, 0, 1, …n}에 의하여 표시된다. 다시 말하면, 정합행렬M(i,j)의 크기는 3x3, 5x5, 7x7, ... 등으로 정의된다. 정합행렬 M(i,j)의 크기는 실제적인 응용 분야에 따라 설정할 수 있으며, 정합의 비교대상이 되는 영상에 대하여 실제적인 인식률이 최고로 나타나는 크기를 실험적으로 구한다. 이 부분은 표본 영상 자료를 선정하고 여러 가지 크기의 정합행렬을 적용하여 가장 정합 인식률이 높은 경우의 크기를 취한다. In the case of a square matching matrix, the indexes i and j of M (i, j) are index sets R = {-n,... , -1, 0, 1,... n}. In other words, the size of the matching matrix M (i, j) is defined as 3x3, 5x5, 7x7, ..., and the like. The size of the matching matrix M (i, j) can be set according to the practical application field, and the size of the actual recognition rate is best obtained experimentally for the image to be compared. This part takes the size of the case where the highest recognition rate is obtained by selecting sample image data and applying matching matrix of various sizes.

본 발명에서는 도 3 내지 도 7에서와 같이 7×7정방형태의 정합행렬을 일례로 들었다.In the present invention, as shown in FIGS. 3 to 7, a matching matrix having a 7 × 7 square shape is taken as an example.

상기와 같이, 본 발명은 정합행렬 설정단계(S15)를 수행한 후, 정합대상영상의 픽셀좌표 획득단계(S16)를 수행한다.As described above, according to the present invention, after performing the matching matrix setting step S15, the pixel coordinate acquisition step S16 of the matching target image is performed.

정합대상영상의 픽셀좌표 획득단계(S16)에서는 상기 기준영상 획득단계(S10~S12)에서 선정된 기준영상(Pe영상)의 픽셀좌표(x,y)에 대응되는, 정합대상영상(Te영상)에서의 픽셀좌표(x',y')를 구하는 것이다.기준영상과 정합대상영상은 동일한 좌표(row 및 column 번호)를 사용하므로 실제적으로 x=x'이며, y=y'이다.In the pixel coordinate acquisition step (S16) of the matching target image, the matching target image (Te image) corresponding to the pixel coordinates (x, y) of the reference image (Pe image) selected in the reference image obtaining steps (S10 to S12). The pixel coordinates (x ', y') are obtained from. Since the reference image and the matching target image use the same coordinates (row and column numbers), x = x 'is actually y = y'.

즉, 도 3 및 도 5에서, 좌측의 기준영상(Pe)의 6개의 점들(픽셀좌표(x,y))과 대응되는, 우측의 정합대상영상(Te1)의 6개의 점들(픽셀좌표(x',y'))의 위치를 구한다.That is, in FIGS. 3 and 5, six points (pixel coordinates x of the right registration target image Te1) corresponding to six points (pixel coordinates x and y) of the reference image Pe on the left side. Find the position of ', y')).

그 대응된 정합대상영상(Te1)의 6개의 픽셀좌표(x',y')는 제1픽셀좌표(①, (x1',y1')), 제2픽셀좌표(②, (x2',y2')), 제3픽셀좌표(③, (x3',y3')), 제4픽셀좌표(④, (x4',y4')), 제5픽셀좌표(⑤, (x5',y5')), 제6픽셀좌표(⑥, (x6',y6'))이다. The six pixel coordinates (x ', y') of the corresponding matching target image Te1 are the first pixel coordinates (①, (x1 ', y1')) and the second pixel coordinates (②, (x2 ', y2). ')), Third pixel coordinates (③, (x3', y3 ')), fourth pixel coordinates (④, (x4', y4 ')), fifth pixel coordinates (⑤, (x5', y5 ') ), And the sixth pixel coordinates (6, (x6 ', y6')).

상기 6개의 픽셀좌표 지점은 도 3 및 도 5의 우측 영상에서, 정확하게 표시하지는 않았지만, 정방형 정합행렬의 중심원 위치에 해당한다.The six pixel coordinate points correspond to the center circle positions of the square registration matrix, although not accurately displayed, in the right images of FIGS. 3 and 5.

상기와 같이, 본 발명은 정합대상영상의 픽셀좌표 획득단계(S16)를 수행한 후, 정합행렬 획득단계(S17~S18)를 수행한다.As described above, according to the present invention, after performing the pixel coordinate acquisition step S16 of the matching target image, the matching matrix acquisition step S17 to S18 is performed.

정합행렬 획득단계(S17~S18)에서는 정합행렬 설정단계(S15)에서 설정한 정합행렬M(i,j)의 중심(중심원, 중심픽셀)을, 정합대상영상의 픽셀좌표 획득단계(S16)에서 구한 정합대상영상(T영상)의 픽셀좌표(x',y') 지점에 일치시킨 후, 2진화 에지 또는 선 영상인 정합대상영상(T영상)의 "1"인 픽셀의 값을 누적 합산시켜 정합행렬(TM1, TM2)을 구한다.In the registration matrix acquisition step S17 to S18, the center (center circle, center pixel) of the registration matrix M (i, j) set in the registration matrix setting step S15 is obtained, and the pixel coordinate acquisition step (S16) of the matching target image. After matching to the pixel coordinates (x ', y') of the registration target image (T image) obtained by, and cumulatively sum the value of the pixel "1" of the registration target image (T image), which is a binary edge or line image The matching matrix (T M 1, T M 2) is obtained.

도 3 및 도 5의 우측 영상은 정합행렬M(i,j)의 중심(중심원, 중심픽셀)을 정합대상영상(T영상)의 픽셀좌표(x',y') 지점에 일치시키는 모습을 보여준다.3 and 5 show that the center (center circle, center pixel) of the registration matrix M (i, j) is matched to the pixel coordinates (x ', y') of the registration target image (T image). Shows.

상기 정합행렬(TM1, TM2)을 획득하는 방법은 일례로서, 도 4a 내지 도 4f에 나타난 것처럼 에지 또는 세선화 처리되어 2진화된 정합대상영상(Te1)의 "1"인 다수의 픽셀좌표에 대해 각각 정합행렬을 구한 후, 도 4g에 나타난 것처럼 이들 정합행렬에 대해 덧셈을 수행하여 구한다.The method of obtaining the matching matrix T M 1 and T M 2 is an example, and a plurality of "1" of the matching target image Te1 binarized or edged as shown in FIGS. 4A to 4F. After each matching matrix is obtained for the pixel coordinates, it is obtained by performing addition on these matching matrices as shown in FIG. 4G.

이를 보다 상세히 살펴보면, 도 4a는 도 3의 정합대상영상(Te1)의 제1픽셀좌표(x1', y1')에 대한 정합행렬M(i,j)을 나타내는 것으로서, 도 4a의 정방형 정합행렬M(i,j)에서는 M(-1,+1), M(-2,+1), M(-3,+1)만 "1"이고, 나머지는 "0"이다.Referring to this in detail, FIG. 4A illustrates a registration matrix M (i, j) of the first pixel coordinates x1 'and y1' of the registration target image Te1 of FIG. 3, and the square registration matrix M of FIG. 4A. In (i, j), only M (-1, + 1), M (-2, + 1) and M (-3, + 1) are "1", and the rest are "0".

도 4b는 도 3의 정합대상영상(Te1)의 제2픽셀좌표(x2', y2')에 대한 정합행렬을 나타내는 것으로서, 도 4b의 정방형 정합행렬M(i,j)에서는 M(+3,+1), M(+3,+2), M(+2,+1), M(+1,0), M(0,0), M(-1,0), M(-2,0), M(-3,-3), M(-3,-2), M(-3,-1), M(-3,+1)만 "1"이고, 나머지는 "0"이다.FIG. 4B illustrates a registration matrix for the second pixel coordinates (x2 ', y2') of the registration target image Te1 of FIG. 3. In the square registration matrix M (i, j) of FIG. 4B, M (+3, +1), M (+ 3, + 2), M (+ 2, + 1), M (+1,0), M (0,0), M (-1,0), M (-2, 0), M (-3, -3), M (-3, -2), M (-3, -1), and M (-3, + 1) are only "1" and the rest are "0". .

도 4c는 도 3의 정합대상영상(Te1)의 제3픽셀좌표(x3', y3')에 대한 정합행렬을 나타내는 것으로서, 도 4c의 정방형 정합행렬M(i,j)에서는 M(+3,0), M(+2,0), M(+1,0), M(0,0), M(0,+1), M(-1,-1), M(-2,-1), M(-3,-3), M(-3,-2)만 "1"이고, 나머지는 "0"이다.FIG. 4C illustrates a registration matrix for the third pixel coordinates (x3 ', y3') of the registration target image Te1 of FIG. 3. In the square registration matrix M (i, j) of FIG. 4C, M (+3, 0), M (+2,0), M (+1,0), M (0,0), M (0, + 1), M (-1, -1), M (-2, -1) ), M (-3, -3) and M (-3, -2) are "1" and the rest are "0".

도 4d는 도 3의 정합대상영상(Te1)의 제4픽셀좌표(x4', y4')에 대한 정합행렬을 나타내는 것으로서, 도 4d의 정방형 정합행렬M(i,j)에서는 M(+3,-1), M(+2,-1), M(+1,0), M(0,0), M(-1,0), M(-2,0), M(-3,0), M(-2,+1), M(-2,+2), M(-2,+3)만 "1"이고, 나머지는 "0"이다.FIG. 4D illustrates a registration matrix for the fourth pixel coordinates x4 'and y4' of the registration target image Te1 of FIG. 3. In the square registration matrix M (i, j) of FIG. 4D, M (+3, -1), M (+ 2, -1), M (+1,0), M (0,0), M (-1,0), M (-2,0), M (-3,0 ), M (-2, + 1), M (-2, + 2), and M (-2, + 3) are "1" and the rest are "0".

도 4e는 도 3의 정합대상영상(Te1)의 제5픽셀좌표(x5', y5')에 대한 정합행렬을 나타내는 것으로서, 도 4e의 정방형 정합행렬M(i,j)에서는 M(+3,-3), M(+3,-2), M(+2,-1), M(+2,0), M(+1,0), M(0,0), M(-1,0), M(-1,+1), M(-1,+2), M(-2,+3)만 "1"이고, 나머지는 "0"이다.FIG. 4E illustrates a registration matrix for the fifth pixel coordinates (x5 ', y5') of the registration target image Te1 of FIG. 3. In the square registration matrix M (i, j) of FIG. 4E, M (+3, -3), M (+ 3, -2), M (+ 2, -1), M (+2,0), M (+1,0), M (0,0), M (-1, Only 0), M (-1, +1), M (-1, +2), and M (-2, +3) are "1" and the rest are "0".

도 4f는 도 3의 정합대상영상(Te1)의 제6픽셀좌표(x6', y6')에 대한 정합행렬을 나타내는 것으로서, 도 4f의 정방형 정합행렬M(i,j)에서는 M(+3,-1), M(+3,0), M(+2,0), M(+1,0), M(0,0), M(-1,0), M(-2,0), M(-3,+1)만 "1"이고, 나머지는 "0"이다. FIG. 4F illustrates a registration matrix for the sixth pixel coordinates (x6 ', y6') of the registration target image Te1 of FIG. 3. In the square registration matrix M (i, j) of FIG. 4F, M (+3, -1), M (+3,0), M (+2,0), M (+1,0), M (0,0), M (-1,0), M (-2,0) , Only M (-3, + 1) is "1", and the rest is "0".

도 4g는 도 4a 내지 도 4f의 정합행렬을 누적합산한 것으로서, 도 4g의 정합행렬TM1(i,j)에서는 TM1(0,0)은 "6"이고, TM1(+1,0)은 "5"이며, TM1(-1,0)은 "4"이고, TM1(+2,0), TM1(-2,0), TM1(-3,+1)은 "3"이며, TM1(+3,-1), TM1(+3,0), TM1(+2,-1), TM1(-1,+1), TM1(-2,-2), TM1(-2,+3), TM1(-3,-3), TM1(-3,-2)은 "2"이고, TM1(+3,-3), TM1(+3,-2), TM1(+3,+1), TM1(+3,+2), TM1(+2,+1), TM1(0,+1), TM1(-1,-1), TM1(-1,+1), TM1(-2,-1), TM1(-2,+1), TM1(-3,-1), TM1(-3,0)은 "1"이며, 나머지는 "0"이다.4G is a cumulative summation of the matching matrices of FIGS. 4A to 4F. In the matching matrix T M 1 (i, j) of FIG. 4G, T M 1 (0,0) is “6” and T M 1 (+ 1,0) is "5", T M 1 (-1,0) is "4", T M 1 (+2,0), T M 1 (-2,0), T M 1 (- 3, + 1) is "3", T M 1 (+ 3, -1), T M 1 (+3,0), T M 1 (+ 2, -1), T M 1 (-1, +1), T M 1 (-2, -2), T M 1 (-2, + 3), T M 1 (-3, -3), T M 1 (-3, -2) are "2 ", T M 1 (+ 3, -3), T M 1 (+ 3, -2), T M 1 (+ 3, + 1), T M 1 (+ 3, + 2), T M 1 (+ 2, + 1), T M 1 (0, + 1), T M 1 (-1, -1), T M 1 (-1, + 1), T M 1 (-2, -1) , T M 1 (-2, + 1), T M 1 (-3, -1), T M 1 (-3,0) is "1", and the rest is "0".

상기와 같이, 도 4a 내지 도 4f에서 각각 획득된 정합행렬을 구한 후, 각각의 정합행렬을 합산하여 도 4g의 정합행렬(TM1) 구하는 것이다.As described above, after obtaining the matching matrixes obtained in FIGS. 4A to 4F, the matching matrixes T M 1 of FIG. 4G are obtained by summing each matching matrix.

마찬가지로, 다른 일례로서, 도 6a 내지 도 6f에서 각각 획득된 정합행렬을 누적합산하여 도 6g의 정합행렬(TM2)을 구한다. Similarly, as another example, the matching matrix T M 2 of FIG. 6G is obtained by cumulatively adding the matching matrixes obtained in FIGS. 6A to 6F, respectively.

여기서, 도 6a는 도 5의 정합대상영상(Te2)의 제1픽셀좌표(x1', y1')에 대한 정방행렬을 나타내고, 도 6b는 도 5의 정합대상영상(Te2)의 제2픽셀좌표(x2', y2')에 대한 정방행렬을 나타내며, 도 6c는 도 5의 정합대상영상(Te2)의 제3픽셀좌표(x3', y3')에 대한 정방행렬을 나타내고, 도 6d는 도 5의 정합대상영상(Te2)의 제4픽셀좌표(x4', y4')에 대한 정방행렬을 나타내며, 도 6e는 도 5의 정합대상영상(Te2)의 제5픽셀좌표(x5', y5')에 대한 정방행렬을 나타내고, 도 6f는 도 5의 정합대상영상(Te2)의 제6픽셀좌표(x6', y6')에 대한 정방행렬을 나타낸다. 6A illustrates a square matrix of first pixel coordinates x1 ′ and y1 ′ of the registration target image Te2 of FIG. 5, and FIG. 6B illustrates a second pixel coordinate of the registration target image Te2 of FIG. 5. (x2 ', y2') shows a square matrix, FIG. 6C shows a square matrix for the third pixel coordinates (x3 ', y3') of the registration target image Te2 of FIG. 5, and FIG. 6D shows FIG. A quadrature matrix of the fourth pixel coordinates (x4 ', y4') of the registration target image Te2 of FIG. 6E is a fifth pixel coordinate (x5 ', y5') of the registration target image Te2 of FIG. FIG. 6F illustrates a square matrix of sixth pixel coordinates x6 'and y6' of the registration target image Te2 of FIG. 5.

이와 같이, 도 6a 내지 도 6f에서 각각 획득된 정합행렬을 구한 후, 각각의 정합행렬을 합산하여 도 6g의 정합행렬(TM2))을 구하는 것이다.As described above, after obtaining the matching matrices obtained in FIGS. 6A to 6F, the matching matrices T M 2 of FIG. 6G are obtained by summing the respective matching matrices.

앞에서 설명된 도 4g 및 도 6g는 도 3 및 도 5의 제1 내지 제6픽셀좌표에 대한 정방행렬의 합을 나타내는 것이고, 도 7a 및 도 7b는 도 3 및 도 5의 제1 내지 제6픽셀좌표를 포함한 다수의 픽셀좌표에 대한 정방행렬의 합을 나타내는 것이다. 4G and 6G described above represent sums of square matrices with respect to the first to sixth pixel coordinates of FIGS. 3 and 5, and FIGS. 7A and 7B illustrate the first to sixth pixels of FIGS. 3 and 5. This represents the sum of the square matrix for multiple pixel coordinates, including coordinates.

상기와 같이, 본 발명은 정합행렬 획득단계(S17~S18)를 수행한 후, 상기 정합행렬의 각 원소를 합산한 값(SM)을 구하는 원소합산단계(S19)를 수행한다.As described above, according to the present invention, after performing the matching matrix acquisition steps S17 to S18, the element adding step S19 is performed to obtain a value S M obtained by adding up each element of the matching matrix.

일례로, 표본으로 6개의 픽셀만 지정한 경우, 도 4g의 정합행렬의 각 원소를 합산한 값(SM1)은 52이고, 도 6g의 정합행렬의 각 원소를 합산한 값(SM2)은 12이다.For example, when only six pixels are designated as the sample, the sum of each element of the matching matrix of FIG. 4G (S M 1) is 52, and the sum of the elements of the matching matrix of FIG. 6G (S M 2). Is 12.

한편, 도 7a의 정합행렬의 각 원소를 합산한 값(SM1)은 1687이고, 도 7b의 정합행렬의 각 원소를 합산한 값(SM2)은 648이다.On the other hand, the sum of each element of the matching value matrix of Figure 7a (S M 1) is a value (S M 2) summing each element of the matching matrix of 1687, and Fig. 7b is 648.

상기와 같이, 본 발명은 원소합산단계(S19)를 수행한 후, 정합계수K=SM/SP를 구하고, 이 정합계수(K)를 이용하여 정합대상영상(T영상)의 정합을 판정하는 정합대상영상의 정합판정단계(S20)를 수행한다.As described above, in the present invention, after performing the element adding step (S19), the matching coefficient K = S M / S P is obtained, and the matching of the matching target image (T image) is determined using the matching coefficient K. A registration determination step (S20) of the matching target image is performed.

여기서, SP는 기준영상 획득단계(S10~S12)에서 구한 2진화된 기준영상(Pe)에 대한 V={(x,y)|Pe(x,y)=1}인 지점의 픽셀좌표(x,y)의 개수를 나타내고, 정합계수K는 기준영상(P영상)의 1개의 픽셀당 정합대상영상(T영상)에서 평균 몇 개가 정합 매트릭스에 카운트 되었는지를 계산하는 것이다.Here, S P is the pixel coordinate of the point where V = {(x, y) | Pe (x, y) = 1} for the binarized reference image Pe obtained in the reference image acquisition steps S10 to S12. x, y), and the matching coefficient K calculates how many averages are counted in the matching matrix in one matching target image (T image) per pixel of the reference image (P image).

상기와 같이 정합계수(K)를 SP에 대한 비율로 표시한 이유는 영상에 따라 에지 혹은 선의 밀도가 크거나 작을 수 있기 때문이다. 다시 말하면, 에지 혹은 선의 밀도가 촘촘한 경우에는 SM도 매우 클 것이며, 촘촘하지 않을 경우에는 SM이 작다. 따라서 정합계수(K)를 SP에 대한 비율로 표시한다. The reason why the matching coefficient K is expressed as a ratio to S P as described above is that the density of edges or lines may be large or small depending on the image. In other words, if the density of the edge or line is dense, S M will be very large, if not dense, S M will be small. Therefore, the matching coefficient K is expressed as a ratio with respect to S P.

본 발명에서는 일례로, 상기 정합계수(K)가 4.5미만이면 동일인이 아닌 것으로 판단하고, 정합계수(K)가 4.5이상이면 동일인으로 판단한다.In the present invention, for example, if the matching coefficient K is less than 4.5, it is determined that they are not the same person, and if the matching coefficient K is 4.5 or more, the same person is determined.

여기서, 정합계수(K) 4.5가 기준영상(P영상)에 대한 정합대상영상(T영상)의 정합 또는 비정합을 판별하는 기준값(문턱치)이 된다.Here, the matching coefficient K 4.5 is a reference value (threshold value) for determining matching or non-matching of the matching target image (T image) with respect to the reference image (P image).

도 7a에서, 정합행렬의 각 원소를 합산한 값(SM1)은 1687이고, SP는 290이므로 정합계수(K1)는 5.8이 된다. 이에, 기준영상(Pe)과 정합대상영상(Te1)의 객체는 동일하다고 판정할 수 있다.In FIG. 7A, the sum S M 1 of the elements of the matching matrix is 1687, and S P is 290, so the matching coefficient K1 is 5.8. Accordingly, it may be determined that the object of the reference image Pe and the matching target image Te1 are the same.

도 7b에서, 정합행렬(TM2)의 각 원소를 합산한 값(SM2)은 648이고, SP는 290이므로 정합계수(K2)는 2.2가 된다. 이에, 기준영상(Pe)과 정합대상영상(Te2)의 객체는 동일하지 않다고 판정할 수 있다.
In FIG. 7B, the sum S M 2 of the elements of the matching matrix T M 2 is 648, and S P is 290, so the matching coefficient K 2 is 2.2. Accordingly, it may be determined that the object of the reference image Pe and the registration target image Te2 are not the same.

도 8은 본 발명의 실험을 통해 얻어진 정합계수의 분포를 나타내는 도면이다.8 is a view showing the distribution of the matching coefficient obtained through the experiment of the present invention.

이 실험은 실제 발명자가 150명 각각에 대하여 5장씩, 모두 750장의 영상에 대하여 실험한 결과로서, 붉은 점들은 기준영상과 시험영상이 같은 객체인 경우이고, 푸른 점들은 기준영상과 시험영상이 다른 객체인 경우이다.The experiment was conducted by five inventors of each 150 inventors, each of 750 images. The red dots are the same object as the reference image and the test image, and the blue dots are different from the reference image and the test image. In the case of an object.

특정한 응용분야에 본 알고리즘을 적용하여 정합하고자 하면, 그 용용 분야의 영상 샘플을 다수 확보하여 정합 계수의 분포로부터 정합계수에 대한 문턱치를 설정하고, 이 문턱치를 기준으로 정합계수가 그 이상이면 동일, 그 이하이면 비동일로 판정한다.If the algorithm is to be applied to a specific application field, a large number of image samples of the application field are secured to set a threshold value for the matching coefficient from the distribution of the matching coefficients. If it is less than that, it is determined to be non-identical.

도 8의 분포도를 분석하면, 정합계수(K)가 4.5 이하이면 동일인이 아닌 것으로 판명되고, 정합계수(K)가 4.5이상이면 동일인으로 판명된다. Analysis of the distribution of FIG. 8 shows that the matching coefficient K is 4.5 or less, and not the same person, and the matching coefficient K is 4.5 or more, the same person.

상기와 같은 실험을 통해 정합계수를 결정할 수도 있지만◎이미 공지된 자동 문턱치 결정법(하기 문헌 6 참조)에 의해 결정할 수도 있다.The matching coefficient may be determined through the experiment as described above, but may be determined by an automatic threshold determination method (see Document 6 below) already known.

자동 문턱치 결정법에는 여러가지가 있지만 그 중 한가지는 Kittler etc. 가 제안한 “고가 구배에서의 고점 명암도 분포에 중점을 둔 방법(Methods that concentrated on peaked intensity distribution at high gradient)가 있다.There are many ways to determine the threshold One of them is Kittler etc. The proposed method is "Methods that concentrated on peaked intensity distribution at high gradient."

이 방법에 의하여 문턱치(T)를 결정하는 수식은 다음과 같다.The formula for determining the threshold value T by this method is as follows.

Figure pat00001
Figure pat00001

여기서

Figure pat00002
는 i번째 픽셀에서의 명암도이고, `
Figure pat00003
는 같은 픽셀에서의 구배도(gradient)이다. 상기 수식에서 분모 및 분자의 합은 모든 i(영상의 전 영역)에 대하여 합산함을 의미한다.here
Figure pat00002
Is the contrast at the i pixel, and `
Figure pat00003
Is the gradient in the same pixel. In the above formula, the sum of the denominator and the numerator means that all i (the entire region of the image) are summed.

[문헌 6] J.Kittler, et al., Threshold selection based on a simple image static, Comput. Vision Graph. Image Process. 30, 125-147, 1985
J. Kittler, et al., Threshold selection based on a simple image static, Comput. Vision Graph. Image Process. 30, 125-147, 1985

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

영상처리에서 촬영된 두 개의 객체가 같은 것인지의 여부를 판정하는데 응용하며, 디지털영상처리, 컴퓨터비전(computer vision), 머신비전(machine vision), 로봇비전(robot vision), 패턴인식(pattern recognition) 등의 분야에서 유용하게 사용될 정합기술(matching technique)이다. 특히 혈관인식, 손 패턴 인식 등에 이용하여 높은 인식률을 실험적으로 얻고 있으며, 개인 인증을 위한 여러 분야, 즉, 보안 분야, 은행의 ATM 카드, 디지털 키(도어 키, 자동차 키), 주민등록증 등에 이용할 수 있다.Applied in image processing to determine whether two objects are the same, digital image processing, computer vision, machine vision, robot vision, pattern recognition It is a matching technique to be useful in the field. In particular, high recognition rate is experimentally used by using blood vessel recognition and hand pattern recognition, and it can be used in various fields for personal authentication, such as security field, bank ATM card, digital key (door key, car key), and resident registration card. .

S10~S12: 기준영상 획득단계
S13~S14: 정합대상영상 획득단계
S15: 정합행렬 설정단계
S16: 정합대상영상의 픽셀좌표 획득단계
S17~S18: 정합행렬 획득단계
S19: 원소합산단계
S20~S21: 정합판단단계
S10 ~ S12: reference image acquisition step
S13 ~ S14: Acquisition target image
S15: Matching matrix setting step
S16: Acquiring pixel coordinates of the matching target image
S17 ~ S18: Registration matrix acquisition step
S19: elemental synthesis step
S20 ~ S21: Matching judgment stage

Claims (6)

기준(Prototype, P)영상을 기준으로 정합대상(Target, T)영상의 정합을 판정하는 정합대상영상의 정합판정방법에 있어서,
(a)상기 기준영상(P영상)에 대해 2진화 에지처리, 세선화처리, 또는 골격화 처리 등의 영상처리를 하여 2진화기준영상(Pe영상)을 획득하는 단계;
(b)상기 기준영상(P영상) 획득시 사용된 동일한 영상획득장치를 이용하여 정합대상영상(T영상)을 획득한 후, 2진화 에지처리, 세선화처리, 또는 골격화 처리 등의 영상처리를 하여 2진화 정합대상영상(Te영상)을 획득하는 단계;
(c)(2n+1)×(2n+1)크기의 정합행렬M(i,j)을 설정하는 정합행렬 설정단계; (단, i,j∈R이고, R={-n, …, -1, 0, 1, …n})
(d)상기 선정된 기준영상(P영상)의 픽셀좌표(x,y)(여기서, 픽셀좌표(x,y)는 V={(x,y)|Pe(x,y)=1} 인 집합 V 중의 임의의 원)와 동일한 위치에 대응되는, 정합대상영상(T영상)에서의 픽셀좌표(x',y')를 구하는 정합대상영상의 픽셀좌표 획득단계;
(e)단계(c)에서 설정한 정합행렬M(i,j)의 중심(픽셀)을, 상기 단계(d)에서 구한 정합대상영상(Te영상)의 픽셀좌표(x',y') 지점에 일치시킨 후, 정합행렬 M(i,j)의 각 원에 대응하는 2진화 정합대상영상(Te영상)의 "1"인 픽셀의 값을 정합행렬의 각 원에 누적 합산시켜서 획득하는 단계;
(f)상기 단계 (d)와 (e)를, 기준영상(P영상)의 V={(x,y)|Pe(x,y)=1} 즉, Pe(x,y)=1인 픽셀 집합 전부 혹은 그 중에서 선택된 픽셀들에 대하여 반복 수행함으로서 누적된 정합행렬을 획득하는 단계;
(g)상기 단계 (f)에서 구한 누적 정합행렬의 각 원소를 합산한 값(SM)을 구하는 원소합산단계; 및
(h)정합계수 K=SM/SP(여기서, SP는 2진화된 기준영상(Pe영상)의 픽셀들 중에서 단계 (f)에서 취하여 사용한 픽셀들의 개수임, 특히 V={(x,y)|Pe(x,y)=1}인 픽셀들을 모두 사용한 경우에는 V={(x,y)|Pe(x,y)=1} 인 픽셀들의 총 개수임)를 구하고, 이 정합계수 K를 이용하여 기준영상(P영상)과 정합대상영상(T영상)의 정합을 판정하는 정합판정단계를 포함하는 것을 특징으로 하는 정합대상영상의 정합판정방법.
In the matching determination method of the matching target image for determining the matching of the target (T) image based on the reference (Prototype, P) image,
(a) obtaining a binarization reference image (Pe image) by performing image processing such as binarization edge processing, thinning processing, or skeletalization processing on the reference image (P image);
(b) after acquiring the matching target image (T image) by using the same image acquisition device used when acquiring the reference image (P image), image processing such as binarization edge processing, thinning processing, or skeletalization processing Acquiring a binarized matching target image (Te image) by using;
(c) a matching matrix setting step of setting a matching matrix M (i, j) having a size of (2n + 1) × (2n + 1); (Where i, j ∈ R and R = {-n, ..., -1, 0, 1, ... n})
(d) The pixel coordinates (x, y) of the selected reference image (P image), where pixel coordinates (x, y) are V = {(x, y) | Pe (x, y) = 1} Acquiring pixel coordinates of the matching target image to obtain pixel coordinates (x ', y') in the matching target image (T image) corresponding to the same position as any circle in the set V;
(e) The pixel coordinates (x ', y') of the registration target image (Te image) obtained at the center (pixel) of the registration matrix M (i, j) set in step (c). Acquiring the value of the pixel "1" of the binarized matching target image (Te image) corresponding to each circle of the matching matrix M (i, j) by cumulative summation to each circle of the matching matrix;
(f) Steps (d) and (e) are described in which V = {(x, y) | Pe (x, y) = 1}, that is, Pe (x, y) = 1 of the reference image (P image). Obtaining an accumulated matching matrix by iterating on all or a selected pixel among the pixel set;
(g) an element summing step of obtaining a value S M obtained by summing each element of the cumulative matching matrix obtained in the step (f); And
(h) Matching coefficient K = S M / S P (where S P is the number of pixels used in step (f) among the pixels of the binarized reference image (Pe image), in particular V = {(x, y) | If all the pixels with Pe (x, y) = 1} are used, V = {(x, y) | This is the total number of pixels with Pe (x, y) = 1}). And a matching determination step of determining a matching between the reference image (P image) and the registration target image (T image) using K.
제1항에 있어서,
상기 단계(h)에서, 정합계수(K)가 기준값(문턱치) 미만이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일하지 않은 것으로 판단하고, 정합계수(K)가 기준값(문턱치) 이상이면 정합대상영상(T영상)의 객체가 기준영상(P영상)의 객체와 동일한 것으로 판단하는 것을 특징으로 하는 정합대상영상의 정합판정방법.
The method of claim 1,
In the step (h), if the matching coefficient K is less than the reference value (threshold), it is determined that the object of the matching target image (T image) is not the same as the object of the reference image (P image), and the matching coefficient (K) Is equal to or greater than a reference value (threshold), the matching determination method of the registration target image, characterized in that it is determined that the object of the registration target image (T image) is the same as the object of the reference image (P image).
제1항에 있어서,
상기 기준영상 획득단계 및 정합대상영상 획득단계는,
영상획득장치를 이용하여 기준영상을 획득한 후, 2진화 에지검출처리, 세선화처리, 또는 골격화처리 등의 영상처리를 수행하는 단계;
상기 2진화 에지검출처리, 세선화처리, 또는 골격화처리 등의 영상처리된 기준영상을 데이터베이스에 저장하는 단계; 및
상기 기준영상과 동일한 거리 및 방향에서 그리고 동일한 영상획득장치를 이용하여 정합대상영상을 획득한 후, 2진화 에지검출처리, 세선화 처리 또는 골격화 처리 등의 영상처리를 수행하는 단계를 포함하여 이루어지는 것을 특징으로 하는 정합대상영상의 정합판정방법.
The method of claim 1,
The reference image acquisition step and matching target image acquisition step,
Acquiring a reference image using an image acquisition device, and then performing image processing such as binarization edge detection, thinning, or skeletalization;
Storing the processed reference image of the binarized edge detection process, thinning process, or skeletal process in a database; And
And acquiring a registration target image at the same distance and direction as the reference image using the same image acquisition device, and then performing image processing such as binary edge detection processing, thinning processing, or skeletalization processing. Matching determination method of the matching target image, characterized in that.
제1항 또는 제2항에 있어서,
상기 단계(e) 내지 단계(g)는,
(i-1)에지 또는 세선화 처리되어 2진화된 기준영상(Pe영상)의 "0"이 아닌 "1"인 픽셀 중 하나의 픽셀좌표(x,y)를 선택하는 단계;
(i-2) 2진화 정합대상영상(Te영상)에 대하여 상기 단계(i-1)에서 구한 픽셀 좌표와 동일한 위치(x,y)의 픽셀에 정합행렬의 중심픽셀을 맞추고 정합행렬의 각 원소에 대응하는 정합대상영상의 각 원소를 정합행렬의 각 원에 누적 합산하는 단계;
(i-3)상기 단계 (i-1)와 (i-2)를 반복수행하여 2진화된 기준영상(Pe영상)의 "0"이 아닌 "1"인 픽셀 전부 혹은 그중에서 선택된 다수의 픽셀과 동일한 위치에 있는 2진화 정합대상영상(Te영상)의 픽셀다수에 대해 각각 정합행렬을 누적하는 단계; 및
(i-4)상기 단계(i-3)에서 구한 누적된 정합행렬의 모든 원을 합산한 값(SM)을 구하는 단계를 포함하는 것을 특징으로 하는 정합대상영상의 정합판정방법.
The method according to claim 1 or 2,
Step (e) to step (g),
(i-1) selecting one or more pixel coordinates (x, y) of pixels that are "1" instead of "0" of the binarized reference image (Pe image) by the edge or thinning process;
(i-2) For the binarized registration target image (Te image), the center pixel of the registration matrix is aligned with the pixel at the same position (x, y) as the pixel coordinates obtained in step (i-1), and each element of the registration matrix is Cumulatively adding each element of the matching target image to each circle of the matching matrix;
(i-3) Repeating the steps (i-1) and (i-2), all or a plurality of pixels selected from "1" instead of "0" of the binarized reference image (Pe image) Accumulating a matching matrix for each of a plurality of pixels of a binarized matching target image (Te image) at the same position as; And
(i-4) calculating a sum (S M ) of all the circles of the accumulated matching matrix obtained in the step (i-3).
제1항에 있어서,
상기 기준영상(P영상) 및 정합대상영상(T영상)에 대해 2진화 에지 또는 선 영상(Pe, Te)의 획득은,
영상획득장치에 의해 획득된 기준영상(P영상) 및 정합대상영상(T영상)에 대해 2진화 에지검출처리, 세선화처리 또는 골격화처리 등의 영상처리를 수행하여 획득하는 것을 특징으로 하는 정합대상영상의 정합판정방법.
The method of claim 1,
Acquisition of the binarized edge or line image (Pe, Te) for the reference image (P image) and registration target image (T image),
Matching, which is obtained by performing image processing such as binarization edge detection processing, thinning processing, or skeletalization processing on the reference image (P image) and registration target image (T image) acquired by the image acquisition device. Matching method of target image.
제1항에 있어서,
상기 정합행렬의 형태는 정방형, 원형, 타원형, 정삼각형 중 어느 하나인 것을 특징으로 하는 정합대상영상의 정합판정방법.
The method of claim 1,
The matching matrix is a shape of the matching target image, characterized in that any one of a square, a circle, an ellipse, an equilateral triangle.
KR1020100121913A 2010-12-02 2010-12-02 Matching judgment method of matching target image KR101208446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100121913A KR101208446B1 (en) 2010-12-02 2010-12-02 Matching judgment method of matching target image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100121913A KR101208446B1 (en) 2010-12-02 2010-12-02 Matching judgment method of matching target image

Publications (2)

Publication Number Publication Date
KR20120060424A true KR20120060424A (en) 2012-06-12
KR101208446B1 KR101208446B1 (en) 2012-12-05

Family

ID=46611340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100121913A KR101208446B1 (en) 2010-12-02 2010-12-02 Matching judgment method of matching target image

Country Status (1)

Country Link
KR (1) KR101208446B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102054901B1 (en) * 2018-12-28 2019-12-12 주식회사 디오 image data processing method for dental restoration
KR102080245B1 (en) * 2018-11-26 2020-02-21 주식회사 디오 image data processing method for dental restoration
WO2020105835A1 (en) * 2018-11-19 2020-05-28 주식회사 디오 Dental restoration manufacturing method and manufacturing system, and general-purpose wax bite applied thereto
KR20200061577A (en) * 2018-11-26 2020-06-03 주식회사 디오 image data processing method for dental restoration
CN112541945A (en) * 2020-12-10 2021-03-23 宁波智能装备研究院有限公司 IC chip sub-pixel precision positioning method corresponding to secondary matching
WO2021150008A1 (en) * 2020-01-22 2021-07-29 이태경 Method of registering two analogous three-dimensional images on display screen
KR102399687B1 (en) * 2020-11-13 2022-05-20 주식회사 더원테크 Method, apparatus and program for 3d spatial modeling based on figure similarity matching

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3883124B2 (en) 2003-12-05 2007-02-21 独立行政法人理化学研究所 Template matching processing method and processing apparatus in image processing
JP2010140082A (en) 2008-12-09 2010-06-24 Nec Corp Image processing method and image processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105835A1 (en) * 2018-11-19 2020-05-28 주식회사 디오 Dental restoration manufacturing method and manufacturing system, and general-purpose wax bite applied thereto
KR102080245B1 (en) * 2018-11-26 2020-02-21 주식회사 디오 image data processing method for dental restoration
KR20200061577A (en) * 2018-11-26 2020-06-03 주식회사 디오 image data processing method for dental restoration
KR102054901B1 (en) * 2018-12-28 2019-12-12 주식회사 디오 image data processing method for dental restoration
WO2021150008A1 (en) * 2020-01-22 2021-07-29 이태경 Method of registering two analogous three-dimensional images on display screen
KR20210094732A (en) * 2020-01-22 2021-07-30 이태경 Registration method of two similar 3D images on the display interface
KR102399687B1 (en) * 2020-11-13 2022-05-20 주식회사 더원테크 Method, apparatus and program for 3d spatial modeling based on figure similarity matching
CN112541945A (en) * 2020-12-10 2021-03-23 宁波智能装备研究院有限公司 IC chip sub-pixel precision positioning method corresponding to secondary matching
CN112541945B (en) * 2020-12-10 2024-02-27 宁波智能装备研究院有限公司 IC chip sub-pixel precision positioning method corresponding to secondary matching

Also Published As

Publication number Publication date
KR101208446B1 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
KR101208446B1 (en) Matching judgment method of matching target image
Sanchez-Avila et al. Two different approaches for iris recognition using Gabor filters and multiscale zero-crossing representation
JP4246154B2 (en) Biometric authentication method
JP2013012190A (en) Method of approximating gabor filter as block-gabor filter, and memory to store data structure for access by application program running on processor
Coleman et al. Edge detecting for range data using laplacian operators
CN104540445A (en) Image processing device, image processing method, program, and image processing system
CN103839042A (en) Human face recognition method and human face recognition system
Wagh et al. Eyelids, eyelashes detection algorithm and hough transform method for noise removal in iris recognition
US20040234131A1 (en) Image characteristic identification signal regeneration apparatus and image characteristic identification signal generation method
Bhatnagar et al. A fractal dimension based framework for night vision fusion.
Aneesh et al. Optimal feature selection based on image pre-processing using accelerated binary particle swarm optimization for enhanced face recognition
CN111126250A (en) Pedestrian re-identification method and device based on PTGAN
Narang et al. Robust face recognition method based on SIFT features using Levenberg-Marquardt Backpropagation neural networks
Seal et al. Thermal human face recognition based on haar wavelet transform and series matching technique
CN114758145A (en) Image desensitization method and device, electronic equipment and storage medium
Yi et al. Registration of infrared and visible images based on the correlation of the edges
Vasudevan et al. A basic study of image processing and its application areas
CN108154107B (en) Method for determining scene category to which remote sensing image belongs
CN107527047A (en) Be advantageous to improve the identification system of analyze speed
Arai et al. Gender classification method based on gait energy motion derived from silhouette through wavelet analysis of human gait moving pictures
US10380450B2 (en) Information processing device, information processing method, and recording medium
Pratyasha et al. A Comparative Analysis of Different Feature Extraction Techniques for Palm-print Images
CN112651304B (en) Revocable palm print template generation method, device, equipment and storage medium based on feature fusion
Singh Face Recognition using relationship learning based super resolution algorithm
Kaur et al. Analysis and implementation of image enhancement techniques using matlab

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160527

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191212

Year of fee payment: 8