KR20200078723A - Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration - Google Patents

Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration Download PDF

Info

Publication number
KR20200078723A
KR20200078723A KR1020180166857A KR20180166857A KR20200078723A KR 20200078723 A KR20200078723 A KR 20200078723A KR 1020180166857 A KR1020180166857 A KR 1020180166857A KR 20180166857 A KR20180166857 A KR 20180166857A KR 20200078723 A KR20200078723 A KR 20200078723A
Authority
KR
South Korea
Prior art keywords
image
pixels
scale
circular template
feature
Prior art date
Application number
KR1020180166857A
Other languages
Korean (ko)
Inventor
예철수
Original Assignee
극동대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 극동대학교 산학협력단 filed Critical 극동대학교 산학협력단
Priority to KR1020180166857A priority Critical patent/KR20200078723A/en
Publication of KR20200078723A publication Critical patent/KR20200078723A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T3/0006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

In order to perform image fusion, change detection, and time series analysis for a multi-sensor image, an image registration process between two images is essential. According to the present invention, provided is a matching technique using a variable circular template, which can simultaneously detect a relative scale, rotation angle difference, and a feature point position between multi-resolution images by re-interpreting an image registration problem between two images having resolution difference in an aspect of affine transformation between two images having different scales. According to the present invention, a scale, a rotation angle and a central position of the variable circular template can be separately detected at a time when the amount of interactive information with a circular template of an image with a small scale is maximized while setting a circular template with respect to a feature point of the image with a small scale and changing a scale of the variable circular template of an image with a large scale to a constant scale unit.

Description

다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법 {Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration}{Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration}

해상도가 다른 여러 가지 센서로 촬영된 각각의 영상들을 영상융합, 변화탐지 및 시계열 분석 등에 활용하기 위해서는 각각의 영상 간의 영상등록 과정이 필수적이다. 이러한 영상등록을 위해서는 서로 다른 공간해상도를 가지는 다중센서 영상 사이의 스케일과 회전각도 차이를 정확히 검출해야 한다. 본 발명은 이와 같은 다중해상도 영상들에 대한 영상등록을 위하여 스케일과 회전각도 차이를 검출해 내고 특징점 정합을 수행하는 방법에 관한 것이다. In order to utilize each image captured by various sensors with different resolutions for image fusion, change detection and time series analysis, the image registration process between each image is essential. For such image registration, it is necessary to accurately detect the difference in scale and rotation angle between multiple sensor images having different spatial resolutions. The present invention relates to a method of detecting a difference between a scale and a rotation angle and performing feature point matching for image registration for such multi-resolution images.

동일대상에 대하여 촬영한 원격탐사영상이지만, 공간해상도, 각도 등 촬영조건이 각각 다른 원격탐사영상들을 이용하여 변화탐지, 시계열분석 등의 비교를 위해서는 서로 다른 두 영상 간의 영상좌표를 일치시키는 영상등록 과정이 필수적이다. 영상등록 과정은 두 영상좌표의 변환기준점이 되는 특징점 검출과 두 영상에 공통으로 존재하는 특징점 쌍을 구하는 특징점 정합(특징정합)이 핵심적인 과정이다. 특징점 검출은 템플릿의 중심화소를 기준으로 밝기값의 변화량을 측정하여 이웃 화소보다 변화량이 큰 화소를 특징점으로 검출한다(Moravec, 1977, 선행기술문헌 항목 중 비특허문헌목록 참조, 이하 같음). 이러한 특징점의 기하학적인 형태는 코너 형태가 일반적이며 그레디언트 행렬의 고유치를 이용하여 코너를 검출하는 다양한 종래 방법들이 있다(Harris and Stephens, 1988; Shi and Tomasi, 1994; Carneiro and Jepson, 2002; Ye, 2014a). 한편, 두 영상에서 검출된 특징점 간의 정합(특징정합)을 위해서 특징점 주변의 영상정보를 담고 있는 영상기술자(descriptor)를 이용한다. 영상기술자는 특징점 주변의 영상정보를 그 성분으로 하는 벡터이며 대표적으로 Scale Invariant Feature Transform(SIFT) (Lowe, 2004)가 널리 알려진 영상기술자이다. SIFT 기반의 방법들은 영상기술자가 특징점 주변의 영상특성을 반영하는 히스토그램을 기본적으로 이용하기 때문에 스케일 및 회전변화 등과 같은 기하학적 변형에 대해 강한 특징을 가진다(Song et. al., 2014; Gong et al., 2013; Sun et al., 2014). 그러나 SIFT 방법은 blob-like 형태의 특징점 검출에는 유리하지만 건물이나 도로의 교차점 등과 같은 코너 점의 검출에는 적합하지 않은 단점이 있다(Wu et al., 2012). SIFT 방법은 검출한 특징점의 위치가 실제 코너 위치가 아닌 코너 주변에서 검출이 되기 때문에 영상등록을 위한 코너 검출기로서는 적합하지 않다. An image registration process that matches image coordinates between two different images for comparison of change detection, time series analysis, etc. using remote sensing images with different shooting conditions, such as spatial resolution and angle, although they are remote sensing images taken for the same subject. This is essential. In the image registration process, the feature point detection (feature matching) that detects the feature point that is the conversion reference point of the two image coordinates and the feature point pairs that are common to the two images is the key process. The feature point detection measures the amount of change in the brightness value based on the central pixel of the template, and detects a pixel having a larger amount of change than the neighboring pixels as a feature point (see Moravec, 1977, non-patent document list among the prior art documents, as follows). The geometric shape of these feature points is generally a corner shape, and there are various conventional methods of detecting a corner using eigenvalues of a gradient matrix (Harris and Stephens, 1988; Shi and Tomasi, 1994; Carneiro and Jepson, 2002; Ye, 2014a ). On the other hand, an image descriptor (descriptor) containing image information around the feature point is used for matching (feature matching) between the feature points detected in the two images. The image engineer is a vector that uses the image information around the feature point as its component, and representatively, the Scale Invariant Feature Transform (SIFT) (Lowe, 2004) is a well-known image engineer. Since SIFT-based methods basically use histograms that reflect image characteristics around feature points, they have strong characteristics against geometrical deformations such as scale and rotational changes (Song et. al., 2014; Gong et al. , 2013; Sun et al., 2014). However, the SIFT method is advantageous for detecting a blob-like feature point, but has a disadvantage that is not suitable for detecting a corner point such as a crossing point of a building or a road (Wu et al., 2012). The SIFT method is not suitable as a corner detector for image registration because the location of the detected feature point is detected around the corner, not the actual corner location.

Shechtman and Iran(2007)은 특징점을 중심으로 하는 영상 템플릿과 특징점 주변의 영상과의 유사도를 계산하여 correlation surface를 생성한 후에 이를 극좌표 형식으로 표현하는 Local Self-Similarity(LSS) 영상기술자를 제안하였다. 영상의 밝기값 변화에 대해 강건한 특성을 가지는 LSS 영상기술자의 성능을 일부 개선한 방법도 제안이 되었다(Liu et al., 2012; Liu and Zeng, 2012). LSS 영상기술자의 단점은 다양한 특징에 대한 영상기술자의 식별능력(discriminability)이 상대적으로 낮다는 점이다(Sedaghat and Ebadi, 2015). 이 방법은 Correlation surface를 극좌표 형식으로 표현한 후에 극좌표 중심에서 일정 길이의 반지름 이내에 속하는 원형의 영역을, 중심에서의 거리와 방향에 따라 각각 일정한 개수의 작은 영역으로 분할한 후에 각 영역의 대표 값으로 correlation surface의 최대값을 할당하여 LSS 기술자 벡터를 생성한다. 이러한 기술자 벡터 생성 방식은 SIFT 기반의 기술자와 같이 특징점 주변의 정보를 벡터 형태로 표현하는데 유용한 방식이나, 특징점 주변 영역을 일정한 크기의 작은 영역으로 분할하고 대표값을 지정하는 과정을 통해서 밝기값 또는 에지(Edge) 정보 등의 작은 변화에 대한 영상기술자의 민감도가 저하되는 요인으로 작용한다. 즉, 특징점을 중심으로 생성된 LSS 벡터와 특징점에 가까운 화소의 LSS 벡터는 거의 유사한 벡터 성분을 가지게 되기 때문에 특징점과 특징점 근처의 화소에 대한 영상기술자의 식별 능력은 감소하게 된다. 기존의 영상기술자를 이용한 정합기법은 특징점을 중심으로 좁은 영역의 영상정보를 특징벡터로 기술하고 이 특징벡터와의 유사도가 높은 특징벡터를 가지는 대응점을 정합 과정에서 찾는다. 이 과정에서 특징벡터가 추출되는 영역 자체가 작으면 특징점 주변의 영상정보가 충분히 반영되지 못하는 문제가 발생될 수 있으며, 또한 특징벡터를 추출하는 과정 자체가 특징점 주변의 영상 전체 밝기값 정보 대신에 벡터로 추출된 일부 영상정보만을 이용하는 근본적인 한계를 가진다. 반면, 특징점 기술에 사용되는 주변영역을 충분히 넓게 하면 특징점 정합을 위한 유사도 계산 과정에서 잡음이나 다른 요인에 의해 유사도를 저하시키는 일부 요인이 작용하더라도 그 영향을 적게 받을 수 있다. 본 발명자의 이전 연구(Ye, 2014b)에 따르면 정합에 사용되는 원형템플릿의 크기가 점진적으로 증가하면 정합오차도 함께 감소하고, 원형템플릿의 반지름이 100~500 화소의 비교적 넓은 범위로 증가하면 정합오차도 2화소 이내의 낮은 수준으로 수렴된다. 이와 같은 결과는 특징점 중심의 좁은 영역의 유사도 비교에 비해 넓은 영역의 유사도 비교가 가지는 장점을 잘 보여준다. Shechtman and Iran (2007) proposed a Local Self-Similarity (LSS) image descriptor that computes the similarity between the image template centered on the feature point and the image around the feature point and creates a correlation surface and expresses it in polar coordinates. A method of partially improving the performance of an LSS image technician having robust characteristics against changes in the brightness of an image has also been proposed (Liu et al., 2012; Liu and Zeng, 2012). The disadvantage of the LSS imaging technician is that the imaging technician's discriminability for various features is relatively low (Sedaghat and Ebadi, 2015). In this method, after expressing the correlation surface in the form of polar coordinates, after dividing a circular area that belongs to a radius of a certain length from the center of the polar coordinates into a small number of small areas, depending on the distance and direction from the center, it is correlated with the representative value of each area. Create the LSS descriptor vector by assigning the maximum value of the surface. Such a descriptor vector generation method is a method useful for expressing information around a feature point in a vector form, such as a SIFT-based descriptor, but it divides a region around the feature point into a small region of a certain size and assigns a representative value to the brightness or edge. (Edge) It acts as a factor that decreases the sensitivity of the image engineer to small changes in information. That is, since the LSS vector generated around the feature point and the LSS vector of the pixel close to the feature point have almost similar vector components, the ability of the image descriptor to identify the feature point and the pixels near the feature point is reduced. In the matching technique using an existing image descriptor, image information in a narrow area around a feature point is described as a feature vector, and a matching point having a feature vector having a similarity to the feature vector is found in the matching process. In this process, if the region where the feature vector is extracted is small, a problem that image information around the feature point may not be sufficiently reflected may occur. In addition, the process of extracting the feature vector itself may replace the vector with full brightness value information around the feature point. It has the fundamental limitation of using only some video information extracted with. On the other hand, if the surrounding area used in the feature point technique is sufficiently wide, even if some factors that reduce the similarity due to noise or other factors in the process of calculating the similarity for matching the feature points may be less affected. According to the previous study of the inventor (Ye, 2014b), if the size of the circular template used for registration gradually increases, the matching error decreases, and when the radius of the circular template increases to a relatively wide range of 100 to 500 pixels, the matching error It converges to a low level within 2 pixels. These results show the advantages of comparing the similarity of a large area compared to the similarity of a small area centered on a feature point.

상술한 기존의 영상기술자 중심의 특징점 정합기법들은 스케일 및 회전변화를 포함하는 영상 간의 특징점 유사도를 비교하기 위해서 스케일변화, 회전변화의 영향을 적게 받는 특징점 추출 방법, 특징점 유사도 계산 방법을 사용한다. 그러나 영상등록을 위한 이러한 특징점 중심의 유사도 계산 접근방식 대신에 특징점을 포함하는 넓은 영역 간의 영상 변환(image transformation) 관점에 본다면 영상등록은 두 비교 영상 간의 어파인 파라미터를 결정하는 과정으로 이해할 수 있다. 두 영상 간의 일반적인 어파인 파라미터를 결정하기 위해서는 최소 3개 이상의 대응점이 필요하지만 두 영상 내부의 정합 특징점을 중심으로 하는 두 영상 간 변환 관점에서 보면 두 영상 간의 어파인 변환은 두 영상 간의 정합 특징점을 변환중심으로 하는 영상 간의 스케일변환(scale transformation), 회전변환(rotation transformation) 그리고 이동변환(translation transformation)의 각 파라미터를 결정하는 과정과 등가의 의미를 가지게 된다. 스케일변환, 회전변환, 이동변환의 각 파라미터를 구하게 되면 한 쪽 영상의 특징점을 중심으로 각각의 영상변환을 수행하여 다른 한 쪽의 영상좌표와 일치시킬 수 있다. 이 과정은 그 자체로서 특징점을 중심으로 하는 일종의 글로벌 영상등록(global image registration)으로 볼 수 있으며 삼각망 기반의 국부변환(triangulation-based local transformation) 기법(Ye, 2014c) 등과 같이 보다 정밀한 영상등록을 위한 초기 영상등록 방법으로 사용할 수 있다. 두 영상 사이의 스케일 및 회전 차이가 보정되면, 두 영상 간의 기하학적인 차이가 보정이 되어 추가적인 정밀 영상등록 과정에서 유사도계산의 정확도를 높일 수 있다. 이와 같은 접근 방법에서 해결해야 하는 문제는 두 영상 간의 정합 특징점은 일반적으로 미리 알려져 있지 않기 때문에 각 어파인 파라미터를 구하는 과정과 정합 특징점을 구하는 과정이 동시에 진행되어야 한다. The above-described conventional image descriptor-centered feature point matching techniques use a feature point extraction method and feature point similarity calculation method that are less affected by scale change and rotation change to compare feature point similarity between images including scale and rotation change. However, in view of the image transformation view between a large area including a feature point instead of the similarity-based similarity calculation approach for image registration, image registration can be understood as a process of determining affine parameters between two comparison images. In order to determine a general affine parameter between two images, at least three or more corresponding points are required, but from the viewpoint of conversion between two images centered on the matching feature points in the two images, affine transformation between the two images transforms the matching feature points between the two images It has the same meaning as the process of determining each parameter of scale transformation, rotation transformation, and translation transformation between centered images. When each parameter of scale transformation, rotation transformation, and movement transformation is obtained, each image transformation can be performed around the feature points of one image to match the image coordinates of the other. This process itself can be viewed as a kind of global image registration centering on feature points, and more precise image registration, such as a triangulation-based local transformation technique (Ye, 2014c). It can be used as an initial image registration method. When the difference in scale and rotation between the two images is corrected, the geometric difference between the two images is corrected, so that the accuracy of the similarity calculation can be increased in an additional precise image registration process. The problem to be solved in this approach is that the matching feature point between the two images is generally not known in advance, so the process of obtaining each affine parameter and the process of finding the matching feature point must be performed simultaneously.

본 발명에서는 본 발명자가 창안한 가변 원형템플릿 정합기법(Ye, 2018)을 기초로 하여, 기존의 특징점 검출 및 정합 방식을 대체 할 수 있는 어파인 파라미터를 이용한 다중 해상도 영상의 특징 정합 기법을 제공한다. 이를 위하여 먼저 영상 간의 기하학적 보정이 특징점 정합 유사도 향상에 미치는 영향을 분석하고 스케일이 서로 다른 영상 간의 원형템플릿을 이용한 영상변환 방법을 제시한다. 이어서 특징점의 유사도 계산을 위한 원형템플릿의 설계 방법과 원형템플릿 간의 상호정보량에 기반한 유사도 계산 방법을 제시한다. 창안된 정합방법의 성능검증을 위해서 다목적 실용위성 3호 영상을 이용하여 다양한 조건에서 생성된 스케일 영상들과 실제 서로 다른 스케일을 가지는 다목적 실용위성 2호, 3호, 3A호 영상을 이용하여 성능 평가를 각각 수행하였다. In the present invention, based on the variable circular template matching technique (Ye, 2018) created by the present inventor, a feature matching technique of a multi-resolution image using affine parameters that can replace the existing feature point detection and matching method is provided. . To this end, we first analyze the effect of geometric correction between images on the improvement of similarity of feature point registration, and present a method of image conversion using a circular template between images with different scales. Next, a method of designing a circular template for calculating the similarity of feature points and a method of calculating the similarity based on the amount of mutual information between the circular templates are presented. In order to verify the performance of the created matching method, performance evaluation is performed using multipurpose practical satellite images #2, 3, and 3A that have different scales from the scale images generated under various conditions using multipurpose utility satellite #3 images. Each was performed.

Carneiro, G. and A. D. Jepson, 2002. Phase-based local features, Proceedings of the 7th European Conference on Computer Vision-Part I, pp.282-296.Carneiro, G. and A. D. Jepson, 2002.Phase-based local features, Proceedings of the 7th European Conference on Computer Vision-Part I, pp.282-296. Gong, M., Zhao, S., Jiao, L., Tian, D., Wang, S., 2014. A novel coarse-to-fine scheme for automatic image registration based on SIFT and mutual information. IEEE Transactions on Geoscience and Remote Sensing, 52(7):4328-4338.Gong, M., Zhao, S., Jiao, L., Tian, D., Wang, S., 2014.A novel coarse-to-fine scheme for automatic image registration based on SIFT and mutual information. IEEE Transactions on Geoscience and Remote Sensing, 52(7):4328-4338. Harris, C., and M. Stephens, 1988. A combined corner and edge detector, Proceedings of the 4th Alvey Vision Conference, pp.147-151.Harris, C., and M. Stephens, 1988.A combined corner and edge detector, Proceedings of the 4th Alvey Vision Conference, pp.147-151. Liu, J. and G. Zeng, 2012. Description of interest regions with oriented local self-similarity, Optics Communications, 285:2549-2557. Liu, J. and G. Zeng, 2012. Description of interest regions with oriented local self-similarity, Optics Communications, 285:2549-2557. Liu, J., G. Zeng, and J. Fan, 2012. Fast Local Self-Similarity for describing interest regions, Pattern Recognition Letters. 33:1224-1235. Liu, J., G. Zeng, and J. Fan, 2012. Fast Local Self-Similarity for describing interest regions, Pattern Recognition Letters. 33:1224-1235. Lowe, D. G., 2004. Distinctive image features from scale-Invariant keypoints, International Journal of Computer Vision, 60(2):91-110.Lowe, D. G., 2004. Distinctive image features from scale-Invariant keypoints, International Journal of Computer Vision, 60(2):91-110. Moravec, H.P., 1977. Towards automatic visual obstacle avoidance, Fifth International Joint Conference on Artificial Intelligent, pp.584.Moravec, H.P., 1977.Towards automatic visual obstacle avoidance, Fifth International Joint Conference on Artificial Intelligent, pp.584. Sedaghat, A. and H. Ebadi, 2015. Distinctive order based self-similarity descriptor for multi-sensor remote sensing image matching, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 108, pp.62-71.Sedaghat, A. and H. Ebadi, 2015. Distinctive order based self-similarity descriptor for multi-sensor remote sensing image matching, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 108, pp. 62-71. Shechtman, E., Irani, M., 2007. Matching local self-similarities across images and videos, IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA, 17-22 June, pp.1-8.Shechtman, E., Irani, M., 2007.Matching local self-similarities across images and videos, IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA, 17-22 June, pp. 1-8. Shi J. and C. Tomasi, 1994. Good Features to Track, IEEE conference on Computer Vision and Pattern Recognition, Seattle, USA, 21-23 June, pp.593-600.Shi J. and C. Tomasi, 1994.Good Features to Track, IEEE conference on Computer Vision and Pattern Recognition, Seattle, USA, 21-23 June, pp.593-600. Song, Z., Zhou, S., Guan, J., 2014. A novel image registration algorithm for remote sensing under affine transformation. IEEE Transactions on Geoscience and Remote Sensing, 52(8):4895-4912.Song, Z., Zhou, S., Guan, J., 2014.A novel image registration algorithm for remote sensing under affine transformation. IEEE Transactions on Geoscience and Remote Sensing, 52(8):4895-4912. Sun, Y., Zhao, L., Huang, S., Yan, L., Dissanayake, G., 2014. L2-SIFT: SIFT feature extraction and matching for large images in large-scale aerial photogrammetry, ISPRS Journal of Photogrammetry and Remote Sensing, 91:1-16.Sun, Y., Zhao, L., Huang, S., Yan, L., Dissanayake, G., 2014.L2-SIFT: SIFT feature extraction and matching for large images in large-scale aerial photogrammetry, ISPRS Journal of Photogrammetry and Remote Sensing, 91:1-16. Wu, B., Zhang, Y. & Zhu, Q. 2012. Integrated point and edge matching on poor textural images constrained by self-adaptive triangulations, ISPRS Journal of Photogrammetry and Remote Sensing, 68:40-55.Wu, B., Zhang, Y. & Zhu, Q. 2012. Integrated point and edge matching on poor textural images constrained by self-adaptive triangulations, ISPRS Journal of Photogrammetry and Remote Sensing, 68:40-55. Ye, C.H., 2014a. Feature detection using geometric mean of eigenvalues of gradient matrix, Korean Journal of Remote Sensing, 30(6):769-776.Ye, C.H., 2014a. Feature detection using geometric mean of eigenvalues of gradient matrix, Korean Journal of Remote Sensing, 30(6):769-776. Ye, C.H., 2014b. Mutual Information-based circular template matching for image registration, Korean Journal of Remote Sensing, 30(5):547-557. Ye, C.H., 2014b. Mutual Information-based circular template matching for image registration, Korean Journal of Remote Sensing, 30(5):547-557. Ye, C.H., 2014c. Image registration using outlier removal and triangulation-based local transformation, Korean Journal of Remote Sensing, 30(6):787-795.Ye, C.H., 2014c. Image registration using outlier removal and triangulation-based local transformation, Korean Journal of Remote Sensing, 30(6):787-795. Ye, C.H., 2018. Multiresolution image matching using variable circular template, Proceedings of the KSRS Fall 2018, Muju, Korea, 24-26 October, pp.160. Ye, C.H., 2018.Multiresolution image matching using variable circular template, Proceedings of the KSRS Fall 2018, Muju, Korea, 24-26 October, pp.160.

본 발명은, 서로 다른 공간해상도를 가지는 다중센서 영상 사이에서 스케일과 회전각도의 차이를 정확하게 검출하는 등 각각의 영상에서 검출된 특징점 간의 정확한 정합방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an accurate matching method between feature points detected in each image, such as accurately detecting a difference between a scale and a rotation angle between multiple sensor images having different spatial resolutions.

상술한 목적을 달성하기 위하여 본 발명에 의한, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법은, 정보시스템에 의하여 다중해상도 영상등록을 위한 특징정합을 수행하는 방법으로서, 제1영상에 대하여는, (a) 특징좌표(

Figure pat00001
)를 검출하는 단계; (b) 상기 특징좌표(
Figure pat00002
)를 중심으로 반지름 R인 원형템플릿을 정하는 단계; (c) 상기 원형템플릿 안에서 상기 특징좌표(
Figure pat00003
)를 중심으로 거리가
Figure pat00004
, 각도가
Figure pat00005
인 제1화소들의 위치(
Figure pat00006
)를 각각 정하는 단계; (d) 상기 제1화소들 각각에 대한 밝기값을 포함하는 제1화소들의 집합(
Figure pat00007
)을 구하는 단계;를 포함하도록 하고, 상기 제1영상에 비하여 스케일이 큰 제2영상에 대하여는, (a) 후보특징점(
Figure pat00008
)을 정하는 단계; (b) 상기 후보특징점(
Figure pat00009
)을 중심으로 거리가
Figure pat00010
, 각도가
Figure pat00011
인 제2화소들의 위치(
Figure pat00012
)를 각각 정하는 단계; (c) 상기 제2화소들 각각에 대한 밝기값을 포함하는 제2화소들의 집합(
Figure pat00013
)을 구하는 단계; 를 포함하도록 한 후, 상기 제2화소들의 위치(
Figure pat00014
)를 갱신해 가면서 상기 제2화소들의 집합(
Figure pat00015
)을 재구성하는 과정을 각각 반복한 후, 상기 제1화소들의 집합(
Figure pat00016
)과 상기 제2화소들의 집합(
Figure pat00017
) 사이의 상호정보량(
Figure pat00018
)를 구하는 단계;를 수행하되 상기 제2화소들의 위치(
Figure pat00019
) 갱신은 (a) 상기 제2영상의 스케일범위 내에서 각각의 스케일(
Figure pat00020
)을 순차적으로 적용해가면서 상기 제2화소들의 위치(
Figure pat00021
)를 갱신하고, (b) 상기 제2화소들의 각도
Figure pat00022
를 일정각도(
Figure pat00023
)만큼 순차적으로 증가시키면서 상기 제2화소들의 위치(
Figure pat00024
)를 갱신하고, (c) 상기 후보특징점(
Figure pat00025
)에 대하여 일정한 탐색범위 내에서 이동변위(
Figure pat00026
)를 적용해가면서 상기 제2화소들의 위치(
Figure pat00027
)를 갱신하도록 하는 것이 바람직하다. 그리고 그 후에는 상기 상호정보량(
Figure pat00028
)가 최대값이 될 때의 파라미터(
Figure pat00029
)를 구하는 단계; 및 상기 파라미터(
Figure pat00030
)를 적용한 어파인 변환계수를 이용하여 상기 특징좌표(
Figure pat00031
)에 대응되는 상기 제2영상에서의 특징점(
Figure pat00032
)을 구하는 단계; 를 포함하도록 하는 것이 바람직하다.In order to achieve the above object, the feature matching method using a variable circular template when registering a multi-resolution image according to the present invention is a method of performing feature matching for multi-resolution image registration by an information system, for the first image , (a) Feature coordinates (
Figure pat00001
Detecting); (b) The characteristic coordinates (
Figure pat00002
Determining a circular template having a radius R around ); (c) the feature coordinates (
Figure pat00003
Centered on)
Figure pat00004
, The angle
Figure pat00005
Location of the first pixels (
Figure pat00006
Respectively); (d) a set of first pixels including brightness values for each of the first pixels (
Figure pat00007
), and for a second image having a larger scale than the first image, (a) a candidate feature point (
Figure pat00008
Determining); (b) The candidate feature points (
Figure pat00009
)
Figure pat00010
, The angle
Figure pat00011
Location of the second pixels (
Figure pat00012
Respectively); (c) a set of second pixels including brightness values for each of the second pixels (
Figure pat00013
); After including the, the position of the second pixels (
Figure pat00014
) While updating the second set of pixels (
Figure pat00015
) After repeating the process of reconstructing each of the first set of pixels (
Figure pat00016
) And the set of second pixels (
Figure pat00017
) Amount of mutual information
Figure pat00018
); but the location of the second pixels (
Figure pat00019
) Update (a) each scale within the scale range of the second image (
Figure pat00020
) While sequentially applying the positions of the second pixels (
Figure pat00021
), and (b) the angles of the second pixels.
Figure pat00022
The constant angle (
Figure pat00023
) While sequentially increasing the positions of the second pixels (
Figure pat00024
), and (c) the candidate feature points (
Figure pat00025
), the displacement within a certain search range (
Figure pat00026
) While applying the position of the second pixels (
Figure pat00027
It is desirable to update ). And after that, the amount of mutual information (
Figure pat00028
) Is the maximum value parameter (
Figure pat00029
); And the parameter (
Figure pat00030
) Using the affine transformation coefficient to which the above is applied.
Figure pat00031
) Corresponding to the feature point in the second image (
Figure pat00032
); It is preferable to include.

또한 상술한 특징들에 더하여, 상기 특징좌표(

Figure pat00033
)는, 일정 범위 내에서 코너 응답값이 최대가 되는 코너점의 위치를 기하평균 기반의 특징점 검출기를 이용하여 검출하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법으로 하는 것도 바람직하다.In addition to the above-described features, the feature coordinates (
Figure pat00033
) Is a feature matching method using a variable circular template when registering a multi-resolution image, characterized in that the position of the corner point at which the corner response value is the maximum within a certain range is detected using a feature point detector based on a geometric mean. It is also preferred.

그리고 상기 제1화소들의 위치(

Figure pat00034
)는 아래 식에 의하여 구하며,And the position of the first pixels (
Figure pat00034
) Is obtained by the following equation,

Figure pat00035
Figure pat00035

(

Figure pat00036
은 원형템플릿의 반지름 위에 위치하는 전체 화소수,
Figure pat00037
는 원형템플릿의 원주 위에 위치하는 전체 화소수이다.)(
Figure pat00036
Is the total number of pixels located above the radius of the circular template,
Figure pat00037
Is the total number of pixels located on the circumference of the circular template.)

상기 제2화소들의 위치(

Figure pat00038
)는 다음의 식에 의하여 구하며,The position of the second pixels (
Figure pat00038
) Is obtained by the following equation,

Figure pat00039
Figure pat00039

Figure pat00040
Figure pat00040

(

Figure pat00041
는 제1영상과 제2영상의 스케일 크기를 반영한 스케일 파라미터다.)(
Figure pat00041
Is a scale parameter reflecting the scale size of the first image and the second image.)

상기 제1화소들의 집합(

Figure pat00042
) 및 상기 제2화소들의 집합(
Figure pat00043
)은 다음 각각의 식에 의하여 구하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법The first set of pixels (
Figure pat00042
) And the set of second pixels (
Figure pat00043
) Is a feature matching method using variable circular templates when registering multi-resolution images,

Figure pat00044
Figure pat00044

(

Figure pat00045
는 상기 제1영상의 (
Figure pat00046
) 위치에 존재하는 화소의 밝기값이다.)(
Figure pat00045
Is the first image (
Figure pat00046
) It is the brightness value of the pixel existing at the position.)

Figure pat00047
Figure pat00047

(

Figure pat00048
는 상기 제2영상의 (
Figure pat00049
) 위치에 존재하는 화소의 밝기값이다.)(
Figure pat00048
Is the second image (
Figure pat00049
) It is the brightness value of the pixel existing at the position.)

상기 상호정보량(

Figure pat00050
)은 아래 식에 의하여 구해지는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법으로 하는 것도 가능하다.The amount of mutual information (
Figure pat00050
) Is obtained by the following equation, and it is also possible to use a feature matching method using a variable circular template when registering a multi-resolution image.

Figure pat00051
Figure pat00051

(여기서 H는 엔트로피다)(Where H is entropy)

이상에서 살펴본 바와 같이 본 발명에 의한, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법에서는, 서로 다른 공간해상도를 가지는 제1영상과 제2영상 사이에서 스케일(

Figure pat00052
)과 회전각도(
Figure pat00053
)의 차이를 정확하게 검출하고, 이들을 통하여 상기 제2영상에서의 대응 특징점(
Figure pat00054
)도 찾아서 제공하는 등 각각의 영상에서 검출된 특징점 간의 정확한 정합방법을 제공할 수 있는 효과가 있다.As described above, according to the present invention, in the feature matching method using a variable circular template when registering a multi-resolution image, the scale between the first image and the second image having different spatial resolutions (
Figure pat00052
) And rotation angle (
Figure pat00053
) To accurately detect the difference, and through these, corresponding feature points in the second image (
Figure pat00054
) Also has the effect of providing an accurate matching method between feature points detected in each image, such as by finding and providing the same.

최근 다양한 종류의 고해상도 위성 영상이 등장하면서 이들 다중 해상도 센서영상을 다양한 목적으로 함께 활용하고자 하는 노력이 활발하다. 다중 센서 영상을 영상 융합, 변화 탐지, 시계열 분석 등에 활용하기 위해서는 두 영상 간의 영상등록 과정이 필수적이다. 서로 다른 공간 해상도를 가지는 위성영상 사이의 영상등록을 위해서 SIFT 기반의 특징 정합 방법을 적용할 수 있으나 검출한 특징점의 위치가 코너 주변에서 검출이 되는 문제와 함께 특징 벡터를 추출하는 과정을 통해 원래의 영상 밝기값 정보 대신에 일부 특징 정보만을 이용하는 근본적인 한계를 가진다. 본 발명에서는 해상도 차이가 존재하는 두 영상 간의 영상등록 문제를 스케일이 서로 다른 두 영상 간의 어파인 변환(affine transformation) 관점에서 재해석하여 다중 해상도 영상 간의 상대적인 스케일, 회전각도 차이, 특징점 위치를 동시에 검출할 수 있는 가변 원형 템플릿을 이용한 정합 기법을 발명하였다. 본 발명에 의한 가변 원형템플릿을 이용한 정합 기법은 스케일이 작은 영상의 특징점을 중심으로 원형템플릿을 설정하고 스케일이 큰 영상에서 가변 원형템플릿의 스케일을 일정한 스케일 단위로 변경하면서 스케일이 작은 영상의 원형템플릿과의 상호정보량이 최대가 될 때의 가변 원형템플릿의 스케일, 회전각도 그리고 가변 원형템플릿의 중심 위치를 각각 검출할 수 있게 된다.Recently, as various kinds of high-resolution satellite images have appeared, efforts to utilize these multi-resolution sensor images together for various purposes have been active. In order to use multiple sensor images for image fusion, change detection, and time series analysis, the image registration process between two images is essential. For image registration between satellite images having different spatial resolutions, SIFT-based feature matching method can be applied, but the location of the detected feature points is detected around the corner, and the original feature is extracted through the process of extracting feature vectors. It has a fundamental limitation that uses only some feature information instead of image brightness value information. In the present invention, the image registration problem between two images having a resolution difference is reinterpreted from the viewpoint of affine transformation between two images having different scales, thereby simultaneously detecting relative scale, rotation angle difference, and feature point location between multiple resolution images. Invented a matching technique using a variable circular template that can be done. The matching method using the variable circular template according to the present invention sets a circular template around the feature points of the small scale image and changes the scale of the variable circular template in a certain scale unit in a large scale image while the circular template of the small scale image It is possible to detect the scale, rotation angle, and the central position of the variable circular template, respectively, when the mutual information amount with the maximum becomes maximum.

기존의 영상등록 방법이 스케일 및 회전에 불변한 특징점 검출 및 정합 관점에서 다양한 영상 기술자와 정합 방식을 제시하는데 반해서 본 발명은 특징점 주변의 넓은 영역에 대한 영상 변환이라는 새로운 관점에서 영상등록 문제를 해결하였다. 영상변환 관점의 새로운 접근 방법을 통해 서로 다른 해상도를 가지는 영상 간의 상대적인 스케일과 회전 그리고 특징점 위치를 정밀하게 획득할 수 있다. 상대적인 스케일 검출과 관련하여 종래기술에서는 두 영상 내의 존재하는 특징을 중심으로 특성 스케일(characteristic scale)을 각각 검출한 후에 그 크기를 비교하여 상대적인 스케일을 추정하나 이 경우 먼저 대응하는 두 특징점을 찾아야 하는 특징점 정합 문제로 인해서 자동 영상등록에 적용하기에는 어렵다는 문제가 있어왔으나 본 발명에서는 일차적으로는 다중 해상도 영상 간의 상대적인 스케일을 자동으로 검출하는 방법을 제공하였으며, 이와 함께 두 영상 간의 상대적인 회전각도 차이와 특징점 위치를 정확하게 검출하여 다중 해상도 영상 간의 특징 정합 방법을 제공할 수 있다.While the existing image registration method presents various image descriptors and matching methods in terms of detecting and matching feature points that are invariant to scale and rotation, the present invention solves the image registration problem from a new perspective of image conversion for a large area around a feature point. . Through the new approach from the image conversion perspective, it is possible to accurately obtain the relative scale, rotation, and feature point positions between images with different resolutions. In relation to the relative scale detection, in the prior art, a characteristic scale is detected based on the features present in the two images, and then the size is compared and the relative scale is estimated, but in this case, the feature points that must first find the corresponding two feature points There has been a problem that it is difficult to apply it to automatic image registration due to a matching problem, but the present invention primarily provides a method for automatically detecting a relative scale between multi-resolution images, and the relative rotation angle difference and feature point location between two images. It is possible to accurately detect and provide a feature matching method between multi-resolution images.

도 1은 본 발명에 의한, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법이 수행되는 흐름도이다.
도 2는 동일 지역을 촬영한 Ikonos 위성영상과 Quickbird 위성영상의 비교 및 어파인 변환 사례를 보여주는 사진이다.
도 3은 Quickbird 위성영상에 대한 어파인 변환 전후의 유사도를 보여주는 도면으로서 상호정보량(mutual information, MI)을 이용하여 계산한 유사도이다.
도 4는 스케일이 작은 영상과 어파인 변환한 스케일이 큰 영상의 유사도를 비교한 도면이다.
도 5는 회전각도

Figure pat00055
스케일 펙터
Figure pat00056
를 이용하여, 위치좌표 (
Figure pat00057
)에 대응되는 픽셀위치를 정의하는 도면이다.
도 6은 원형템플릿의 픽셀들을 2차원 배열 형태로 표시한 것이다.
도 7은 원형템플릿 내에서 각각의 픽셀 위치를 각도
Figure pat00058
만큼 변화시켜 가는 것을 도시한 것이다.
도 8은 다목적실용위성 Kompsat-2, Kompsat-3, Kompsat-3A호에 대한 각각의 영상이다.
도 9는 Kompsat-3 영상에 대하여 코너 검출 결과를 보여주는 사진이다.
도 10은 Kompsat-3 영상에 대한 테스트 셋트 영상에 대한 사진이다.
도 11은 회전각도와 스케일팩터의 변화에 따른 상호정보량의 변화를 도시한 것이다.
도 12는 다양한 스케일 팩터와 회전성분을 포함한 저해상도 영상의 예를 보여준다.
도 13은 상호간의 스케일 팩터 변화에 따른 상호정보량의 변화를 보여준다. 1 is a flowchart illustrating a method of matching a feature using a variable circular template when registering a multi-resolution image according to the present invention.
2 is a photograph showing a comparison of the Ikonos satellite image and the Quickbird satellite image taken in the same region and affine conversion.
FIG. 3 is a diagram showing similarities before and after affine transformation for a Quickbird satellite image, and is a similarity calculated using mutual information (MI).
4 is a diagram comparing similarities between a small-scale image and an affine-transformed large-scale image.
5 is a rotation angle
Figure pat00055
Scale factor
Figure pat00056
Using, position coordinate (
Figure pat00057
).
6 shows pixels of a circular template in a two-dimensional array.
7 shows the angle of each pixel position within the circular template.
Figure pat00058
It shows what changes as much as possible.
8 is a video for each of the multi-purpose satellites Kompsat-2, Kompsat-3, Kompsat-3A.
9 is a photograph showing a corner detection result for the Kompsat-3 image.
10 is a photograph of a test set image for the Kompsat-3 image.
11 shows a change in the amount of mutual information according to a change in the rotation angle and scale factor.
12 shows examples of low-resolution images including various scale factors and rotational components.
13 shows a change in the amount of mutual information according to a change in scale factor between each other.

이하에서 상술한 목적과 특징이 분명해지도록 본 발명을 상세하게 설명할 것이며, 이에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한 본 발명을 설명함에 있어서 본 발명과 관련한 공지기술 중 이미 그 기술 분야에 익히 알려져 있는 것으로서, 그 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. Hereinafter, the present invention will be described in detail so that the above-mentioned objects and features become clear, and accordingly, a person skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention. In addition, in describing the present invention, among the known technologies related to the present invention, it is already well known in the technical field, and a detailed description thereof is determined when it is determined that the detailed description of the known technology may unnecessarily obscure the subject matter of the present invention. It will be omitted.

아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우는 해당되는 발명의 설명부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다. 실시 예들에 대한 설명에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 실시 예들을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In addition, the terminology used in the present invention has been selected as a general terminology that is currently widely used as much as possible, but in certain cases, the term is arbitrarily selected by the applicant, and in this case, its meaning is described in detail in the description of the applicable invention. It is intended to clarify that the present invention should be grasped as a meaning of a term rather than a name of. Terms used in the description of the embodiments are only used to describe specific embodiments, and are not intended to limit the embodiments. Singular expressions include plural expressions unless the context clearly indicates otherwise.

실시 예들은 여러 가지 형태로 변경을 가할 수 있고 다양한 부가적 실시 예들을 가질 수 있는데, 여기에서는 특정한 실시 예들이 도면에 표시되고 관련된 상세한 설명이 기재되어 있다. 그러나 이는 실시 예들을 특정한 형태에 한정하려는 것이 아니며, 실시 예들의 사상 및 기술 범위에 포함되는 모든 변경이나 균등물 내지 대체물을 포함하는 것으로 이해되어야 할 것이다. The embodiments may be modified in various forms and may have various additional embodiments, in which specific embodiments are shown in the drawings and detailed descriptions thereof are described. However, this is not intended to limit the embodiments to a specific form, it should be understood that it includes all changes or equivalents or substitutes included in the spirit and scope of the embodiments.

다양한 실시 예들에 대한 설명 가운데 “제1”, “제2”, “첫째” 또는“둘째”등의 표현들이 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. In the description of various embodiments, expressions such as “first”, “second”, “first”, or “second” may modify various components of the embodiments, but do not limit the components. For example, the above expressions do not limit the order and/or importance of the components. The above expressions can be used to distinguish one component from another component.

이하에서는 첨부된 도면을 참조하여 본 발명을 설명한다. 먼저 도 2는 동일 지역을 촬영한 Ikonos 위성 영상과 Quickbird 위성영상의 비교 및 어파인 변환한 사례를 보여주는 사진이다. 해상도가 다른 이종센서(다중센서) 영상 상호간에는 영상 취득조건의 차이로 인해서 발생하는 기하학적 차이로 인하여, 영상등록 과정에서 특징점 사이의 유사도를 저하시키게 된다. 도 2는 이에 대한 비교를 보여주는데, 도 2(a)와 도 2(b)는 동일 지역을 촬영한 Ikonos 위성 영상과 Quickbird 위성영상의 예를 보여준다. 그리고 도 2(c)는 Ikonos 위성영상을 기준으로 Quickbird 위성영상을 어파인(affine) 변환한 영상으로서, 도 2 하단에 있는 각각의 확대된 영상에서 보는 바와 같이 어파인 변환 후의 Quickbird 위성 영상과 Ikonos 위성 영상과의 기하학적 차이가 감소한 것을 알 수 있다. Hereinafter, the present invention will be described with reference to the accompanying drawings. First, FIG. 2 is a photograph showing an example of comparison and affine conversion of the Ikonos satellite image and the Quickbird satellite image taken in the same region. Heterogeneous sensor (multi-sensor) images with different resolutions reduce the similarity between feature points in the image registration process due to geometric differences caused by differences in image acquisition conditions. FIG. 2 shows a comparison thereof, and FIGS. 2(a) and 2(b) show examples of Ikonos satellite images and Quickbird satellite images taken in the same region. And Figure 2 (c) is an image affine (affine) a Quickbird satellite image based on the Ikonos satellite image, as shown in each enlarged image at the bottom of Figure 2 Quickbird satellite image and Ikonos after affine conversion It can be seen that the geometrical difference from the satellite image is reduced.

또한 어파인 변환을 통한 기하학적 보정을 통하여, 영상등록을 위한 특징점 정합 시 정합성능의 향상을 기대할 수 있는데, 도 3은 유사도 계산결과를 보여주는 도면으로서, 도 2(a)의 흰색 원의 중심 위치에 있는 Ikonos 위성영상의 코너 화소에 대한 대응점을, 어파인 변환 전후의 Quickbird 위성영상에서 찾기 위하여 상호정보량(mutual information)을 이용하여 계산한 유사도를 보여준다. 도 2(a)는 어파인 변환 전의 결과이며, 도 3(b)는 어파인 변환 후의 결과인데, 정합화소의 상호정보량(MI) 최대값은 어파인 변환 전후의 값이 각각 0.514, 0.613이 얻어져서 변환 후의 유사도가 보다 높은 결과를 보인다. 특히, 정합점과 주변 화소들 간의 유사도의 차이는 도 3(b)와 같이 어파인 변환 후에 그 차이가 크게 증가하여 오정합 가능성이 크게 낮아 질 수 있음을 볼 수 있다. 따라서 두 영상 간의 기하학적 차이를 보정하면 정합점 간의 유사도를 높이고 정합점과 주변 화소들 간의 유사도 차이를 증가시켜서 정합 성능을 향상시킬 수 있음을 알 수 있다. 두 영상 간의 기하학적 보정을 위해서는 일반적으로 두 영상 간의 특징점들을 정합한 후에 정합된 특징점들을 이용하여 영상 변환을 수행하는 단계를 거치나 본 발명에서는 원형템플릿을 이용한 영상변환과 특징점 정합을 동시에 수행하는 방법을 제공한다.In addition, through geometric correction through affine transformation, it is possible to expect an improvement in consistency when matching feature points for image registration. FIG. 3 is a diagram showing the result of similarity calculation, and is located at the center of the white circle in FIG. 2(a). It shows the similarity calculated by using the mutual information to find the corresponding point for the corner pixel of the Ikonos satellite image in the Quickbird satellite image before and after the affine transformation. 2(a) is a result before affine conversion, and FIG. 3(b) is a result after affine conversion, and the maximum value of the inter-information amount (MI) of a matched pixel is 0.514 and 0.613, respectively, before and after affine conversion. The result shows a higher degree of similarity after conversion. In particular, it can be seen that the difference in the similarity between the matching point and the surrounding pixels is greatly increased after the affine transformation, as shown in FIG. Therefore, it can be seen that by correcting the geometrical difference between the two images, the matching performance can be improved by increasing the similarity between the matching points and increasing the difference in the similarity between the matching point and the surrounding pixels. For geometric correction between two images, in general, after matching the feature points between the two images, an image transformation is performed using the matched feature points. In the present invention, a method of simultaneously performing image transformation and feature point matching using a circular template is performed. to provide.

이하에서는 원형템플릿을 이용한 영상변환에 대하여 설명한다. 해상도 차이로 인한 스케일이 서로 다른 두 영상 간의 특징점 정합은 두 영상 간의 대응점(corresponding points)을 연결하는 어파인 변환 성분을 찾는 과정으로 해석할 수 있다. 상대적으로 스케일이 작은 영상의 대응점을 (

Figure pat00059
), 스케일이 큰 영상의 대응점을 (
Figure pat00060
), 스케일이 큰 영상의 대응점 좌표(
Figure pat00061
)에 대한 어파인 변환 후의 좌표를 (
Figure pat00062
)라 할 때, 대응점 (
Figure pat00063
)과 변환 후 좌표 (
Figure pat00064
) 사이의 관계는 일반적으로 아래의 수학식 1과 같은 어파인 변환 관계로 주어진다.Hereinafter, image conversion using a circular template will be described. The matching of the feature points between two images having different scales due to the difference in resolution can be interpreted as a process of finding an affine transform component connecting corresponding points between the two images. Correspondence point of relatively small image (
Figure pat00059
), the corresponding point of the large-scale image (
Figure pat00060
), coordinates of the corresponding point of the large-scale image (
Figure pat00061
Coordinates after affine transformation for ()
Figure pat00062
), corresponding point (
Figure pat00063
) And coordinates after conversion (
Figure pat00064
) Is generally given as an affine transformation relationship as in Equation 1 below.

Figure pat00065
Figure pat00065

그리고 이를 스케일 성분 s, 회전각 θ, 이동 변위 (

Figure pat00066
)로 나타내면 아래 수학식 2와 같이 표현된다. 따라서 스케일이 작은 영상의 대응점(
Figure pat00067
)과의 유사도가 가장 높은 어파인 변환 후의 좌표(
Figure pat00068
)를 구하면 어파인 변환 계수를 이용하여 스케일이 큰 영상에서의 대응점(
Figure pat00069
)을 구할 수 있다.And this is scale component s, rotation angle θ, displacement
Figure pat00066
), it is expressed as Equation 2 below. Therefore, the corresponding point of the small-scale image (
Figure pat00067
), the coordinate after the transformation, which has the highest similarity to (
Figure pat00068
) To obtain the corresponding point (
Figure pat00069
).

Figure pat00070
Figure pat00070

대응점(

Figure pat00071
)과 어파인 변환 후 좌표(
Figure pat00072
)와의 유사도를 측정하기 위하여 스케일이 작은 영상의 대응점(
Figure pat00073
)과 스케일이 큰 영상의 후보대응점(
Figure pat00074
)을 중심으로 원형템플릿을 각각 생성한다. 원형템플릿 내에 위치하는 화소들은 두 대응점 간의 유사도 계산에 사용되며 대응점을 중심으로 영상이 회전 하여도 원형템플릿 내부에 포함되는 화소들은 변하지 않는 회전 불변(rotation invariance) 특성을 가진다. 따라서 대응점 (
Figure pat00075
) 중심의 원형템플릿은 고정하고 스케일이 큰 영상의 후보대응점(
Figure pat00076
) 중심의 원형템플릿은 일정각도 단위로 회전시키면서 두 템플릿의 유사도가 최고가 되는 회전각도를 측정하여 두 템플릿의 상대적인 회전각도 차이, 즉 두 영상의 상대적인 회전각도 차이를 구한다. Correspondence point (
Figure pat00071
) And affine coordinates after transformation (
Figure pat00072
) To measure the similarity with)
Figure pat00073
) And candidate correspondence points for large-scale images (
Figure pat00074
Each circle template is created around ). The pixels located in the circular template are used to calculate the similarity between the two corresponding points, and even if the image is rotated around the corresponding point, the pixels included in the circular template have a rotation invariance characteristic that does not change. So the corresponding point (
Figure pat00075
) The centered circular template is a candidate for a fixed and large-scale image (
Figure pat00076
) The circular template in the center measures the rotation angle at which the similarity between the two templates becomes the highest while rotating in a certain angle unit to obtain the relative rotation angle difference between the two templates, that is, the relative rotation angle difference between the two images.

한편, 스케일이 작은 영상과 스케일이 큰 영상의 경우 상대적인 스케일 차이가 존재하기 때문에 두 원형템플릿을 동일한 크기로 설정하면 스케일이 큰 영상의 원형템플릿은 스케일이 작은 영상의 원형템플릿보다 실제로는 더 작은 영역을 포함하게 된다. 따라서 두 원형템플릿의 유사도를 비교하기 전에 먼저 두 원형템플릿의 스케일을 일치시키는 과정이 필요하다. 이를 위해서 도 4에 보인 바와 같이 스케일이 작은 영상템플릿 내의 위치

Figure pat00077
에 대응되는 스케일이 큰 영상템플릿 내의 위치
Figure pat00078
를 스케일 파라미터
Figure pat00079
를 이용하여
Figure pat00080
로 계산한 후에 두 원형템플릿 반지름 상에 동일한 개수의 화소를 배치한다. 원형템플릿의 반지름 상에 동일 개수의 화소를 배치하면 스케일 파라미터
Figure pat00081
의 변화에도 불구하고 두 원형템플릿의 유사도 계산에 사용되는 화소들의 개수를 일치시킬 수 있다. On the other hand, since the relative scale difference exists between a small-scale image and a large-scale image, if two circular templates are set to the same size, the circular template of the large-scale image is actually smaller than the circular template of the small-scale image. It will include. Therefore, before comparing the similarity between two circular templates, it is necessary to first match the scales of the two circular templates. To this end, as shown in Figure 4, the position in the small scale image template
Figure pat00077
Position in a large-scale video template corresponding to
Figure pat00078
Scale parameter
Figure pat00079
Using
Figure pat00080
After calculating as, the same number of pixels are placed on the radius of the two template templates. If the same number of pixels are placed on the radius of the circular template, the scale parameter
Figure pat00081
Despite the change of, the number of pixels used for calculating the similarity between the two circular templates can be matched.

다음으로는 원형템플릿의 설계와 유사도 계산방법에 대하여 설명한다. 본 발명에서는 원형템플릿에 속하는 화소의 위치(

Figure pat00082
)를 결정하기 위하여 도 5에서 보는 바와 같이 극좌표(polar coordinates) 방식을 이용하는데, 스케일이 작은 영상에서 중심 좌표가 (
Figure pat00083
)이고 원점에서의 거리가
Figure pat00084
, 각도가
Figure pat00085
인 화소의 위치는 아래 수학식 3과 같이 구한다. 여기서 도 5(a)는 스케일이 작은 영상에서 픽셀위치를 정의하는 도면이며, 도 5(b)는 스케일이 큰 영상에서 픽셀위치를 정의하는 도면이다.Next, the design of the circular template and the similarity calculation method will be described. In the present invention, the position of the pixels belonging to the circular template (
Figure pat00082
In order to determine ), as shown in FIG. 5, the polar coordinates method is used. In a small scale image, the center coordinate is (
Figure pat00083
) And the distance from the origin
Figure pat00084
, The angle
Figure pat00085
The position of the phosphorus pixel is obtained as in Equation 3 below. Here, FIG. 5(a) is a diagram for defining a pixel position in a small scale image, and FIG. 5(b) is a diagram for defining a pixel position in a large scale image.

Figure pat00086
Figure pat00086

그리고 이와 같은 방법으로, 스케일이 큰 영상에서 대응되는 화소의 위치 (

Figure pat00087
)는 아래 수학식 4와 같이 주어진다. And in this way, the position of the corresponding pixel in the large-scale image (
Figure pat00087
) Is given as in Equation 4 below.

Figure pat00088
Figure pat00088

여기서

Figure pat00089
은 원형템플릿의 반지름 위에 위치하는 전체 화소수이며,
Figure pat00090
는 원형템플릿의 원주 위에 위치하는 전체 화소수를 의미한다. 도 5에서는
Figure pat00091
=8,
Figure pat00092
=8인 원형템플릿의 생성 예를 보여준다. 그리고
Figure pat00093
사이의 모든 화소의 위치를 거리
Figure pat00094
과 각도
Figure pat00095
의 2차원 좌표평면에 도시하면 도 6과 같이 2차원 배열 형태로 표시된다. 수평방향의 축은 원형템플릿 중심에서 방사적으로 떨어진 위치
Figure pat00096
을 나타내고, 수직방향의 축은 반시계 방향의 회전각도
Figure pat00097
를 나타낸다. 여기서 도 6(a)는 스케일이 작은 영상의 픽셀들을 2차원 배열한 모습이며, 도 6(b)는 스케일이 큰 영상의 픽셀들을 2차원 배열한 모습이다.here
Figure pat00089
Is the total number of pixels located above the radius of the circular template,
Figure pat00090
Is the total number of pixels located on the circumference of the circular template. In Figure 5
Figure pat00091
=8,
Figure pat00092
Here is an example of creating a circular template with =8. And
Figure pat00093
Distance between all pixels
Figure pat00094
And angle
Figure pat00095
When shown in the two-dimensional coordinate plane of the is displayed in the form of a two-dimensional array as shown in FIG. The horizontal axis is located radially away from the center of the circular template.
Figure pat00096
And the vertical axis represents the counterclockwise rotation angle.
Figure pat00097
Indicates. Here, FIG. 6(a) shows a 2-dimensional array of pixels of a small-scale image, and FIG. 6(b) shows a 2-dimensional array of pixels of a large-scale image.

한편 스케일이 작은 영상의 (

Figure pat00098
) 위치에 존재하는 화소의 밝기값을
Figure pat00099
라 하면, 스케일이 작은 원형템플릿에 포함되는 화소들의 집합
Figure pat00100
은 아래 수학식 5와 같이 주어진다.On the other hand, the
Figure pat00098
) The brightness value of the pixel at the position
Figure pat00099
Is a set of pixels included in a small-scale circular template.
Figure pat00100
Is given by Equation 5 below.

Figure pat00101
Figure pat00101

그리고 스케일이 큰 영상의 (

Figure pat00102
) 위치에 존재하는 화소의 밝기값을
Figure pat00103
라 하면 스케일이 큰 원형템플릿에 포함되는 화소들의 집합
Figure pat00104
는 아래 수학식 6과 같이 주어진다.And of the large-scale video (
Figure pat00102
) The brightness value of the pixel at the position
Figure pat00103
Is a set of pixels included in a large-scale circular template.
Figure pat00104
Is given by Equation 6 below.

Figure pat00105
Figure pat00105

여기서

Figure pat00106
이며
Figure pat00107
는 스케일이 큰 영상의 스케일 범위를 나타나는 인덱스로서
Figure pat00108
의 범위를 가진다. 그리고
Figure pat00109
는 스케일이 큰 영상에서 생성된 원형템플릿의 회전각도를 나타내며 아래 수학식 7과 같이 주어진다. 상기 수학식 7에서 기본값으로 이 T=180이 주어지며 회전각도를 보다 미세하게 조정하기 위해서는 T를 보다 큰 값으로 조정하는 것이 바람직하다. here
Figure pat00106
Is
Figure pat00107
Is an index indicating the scale range of a large-scale image.
Figure pat00108
Has a range of And
Figure pat00109
Denotes the rotation angle of a circular template generated from a large-scale image and is given as Equation 7 below. In Equation 7, this T=180 is given as a default value, and it is preferable to adjust T to a larger value in order to finely adjust the rotation angle.

Figure pat00110
Figure pat00110

한편 스케일이 작은 영상의 원형템플릿과 스케일이 큰 영상의 원형템플릿에 포함되는 각각의 화소들의 집합

Figure pat00111
Figure pat00112
사이의 유사도를 측정하기 위하여 아래 수학식 8과 같이 주어지는 상호정보량 MI를 계산한다. Meanwhile, a set of pixels included in a circular template of a small-scale image and a circular template of a large-scale image
Figure pat00111
and
Figure pat00112
In order to measure the similarity between them, the mutual information amount MI given as Equation 8 below is calculated.

Figure pat00113
Figure pat00113

여기서 H는 엔트로피를 나타낸다.Here, H represents entropy.

이와 같이 상호정보량 MI를 계산하기 위하여는, 먼저 스케일이 작은 영상의 특징좌표(

Figure pat00114
)를 검출해 내는데, 이를 위해서는 스케일이 작은 영상 중 일정 범위 내에서 코너 응답값이 최대가 되는 코너점의 위치를 종래기술(Ye, 2014a)에 의한 기하 평균 기반의 특징점 검출기를 이용하여 검출하도록 하는 것이 바람직하다. 검출된 특징좌표 (
Figure pat00115
)를 중심으로 반지름이 R인 원형템플릿에 속하는 화소집합
Figure pat00116
을 설정한 후에 스케일이 큰 영상의 스케일범위
Figure pat00117
에 속하는 각 스케일
Figure pat00118
에 대해 상기 수학식 6을 이용하여 원형템플릿 화소집합
Figure pat00119
를 설정한다. 이때 원형템플릿을 도 7과 같이
Figure pat00120
만큼 순차적으로 증가시키면서 상기 수학식 6을 이용하여 (
Figure pat00121
) 위치를 갱신한다. 여기서 도 7(a)는 초기 위치이며, 도 7(b)는 각도가
Figure pat00122
만큼 증가된 후의 위치이다. 이 과정을 통해 초기에 만들어진 원형템플릿 화소집합
Figure pat00123
는 갱신된 (
Figure pat00124
)에 위치하는 화소집합으로 재구성된다. 재구성된 원형템플릿의 중심 위치 (
Figure pat00125
)를 일정한 탐색 범위 내의
Figure pat00126
Figure pat00127
값에 따라 변경하면서 아래 수학식 9와 같이 상호정보량 MI가 최대값이 될 때의 각 파라미터(
Figure pat00128
) 의 값을 구한다. 여기서 스케일이 큰 영상의 중심위치 (
Figure pat00129
)는
Figure pat00130
가 되도록 하는 것이 바람직하다. 따라서 처음에는 스케일이 큰 영상의 중심위치 (
Figure pat00131
)를 스케일이 작은 영상의 특징좌표(
Figure pat00132
)와 동일하게 하는 것도 가능하다.In order to calculate the mutual information amount MI in this way, first, feature coordinates of a small-scale image (
Figure pat00114
), in order to detect the position of the corner point where the corner response value is the maximum within a certain range among small scale images, using a geometric average-based feature point detector according to the prior art (Ye, 2014a). It is preferred. Featured coordinates (
Figure pat00115
A set of pixels belonging to a circular template with a radius of R around
Figure pat00116
After setting the scale range of images with large scale
Figure pat00117
Each scale belonging to
Figure pat00118
For the circular template pixel set using Equation (6) above
Figure pat00119
To set. At this time, the circular template is shown in FIG.
Figure pat00120
While increasing sequentially by using the equation (6) (
Figure pat00121
) Update the location. Here, Figure 7 (a) is the initial position, Figure 7 (b) is an angle
Figure pat00122
This is the position after the increase. The circular template pixel set created through this process
Figure pat00123
Is updated (
Figure pat00124
). The center position of the reconstructed circular template (
Figure pat00125
) Within a certain search range
Figure pat00126
Wow
Figure pat00127
Each parameter (when the mutual information amount MI becomes the maximum value as shown in Equation 9 below while changing according to the value)
Figure pat00128
). Here, the center position of the large-scale image (
Figure pat00129
) Is
Figure pat00130
It is desirable to be. Therefore, initially, the center position of the large-scale image (
Figure pat00131
) Is the characteristic coordinate of the small-scale image (
Figure pat00132
).

Figure pat00133
Figure pat00133

이러한 과정들을 수행할 때, 상호정보량 계산에 소요되는 시간을 줄이기 위하여 원형템플릿 생성 시 템플릿 중심에서 방사적으로 떨어진 위치

Figure pat00134
사이의 간격과 회전각도
Figure pat00135
사이의 간격을 각각 일정한 간격을 두고 생성하도록 하는 것이 바람직하다. 원형템플릿의 반지름 R이 300 화소이면 총
Figure pat00136
=300개의
Figure pat00137
를 생성할 수 있으나, 3 화소 간격으로 화소값을 취하면
Figure pat00138
=100개의
Figure pat00139
를 생성하게 된다. 이 경우 상호정보량 계산에 이용되는 화소의 수가 1/3로 감소하여 연산시간도 함께 감소한다. 회전각도
Figure pat00140
의 간격도 2도 간격으로 생성하면 각
Figure pat00141
위치마다
Figure pat00142
=360개의 화소를 생성할 수 있으나 5도 간격으로 생성하면
Figure pat00143
=72개의 화소가 생성되어 상호정보량 계산에 이용되는 화소의 수가 1/5로 감소하게 된다. 또한 스케일이 큰 영상에서의 정합 위치 (
Figure pat00144
)를 탐색하는데 소요되는 시간을 줄이기 위하여 스케일이 큰 영상의 전체화소 그레디언트의 히스토그램에서 상위 임계비율
Figure pat00145
이상인 화소를 정합 후보점으로 한정하면 탐색 시간을 크게 단축할 수 있다. When performing these processes, in order to reduce the time required to calculate the amount of mutual information, the location located radially away from the center of the template when creating the circular template
Figure pat00134
Interval and rotation angle
Figure pat00135
It is desirable to create the intervals between each at regular intervals. If the radius R of a circular template is 300 pixels, the total
Figure pat00136
=300
Figure pat00137
Can be generated, but taking pixel values at 3 pixel intervals
Figure pat00138
=100
Figure pat00139
Will generate In this case, the number of pixels used for calculating the amount of mutual information is reduced to 1/3, and the calculation time is also reduced. Rotation angle
Figure pat00140
If you create an interval of 2 degrees,
Figure pat00141
Per location
Figure pat00142
=360 pixels can be generated, but if they are created at 5 degree intervals
Figure pat00143
=72 pixels are generated and the number of pixels used for calculating the mutual information amount is reduced to 1/5. Also, the registration position (
Figure pat00144
) In order to reduce the time required to search ), the upper threshold ratio in the histogram of the full pixel gradient of a large-scale image
Figure pat00145
If the above-described pixels are limited to matching candidate points, the search time can be significantly shortened.

한편 도 1은 본 발명에 의한, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법이 수행되는 흐름도이다. 이하에서는 위에서 설명한 내용들에 기초하여 본 발명의 구체적인 구현방법에 대하여 도 1을 참조하여 단계별로 설명한다. Meanwhile, FIG. 1 is a flowchart illustrating a method of matching a feature using a variable circular template when registering a multi-resolution image according to the present invention. Hereinafter, a detailed implementation method of the present invention will be described step by step with reference to FIG. 1 based on the contents described above.

본 발명은 정보시스템에 의하여 다중해상도 영상등록을 위한 특징정합을 수행하는 방법으로서, 먼저 도 1에서 보는 바와 같이 제1영상에 대하여 특징좌표(

Figure pat00146
)를 검출하는 단계(s110)를 수행하도록 하는 것이 바람직하다. 여기서 상기 제1영상은 상술한 설명에서 ‘스케일이 작은 영상’을 말한다. 그리고 상기 제1영상에 대하여 상기 특징좌표(
Figure pat00147
)를 중심으로 반지름 R인 원형템플릿을 정하는 단계(s120)를 수행하도록 하는 것이 바람직한데, 상기 특징좌표(
Figure pat00148
)는 상기 제1영상 중 일정범위 내에서 코너 응답값이 최대가 되는 코너점의 위치로서, 종래기술에 의한 기하평균 기반의 특징점 검출기를 이용하여 검출되는 지점으로 하는 것이 바람직하다. 상기 원형템플릿이 정해진 후에는 상기 원형템플릿 안에서 상기 특징좌표(
Figure pat00149
)를 중심으로 거리가
Figure pat00150
, 각도가
Figure pat00151
인 제1화소들의 위치(
Figure pat00152
)를 각각 정하는 단계를 수행하도록 하는 것이 바람직한데(s130) 상기 제1화소들의 위치(
Figure pat00153
)는 상기 수학식 3과 같이 표현될 수 있다. 그 후에는 상기 제1화소들 각각에 대한 밝기값을 포함하는 제1화소들의 집합(
Figure pat00154
)을 구하는 단계(s140)를 수행하도록 하는 것이 바람직한데, 상기 제1화소들의 집합(
Figure pat00155
)은 상기 수학식 5와 같이 구하는 것이 더욱 바람직하다.The present invention is a method for performing feature matching for multi-resolution image registration by an information system. First, as shown in FIG. 1, feature coordinates for a first image (
Figure pat00146
It is preferable to perform the step of detecting (s110). Here, the first image refers to an'image having a small scale' in the above description. And the feature coordinates for the first image (
Figure pat00147
It is preferable to perform the step (s120) of determining a circular template having a radius R around the center.
Figure pat00148
) Is a position of a corner point at which a corner response value becomes the maximum within a predetermined range among the first images, and is preferably a point detected using a geometric average-based feature point detector according to the prior art. After the circular template is determined, the feature coordinates in the circular template (
Figure pat00149
Centered on)
Figure pat00150
, The angle
Figure pat00151
Location of the first pixels (
Figure pat00152
It is preferable to perform each step of determining (s130) the position of the first pixels (
Figure pat00153
) May be expressed as Equation 3 above. After that, a set of first pixels including brightness values for each of the first pixels (
Figure pat00154
It is preferable to perform the step of obtaining (s140), the first set of pixels (
Figure pat00155
) Is more preferably obtained as in Equation 5 above.

한편 상기 제1영상에 비하여 스케일이 큰 제2영상에 대하여는 먼저 후보특징점(

Figure pat00156
)을 정하는 단계(s210)를 수행하도록 하는데, 상기 제2영상은 상술한 설명 중 ‘스케일이 큰 영상’을 말한다. 그리고 후보특징점(
Figure pat00157
)은 상기 제2영상에 대한 특징점(
Figure pat00158
)을 찾기 위한 후보지점을 말하며 상술한 설명에서 후보대응점으로 언급한 바 있으며, 상기 제1영상의 특징점인 상기 특징좌표(
Figure pat00159
)와 동일하게 하는 것도 가능하다. 상기 후보특징점(
Figure pat00160
)을 정한 후에는 상기 후보특징점(
Figure pat00161
)을 중심으로 거리가
Figure pat00162
, 각도가
Figure pat00163
인 제2화소들의 위치(
Figure pat00164
)를 각각 정하는 단계(s220)를 수행하게 되는데, 상기 제2화소들의 위치(
Figure pat00165
)는 상기 수학식 4와 같이 표현될 수 있다. 그 후에는 상기 제2화소들 각각에 대한 밝기값을 포함하는 제2화소들의 집합(
Figure pat00166
)을 구하는 단계(s230)를 수행하도록 하는 것이 바람직한데, 상기 제2화소들의 집합(
Figure pat00167
)은 상기 수학식 6에 의하여 구하는 것이 더욱 바람직하다.Meanwhile, a candidate feature point for a second image having a larger scale than the first image (
Figure pat00156
) Is performed, the second image refers to an'large-scale image' in the above description. And candidate features (
Figure pat00157
) Is a feature point for the second image (
Figure pat00158
) Refers to a candidate point for finding and has been referred to as a candidate correspondence point in the above description, and the feature coordinate (which is a feature point of the first image)
Figure pat00159
). The candidate feature points (
Figure pat00160
After determining ), the candidate feature points (
Figure pat00161
)
Figure pat00162
, The angle
Figure pat00163
Location of the second pixels (
Figure pat00164
) To determine each step (s220), the position of the second pixels (
Figure pat00165
) May be expressed as Equation 4 above. After that, a set of second pixels including a brightness value for each of the second pixels (
Figure pat00166
It is preferable to perform the step (s230) of obtaining the set of the second pixels (
Figure pat00167
) Is more preferably obtained by the above equation (6).

상기 제1화소들의 집합(

Figure pat00168
)과 상기 제2화소들의 집합(
Figure pat00169
)이 구해진 후에는 상기 제1화소들의 집합(
Figure pat00170
)과 상기 제2화소들의 집합(
Figure pat00171
) 사이의 상호정보량(
Figure pat00172
)를 구하는 단계(s310)을 수행하도록 하는 것이 바람직한데, 상기 상호정보량(
Figure pat00173
)은 상기 수학식 8에 의하여 구하도록 하는 것이 바람직하다. 상기 상호정보량(
Figure pat00174
) 산출은 상기 제2화소들의 위치(
Figure pat00175
)를 계속하여 갱신해 가면서(s320) 상기 제2화소들의 집합(
Figure pat00176
)을 재구성한 후 상기 상호정보량(
Figure pat00177
) 산출을 반복하도록 하는 것이 바람직한데, 미리 정해진 조건에 따라 더 이상 갱신할 수 없을 때 까지(종료조건 충족 시까지) 반복하도록 하는 것이 더욱 바람직하다(s330). 여기서 상기 제2화소들의 위치(
Figure pat00178
)에 대한 계속적인 갱신(s320)은 (a) 상기 제2영상의 스케일범위 내에서 각각의 스케일(
Figure pat00179
)을 순차적으로 적용해가면서 상기 제2화소들의 위치(
Figure pat00180
)를 갱신하고, (b) 상기 제2화소들의 각도
Figure pat00181
를 일정각도(
Figure pat00182
)만큼 순차적으로 증가시키면서 상기 제2화소들의 위치(
Figure pat00183
)를 갱신하고, (c) 상기 후보특징점(
Figure pat00184
)에 대하여 일정한 탐색범위 내에서 이동변위(
Figure pat00185
)를 적용해가면서 상기 제2화소들의 위치(
Figure pat00186
)를 갱신하도록 하는 것이 바람직하다(s331). The first set of pixels (
Figure pat00168
) And the set of second pixels (
Figure pat00169
After the) is obtained, the first set of pixels (
Figure pat00170
) And the set of second pixels (
Figure pat00171
) Amount of mutual information
Figure pat00172
It is preferable to perform the step of obtaining (s310), the amount of mutual information (
Figure pat00173
) Is preferably determined by Equation (8). The amount of mutual information (
Figure pat00174
) Calculate the location of the second pixels (
Figure pat00175
) While continuously updating (s320) the set of the second pixels (
Figure pat00176
After reconstructing ), the amount of mutual information (
Figure pat00177
) It is preferable to repeat the calculation, and it is more preferable to repeat until it can no longer be updated according to a predetermined condition (until the end condition is satisfied) (s330). Here, the position of the second pixels (
Figure pat00178
) Is continuously updated (s320) (a) each scale within the scale range of the second image (
Figure pat00179
) While sequentially applying the positions of the second pixels (
Figure pat00180
), and (b) the angles of the second pixels.
Figure pat00181
The constant angle (
Figure pat00182
) While sequentially increasing the positions of the second pixels (
Figure pat00183
), and (c) the candidate feature points (
Figure pat00184
), the displacement within a certain search range (
Figure pat00185
) While applying the position of the second pixels (
Figure pat00186
) Is preferably updated (s331).

그 후에는 상기 s310단계에서 산출된 상기 상호정보량(

Figure pat00187
) 중에서 상기 상호정보량(
Figure pat00188
)이 최대일 때의 파라미터(
Figure pat00189
)를 구하도록 하는 것이 바람직한데(s340), 상기 상호정보량(
Figure pat00190
)이 최대일 때의 파라미터(
Figure pat00191
)는 상기 수학식 9에 의하여 산출하는 것이 바람직하다. 그리고 상기 파라미터(
Figure pat00192
)를 적용한 어파인 변환계수를 이용하여 상기 특징좌표(
Figure pat00193
)에 대응되는 상기 제2영상에서의 특징점(
Figure pat00194
)을 구하도록 하는 것이 바람직한데(s350), 상기 제2영상에서의 특징점(
Figure pat00195
)은 상기 수학식 2에 의하여 구할 수 있을 것이다. After that, the amount of mutual information calculated in step s310 (
Figure pat00187
), the amount of mutual information (
Figure pat00188
) Is the maximum parameter (
Figure pat00189
It is preferable to obtain (s340), the amount of mutual information (
Figure pat00190
) Is the maximum parameter (
Figure pat00191
) Is preferably calculated by Equation (9) above. And the parameter (
Figure pat00192
) Using the affine transformation coefficient to which the above is applied.
Figure pat00193
) Corresponding to the feature point in the second image (
Figure pat00194
It is desirable to obtain (s350), the feature point in the second image (
Figure pat00195
) May be obtained by Equation 2 above.

이하에서는 본 발명을 검증하기 위하여 실시했던 실험예를 통하여 본 발명을 추가적으로 설명한다. Hereinafter, the present invention will be further described through experimental examples conducted to verify the present invention.

실험예Experimental Example

<실험대상 영상 생성><Generate the subject image>

본 발명에서는 Table 1과 같이 세 가지 유형의 영상 자료를 이용하여 상술한 알고리즘의 성능을 검증하였다. 먼저 A 유형은 Kompsat-3 영상을 스케일이 큰 영상으로 삼고 스케일 팩터(scale factor)

Figure pat00196
의 범위가 1.2~3.0이 되도록 Kompsat-3의 해상도를 변환하고 회전각도
Figure pat00197
={0°, 90°, 180°, 270°}인 4종류의 영상을 생성한 후에 10%의 균일잡음(uniform noise)를 추가하여 총 40장의 작은 스케일 영상을 사용하였다. 두 번째 B 유형은 넒은 범위의 스케일 팩터(2.0≤
Figure pat00198
≤10.0)와 회전각도를 적용한 총 36장의 작은 스케일 영상을 사용하였다. 세 번째 C 유형은 동일한 지역을 촬영한 Kompsat-2, Kompsat-3, Kompsat-3A 영상을 조합하여 사용하였다. In the present invention, the performance of the above-described algorithm was verified using three types of image data as shown in Table 1. First, the A type uses the Kompsat-3 video as a large-scale video, and the scale factor
Figure pat00196
Convert the resolution of Kompsat-3 so that the range of the range is from 1.2 to 3.0, and the rotation angle
Figure pat00197
After generating 4 types of images, ={0°, 90°, 180°, 270°}, a total of 40 small scale images were used by adding 10% of uniform noise. The second type B has a wide range of scale factors (2.0≤
Figure pat00198
≤10.0) and a total of 36 small scale images using rotation angles were used. The third type C was a combination of Kompsat-2, Kompsat-3, and Kompsat-3A images of the same region.

Figure pat00199
Figure pat00199

본 발명에서 사용된 실험 영상은 Niger의 Niamey를 촬영한 다목적실용위성 2호, 3호, 3A호 영상으로서 공간해상도가 각각 1.0m, 0.7m, 0.55m이다(도 8 참조). 도 8(a)는 2009년 4월 18일에 촬영된 Kompsat-2 영상이며, 도 8(b)는 2013년 1월 21일에 촬영된 Kompsat-3 영상이며, 도 8(c)는 2015년 11월 29일에 촬영된 Kompsat-3A 영상이다.The experimental images used in the present invention are multi-purpose satellites No. 2, No. 3, and No. 3A of Niger's Niamey, which have spatial resolutions of 1.0 m, 0.7 m, and 0.55 m, respectively (see FIG. 8). Figure 8 (a) is a Kompsat-2 image taken on April 18, 2009, Figure 8 (b) is a Kompsat-3 image taken on January 21, 2013, Figure 8 (c) is 2015 This is a Kompsat-3A video shot on November 29th.

본 발명에 의한 방법의 성능평가를 위하여 A 유형의 Kompsat-3 영상에 대해 도 9와 같이 기하평균 기반의 코너 검출기를 이용하여 코너 응답이 최대가 되는 제어점(실제 기준점)을 검출한 후에 도 10에서와 같이 다양한 스케일 팩터와 회전 성분을 가지면서 잡음 성분이 추가된 Kompsat-3 시뮬레이션 영상을 생성하였다. 도 9는 Kompsat-3 영상에 대하여 코너검출한 결과로서 도 9(a)는 Kompsat-3 panchromatic 영상이며, 도 9(b)는 기하평균 기반의 코너검출기로 검출된 코너들을 빨간 원형으로 표시한 것이다. 십자표시 된 원형의 중심은 코너 응답이 최대가 되는 지점으로서 어파인 파라미터의 추정 시 제어점(특징점)으로 사용된다. 그리고 도 10은 Kompsat-3 영상의 테스트 셋트로서, 도 10(a)는 원본영상, 도 10(b)는 스케일 팩터

Figure pat00200
=2로 변환하고, 10%의 균일잡음을 추가한 것이며, 도 10(c)는 스케일 팩터
Figure pat00201
=3으로 변환하고, 10%의 균일잡음을 추가한 상태에서 90도를 회전한 것이며, 9(d)는 스케일 팩터
Figure pat00202
=3으로 변환하고, 10%의 균일잡음을 추가한 상태에서 180도 회전한 것이다.In order to evaluate the performance of the method according to the present invention, after detecting a control point (actual reference point) at which a corner response is maximized using a geometric average-based corner detector as shown in FIG. 9 for A type Kompsat-3 images, in FIG. The Kompsat-3 simulation image with noise components added while having various scale factors and rotational components was created. FIG. 9 shows the result of corner detection for the Kompsat-3 image. FIG. 9(a) is a Kompsat-3 panchromatic image, and FIG. 9(b) shows the corners detected by the geometric-based corner detector in red circles. . The center of the cross-shaped circle is the point where the corner response becomes the maximum, and is used as a control point (feature point) when estimating affine parameters. And Figure 10 is a test set of Kompsat-3 images, Figure 10 (a) is the original image, Figure 10 (b) is a scale factor
Figure pat00200
=2, 10% uniform noise is added, and Fig. 10(c) is a scale factor.
Figure pat00201
Converted to =3, rotated 90 degrees with 10% uniform noise added, and 9(d) is a scale factor
Figure pat00202
Converted to =3, and rotated 180 degrees with 10% uniform noise added.

<실험내용 및 결과><Experiment contents and results>

스케일 팩터는 Table 2와 같이 1.2부터 3.0까지 0.2 간격으로 생성하고 회전 성분은 0도, 90도, 180도, 270도로 생성하였다. 잡음 성분은 생성된 모든 영상에 대해 10%의 균일 잡음을 추가하였다. Kompsat-3 영상과 생성된 스케일이 작은 다양한 Kompsat-3 영상 사이의 어파인 파라미터 (

Figure pat00203
)를 구하기 위하여 반지름 R=300인 원형템플릿에 대해,
Figure pat00204
=100,
Figure pat00205
=72인 원형템플릿을 스케일이 작은 Kompsat-3 영상의 제어점(특징점) 위에 생성하였다. 스케일이 큰 영상인 Kompsat-3 영상의 제어점(특징점) 후보는 그레디언트 히스토그램의 상위 임계비율
Figure pat00206
=0.05 이상인 화소로 한정하였다. 스케일 팩터
Figure pat00207
는 0.1 간격으로, 템플릿의 회전각도
Figure pat00208
는 0.1도 간격으로 변화시키면서 다양한 조건에서 생성된 각 영상과의 상호정보량 유사도가 최대가 될 때의 스케일 팩터
Figure pat00209
, 회전량
Figure pat00210
, 정합위치(
Figure pat00211
)를 각각 구하였다. Table 2는 다양한 스케일 팩터 및 회전각 조건에서 검출한 스케일 팩터를 보여주며 총 40가지 실험 조건에서 스케일 팩터를 모두 정확하게 검출하였다. Table 3는 스케일이 작은 영상과 스케일이 큰 영상의 상대적인 회전각들을 모든 스케일에서 정확하게 검출한 결과를 보여준다. As shown in Table 2, the scale factor was generated at 0.2 intervals from 1.2 to 3.0, and rotational components were generated at 0 degrees, 90 degrees, 180 degrees, and 270 degrees. The noise component added uniform noise of 10% to all generated images. Affine parameters between Kompsat-3 images and various Kompsat-3 images with small scales (
Figure pat00203
For a circular template with radius R=300,
Figure pat00204
=100,
Figure pat00205
A circular template with =72 was created on the control point (feature point) of the small scale Kompsat-3 image. The control point (feature point) candidate for the Kompsat-3 image, which is a large-scale image, is the upper threshold ratio of the gradient histogram.
Figure pat00206
=0.05 or more. Scale factor
Figure pat00207
Is 0.1 interval, the rotation angle of the template
Figure pat00208
Is a scale factor when the degree of similarity of the amount of mutual information with each image generated under various conditions is maximized while changing at 0.1 degree intervals.
Figure pat00209
, Rotation amount
Figure pat00210
, Registration position (
Figure pat00211
) Respectively. Table 2 shows the scale factors detected under various scale factors and rotation angle conditions. All scale factors were accurately detected under a total of 40 experimental conditions. Table 3 shows the results of accurately detecting the relative rotation angles of the small-scale image and the large-scale image at all scales.

Figure pat00212
Figure pat00212

Figure pat00213
Figure pat00213

아래의 Table 4는 검출된 제어점(특징점)과 실제 기준점 사이의 위치 오차를 보여준다. 검출된 제어점(특징점)의 행과 열 방향 오차의 평균값을 각각 구한 것으로 각 스케일의 4가지 회전각에 대해 0.50 ~1.62 화소 범위의 평균 오차 결과를 얻었다. 스케일 팩터가 증가할수록 두 영상의 상대적인 스케일 차이가 증가하게 되어 스케일 팩터

Figure pat00214
=3인 경우, 스케일이 큰 영상에서 3×3 크기의 화소 영역은 스케일이 작은 영상에서 1화소 크기의 영역에 해당이 된다. 따라서 스케일이 큰 영상에서의 위치 오차는 스케일 팩터 증가에 따라 비례적으로 증가하기 때문에 위치 오차 분석에서 스케일 팩터의 영향을 배제하기 위하여 평균 오차와 스케일 팩터의 비(ratio)를 구하였다. 이 값은 스케일이 작은 영상 관점에서의 위치 오차로 이해할 수 있으며 1.2~3.0 사이의 스케일 팩터에 대해 0.42~0.69 화소 범위의 우수한 위치 오차 성능을 보였다. Table 4 below shows the position error between the detected control point (feature point) and the actual reference point. The average values of the row and column errors of the detected control points (feature points) were respectively obtained, and the average error results in the range of 0.50 to 1.62 pixels were obtained for the four rotation angles of each scale. As the scale factor increases, the relative scale difference between the two images increases, so the scale factor
Figure pat00214
When =3, a 3×3 pixel area in a large scale image corresponds to a 1 pixel size area in a small scale image. Therefore, since the position error in an image with a large scale increases proportionally with an increase in the scale factor, the ratio of the average error and the scale factor is calculated to exclude the influence of the scale factor in the analysis of the position error. This value can be understood as a position error from the viewpoint of a small scale image, and showed excellent position error performance in a range of 0.42 to 0.96 pixels for a scale factor between 1.2 and 3.0.

Figure pat00215
Figure pat00215

한편 도 11은 회전각도와 스케일팩터의 변화에 따른 상호정보량의 변화를 도시한 것으로서, 도 11(a)에서는 스케일이 작은 영상에 대한 스케일이 큰 영상의 회전량

Figure pat00216
가 0도 및 90도일 때, 스케일 팩터
Figure pat00217
가 0.05 간격으로 변할 때의 상호정보량의 변화를 보여준다. 상호정보량의 최고값은 인접한 스케일 팩터
Figure pat00218
를 포함하여 다른 스케일 팩터의 상호정보량 과 비교해서 회전량
Figure pat00219
가 0도 및 90도인 두 경우 모두 큰 차이가 남을 볼 수 있다. 도 11(b)는 스케일 팩터
Figure pat00220
=2.0일 때, 회전량
Figure pat00221
가 변할 때의 상호정보량의 변화를 보여준다. 회전량
Figure pat00222
가 90도일 때 상호정보량이 최대가 되고 그 외의 다른 각도에서의 상호정보량과 그 차이가 뚜렷함을 알 수 있다. Meanwhile, FIG. 11 illustrates a change in the amount of mutual information according to a change in the rotation angle and scale factor. In FIG. 11(a), the rotation amount of a large scale image for a small scale image
Figure pat00216
Scale factor when 0 and 90 degrees
Figure pat00217
Shows the change in the amount of mutual information when it changes at 0.05 intervals. The highest value of the mutual information amount is the adjacent scale factor
Figure pat00218
The amount of rotation compared to the mutual information amount of other scale factors including
Figure pat00219
In both cases where is 0 degrees and 90 degrees, a large difference can be seen. Figure 11 (b) is a scale factor
Figure pat00220
= 2.0, rotation amount
Figure pat00221
Shows the change in the amount of mutual information when is changed. Rotation
Figure pat00222
It can be seen that when is 90 degrees, the amount of mutual information becomes the maximum, and the difference from the amount of mutual information at other angles is distinct.

보다 넓은 범위의 스케일 팩터에 대한 실험을 위해 2.0≤

Figure pat00223
≤10.0 사이의 스케일 팩터와 4가지 회전각도
Figure pat00224
={0,90,180,270}를 적용한 유형 B의 저해상도 영상을 사용하였다. 도 12는 스케일 팩터가 2.0, 4.0, 6.0, 8.0, 10.0이고 회전 성분을 포함한 다양한 저해상도 영상의 예를 보여준다. 도 12(a)는 원본영상이며, 도 12(b)는 스케일 팩터를 2.0으로 하고, 회전각도를 90도로 한 것이며, 도 12(c)는 스케일 팩터를 4.0으로 하고, 회전각도를 180도로 한 것이며, 도 12(d)는 스케일 팩터를 6.0으로 하고, 회전각도를 270도로 한 것이며, 도 12(e)는 스케일 팩터를 8.0으로 하고, 회전각도를 90도로 한 것이며, 도 12(f)는 스케일 팩터를 10.0으로 하고, 회전각도를 180도로 한 것이다.2.0≤ for experiments with a wider range of scale factors
Figure pat00223
Scale factor between ≤10.0 and 4 rotation angles
Figure pat00224
A low resolution image of Type B to which ={0,90,180,270} was applied was used. 12 shows examples of various low-resolution images with scale factors of 2.0, 4.0, 6.0, 8.0, 10.0 and rotational components. 12(a) is an original image, FIG. 12(b) is a scale factor of 2.0, and the rotation angle is 90 degrees, and FIG. 12(c) is a scale factor of 4.0, and the rotation angle is 180 degrees. 12(d) is a scale factor of 6.0, the rotation angle is 270 degrees, FIG. 12(e) is a scale factor of 8.0, the rotation angle is 90 degrees, and FIG. 12(f) is The scale factor is 10.0 and the rotation angle is 180 degrees.

본 발명에 의한 방법을 적용했을 때 아래의 Table 5에서 보는 바와 같이 각각의 스케일 팩터와 회전각도 조건에서 모두 정확하게 스케일 팩터를 검출하였다. 두 비교 영상 간의 회전각도도 Table 6과 같이 모든 조건에서 정확하게 검출하였다. Table 7은 검출된 제어점(특징점)의 실제 기준점과의 위치 오차를 나타내며 스케일 범위 내에서 0.5~2.38 화소의 위치 오차를 보였다. 스케일을 고려한 평균 위치 오차와 스케일 팩터의 비는 0.24~0.42 범위의 값을 보였으며 스케일 팩터

Figure pat00225
=10.0인 경우에도 평균 위치 오차와 스케일 팩터의 비가 0.24의 낮은 수준을 보였다. 이는 제안한 방법이 스케일이 작은 영상 관점에서 두 영상의 스케일이 2~10배 정도 차이가 나더라도 0.24~0.42 화소 수준의 높은 위치 정확도를 가짐을 보여준다. When applying the method according to the present invention, as shown in Table 5 below, both the scale factor and the rotation angle conditions were accurately detected. The rotation angle between the two comparison images was also accurately detected under all conditions as shown in Table 6. Table 7 shows the position error of the detected control point (feature point) with the actual reference point, and showed the position error of 0.5 to 2.38 pixels within the scale range. The ratio of the average position error considering the scale and the scale factor ranged from 0.24 to 0.42, and the scale factor
Figure pat00225
Even at =10.0, the ratio of the average position error and the scale factor showed a low level of 0.24. This shows that the proposed method has a high positioning accuracy of 0.24 to 0.42 pixels even if the scale of the two images differs by 2 to 10 times from the viewpoint of the image with a small scale.

Figure pat00226
Figure pat00226

Figure pat00227
Figure pat00227

Figure pat00228
Figure pat00228

한편 도 13은 세 번째 C유형의 영상 조합인 Kompsat-3 영상과 Kompsat-2 영상(도 13(a)), Kompsat-3A 영상과 Kompsat-2 영상(도 13(b)), Kompsat-3A 영상과 Kompsat-3 영상(도 13(c)) 상호간의 스케일 팩터 변화에 따른 상호정보량의 변화를 보여준다. 스케일 펙터의 변화 단위가 0.01인 경우에 각 영상 조합에서 상호정보량이 최대가 될 때의 스케일 팩터는 각각 1.43, 1.79, 1.25가 얻어졌다. Table 8부터 Table 10은 스케일 팩터의 변화 단위가 보다 정밀한 0.001인 경우의 각 영상 조합에 대한 결과를 보여준다. 스케일 팩터가 0.001 단위로 변하는 경우, 상호정보량이 최대가 되는 스케일 팩터가 여러 값에 걸쳐서 나타났으며 최종 검출된 스케일 팩터는 상호정보량이 최대가 되는 스케일 팩터들의 평균값을 취하고 소수 넷째 자리의 값을 반올림하여 추정하였다. Kompsat-3 영상과 Kompsat-2 영상 조합의 실험에서는 상호정보량이 최대가 되는 스케일 팩터가 1.427~1.429 범위에서 나타났으며 Table 8과 같이 추정된 스케일 팩터는 기준 스케일 팩터와 동일한 1.428이 얻어졌다. 두 영상의 상대적인 회전각도의 오차는 0.2도, 제어점(특징점)의 위치 오차는 행과 열 방향으로 각각 1화소의 오차를 보였다. Kompsat-3A 영상과 Kompsat-2 영상 조합의 실험에서는 상호정보량이 최대가 되는 스케일 팩터가 1.790~1.793 범위에서 나타났다. 추정된 스케일 팩터 1.792는 기준 스케일 팩터와 0.004의 오차를 보였다. 회전각도 오차는 0.3도를 보였으며 제어점(특징점)에 대응하는 기준점의 행과 열 방향의 위치는 정확하게 검출이 되었다(Table 9 참조). Kompsat-3A 영상과 Kompsat-3 영상 조합의 실험에서는 상호정보량이 최대가 되는 스케일 팩터는 1.254~1.257 범위에서 나타났으며 추정된 스케일 팩터 1.256은 기준 스케일 팩터와 0.004의 오차를 보였다. 회전각도 오차는 0.1도, 제어점(특징점)에 대응하는 기준점의 행과 열 방향의 위치는 정확하게 검출이 되었다(Table 10 참조).On the other hand, Fig. 13 is a third C type image combination of the Kompsat-3 image and the Kompsat-2 image (Fig. 13(a)), the Kompsat-3A image and the Kompsat-2 image (Fig. 13(b)), and the Kompsat-3A image. And Kompsat-3 images (FIG. 13(c)) show the change in the amount of mutual information according to the change in the scale factor. When the unit of change of the scale factor is 0.01, the scale factors when the amount of mutual information becomes the maximum in each image combination are 1.43, 1.79, and 1.25, respectively. Table 8 to Table 10 show the results for each image combination when the scale factor change unit is more precise 0.001. When the scale factor changes to 0.001 units, the scale factor where the mutual information amount is the largest appears over several values, and the last detected scale factor takes the average value of the scale factors where the mutual information amount is the maximum and rounds the value of the fourth decimal place. Was estimated. In the experiment of the combination of the Kompsat-3 image and the Kompsat-2 image, the scale factor in which the amount of mutual information is the largest was found in the range of 1.427 to 1.429, and the estimated scale factor as shown in Table 8 was 1.428, which is the same as the reference scale factor. The relative rotation angle error of the two images was 0.2 degrees, and the position error of the control point (feature point) was 1 pixel error in the row and column directions. In the experiment of the combination of the Kompsat-3A image and the Kompsat-2 image, the scale factor that maximizes the amount of mutual information was found in the range of 1.790 to 1.793. The estimated scale factor of 1.792 showed an error of 0.004 from the reference scale factor. The rotation angle error was 0.3 degrees, and the position of the reference point corresponding to the control point (feature point) in the row and column direction was accurately detected (see Table 9). In the experiment of the combination of the Kompsat-3A image and the Kompsat-3 image, the scale factor where the maximum amount of mutual information was the maximum was in the range of 1.254 to 1.257, and the estimated scale factor of 1.256 showed an error of 0.004 with the reference scale factor. The rotation angle error was 0.1 degrees, and the position of the reference point corresponding to the control point (feature point) in the row and column direction was accurately detected (see Table 10).

실험 결과에서 얻어진 스케일 팩터, 회전각도, 특징점 위치검출의 높은 정확도는 원형템플릿의 크기 및 유사도 계산 방식과 밀접한 관계를 가진다. 실험에 사용된 원형템플릿의 반지름 R은 300화소이고

Figure pat00229
를 3화소 단위로, 회전각도
Figure pat00230
를 5도 간격으로 샘플링하여
Figure pat00231
=100,
Figure pat00232
=72로 총 7,200개의 화소 밝기값이 유사도 계산에 사용되었다. 반지름 R=300인 원형템플릿이 실제로 포함하는 영역의 이론적인 면적은 대략 300 x 300 x 3.14 = 282,600화소로 일반적인 특징정합 방식에서 사용되는 특징의 수에 비해 매우 넓은 영역에 분포하는 화소들이 유사도 계산의 특징으로 사용이 된다. 따라서 유사도 비교시 특징점 주변의 좁은 영역이 아닌 넓은 영역에 걸쳐서 유사도 비교가 수행이 되기 때문에 일부 영역에서 정합 성능을 떨어뜨리는 요인이 작용하더라도 전체 유사도 계산 과정에서의 영향은 미미하게 작용하고 오정합 가능성을 크게 낮추는 효과를 얻을 수 있다. 넓은 영역을 포함하는 원형템플릿의 이러한 특징은 스케일 팩터와 회전각도를 매우 정밀하게 조절할 수 있도록 한다. 또한 상호정보량 기반의 유사도 측정 방식은 화소의 밝기값을 직접 비교하는 상관(correlation) 관계 기반의 유사도 측정 방식과 달리 두 원형템플릿에 포함되는 화소들을 통계적으로 분석한다. 따라서 제안하는 방법은 좁은 영역에 대한 상호정보량 기반의 유사도 측정 대신에 넓은 영역에 대한 상호정보량 기반의 유사도 측정 방식을 적용하기 때문에 비교 대상이 되는 두 원형템플릿 내부 영역에서 나타나는 미세한 차이를 넓은 영역에 걸쳐 통계적으로 측정할 수 있는 장점을 가진다. The high accuracy of the scale factor, rotation angle, and feature point location obtained from the experimental results is closely related to the size and similarity calculation method of the circular template. The radius R of the circular template used in the experiment is 300 pixels.
Figure pat00229
Is in 3 pixels, rotation angle
Figure pat00230
Sampling at 5 degree intervals
Figure pat00231
=100,
Figure pat00232
=72, a total of 7,200 pixel brightness values were used in the similarity calculation. The theoretical area of the area actually included in the circular template with a radius of R=300 is approximately 300 x 300 x 3.14 = 282,600 pixels, so that pixels distributed over a very large area are compared with the number of features used in the general feature matching method. It is used as a feature. Therefore, when comparing similarity, similarity comparison is performed over a wide area rather than a narrow area around the feature point. Even if a factor that decreases the matching performance is applied in some areas, the effect in the overall similarity calculation process is negligible and the possibility of mismatch The effect of significantly lowering can be obtained. This feature of a circular template with a large area allows for very precise adjustment of the scale factor and angle of rotation. In addition, the similarity measurement method based on the mutual information amount statistically analyzes pixels included in two circular templates, unlike the correlation-based similarity measurement method that directly compares the brightness values of pixels. Therefore, the proposed method applies the similarity measurement method based on the mutual information amount for a large area instead of the similarity measurement based on the mutual information amount for a narrow area. It has the advantage of being statistically measurable.

Figure pat00233
Figure pat00233

Figure pat00234
Figure pat00234

Figure pat00235
Figure pat00235

<실험결과 요약><Summary of Experiment Results>

Kompsat-3 영상을 스케일이 큰 영상으로 삼고 스케일 팩터의 범위가 1.2~3.0이 되도록 스케일이 작은 Kompsat-3 영상을 생성한 후에 4 종류의 회전각도와 10%의 균일 잡음을 적용한 총 40가지 실험 조건에서 스케일 팩터, 상대적인 회전각도를 모두 정확하게 검출하였으며 스케일이 작은 영상 관점의 위치 오차인 평균 오차와 스케일 팩터의 비가 0.42~0.69인 우수한 위치 오차 결과를 얻었다. 스케일 팩터 범위가 보다 넓은 2.0~10.0 사이에서 4 종류의 회전각도 조건을 적용한 총 36가지 실험 조건에서도 스케일 팩터, 상대적인 회전각도를 모두 정확하게 검출하였고 스케일을 고려한 평균 위치 오차와 스케일 팩터의 비는 0.24~0.42 화소 범위의 결과를 얻었다. 서로 다른 공간 해상도를 가지는 다목적실용위성 2호, 3호, 3A호 영상 조합에 대한 실험에서는 스케일 팩터 오차는 0.004 이하, 회전각도 오차는 0.3도 이하, 제어점(특징점)의 위치 오차는 1 화소 이하의 정합 성능 결과를 얻었다. After creating Kompsat-3 images with a large scale and creating a Kompsat-3 image with a small scale so that the scale factor ranges from 1.2 to 3.0, a total of 40 experimental conditions applying 4 types of rotation angle and 10% uniform noise In, both the scale factor and the relative rotation angle were accurately detected, and excellent position error results with a ratio of the average error of the position of the small scale image perspective and the scale factor of 0.42 to 0.96 were obtained. Scale factors and relative rotation angles were accurately detected even in a total of 36 experimental conditions that applied 4 kinds of rotation angle conditions between 2.0 and 10.0, which have a wider scale factor range, and the ratio of average position error and scale factor considering scale is 0.24 to The result was in the 0.42 pixel range. In experiments on multipurpose utility satellite images 2, 3, and 3A, which have different spatial resolutions, the scale factor error is 0.004 or less, the rotation angle error is 0.3 degrees or less, and the control point (feature point) position error is 1 pixel or less. Matching performance results were obtained.

상술한 여러 가지 예로 본 발명을 설명하였으나, 본 발명은 반드시 이러한 예들에 국한되는 것이 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서 본 발명에 개시된 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 예들에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 한다. Although the present invention has been described in various examples, the present invention is not necessarily limited to these examples, and may be variously modified without departing from the spirit of the present invention. Therefore, the examples disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these examples. The scope of protection of the present invention should be interpreted by the claims below, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present invention.

Claims (5)

정보시스템에 의하여 다중해상도 영상등록을 위한 특징정합을 수행하는 방법으로서,

제1영상에 대하여,
(a) 특징좌표(
Figure pat00236
)를 검출하는 단계;
(b) 상기 특징좌표(
Figure pat00237
)를 중심으로 반지름 R인 원형템플릿을 정하는 단계;
(c) 상기 원형템플릿 안에서 상기 특징좌표(
Figure pat00238
)를 중심으로 거리가
Figure pat00239
, 각도가
Figure pat00240
인 제1화소들의 위치(
Figure pat00241
)를 각각 정하는 단계;
(d) 상기 제1화소들 각각에 대한 밝기값을 포함하는 제1화소들의 집합(
Figure pat00242
)을 구하는 단계;

상기 제1영상에 비하여 스케일이 큰 제2영상에 대하여,
(a) 후보특징점(
Figure pat00243
)을 정하는 단계;
(b) 상기 후보특징점(
Figure pat00244
)을 중심으로 거리가
Figure pat00245
, 각도가
Figure pat00246
인 제2화소들의 위치(
Figure pat00247
)를 각각 정하는 단계;
(c) 상기 제2화소들 각각에 대한 밝기값을 포함하는 제2화소들의 집합(
Figure pat00248
)을 구하는 단계;

상기 제2화소들의 위치(
Figure pat00249
)를 아래와 같이 갱신해 가면서 상기 제2화소들의 집합(
Figure pat00250
)을 재구성하는 과정을 각각 반복한 후, 상기 제1화소들의 집합(
Figure pat00251
)과 상기 제2화소들의 집합(
Figure pat00252
) 사이의 상호정보량(
Figure pat00253
)를 구하는 단계;
(a) 상기 제2영상의 스케일범위 내에서 각각의 스케일(
Figure pat00254
)을 순차적으로 적용해가면서 상기 제2화소들의 위치(
Figure pat00255
)를 갱신
(b) 상기 제2화소들의 각도
Figure pat00256
를 일정각도(
Figure pat00257
)만큼 순차적으로 증가시키면서 상기 제2화소들의 위치(
Figure pat00258
)를 갱신
(c) 상기 후보특징점(
Figure pat00259
)에 대하여 일정한 탐색범위 내에서 이동변위(
Figure pat00260
)를 적용해가면서 상기 제2화소들의 위치(
Figure pat00261
)를 갱신

상기 상호정보량(
Figure pat00262
)가 최대값이 될 때의 파라미터(
Figure pat00263
)를 구하는 단계; 및
상기 파라미터(
Figure pat00264
)를 적용한 어파인 변환계수를 이용하여 상기 특징좌표(
Figure pat00265
)에 대응되는 상기 제2영상에서의 특징점(
Figure pat00266
)을 구하는 단계; 를 포함하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법
As a method of performing feature matching for multi-resolution image registration by an information system,

About the first video,
(a) Characteristic coordinates (
Figure pat00236
Detecting);
(b) The characteristic coordinates (
Figure pat00237
Determining a circular template having a radius R around );
(c) the feature coordinates (
Figure pat00238
Centered on)
Figure pat00239
, The angle
Figure pat00240
Location of the first pixels (
Figure pat00241
Respectively);
(d) a set of first pixels including brightness values for each of the first pixels (
Figure pat00242
);

For the second image having a larger scale than the first image,
(a) Candidate features (
Figure pat00243
Determining);
(b) The candidate feature points (
Figure pat00244
)
Figure pat00245
, The angle
Figure pat00246
Location of the second pixels (
Figure pat00247
Respectively);
(c) a set of second pixels including brightness values for each of the second pixels (
Figure pat00248
);

The position of the second pixels (
Figure pat00249
) Is updated as shown below and the second set of pixels (
Figure pat00250
) After repeating the process of reconstructing each of the first set of pixels (
Figure pat00251
) And the set of second pixels (
Figure pat00252
) Amount of mutual information
Figure pat00253
);
(a) Each scale within the scale range of the second image (
Figure pat00254
) While sequentially applying the positions of the second pixels (
Figure pat00255
Update)
(b) the angles of the second pixels
Figure pat00256
The constant angle (
Figure pat00257
) While sequentially increasing the positions of the second pixels (
Figure pat00258
Update)
(c) The candidate feature points (
Figure pat00259
), the displacement within a certain search range (
Figure pat00260
) While applying the position of the second pixels (
Figure pat00261
Update)

The amount of mutual information (
Figure pat00262
) Is the maximum value parameter (
Figure pat00263
); And
The above parameter (
Figure pat00264
) Using the affine transformation coefficient to which the above is applied.
Figure pat00265
) Corresponding to the feature point in the second image (
Figure pat00266
); Characterized in that, characterized in that the registration method using a variable circular template when registering a multi-resolution image
제1항에 있어서,
상기 특징좌표(
Figure pat00267
)는, 일정 범위 내에서 코너 응답값이 최대가 되는 코너점의 위치를 기하평균 기반의 특징점 검출기를 이용하여 검출하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법
According to claim 1,
The characteristic coordinates (
Figure pat00267
) Is a feature matching method using a variable circular template when registering a multi-resolution image, characterized in that the position of the corner point at which the corner response value is the maximum within a certain range is detected using a feature point detector based on a geometric mean.
제1항에 있어서,
상기 제1화소들의 위치(
Figure pat00268
)는 아래 식에 의하여 구하며,
Figure pat00269

(
Figure pat00270
은 원형템플릿의 반지름 위에 위치하는 전체 화소수,
Figure pat00271
는 원형템플릿의 원주 위에 위치하는 전체 화소수)
상기 제2화소들의 위치(
Figure pat00272
)는 다음의 식에 의하여 구하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법
Figure pat00273

Figure pat00274

(
Figure pat00275
는 제1영상과 제2영상의 스케일 크기를 반영한 스케일 파라미터)
According to claim 1,
The positions of the first pixels (
Figure pat00268
) Is obtained by the following equation,
Figure pat00269

(
Figure pat00270
Is the total number of pixels located above the radius of the circular template,
Figure pat00271
Is the total number of pixels located on the circumference of the circular template)
The position of the second pixels (
Figure pat00272
) Is a feature matching method using a variable circular template when registering a multi-resolution image, which is obtained by the following equation.
Figure pat00273

Figure pat00274

(
Figure pat00275
Is a scale parameter reflecting the scale size of the first image and the second image)
제1항에 있어서,
상기 제1화소들의 집합(
Figure pat00276
) 및 상기 제2화소들의 집합(
Figure pat00277
)은 다음 각각의 식에 의하여 구하는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법
Figure pat00278

(
Figure pat00279
는 상기 제1영상의 (
Figure pat00280
) 위치에 존재하는 화소의 밝기값)
Figure pat00281

(
Figure pat00282
는 상기 제2영상의 (
Figure pat00283
) 위치에 존재하는 화소의 밝기값)
According to claim 1,
The first set of pixels (
Figure pat00276
) And the set of second pixels (
Figure pat00277
) Is a feature matching method using variable circular templates when registering multi-resolution images,
Figure pat00278

(
Figure pat00279
Is the first image (
Figure pat00280
) The brightness value of the pixel at the location)
Figure pat00281

(
Figure pat00282
Is the second image (
Figure pat00283
) The brightness value of the pixel at the location)
제1항에 있어서,
상기 상호정보량(
Figure pat00284
)은 아래 식에 의하여 구해지는 것을 특징으로 하는, 다중해상도 영상등록 시 가변 원형템플릿을 이용한 특징정합 방법
Figure pat00285

(H는 엔트로피)
According to claim 1,
The amount of mutual information (
Figure pat00284
) Is a feature matching method using a variable circular template when registering a multi-resolution image, which is obtained by the following equation.
Figure pat00285

(H is entropy)
KR1020180166857A 2018-12-21 2018-12-21 Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration KR20200078723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180166857A KR20200078723A (en) 2018-12-21 2018-12-21 Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180166857A KR20200078723A (en) 2018-12-21 2018-12-21 Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration

Publications (1)

Publication Number Publication Date
KR20200078723A true KR20200078723A (en) 2020-07-02

Family

ID=71599464

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180166857A KR20200078723A (en) 2018-12-21 2018-12-21 Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration

Country Status (1)

Country Link
KR (1) KR20200078723A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598717A (en) * 2020-12-14 2021-04-02 珠海欧比特宇航科技股份有限公司 Full-spectrum registration method and medium for hyperspectral satellite images
CN116824516A (en) * 2023-08-30 2023-09-29 中冶路桥建设有限公司 Road construction safety monitoring and management system

Non-Patent Citations (17)

* Cited by examiner, † Cited by third party
Title
Carneiro, G. and A. D. Jepson, 2002. Phase-based local features, Proceedings of the 7th European Conference on Computer Vision-Part I, pp.282-296.
Gong, M., Zhao, S., Jiao, L., Tian, D., Wang, S., 2014. A novel coarse-to-fine scheme for automatic image registration based on SIFT and mutual information. IEEE Transactions on Geoscience and Remote Sensing, 52(7):4328-4338.
Harris, C., and M. Stephens, 1988. A combined corner and edge detector, Proceedings of the 4th Alvey Vision Conference, pp.147-151.
Liu, J. and G. Zeng, 2012. Description of interest regions with oriented local self-similarity, Optics Communications, 285:2549-2557.
Liu, J., G. Zeng, and J. Fan, 2012. Fast Local Self-Similarity for describing interest regions, Pattern Recognition Letters. 33:1224-1235.
Lowe, D. G., 2004. Distinctive image features from scale-Invariant keypoints, International Journal of Computer Vision, 60(2):91-110.
Moravec, H.P., 1977. Towards automatic visual obstacle avoidance, Fifth International Joint Conference on Artificial Intelligent, pp.584.
Sedaghat, A. and H. Ebadi, 2015. Distinctive order based self-similarity descriptor for multi-sensor remote sensing image matching, ISPRS Journal of Photogrammetry and Remote Sensing, vol. 108, pp.62-71.
Shechtman, E., Irani, M., 2007. Matching local self-similarities across images and videos, IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA, 17-22 June, pp.1-8.
Shi J. and C. Tomasi, 1994. Good Features to Track, IEEE conference on Computer Vision and Pattern Recognition, Seattle, USA, 21-23 June, pp.593-600.
Song, Z., Zhou, S., Guan, J., 2014. A novel image registration algorithm for remote sensing under affine transformation. IEEE Transactions on Geoscience and Remote Sensing, 52(8):4895-4912.
Sun, Y., Zhao, L., Huang, S., Yan, L., Dissanayake, G., 2014. L2-SIFT: SIFT feature extraction and matching for large images in large-scale aerial photogrammetry, ISPRS Journal of Photogrammetry and Remote Sensing, 91:1-16.
Wu, B., Zhang, Y. & Zhu, Q. 2012. Integrated point and edge matching on poor textural images constrained by self-adaptive triangulations, ISPRS Journal of Photogrammetry and Remote Sensing, 68:40-55.
Ye, C.H., 2014a. Feature detection using geometric mean of eigenvalues of gradient matrix, Korean Journal of Remote Sensing, 30(6):769-776.
Ye, C.H., 2014b. Mutual Information-based circular template matching for image registration, Korean Journal of Remote Sensing, 30(5):547-557.
Ye, C.H., 2014c. Image registration using outlier removal and triangulation-based local transformation, Korean Journal of Remote Sensing, 30(6):787-795.
Ye, C.H., 2018. Multiresolution image matching using variable circular template, Proceedings of the KSRS Fall 2018, Muju, Korea, 24-26 October, pp.160.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598717A (en) * 2020-12-14 2021-04-02 珠海欧比特宇航科技股份有限公司 Full-spectrum registration method and medium for hyperspectral satellite images
CN112598717B (en) * 2020-12-14 2024-05-17 珠海欧比特卫星大数据有限公司 Full spectrum registration method and medium for hyperspectral satellite images
CN116824516A (en) * 2023-08-30 2023-09-29 中冶路桥建设有限公司 Road construction safety monitoring and management system
CN116824516B (en) * 2023-08-30 2023-11-21 中冶路桥建设有限公司 Road construction safety monitoring and management system

Similar Documents

Publication Publication Date Title
US11244197B2 (en) Fast and robust multimodal remote sensing image matching method and system
Chen et al. Building change detection with RGB-D map generated from UAV images
Sedaghat et al. Uniform robust scale-invariant feature matching for optical remote sensing images
Izadi et al. Robust weighted graph transformation matching for rigid and nonrigid image registration
Palenichka et al. Automatic extraction of control points for the registration of optical satellite and LiDAR images
Han et al. Automatic registration of high-resolution images using local properties of features
Urban et al. Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds
Stamatopoulos et al. Automated target-free network orienation and camera calibration
Chen et al. Robust affine-invariant line matching for high resolution remote sensing images
CN108960267A (en) System and method for model adjustment
Long et al. Automatic line segment registration using Gaussian mixture model and expectation-maximization algorithm
Misra et al. Feature based remote sensing image registration techniques: a comprehensive and comparative review
Weinmann et al. Geometric point quality assessment for the automated, markerless and robust registration of unordered TLS point clouds
Xiong et al. Robust SAR image registration using rank-based ratio self-similarity
Wang Automatic extraction of building outline from high resolution aerial imagery
KR20200078723A (en) Method for Feature Point Matching using Variable Circular Template for Multi-resolution Image Registration
Lv et al. Automatic registration of airborne LiDAR point cloud data and optical imagery depth map based on line and points features
Sui et al. Automatic image registration based on shape features and multi-scale image segmentation
Kang et al. A robust image matching method based on optimized BaySAC
Abdel-Wahab et al. Efficient reconstruction of large unordered image datasets for high accuracy photogrammetric applications
Barazzetti et al. Automatic registration of multi-source medium resolution satellite data
Hao et al. Robust multisource remote sensing image registration method based on scene shape similarity
Yu et al. SAR pixelwise registration via multiscale coherent point drift with iterative residual map minimization
Zhou et al. Occlusion detection for urban aerial true orthoimage generation
Liu et al. An improved subpixel-level registration method for image-based fault diagnosis of train bodies using SURF features

Legal Events

Date Code Title Description
E601 Decision to refuse application