KR20050103031A - Image alignment method by using statistical correlation - Google Patents

Image alignment method by using statistical correlation Download PDF

Info

Publication number
KR20050103031A
KR20050103031A KR1020040028409A KR20040028409A KR20050103031A KR 20050103031 A KR20050103031 A KR 20050103031A KR 1020040028409 A KR1020040028409 A KR 1020040028409A KR 20040028409 A KR20040028409 A KR 20040028409A KR 20050103031 A KR20050103031 A KR 20050103031A
Authority
KR
South Korea
Prior art keywords
image
correlation
images
motion vector
aligning
Prior art date
Application number
KR1020040028409A
Other languages
Korean (ko)
Other versions
KR100551825B1 (en
Inventor
고진신
Original Assignee
삼성탈레스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성탈레스 주식회사 filed Critical 삼성탈레스 주식회사
Priority to KR1020040028409A priority Critical patent/KR100551825B1/en
Publication of KR20050103031A publication Critical patent/KR20050103031A/en
Application granted granted Critical
Publication of KR100551825B1 publication Critical patent/KR100551825B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

본 발명은 영상 융합에 관한 것으로, 특히 영상 융합에 있어서의 각각의 영상의 정렬 방법에 관한 것이다. 각각의 영상 센서에서 얻어진 영상들로부터 특징점을 찾지 않고, 상관 관계를 통한 통계적 방법을 통해 서로 다른 영상 센서들로부터의 영상들에 대한 정렬을 수행하는 통계적 상관 관계를 이용한 영상의 정렬 방법을 제공하는데 그 목적이 있으며, 서로 다른 영상 센서들로부터 각각 영상을 입력받는 제 1 단계; 상기 입력된 영상으로부터 윤곽선을 추출하는 제 2 단계; 및 상기 추출된 각각의 영상별 윤곽선 간의 상관관계를 통계적으로 적용하여 상기 상관관계의 값이 최대가 되는 값으로 상기 영상을 정렬하는 제 3 단계를 포함하는 과정으로 구현될 수 있다. 이렇게 함으로써, 전체적인 연산량을 줄이면서도 정확한 정렬이 가능하게 된다.The present invention relates to image fusion, and more particularly, to a method of aligning each image in image fusion. There is provided a method of aligning images using statistical correlation, which does not find feature points from images obtained by each image sensor, and aligns images from different image sensors through a statistical method through correlation. A first step of receiving an image from different image sensors; Extracting an outline from the input image; And a third step of aligning the image to a value at which the value of the correlation is maximum by statistically applying a correlation between the extracted contour lines of each image. This allows for accurate alignment while reducing overall computation.

Description

통계적 상관 관계를 이용한 영상의 정렬 방법{Image Alignment Method by Using Statistical Correlation} Image Alignment Method by Using Statistical Correlation

본 발명은 영상 융합에 관한 것으로, 특히 영상 융합에 있어서의 각각의 영상의 정렬 방법에 관한 것이다.The present invention relates to image fusion, and more particularly, to a method of aligning each image in image fusion.

최근, 다중 영상 센서로부터의 영상 융합은 각각의 단일 영상 센서들로부터의 영상 정보를 결합시키고, 복합된 각각의 영상 센서의 영상 정보에 대한 데이터베이스로부터 목적에 맞는 데이터의 가공을 수행하도록 하여, 보다 정확하고 다양한 활용도를 가지는 영상 정보를 획득하게 하는 기술로 여러 분야에서 연구가 되고 있다. 특히, 이와 같이 개선된 정확성들과 더욱 정교한 특정 요소 정보들을 구축하기 위해 다중 영상 센서로부터의 영상 융합 기술에 대한 기술적 중요도가 날로 증대되고 있다. Recently, image fusion from multiple image sensors combines image information from each single image sensor, and allows processing of data according to the purpose from a database of image information of each image sensor combined to make it more accurate. As a technology for obtaining image information having various uses, research has been conducted in various fields. In particular, the technical importance of image fusion technology from multiple image sensors is increasing day by day to build such improved accuracy and more sophisticated specific element information.

여기서, 다중 영상 센서로부터의 영상 융합이라는 것은 각각의 단일 영상 센서의 고유한 파장 대역에서 획득한 영상에서 각 파장의 특징 정보를 사용 목적에 맞게 최적의 정보를 추출하여, 하나의 영상에 많은 정보를 융합하는 것을 말한다. 이와 같은 다중 영상 센서로부터의 영상 융합의 기술 관련 분야로는 컴퓨터 비젼, 자동 물체 검출 및 식별분야, Navigation, 지능형 Robotics, Remote Sensing 분야, 의료기기 등 다양하다.Here, the image fusion from the multiple image sensor means that the optimal information is extracted from the image acquired in the unique wavelength band of each single image sensor according to the purpose of use, and a lot of information is added to one image. It is to fuse. Such technologies related to image fusion from multiple image sensors include computer vision, automatic object detection and identification, navigation, intelligent robotics, remote sensing, and medical devices.

이와 같은 영상 융합은 전체적으로 크게 3단계로 대별할 수 있다. 여기서, 3단계라 하면, 제 1 단계는 각 영상 센서의 입력 영상에 대한 처리를 수행하는 단계이고, 제 2 단계는 각각의 영상 센서로부터의 입력 영상의 각 화소에 대한 정렬(정합, Alignment, Registration)을 수행하는 단계이며, 제 3 단계는 정렬된 영상들을 융합처리하는 단계를 말한다.Such image fusion can be roughly classified into three stages as a whole. Here, in step 3, a first step is a process of processing an input image of each image sensor, and a second step is alignment (alignment, registration) of each pixel of the input image from each image sensor. ), And the third step is a step of fusing the aligned images.

특히, 영상 융합을 위한 과정에 있어서, 각 영상에 대한 정렬이 정확히 되지 않은 상태에서 영상의 합성을 수행하면 도리어 영상이 개선되는 것 보다는 영상의 왜곡 현상이 더 심해지게 된다. 이런 현상 때문에 영상의 정렬(정합, Alignment, Registration) 방법에 대한 연구가 중요한 토픽(Topic)으로 대두 되고 있다. In particular, in the process of image fusion, when the image synthesis is performed in a state where the alignment of each image is not correct, the distortion of the image becomes more severe than the improvement of the image. Because of this phenomenon, research on how to align images (alignment, registration) has emerged as an important topic.

이하에서는 영상의 정렬에 대한 종래의 기술에 대해 살펴보기로 한다.Hereinafter, a conventional technique for aligning an image will be described.

각각 다른 특징을 갖는 영상 센서(EO, IR, Radar 등)로부터 얻은 영상에서는 각 픽셀에 일치되는 밝기 값의 상관 관계는 대부분 매우 복잡하다.In the images obtained from image sensors having different characteristics (EO, IR, Radar, etc.), the correlation of brightness values corresponding to each pixel is mostly very complicated.

즉, 하기의 <표 1>에서 보여지는 바와 같이, 각 파장에 따른 광 흐름 레벨(photon flux level)이 차이가 많이 나서 각각의 센서에 따른 영상이 포함하고 있는 정보는 다양한 변수를 가질 수 밖에 없다.That is, as shown in Table 1 below, since the photon flux level of each wavelength is different, the information included in the image of each sensor has various variables. .

VISVIS NIRNIR MWIRMWIR LWIRLWIR 파장대(um)Wavelength range (um) 0.4-0.780.4-0.78 0.78-1.00.78-1.0 3-53-5 8-128-12 맑은 대낮Sunny daylight 1.5 x 1017 1.5 x 10 17 1 x 1017 1 x 10 17 2 x 1013 2 x 10 13 2 x 1017 2 x 10 17 달빛하의 밤Moonlit night 1.5 x 1011 1.5 x 10 11 -- 2 x 1013 2 x 10 13 2 x 1017 2 x 10 17 별빛하의 밤Night under the stars 1.5 x 109 1.5 x 10 9 9 x 109 9 x 10 9 2 x 1013 2 x 10 13 2 x 1017 2 x 10 17

<표 1>에 도시된 바와 같이, 가시광선 대역의 센서에서는 존재하는 특징(feature)이 적외선 영역 센서에서는 존재하지 않는다. 또한, 적외선 영역 센서에서 존재하는 것이 가시광선 대역의 센서에서는 존재하지 않거나 미약한 신호 데이타로 나타난다. 이것은 각각 다른 센서에서 얻은 두개의 영상은 각각 영상의 특징점에 대한 연관성을 알기가 난해하다. 실제로 각각의 영상에 대한 특징점에 대한 매칭 작업은 전 처리과정에 많은 단계의 작업을 수행한 후 영상을 등록(registration)할 수 있다.As shown in Table 1, the feature present in the visible light band sensor does not exist in the infrared region sensor. In addition, what is present in the infrared region sensor does not exist in the visible light band sensor or appears as weak signal data. It is difficult to know the correlation between two images from different sensors. In practice, matching of feature points for each image may be performed after a number of steps in the preprocessing, and then the image may be registered.

도 1 은 영상 융합을 위한 일반적인 영상 입력 장치의 일실시예 구성도이다.1 is a configuration diagram of a general image input device for image fusion.

도 1에 도시된 바와 같이, 영상 융합을 위한 일반적인 영상 입력 장치는 영상을 입력받는 광학계(14)와 서로 다른 특징을 가지는 2개의 영상 입력 센서(12, 13) 및 2개의 영상 센서(12, 13)로부터 입력된 영상을 이용해서 영상을 융합하는 영상 융합 처리부(11)를 포함한다.As shown in FIG. 1, a general image input device for image fusion includes two image input sensors 12 and 13 and two image sensors 12 and 13 having different characteristics from an optical system 14 receiving an image. And an image fusion processor 11 for fusing the image using the image input from the image.

도 1 에 도시된 2개의 영상 센서(12, 13)는 CCD(charge-coupled device) 방식의 영상 센서(12)와 IR(InfraRed) 방식의 영상 센서(13)를 예시한다. 그러나, CCD나 IR 방식뿐만이 아니라 Radar, EO(Electro-Optic) 등의 다양한 영상 센서의 조합이 가능하다.The two image sensors 12 and 13 illustrated in FIG. 1 illustrate the charge-coupled device (CCD) type image sensor 12 and the IR (InfraRed) type image sensor 13. However, not only CCD and IR methods but also combinations of various image sensors such as Radar and electro-optic (EO) are possible.

이와 같이 각기 다른 특징을 갖는 센서(EO, IR, Radar 등)로부터 얻는 영상을 융합하기 위해서는 영상 정렬(Alignment)가 중요하다. 종래의 방법에서는 영상 정렬을 위해 각각의 영상의 특징점을 이용한 영상 정렬 방법을 주로 사용하였다.In this way, image alignment is important in order to fuse images obtained from sensors having different characteristics (EO, IR, Radar, etc.). In the conventional method, an image alignment method using a feature point of each image is mainly used for image alignment.

도 3 은 영상의 특징점을 이용한 영상 정렬의 예시도이다.3 is an exemplary diagram of image alignment using feature points of an image.

도 3(a), 도 3(e)는 각각 IR 센서와 CCD 센서를 이용하여 얻어진 영상의 예시도이다. 이와 같이 얻어진 각각의 영상들은 도 3(b), (c) 및 도 3(f), (g)를 거쳐 도 3(d) 및 도 3(h)와 같은 특징점을 가지는 영상이 얻어진다.3A and 3E are exemplary views of images obtained by using an IR sensor and a CCD sensor, respectively. Each of the images obtained as described above is obtained with images having the feature points as shown in FIGS. 3 (d) and 3 (h) through FIGS.

이렇게 얻어진 특징점을 일치시키면 도 3(k)와 같이 결합이 되고, 이에 따라 두 영상을 결합하면 도 3(i), 도 3(j)가 된다.When the feature points thus obtained are matched, the combination is performed as shown in FIG. 3 (k). Accordingly, the two images are combined to form FIGS. 3 (i) and 3 (j).

이와 같이 특징점을 이용한 영상 정렬의 경우는 전처리 과정이 매우 복잡하고 까다롭게 이루어지고, 게다가 특징점만을 비교하기 때문에 도 3(i), 도 3(j)에서와 같이 두개의 영상이 서로 뒤틀린 채로 정렬되는 문제점이 발생한다.As described above, in the case of image alignment using a feature point, the preprocessing process is very complicated and difficult, and since only the feature points are compared, two images are aligned with each other, as shown in FIGS. 3 (i) and 3 (j). This happens.

본 발명은, 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 각각의 영상 센서에서 얻어진 영상들로부터 특징점을 찾지 않고, 상관 관계를 통한 통계적 방법을 통해 서로 다른 영상 센서들로부터의 영상들에 대한 정렬을 수행하는 통계적 상관 관계를 이용한 영상의 정렬 방법을 제공하는데 그 목적이 있다. The present invention has been proposed to solve the above problems, and does not find a feature point from images obtained by each image sensor, and aligns images from different image sensors through a statistical method through correlation. It is an object of the present invention to provide a method of arranging images using statistical correlation.

상기의 목적을 달성하기 위한 본 발명은, 통계적 상관 관계를 이용한 영상의 정렬 방법에 있어서, 서로 다른 영상 센서들로부터 각각 영상을 입력받는 제 1 단계; 상기 입력된 영상으로부터 윤곽선을 추출하는 제 2 단계; 및 상기 추출된 각각의 영상별 윤곽선 간의 상관관계를 통계적으로 적용하여 상기 상관관계의 값이 최대가 되는 값으로 상기 영상을 정렬하는 제 3 단계를 포함한다.According to an aspect of the present invention, there is provided a method of aligning images using statistical correlations, the method comprising: a first step of receiving images from different image sensors; Extracting an outline from the input image; And a third step of aligning the image to a value at which the value of the correlation is maximum by statistically applying a correlation between the extracted contour lines for each image.

특히, 제 3 단계는, 상기 각각의 영상을 정렬하기 위한 임의의 움직임 벡터와 매트릭스를 설정하는 제 4 단계; 상기 각각의 영상 간의 정규화된 상관관계(Normalized Correlation)를 획득하는 제 5 단계; 상기 임의의 움직임 벡터로부터 얻어지는 매트릭스의 그래디언트(Gradient)와 상기 임의의 움직인 벡터로부터 얻어지는 매트릭스의 헤시안(Hessian)을 취하는 제 6 단계; 상기 제 6 단계의 연산을 통해 얻은 움직임 벡터와 상기 임의의 움직임 벡터간의 차이를 구하는 제 7 단계; 상기 임의의 움직임 벡터를 상기 제 7 단계의 차이를 이용하여 업데이트하는 제 8 단계; 및 상기 상관관계 값이 최대가 될 때까지 상기 제 5 단계 내지 제 8 단계를 반복하고 상기 상관관계 값이 최대가 되면 해당 움직임 벡터에 따라 정렬하는 제 9 단계를 포함한다.In particular, the third step comprises: setting a motion vector and a matrix for aligning the respective images; A fifth step of obtaining a normalized correlation between each of the images; A sixth step of taking a gradient of the matrix obtained from the arbitrary motion vector and a Hessian of the matrix obtained from the arbitrary moved vector; A seventh step of obtaining a difference between the motion vector obtained through the sixth step operation and the arbitrary motion vector; An eighth step of updating the arbitrary motion vector using the difference of the seventh step; And a ninth step of repeating the fifth to eighth steps until the correlation value is maximum, and sorting according to the corresponding motion vector when the correlation value is maximum.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다. 도면에서 동일한 구성요소들에 대해서는 비록 다른 도면에 표시되더라도 가능한 한 동일한 참조번호 및 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Note that the same components in the drawings are represented by the same reference numerals and symbols as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

다수의 영상 센서를 통해 전달되는 영상은 각각의 영상 센서의 각 파장에 따른 광 흐름 레벨(photon flux level)이 차이가 많이 나기 때문에, 다수의 영상 센서로부터 전달된 영상을 융합하기 위해서는 앞서 기술된 바와 같이 영상 정렬(Alignment)이 필요하다.Since the image transmitted through the plurality of image sensors has a large difference in the photon flux level according to each wavelength of each image sensor, in order to fuse the images transmitted from the plurality of image sensors as described above, Similarly, image alignment is necessary.

본 발명에 있어서는 이와 같은 영상 정렬에 있어서, 적은 계산량으로 정확한 결과를 얻어내기 위하여 상관 관계(Correlation)를 이용한 통계적 기법의 영상 정렬 방법을 제공한다.In the present invention, in order to obtain an accurate result with a small amount of calculation in the image alignment, an image alignment method using a statistical technique using correlation (Correlation) is provided.

본 발명에 따른 다중 영상 센서로부터의 영상 융합을 위한 상관 관계를 이용한 통계적 기법의 영상 정렬 방법을 위해서는, 입력되는 영상간의 안정된 매칭(Matching)을 위해선 모든 해상도 레벨(resolution level)에서 상호 연관된(correlated) 정보를 충분히 가져야 한다. 물론, 같은 영상 센서로부터 얻어진 영상 간에는 이 조건을 충족하지만, 다중 영상 센서로부터의 영상인 경우에는 그렇지 못하다.For the image alignment method of the statistical method using the correlation for image fusion from the multiple image sensor according to the present invention, for stable matching between the input image (correlated) at all resolution levels (correlated) You must have enough information. Of course, this condition is satisfied between images obtained from the same image sensor, but not in the case of an image from multiple image sensors.

일반적으로 다중 영상 센서로부터의 영상에서는 고주파 공간의 영상 성분에서는 비교적 양호한 관계(Relation)를 가진다. 따라서, 고주파 성분인 윤곽선(Edge) 정보는 영상의 사물의 외형,윤곽 등의 정보를 가지므로, 다중 영상 센서로부터의 영상에서 유사한 정보를 가질 수 있다. 그러나, 저주파 영상 성분은 대부분 조명이나 센서의 특성 등 주변환경에 좌우되는 성분이 많아서, 다중 영상 센서의 정렬에서는 배제하도록 한다.In general, the image from the multiple image sensor has a relatively good relationship in the image component of the high frequency space. Therefore, since the edge information, which is a high frequency component, has information such as the appearance and outline of an object of an image, similar information may be included in an image from multiple image sensors. However, the low frequency image components are mostly dependent on the surrounding environment such as lighting and sensor characteristics, and thus are excluded from the alignment of the multiple image sensors.

따라서, 영상의 윤곽선 정보를 얻어내기 위해서, 라플라시안 필터(Laplacian Filter)를 통해 고조파 성분을 추출한다. 이와 같이 영상의 윤곽선 정보를 추출하기 위해서 라플라시안 연산을 수행하는데, 라플라시안은 각각의 방향에 따라 그 정보를 달리하기 때문에, 도 2에서 도시된 것과 같이 상하좌우 대각선을 포함하는 다양한 방향의 윤곽선을 취하여야 한다.Therefore, in order to obtain contour information of the image, harmonic components are extracted through a Laplacian filter. As described above, the Laplacian operation is performed to extract the contour information of the image. Since the Laplacian varies its information according to each direction, the contour of various directions including up, down, left, and right diagonal lines should be taken as shown in FIG. do.

그러나, 본 발명에 있어서는 윤곽선을 추출하는 방법에 있어서, 종래의 각 방향 라플라시안 연산을 통한 방법이 아니라 임계값(Threshold)을 이용한 방법을 적용한다. 즉, 종래의 라플라시안 연산을 통해 얻어지는 윤곽선은 각 방향에 따라 정보를 달리 가지므로 상하좌우 방향의 라플라시안 연산을 통해 각각의 방향별 윤곽선을 취한다. However, in the present invention, in the method of extracting the contour, a method using a threshold is applied, not a conventional method through each directional Laplacian operation. That is, since the contour obtained through the conventional Laplacian operation has different information according to each direction, the contour for each direction is taken through the Laplacian operation in the up, down, left, and right directions.

도 2 는 종래의 윤곽선을 얻기 위한 라플라시안 연산의 방향을 도시한 예시도이다. 2 is an exemplary diagram illustrating a direction of a Laplacian operation for obtaining a conventional outline.

즉, 도 2에 도시된 바와 같이, 종래의 윤곽선을 얻기 위한 라플라시안 연산은 상하좌우 및 대각선 방향으로 각각 라플라시안 연산을 수행하고, 얻어진 각각의 방향별 윤곽선을 평균적으로 결합함으로써, 하나의 영상에 대한 전체 윤곽선을 얻게 된다.That is, as shown in FIG. 2, the conventional Laplacian operation for obtaining the contour is performed by performing the Laplacian operation in the up, down, left, and right directions, respectively, and combining the obtained contours for each direction on an average, so that the entire Laplacian operation is obtained. You get an outline.

그러나, 이와 같이 각각의 방향별로 라플라시안 연산을 하게 되면, 시스템의 부하가 많이 걸리게 된다. 따라서, 본 발명의 실시예에서는 하나의 방향으로만 라플라시안 연산을 수행하여 종래의 방법에 의한 윤곽선과 비슷한 윤곽선을 얻을 수 있는 방법을 제안한다. However, when the Laplacian operation is performed in each direction as described above, the system is heavily loaded. Accordingly, an embodiment of the present invention proposes a method of obtaining a contour similar to that of the conventional method by performing a Laplacian operation in only one direction.

본 발명의 실시예에서 윤곽선을 얻는 방법은 종래의 라플라시안 연산을 하나의 방향으로 수행하는데, 윤곽선을 얻기 위한 그레이 레벨을 종래의 방법에 비해 임계값으로 낮추어 연산을 하는 것이다. In the embodiment of the present invention, a method of obtaining a contour is performed by performing a conventional Laplacian operation in one direction, by lowering the gray level for obtaining the contour to a threshold value compared to the conventional method.

일반적으로 그레이 레벨을 100단계로 볼 때, 종래의 라플라시안 연산을 통해 검출되는 윤곽선의 그레이 레벨은 45 정도이다. 그러나, 본 발명의 실시예에서는 이와 같은 그레이 레벨을 임계값 이하(예컨대, 18~24) 정도로 낮추어 검출함으로써, 한번의 연산으로 원하는 윤곽선을 얻어 낼 수 있다. 이와 같이, 그레이 레벨을 낮추어 한방향(예컨데, 도 2의 ②방향)으로만 윤곽선을 검출하면 그 한번의 연산량은 훨씬 많아지지만, 한번의 라플라시안 연산 동작으로 4~8번의 라플라시안 연산 동작을 대치할 수 있게 되어 실질적으로는 연산을 대폭 감소시킬 수 있다.In general, when the gray level is viewed in 100 steps, the gray level of the contour detected through the conventional Laplacian operation is about 45 degrees. However, in the embodiment of the present invention, by lowering the gray level to about the threshold value (for example, 18 to 24), the desired outline can be obtained in one operation. As such, if the contour is detected only in one direction (for example, ② direction in Fig. 2) by lowering the gray level, the amount of computation is much larger, but one to Laplacian operations can be replaced by 4 to 8 Laplacian operations. This can substantially reduce computation.

도 4 는 본 발명에 따른 통계적 상관 관계를 이용한 영상의 정렬 방법의 일실시예 동작 흐름도이다.4 is a flowchart illustrating an embodiment of a method for aligning an image using statistical correlation according to the present invention.

도 4에 도시된 바와 같은 본 발명에 따른 영상 정렬 방법을 설명하기에 앞서, 통계적 상관 관계를 설명하면 다음과 같다. 여러 개의 영상 간의 정규화된 상관관계(Normalized Correlation)는 영상 화소값의 평균값과 명도차(contrast)의 차이에도 일관성을 가진다. 즉, 두 개의 영상이 선형화된(linear) 상관관계를 가졌다면 두 영상 간의 정규화된 상관관계(Normalized Correlation)는 "1" 이다. 한편, 선형화된 상관관계를 가지지 않았다면 두 개의 영상은 서로 공간적인 변위차가 있다고 할 수 있다. 따라서, 정규화된 상관관계(Normalized Correlation)값을 통계적인 예측 방법을 이용하여 영상 간의 상대적인 변위 차이를 예측하고, 영상의 정렬에 이용할 수가 있다. Before describing the image alignment method according to the present invention as shown in FIG. 4, the statistical correlation will be described as follows. Normalized correlation between multiple images is consistent with the difference between the average value of the image pixel values and the contrast. That is, if two images have a linearized correlation, the normalized correlation between the two images is “1”. On the other hand, the two images may be said to have a spatial displacement difference unless they have a linearized correlation. Therefore, the normalized correlation value can be used to predict the relative displacement difference between images by using a statistical prediction method, and can be used to align the images.

본 발명에 따른 통계적 상관 관계를 이용한 영상 정렬 방법은 주어진 2개의 영상(본 발명의 실시예에서는 2개의 영상 센서를 통한 영상을 예시한다.) f, g에서 정규화된 상관관계 값이 최대가 되는 이동 벡터 를 찾는 것이다.In the image alignment method using the statistical correlation according to the present invention, the two normalized images (in the embodiment of the present invention, exemplify images through two image sensors), a movement in which the normalized correlation values at f and g are maximized. vector To find.

그를 위해서 우선 임의의 이동 벡터 0 와 X 매트릭스(M())를 설정한다(401).For that first the random move vector 0 and X matrix (M ( (401).

이를 상세히 살펴보면, 주어진 두개의 영상에서 각각 상대적인 영상 fi, gi 의 상대 변위(u, v)를 가지는 는 <수학식 1>과 같다.In detail, each of the two images has a relative displacement (u, v) of the relative images f i , g i Is equal to <Equation 1>.

매개변수인 이동 벡터 에 표현되어지는 움직임 필드(Motion Field)를 =[u(x,y:), v(x,y;)]로 가정한다. 영상 정렬의 최대 목표인 가 최대인 벡터인 것을 M()라 하면, M()는 다음과 같다.Move vector as a parameter The motion field represented by = [u (x, y: ), v (x, y; )]. Is the biggest goal of image alignment Is max It is M to be vector ), M ( ) Is as follows.

M()가 최대가 되는 를 찾기 위해 통계적 기법인 뉴튼 방법(Newton Method)을 적용하여 두 영상의 정규화된 상관관계를 획득한다(402). 이때, 획득되는 두 영상의 정규화된 상관관계는 <수학식 3>과 같다.M ( ) Becomes the maximum In operation 402, a newton method, which is a statistical technique, is obtained to find a normalized correlation between two images. In this case, the normalized correlation between the acquired two images is shown in Equation 3.

여기서, 로 정의된다.here, Is defined as

그리고, 는 임의의 0로부터 얻어지는 매트릭스 M()의 그래디언트(Gradient)이고, 는 임의의 0로부터 얻어지는 매트릭스 M()의 헤시안(Hessian)이다.And, Is random Matrix M obtained from 0 ( ) Is a gradient, Is random Matrix M obtained from 0 ( Is Hessian.

여기서, 를 구하여(403) 0 벡터를 계산하고(404) 계산된 0 벡터를 업데이트하여(405) 상관관계가 최대인지를 확인하여(406) 상관관계가 최대가 될 때까지 402 내지 406의 과정을 반복한다.here, Wow Obtained (403) Compute a vector of zero (404) 0 vectors are updated (405) to determine if the correlation is maximum (406) and the processes of 402 to 406 are repeated until the correlation is maximum.

이상의 과정을 수학식을 통해 좀 더 상세히 살펴보면 다음과 같다.Looking at the above process in more detail through the equation as follows.

<수학식 3>에서의 는 근사적인 뉴튼 방법을 적용하여 <수학식 4>와 같이 나타낼 수 있다.In <Equation 3> Can be expressed as in Equation 4 by applying the approximate Newton method.

여기서, 연환식(Chain-Rule)을 적용하기 위하여, <수학식 4>의 각각의 항을 다시 표현하면 다음과 같다.Here, in order to apply the Chain-Rule, each term of Equation 4 is expressed as follows.

그리고, <수학식 4>에 <수학식 5>를 적용하여 최종 를 수식화하면 다음과 같다.And, by applying Equation 5 to Equation 4, the final The formula is as follows.

여기서, 상관관계를 나타내는 항인 로 재정립하여 상관관계가 최대인 를 획득할 수 있게 된다.Where the term representing the correlation To Is redefined as the maximum correlation Can be obtained.

도 5 는 본 발명에 따른 통계적 상관관계를 이용한 영상 정렬 방법에 의한 영상 정렬의 일실시예 예시도이다.5 is an exemplary view illustrating image alignment by an image alignment method using statistical correlation according to the present invention.

입력된 영상은 도 5(a)에 도시된 IR 영상, 도 5(b)에 도시된 EO 영상이다. 도 5(e)에 도시된 바와 같이 정렬 전에는 서로 틀어져 있음을 알 수 있다. 이와 같이 영상 센서의 광 감지 영역의 차이에 의해 틀어진 영상을 융합하기 위해 본 발명의 실시예에서는 윤곽선을 획득하여 영상을 정렬할 것을 예시한다. 특히, 도 5(c)와 도 5(d)에서 도시된 바와 같이 각각의 영상 센서별로 서로 다른 그레이 레벨 임계값을 적용하여 윤곽선을 얻어낸다.The input image is an IR image shown in FIG. 5 (a) and an EO image shown in FIG. 5 (b). As shown in FIG. As described above, the embodiment of the present invention aligns the images by acquiring the outlines in order to fuse the distorted images due to the difference in the light sensing region of the image sensor. In particular, as shown in FIGS. 5C and 5D, different gray level thresholds are applied to each image sensor to obtain an outline.

그리고, 얻어진 윤곽선을 이용하여 본 발명에 따른 통계적 상관관계를 이용한 영상 정렬 방법을 수행한 후에는 도 5(f)와 같이 일치된 영상으로 정렬이 가능해 진다.After performing the image alignment method using the statistical correlation according to the present invention using the obtained contour, alignment can be made into a matched image as shown in FIG. 5 (f).

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited by the drawings.

상기와 같은 본 발명은, 영상 간의 통계적 상관관계를 이용한 영상 정렬 방법을 제공하여 각각 다른 특징을 가지는 영상 센서로부터 입력된 각각의 영상에 대한 영상 정렬에 있어서, 전체적인 연산량을 줄이면서도 정확한 정렬이 가능하도록 하는 효과가 있다.The present invention as described above, by providing an image alignment method using the statistical correlation between the images in the image alignment for each image input from the image sensor having different characteristics, so as to enable accurate alignment while reducing the overall calculation amount It is effective.

또한, 본 발명은, 영상으로부터 윤곽선을 추출하기 위하여 그레이 레벨의 임계값을 이용함으로써, 각각의 방향으로의 라플라시안 연산을 수행하지 않으면서 충분한 윤곽선을 얻을 수 있는 효과가 있다.In addition, the present invention has the effect of obtaining a sufficient outline without performing the Laplacian operation in each direction by using the gray level threshold to extract the outline from the image.

도 1 은 영상 융합을 위한 일반적인 영상 입력 장치의 일실시예 구성도.1 is a block diagram of a general image input device for image fusion;

도 2 는 종래의 윤곽선을 얻기 위한 라플라시안 연산의 방향을 도시한 예시도.2 is an exemplary diagram showing a direction of a Laplacian operation for obtaining a conventional outline.

도 3 은 영상의 특징점을 이용한 영상 정렬의 예시도.3 is an illustration of image alignment using feature points of an image.

도 4 는 본 발명에 따른 통계적 상관 관계를 이용한 영상의 정렬 방법의 일실시예 동작 흐름도.4 is a flowchart illustrating an embodiment of a method for aligning an image using statistical correlation according to the present invention;

도 5 는 본 발명에 따른 통계적 상관관계를 이용한 영상 정렬 방법에 의한 영상 정렬의 일실시예 예시도.5 is a diagram illustrating an embodiment of image alignment by an image alignment method using statistical correlation according to the present invention;

Claims (4)

통계적 상관 관계를 이용한 영상의 정렬 방법에 있어서,In the image alignment method using the statistical correlation, 서로 다른 영상 센서들로부터 각각 영상을 입력받는 제 1 단계;A first step of receiving images from different image sensors; 상기 입력된 영상으로부터 윤곽선을 추출하는 제 2 단계; 및Extracting an outline from the input image; And 상기 추출된 각각의 영상별 윤곽선 간의 상관관계를 통계적으로 적용하여 상기 상관관계의 값이 최대가 되는 값으로 상기 영상을 정렬하는 제 3 단계를 포함하는 통계적 상관 관계를 이용한 영상의 정렬 방법.And statistically applying the correlation between the extracted contour lines of each image, and sorting the image to a value at which the correlation value is maximized. 제 1 항에 있어서,The method of claim 1, 상기 제 2 단계는, 상기 입력된 영상으로부터 고주파 성분을 추출하기 위한 라플라시안 연산을 통해 수행되는 것을 특징으로 하는 통계적 상관 관계를 이용한 영상의 정렬 방법.And the second step is performed through a Laplacian operation for extracting a high frequency component from the input image. 제 2 항에 있어서,The method of claim 2, 상기 라플라시안 연산은 상기 각각의 영상 센서의 그레이 레벨 임계값에 따라 수행되는 것을 특징으로 하는 통계적 상관 관계를 이용한 영상의 정렬 방법.And the Laplacian operation is performed according to the gray level threshold of each image sensor. 제 1 항 내지 제 3 항 중의 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 제 3 단계는,The third step, 상기 각각의 영상을 정렬하기 위한 임의의 움직임 벡터와 매트릭스를 설정하는 제 4 단계;A fourth step of setting an arbitrary motion vector and matrix for aligning the respective images; 상기 각각의 영상 간의 정규화된 상관관계(Normalized Correlation)를 획득하는 제 5 단계;A fifth step of obtaining a normalized correlation between each of the images; 상기 임의의 움직임 벡터로부터 얻어지는 매트릭스의 그래디언트(Gradient)와 상기 임의의 움직인 벡터로부터 얻어지는 매트릭스의 헤시안(Hessian)을 취하는 제 6 단계;A sixth step of taking a gradient of the matrix obtained from the arbitrary motion vector and a Hessian of the matrix obtained from the arbitrary moved vector; 상기 제 6 단계의 연산을 통해 얻은 움직임 벡터와 상기 임의의 움직임 벡터간의 차이를 구하는 제 7 단계;A seventh step of obtaining a difference between the motion vector obtained through the sixth step operation and the arbitrary motion vector; 상기 임의의 움직임 벡터를 상기 제 7 단계의 차이를 이용하여 업데이트하는 제 8 단계; 및An eighth step of updating the arbitrary motion vector using the difference of the seventh step; And 상기 상관관계 값이 최대가 될 때까지 상기 제 5 단계 내지 제 8 단계를 반복하고 상기 상관관계 값이 최대가 되면 해당 움직임 벡터에 따라 정렬하는 제 9 단계를 포함하는 통계적 상관 관계를 이용한 영상의 정렬 방법.Repeating the fifth to eighth steps until the correlation value becomes the maximum, and aligning the image using the statistical correlation including the ninth step of sorting according to the corresponding motion vector when the correlation value becomes the maximum. Way.
KR1020040028409A 2004-04-23 2004-04-23 Image Alignment Method by Using Statistical Correlation KR100551825B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040028409A KR100551825B1 (en) 2004-04-23 2004-04-23 Image Alignment Method by Using Statistical Correlation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040028409A KR100551825B1 (en) 2004-04-23 2004-04-23 Image Alignment Method by Using Statistical Correlation

Publications (2)

Publication Number Publication Date
KR20050103031A true KR20050103031A (en) 2005-10-27
KR100551825B1 KR100551825B1 (en) 2006-02-13

Family

ID=37281087

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040028409A KR100551825B1 (en) 2004-04-23 2004-04-23 Image Alignment Method by Using Statistical Correlation

Country Status (1)

Country Link
KR (1) KR100551825B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699822B2 (en) 2009-09-23 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for blending images
KR20150021351A (en) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 Apparatus and method for alignment of images

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101051716B1 (en) * 2010-11-12 2011-07-26 삼성탈레스 주식회사 Method for multi sensor image fusion
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
KR101554421B1 (en) 2014-04-16 2015-09-18 한국과학기술원 Method and apparatus for image expansion using image structure

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699822B2 (en) 2009-09-23 2014-04-15 Samsung Electronics Co., Ltd. Method and apparatus for blending images
KR20150021351A (en) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 Apparatus and method for alignment of images

Also Published As

Publication number Publication date
KR100551825B1 (en) 2006-02-13

Similar Documents

Publication Publication Date Title
Chen et al. Pedestrian detection for autonomous vehicle using multi-spectral cameras
WO2021000664A1 (en) Method, system, and device for automatic calibration of differences in cross-modal target detection
Cho et al. Adaptive skin-color filter
CN101216941B (en) Motion estimation method under violent illumination variation based on corner matching and optic flow method
CN105046206B (en) Based on the pedestrian detection method and device for moving prior information in video
CN109410171B (en) Target significance detection method for rainy image
Chu et al. Object tracking algorithm based on camshift algorithm combinating with difference in frame
KR20140043023A (en) Method and system for using fingerprints to track moving objects in video
KR100551826B1 (en) Image Fusion Method for Multiple Image Sonsor
KR101177626B1 (en) Object checking apparatus and method
CN110113560A (en) The method and server of video intelligent linkage
CN113673584A (en) Image detection method and related device
CN111539980B (en) Multi-target tracking method based on visible light
CN103985106B (en) Apparatus and method for carrying out multiframe fusion to very noisy image
Li et al. GIS-based detection of grain boundaries
CN110516528A (en) A kind of moving-target detection and tracking method based under movement background
CN111028263B (en) Moving object segmentation method and system based on optical flow color clustering
KR100551825B1 (en) Image Alignment Method by Using Statistical Correlation
CN107392948B (en) Image registration method of amplitude-division real-time polarization imaging system
CN114067273A (en) Night airport terminal thermal imaging remarkable human body segmentation detection method
CN106228553A (en) High-resolution remote sensing image shadow Detection apparatus and method
CN116109535A (en) Image fusion method, device and computer readable storage medium
CN109448030A (en) A kind of region of variation extracting method
CN111708907B (en) Target person query method, device, equipment and storage medium
CN111833384B (en) Method and device for rapidly registering visible light and infrared images

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130205

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140128

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170201

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180126

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 15