KR20020078610A - Segmentation method for interesting object in natural infrared images - Google Patents

Segmentation method for interesting object in natural infrared images Download PDF

Info

Publication number
KR20020078610A
KR20020078610A KR1020010018385A KR20010018385A KR20020078610A KR 20020078610 A KR20020078610 A KR 20020078610A KR 1020010018385 A KR1020010018385 A KR 1020010018385A KR 20010018385 A KR20010018385 A KR 20010018385A KR 20020078610 A KR20020078610 A KR 20020078610A
Authority
KR
South Korea
Prior art keywords
image
interest
region
value
pixel
Prior art date
Application number
KR1020010018385A
Other languages
Korean (ko)
Other versions
KR100387106B1 (en
Inventor
선선구
박현욱
Original Assignee
티오엠테크놀로지 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티오엠테크놀로지 주식회사 filed Critical 티오엠테크놀로지 주식회사
Priority to KR10-2001-0018385A priority Critical patent/KR100387106B1/en
Publication of KR20020078610A publication Critical patent/KR20020078610A/en
Application granted granted Critical
Publication of KR100387106B1 publication Critical patent/KR100387106B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

PURPOSE: A method of separating an object of concern in an infrared image is provided to separate the object of concern from the infrared image rapidly and effectively by using both of fuzzy image separation method and edge detection method. CONSTITUTION: An area of concern including an object of concern is selected from an infrared image, a reference brightness and a reference position of the area of concern are obtained. Fuzzy thresholding is performed for the selected area of concern to separate the background and the object of concern from each other(240). For the selected area of concern, an expanded image and an eroded image are generated. The two images are compared with pixel values of the original image to be replaced with pixel values similar to the pixel values of the original image, to create a contrast expanded image(300). The edge is detected from the contrast expanded image(400). The fuzzy-thresholded image and the image from which the edge was detected are ORed(500).

Description

적외선 영상에서의 관심 대상 분할 방법{SEGMENTATION METHOD FOR INTERESTING OBJECT IN NATURAL INFRARED IMAGES}Segmentation of interest in infrared images {SEGMENTATION METHOD FOR INTERESTING OBJECT IN NATURAL INFRARED IMAGES}

본 발명은 적외선 영상의 처리 방법에 관한 것으로, 보다 상세하게는 적외선 자연 영상에서 배경과 물체를 분할시 퍼지이론에 기초한 새로운 퍼지 영상분할 방법과 기존의 캐니(Canny) 에지 검출 방법을 결합하여 빠르고 효과적으로 관심이 있는 물체의 경계를 찾아낼 수 있는 적외선 영상에서의 관심대상 분할 방법에 관한 것이다.The present invention relates to a method for processing an infrared image, and more particularly, by combining a new fuzzy image segmentation method based on fuzzy theory and a conventional canny edge detection method when dividing a background and an object in an infrared natural image. The present invention relates to a method of segmenting an object of interest in an infrared image that can detect a boundary of an object of interest.

일반적으로, 영상처리기술에 있어서 영상분할은 영상에서 관심있는 물체 영역과 배경 영역으로 구분하여 분할하기 위한 기술로서, 이는 많은 영상처리 응용분야에서 가장 기본적이면서도 중요한 과정이다.In general, in image processing technology, image segmentation is a technology for dividing and segmenting an object region of interest and a background region in an image, which is the most basic and important process in many image processing applications.

특히, 적외선 영상은 센서를 통해 멀리 떨어진 물체에 의해 방사되는 열에 비례하는 마이크로파를 감지하고, 이를 영상으로 변환함으로써 얻어진 것으로서, 도 1은 적외선 영상의 일예를 보인 것이다.In particular, the infrared image is obtained by detecting a microwave proportional to heat radiated by a distant object through a sensor and converting the microwave into an image. FIG. 1 shows an example of an infrared image.

상기 도 1에서 보이는 바와 같이, 적외선 영상에서 대상 물체가 기후, 환경에 직접적으로 노출되어 있기 때문에, 물체와 주변 사이에 열 교환이 있고 대기에서의 빛의 흩어짐과 흡수 때문에 물체와 배경과의 대비가 낮아진다.As shown in FIG. 1, since the target object is directly exposed to the climate and environment in the infrared image, there is a heat exchange between the object and the surroundings, and the contrast between the object and the background is due to scattering and absorption of light in the atmosphere. Lowers.

또한, 배경에는 원하지 않는 클러터(배경잡음) 들이 많이 존재한다.Also, there are many unwanted clutters in the background.

이러한 이유로 인하여 적외선 영상은 물체의 경계가 흐릿하고, 물체영역 내에서는 여러 가지 밝기 값이 공존하게 된다. 따라서, 실제 자연 영상에서 관심이있는 물체 영역만을 분리하는 것은 어려운 일이다.For this reason, the infrared image blurs the boundary of the object, and various brightness values coexist in the object area. Therefore, it is difficult to separate only the object region of interest from the actual natural image.

그러나, 실제로 적외선영상이 많이 적용되는 자동 목표물 표적인식 (Automatic Target Recognition: ATR) 시스템 이나, 자동추적 시스템에서는 정확하게 목표(표적)을 분리하는 것이 시스템의 성능을 직접적으로 좌우하는 최대 관건이 된다.However, in the case of the Automatic Target Recognition (ATR) system where many infrared images are actually applied, the accurate separation of targets (targets) is the key to directly determining the performance of the system.

그렇기 때문에, 적외선영상에서의 영상처리, 특히 관심대상을 배경으로부터 정확하게 분할하는 방법에 대한 연구가 많이 이루어지고 있으며, 그중 최근에 가장 많이 사용되는 방법으로, 적외선 영상에서 밝기 값 정보만을 사용하여 물체를 분할하는 쓰레솔딩(thresholding) 기법이 있다.Therefore, many researches have been conducted on image processing in an infrared image, in particular, a method of accurately dividing an object of interest from a background. Among the most recently used methods, an object using only brightness value information in an infrared image is used. There is a threading technique of partitioning.

그러나, 적외선 영상은 앞서 말한 바와 같이, 한 개의 물체 내에서도 여러 가지의 밝기 값이 동시에 존재하기 때문에, 밝기 값 정보만을 사용하는 쓰레솔딩 방법을 사용할 경우 한 개의 물체가 여러 개의 물체로 분리되거나, 물체 부분이 배경부분으로 분리되는 경우가 많다는 문제점이 있다.However, as mentioned above, since several brightness values exist simultaneously within one object, when using a thread-solving method using only brightness value information, one object is divided into several objects or an object part. There is a problem that the background part is often separated.

따라서, 적외선 영상에서 기존의 쓰레솔딩(thresholding) 방법만으로 배경과 물체를 분할해 내기는 쉽지 않았다.Therefore, it is not easy to divide the background and the object in the infrared image only by the conventional threading method.

본 발명은 상술한 종래의 문제점을 해결하기 위하여 제안된 것으로서, 그 목적은 퍼지 영상 분할 방법과 기존의 에지 검출방법을 함께 적용하여 적외선 영상에서 관심있는 물체를 빠르고 효과적으로 분리해낼 수 있는 적외선 영상에서의 관심대상 분할 방법을 제공하는 것이다.The present invention has been proposed to solve the above-described problems, and its object is to apply a fuzzy image segmentation method and a conventional edge detection method together in an infrared image to quickly and effectively separate an object of interest from an infrared image. It is to provide a segmentation method of interest.

도 1은 적외선 자연영상의 대표적인 예를 도시한 사진이다.1 is a photograph showing a representative example of an infrared natural image.

도 2는 본 발명에 따라서 적외선 영역에서 관심대상을 분할하는 방법을 순차적으로 도시한 처리도이다.2 is a process diagram sequentially illustrating a method of segmenting an object of interest in the infrared region in accordance with the present invention.

도 3은 본 발명에 따른 분할 방법에서 관심영역을 선택하는 방법을 설명하기 위한 모식도이다.3 is a schematic view for explaining a method of selecting a region of interest in the division method according to the present invention.

도 4a는 본 발명에 따른 분할방법에서 관심영역 선택처리에 대한 결과를 보인 사진이다.4A is a photograph showing a result of the ROI selection process in the division method according to the present invention.

도 4b는 본 발명에 다른 분할 방법에서 퍼지 쓰레솔딩 처리결과를 보인 사진이다.Figure 4b is a photograph showing the result of the fuzzy threading processing in the partitioning method according to the present invention.

도 5a는 일반적인 적외선 영상을 보인 사진이고, 도 5b는 상기 도 5a의 적외선영상에 대한 히스토그램이다.FIG. 5A is a photograph showing a general infrared image, and FIG. 5B is a histogram of the infrared image of FIG. 5A.

도 6a는 본 발명에 따른 분할 처리중 대비확장된 영상의 사진이고, 도 6b는 도 6a의 영상에 대한 히스토그램이다.6A is a photograph of a contrast-enhanced image during the segmentation process according to the present invention, and FIG. 6B is a histogram for the image of FIG. 6A.

도 7은 본 발명에 따라서 분할 처리된 결과를 보인 사진이다.7 is a photograph showing a result of the division process according to the present invention.

본 발명은 상술한 목적을 달성하기 위한 수단으로서, 적외선 영상에서의 관심 대상을 분할하는 방법이The present invention as a means for achieving the above object, the method of dividing the object of interest in the infrared image

(가) 적외선 영상에서 관심대상을 포함한 관심영역을 선택하고, 관심영역의 기준밝기 및 기준위치를 구하는 단계;(A) selecting a region of interest including an object of interest in the infrared image and obtaining reference brightness and a reference position of the region of interest;

(나) 상기 선택된 관심영역을 퍼지 쓰레솔딩처리하여 배경과 관심대상을 분리하는 단계;(B) separating the background and the object of interest by fuzzy threading the selected region of interest;

(다) 상기 선택된 관심영역에 대하여, 팽창처리한 영상과 침식처리한 영상을 만든 후, 두 영상을 원래 영상의 픽셀값과 비교하여 가까운 픽셀값으로 치환하여 대비확장된 영상을 만드는 단계;(C) creating an expanded image and an eroded image with respect to the selected region of interest, and then comparing the two images with pixel values of the original image and replacing the two images with a near pixel value to create a contrast-extended image;

(라) 상기 대비확장된 영상에서 에지를 검출하는 단계; 및(D) detecting an edge in the contrast-enhanced image; And

(마) 상기 퍼지쓰레솔딩된 영상과 에지검출된 영상을 2진 오어결합하여 후처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.(E) binary post-combining the fuzzy threaded image and the edge-detected image and performing post-processing.

이하, 첨부한 도면을 참조하여 본 발명에 따른 적외선 영상에서 관심대상을 분할하는 분할방법에 대하여 상세하게 설명한다.Hereinafter, a method of dividing an object of interest in an infrared image according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 적외선 영상에서의 분할 방법을 순차적으로 도시한 플로우챠트이다.2 is a flowchart sequentially illustrating a segmentation method in an infrared image according to the present invention.

상기 도 2의 플로우챠트를 참조하여 본 발명에 따른 적외선 영상에서의 관심대상 분할 과정을 순차적으로 설명하면 다음과 같다.Referring to the flowchart of FIG. 2, the process of segmentation of interest in the infrared image according to the present invention will be described sequentially.

(가) 관심영역의 정의 단계(100)(A) Defining a region of interest (100)

먼저, 입력된 적외선 자연영상에서 관심영역을 선택한다.First, a region of interest is selected from the input infrared natural image.

앞서 도 1에 보인 바와 같이, 적외선 자연영상의 배경은 전체 영상에서 절반 이상의 많은 부분을 차지하기때문에, 복잡한 배경 부분을 제거하고 물체가 존재하는 관심 영역만을 분리하는 것이 필수적으로 요구된다.As shown in FIG. 1, since the background of the infrared natural image occupies more than half of the entire image, it is essential to remove the complex background portion and separate only the region of interest in which the object exists.

본 발명은 관심영역을 정의하기 위하여, 최소 및 최대 물체 크기에 대한 정보가 사전지식으로 주어져 있을 때,h(g)를 히스토그램에서 밝기 값g에서의 빈도라고 할 때, 다음의 수학식 1을 만족하는 최대t값인 임계값을 구한다.The present invention satisfies the following Equation 1 when h ( g ) is the frequency at the brightness value g in the histogram when the information on the minimum and maximum object sizes is given prior knowledge to define the region of interest. Get the threshold that is the maximum t value.

상기 수학식 1에서, M은 영상의 폭, N은 영상의 높이,XminYmin은 각각 최소물체의 폭과 높이이다. 이와 같은 쓰레솔딩(thresholding) 후에, 8 연속 성분 라벨링(eight connectivity component labeling)을 적용하여 최대 영역만 선택한다. 이 영역이 관심영역을 선택하는데 기준이 되는 기준 영역Rr이다.In Equation 1, M is the width of the image, N is the height of the image, Xmin and Ymin is the width and height of the minimum object, respectively. After such thresholding, only eight areas are selected by applying eight connectivity component labeling. This region is the reference region Rr on which the region of interest is selected.

그리고, 상기와 같이 구해진 기준 영역과, 최대물체의 크기 (Xmax,Ymax)를 이용하여 관심영역을 도면3과 같이 정의한다.The ROI is defined as shown in FIG. 3 by using the reference region obtained as described above and the maximum object size ( Xmax , Ymax ).

즉,Nr개의 픽셀을 가진 기준영역Rr에서 기준 밝기 값gr과 기준위치(x', y')를 정의한다. 이때, 기준 밝기 값gr은 다음의 수학식 2와 같이 정의되며 기준영역에서의 평균 밝기 값을 나타낸다.That is, the reference brightness value gr and the reference position (x ', y') are defined in the reference region Rr having Nr pixels. In this case, the reference brightness value g r is defined as in Equation 2 below and represents an average brightness value in the reference area.

그리고, 기준 픽셀의 위치 (x',y')는 기준영역Rr의 무게중심을 나타내며 아래의 수학식 3과 같이 정의된다.The position (x ', y') of the reference pixel represents the center of gravity of the reference region Rr and is defined as in Equation 3 below.

도 4a는 상기 도 1에 보인 적외선 자연영상에서 관심대상에 대한 관심영역을 선택한 결과를 보인 사진이다.4A is a photograph showing a result of selecting a region of interest for an object of interest in the infrared natural image shown in FIG.

(나) 퍼지 쓰레솔딩(thresholding) 단계(200)(B) Fuzzy Thresholding Step (200)

퍼지 쓰레솔딩단계(200)는 픽셀 클러스터링 과정으로, 물체의 픽셀과 배경의 픽셀이 잘 분리되도록 멤버쉽 평면에서 가장 타당한 threshold 값을 정하는 단계이다.The fuzzy thrashing step 200 is a pixel clustering process, in which the most suitable threshold value is determined in the membership plane so that the pixel of the object and the pixel of the background are well separated.

본 발명에서는 영상의 밝기 값 정보와 공간정보를 동시에 사용한 새로운 쓰레솔드 선택 방법을 제안하는데, 상기 퍼지 쓰레솔딩 과정은 다음과 같이 이루어진다.The present invention proposes a new threshold selection method using both brightness information and spatial information of an image. The fuzzy thresholding process is performed as follows.

(a) 먼저, 유사도와 인접도를 계산한다(단계 210).(a) First, similarity and proximity are calculated (step 210).

상기에서, 유사도(similarity)는 픽셀g xy 가 얼마나 기준 밝기 값과 유사한가를 나타내는 것으로, 이 유사도 S는 직관적으로 밝기 값의 차에 의존하고 있어 밝기 값의 차가 적으면 유사도가 크도록, 반대로 밝기 값의 차가 크면 유사도가 적어지도록 수학식 4와 같이 정의한다.In the above description, the similarity (similarity) indicates how similar the pixel g xy is to the reference brightness value, and the similarity S is intuitively dependent on the difference in the brightness value, so that the similarity is large when the difference in the brightness value is small, on the contrary, the brightness value. If the difference is large, it is defined as in Equation 4 to reduce the similarity.

여기서,gr는 기준 밝기 값,C는 밝기값 차의 변동폭을 나타내는 상수로서(여기에서, gmin은 최소 밝기 값이다)이고, 0≤S(g xy ,g r )≤1 이다.Where gr is a reference brightness value and C is a constant representing the variation of the brightness value difference. (Wherein g min is the minimum brightness value) and 0 ≦ S ( g xy , g r ) ≦ 1.

상기 수학식 4에서, 기준밝기 값g r 은 앞서 설명한 수학식 2와 같이 정의된다.In Equation 4, the reference brightness value g r is defined as in Equation 2 described above.

이와 같이 구해진 임의 픽셀에 대한 유사도가 크면 그 픽셀이 관심있는 물체로 분류될 가능성이 크다고 말할 수 있다. 그러나, 유사도만 사용할 경우, 물체의 밝기 값과 유사하며 물체의 경계 부근에 있는 클러터 들이 물체로 분류될 수 있고, 또한 물체 내에서 낮은 밝기 값을 가진 픽셀이 물체로 선택되지 않아 물체가 분리될 수 도 있다.It can be said that the similarity with respect to any pixel thus obtained is likely to be classified as the object of interest. However, if only the similarity is used, clutters that are similar to the object's brightness value and near the object's boundary may be classified as objects, and pixels with low brightness values within the object may not be selected as the object to separate the object. Can also be.

따라서, 본 발명에서는 유사도와 함께, 픽셀의 위치 정보를 함께 사용하기 위해 인접도(adjacency)를 계산한다. 상기 인접도 A는 (x,y) 위치에 있는 픽셀 P와 기준위치간에 다음의 수학식 5와 같이 정의된다.Therefore, in the present invention, the adjacency is calculated to use the position information of the pixel together with the similarity. The adjacency A is a reference position of the pixel P at the position (x, y) It is defined as shown in Equation 5 below.

여기서, 0≤A(P,P') ≤1 이다. 그리고, 한 픽셀의 위치 P가 (x,y)이고 기준위치 P'가 (x',y')일때, 그 거리 d(P,P')는로 정의된다.Where 0 ≦ A (P, P ′) ≦ 1. And, when the position P of one pixel is (x, y) and the reference position P 'is (x', y '), the distance d (P, P') is Is defined as

(b) 상기와 같이 유사도와 인접도가 정의되면, 그 다음으로 멤버쉽값을 구한다(220). 이는 먼저, 다음의 수학식 6을 사용하여, 멤버쉽 평면을 구한다.(b) When the similarity and the proximity are defined as described above, a membership value is next calculated (220). It first uses the following equation (6) to find the membership plane.

여기서, 0≤μ(g xy )≤1이고, β는 유사도 S와 인접도 A의 가중치를 다르게 주기 위한 상수로서, 여기서는 일예로서, β=0.4로 정하였다.Here, 0 ≦ μ ( g xy ) ≦ 1, and β is a constant for differently assigning the weights of the similarity S and the proximity A, and as an example, β = 0.4.

그 다음으로, 관심영역에서 멤버쉽 값에 대한 히스토그램을 구하기 위해 다음의 수학식 7를 사용하여 상기 멤버쉽 평면을 정수 값을 갖는 멤버쉽 평면으로 변환한다.Next, in order to obtain a histogram of membership values in the ROI, the membership plane is converted into a membership plane having an integer value using Equation 7 below.

여기서,는 정수 값을 갖는 멈버쉽 값으로, int[x] 는 실수값 x와 가장 가까운 정수 값을 취한다. 상기C 1 은 정수 멤버쉽 값의 변동 폭을 나타낸다. 본 실시에에서는C 1 =100으로 정하였고, 이것은 영상 분할 결과에는 거의 영향을 미치지 않는다.here, Is a stop value with an integer value, and int [ x ] takes the integer value closest to the real value x. C 1 represents the variation width of the integer membership value. In this embodiment, C 1 = 100, which has little effect on the image segmentation result.

(c) 그 다음, 상기 멤버쉽 평면에 대한 최종 임계값을 결정한다(단계 230).(c) Then determine a final threshold for the membership plane (step 230).

이는를 기준영역에서 정수 멤버쉽 값의 빈도 수를 나타낼 때 최대 빈도 값Mr은 다음의 수학식 8로 구한다.this is When the frequency of integer membership values in the reference region is expressed, the maximum frequency value Mr is obtained by the following equation (8).

상기 도 3에서 보인 바와 같이, 관심영역에서 기준 영역(Rr)을 제외한 영역을 Rb라고 하고,를 정수 멤버쉽 값의 빈도를 나타낸다고 할 때, 최대 빈도 값Mb는 아래의 수학식 9과 같이 계산된다.As shown in FIG. 3, the region excluding the reference region Rr from the region of interest is referred to as Rb. When denotes the frequency of the integer membership value, the maximum frequency value Mb is calculated as shown in Equation 9 below.

상기와 같이,가 관심영역에 대한 정수 멤버쉽 값의 빈도수를 나타낸다고 할 때, 최종 임계값은 다음의 수학식 10과 같다.As above, Is a frequency of integer membership values for the region of interest, the final threshold is given by Equation 10 below.

즉, 상기 수학식 10에 의하여, 최종적인 임계값 Tf를 구한다.That is, the final threshold value T f is obtained by the above equation (10).

(d) 그 다음, 물체 픽셀q O 와 배경 픽셀q b 를 분류하기 위해 다음의 수학식 11과 같이, 관심영역에 대해 상기 임계값 Tf를 사용하여 쓰레솔더링을 실시한다.(d) then the object pixelq O Background pixel withq b To classify the threshold value T for the ROI, as shown in Equation 11 below.fPerform thread soldering using.

여기서,q는 관심영역의 픽셀을 나타낸다.Where q represents a pixel of the ROI.

도 4b의 사진은 도 1에 보인 적외선 자연영상을 이상 설명한 퍼지 쓰레솔드 처리한 결과로서, 관심대상과 배경을 정확하게 분류하였음을 알 수 있다.The photograph of FIG. 4B is a result of the fuzzy threshold processing described above for the infrared natural image shown in FIG. 1, and it can be seen that the object of interest and the background are correctly classified.

(다) 대비확장(단계300)(C) Expansion of contrast (step 300)

앞서 설명한 바와 같이, 퍼지 쓰레솔딩은 강력한 수단이지만 적외선영상에서의 물체 분할에는 충분하지 못하다. 이런 퍼지 쓰레솔딩만 사용하면 도 1에 도시된 탱크와 같은 물체에서 포를 물체의 일부로 포함시키기가 힘들 경우가 많이 있다. 왜냐하면 포의 밝기 값이 물체 몸체의 밝기 값에 비해 낮은 경우가 많이 있고, 또한 포의 위치가 일반적으로 기준위치와 먼 거리에 있기 때문이다. 그래서, 본 발명에서는 퍼지쓰레솔딩처리와 동시에, 캐니(Canny) 에지 검출 방법을 사용하여 상기 쓰레솔딩의 부족한 점을 보충하고자 한다. 여러 가지 에지 검출 방법 중 특별히 이 방법이 선정된 이유는 캐니 에지 검출법의 비-최대 억제기능(non-maximal suppression 기능)이 물체의 경계에 달라붙어 있는 배경잡음을 제거하는데 효과적이기 때문이다As described above, fuzzy threading is a powerful means but not sufficient for object segmentation in infrared images. It is often difficult to include a cloth as part of an object in an object such as a tank shown in FIG. This is because the brightness value of the gun is often lower than the brightness value of the object body, and the location of the gun is generally far from the reference position. Therefore, in the present invention, at the same time as the fuzzy thresholding process, using the Canny edge detection method to compensate for the shortage of the thresholding. The reason why this method is specifically selected among the various edge detection methods is that the non-maximal suppression function of the Canny edge detection method is effective in eliminating the background noise stuck to the object boundary.

상기 캐니 에지 검출방법은 기존의 방법을 응용한 것이다. 그러나 본 발명에서는 에지 검출의 선처리로서, 선택된 관심영역에서 에지를 좀더 강하게 하기 위해 새로운 대비 확장처리를 추가한다.The canny edge detection method is a conventional method. However, in the present invention, as a preprocessing of edge detection, a new contrast extension process is added to make the edge stronger in the selected region of interest.

도 5a와 같은 일반적인 적외선 자연 영상에 대한 히스토그램은 도 5b와 같이 나타낸다. 상기 도 5a에서 알 수 있는 것처럼 일반적인 자연 영상에서 물체의 경계영역을 보면 불선명함(blurring)이 심하고, 특히, 포의 영역에서는 배경과의 밝기 값 차가 적음을 알 수 있다. 그리고, 히스토그램 모양은 도 5b와 같이, 어두운 배경 영역을 제외하면 일정한 형태가 된다.A histogram of a general infrared natural image as shown in FIG. 5A is shown in FIG. 5B. As can be seen from FIG. 5A, when the boundary region of the object is seen in a general natural image, blurring is severe, and in particular, the difference in brightness value from the background is small in the area of the cloth. In addition, the histogram has a constant shape except for a dark background region as shown in FIG. 5B.

따라서 에지를 강하게 하고, 히스토그램을 평탄하게 할 목적으로 대비확장 처리가 추가된다. 이 대비확장 처리는 9 x 9 윈도우를 사용하는 그레이 모폴로지에 바탕을 둔다. 즉, 팽창에 의해 만들어진 영상과, 침식에 의해 만들어진 영상을 만든 후, 원래 영상의 픽셀 값이 두 영상의 픽셀 값 중에서 어떤 것과 가까운가 비교하여 가까운 픽셀 값으로 치환해 준다. 이것을 수식으로 나타내면 다음 수학식 12와 같다.Therefore, contrast enhancement processing is added for the purpose of hardening the edges and flattening the histogram. This contrast enhancement process is based on the gray morphology using a 9 x 9 window. That is, after the image created by the expansion and the image produced by the erosion is made, the pixel value of the original image is compared with which of the pixel values of the two images is close and replaced with the nearest pixel value. This is expressed by the following equation (12).

여기서fd(x,y)는 팽창된 영상을 나타내고,fe(x,y)는 침식된 영상을 나타내며,fnew(x,y)는 새롭게 생성되는 대비 확장된 영상을 나타낸다.Here, fd (x, y) represents an expanded image, f e (x, y) represents an eroded image, and fnew (x, y) represents a newly generated contrast-extended image.

도 6a는 상기 도 5a와 같이 일반적인 적외선 자연영상을 본 발명과 같이 대비 확장한 후의 영상이다. 그림에서 알 수 있는 것처럼, 원래 영상에서 밝은 부분은 더욱 밝게 되고, 어두운 부분은 더욱 어둡게 만들어져, 에지를 강하게 만드는 것을 알 수 있다. 또한 도 6b는 상기 도 6a에 도시한 대비확장된 적외선영상에 대한 히스토그램으로서, 도시된 바와 같이, 히스토그램 평활화의 결과처럼 히스토그램이 평탄해지는 것을 알 수 있다.FIG. 6A is an image after contrast-expanded general infrared natural image as shown in FIG. 5A. As you can see in the picture, the brighter parts of the original image are made brighter and the darker parts are made darker, making the edges stronger. In addition, FIG. 6B is a histogram of the contrast-expanded infrared image shown in FIG. 6A, and as shown, it can be seen that the histogram becomes flat as a result of histogram smoothing.

(라) 에지검출(단계 400)(D) Edge Detection (Step 400)

그 다음, 상기와 같이 대비확장된 영상에서 캐니 에지방법에 의하여 에지를 검출한다.Then, the edge is detected by the Canny edge method in the contrast-enhanced image as described above.

일반적으로 캐니 에지 방법은 DOG(Derivative Of Gaussian), non-maximal suppression, 히스테리시스 쓰레솔딩(hysteresis thresholding)의 3단계로 실현된다. 상기 대비 확장된 영상에 캐니 에지 방법이 적용될 때 가우시안 필터의 표준편차는 1.0, 높은 임계값 0.75, 낮은 임계값은 1.0이다. 이것은 높은 임계값보다 낮은 임계값을 갖는 픽셀은 전부 에지가 아닌 것으로 간주되도록 한다. 이 파라메타들은 물체 분할 결과에 심각한 영향을 끼치지는 않지만, 목표를 정확하게 분석해야 하는 군용장비에 대한 적외선 영상의 경우, 주어진 값이 최적 값이었다.In general, the canny edge method is realized in three stages: Derivative Of Gaussian (DOG), non-maximal suppression, and hysteresis thresholding. When the Canny edge method is applied to the contrast-extended image, the Gaussian filter has a standard deviation of 1.0, a high threshold of 0.75, and a low threshold of 1.0. This allows all pixels with a threshold lower than the high threshold to be considered not all edges. These parameters do not have a significant impact on the results of the segmentation, but for infrared imaging of military equipment that requires accurate analysis of the target, the values given were optimal.

(마) 두 방법의 결합 및 후처리(단계 500 ~ 단계 700)(E) Combination and post-processing of the two methods (step 500 to step 700)

상기와 같이, 관심영역에 대해 퍼지 쓰레솔딩 결과와 에지 검출의 결과를 이진 OR함으로써 결합한다(단계 500). 그러면, 합쳐진 물체과 주변의 잡음들이 존재하게 되고, 여기에서, 물체 영역만을 선택하기 위해 콤포넌트 라벨링(component labeling)을 수행한다(단계600). 그런 후, 후처리로서 2진 클로징(closing)을 수행함으로써 최종 영상분할 결과를 얻는다. 클로징(Closing) 처리에서의 구조 요소(structure element)는 3 x 3의 윈도우이다. 도 7은 이상과 같이 처리된 최종 영상 분할 결과이다. 도시된 바와 같이, 기준위치에서 멀면서 기준보다 상대적으로밝기 값이 낮은 포를 포함한 탱크의 전체 윤곽이 명확하게 구분되었음을 알 수 있다.As above, the binary fuzzy threading result and the edge detection result are combined for the region of interest by performing a binary OR (step 500). Then, the combined object and the surrounding noises are present, in which component labeling is performed to select only the object region (step 600). Then, the final image segmentation result is obtained by performing binary closing as a post-process. The structure element in the closing process is a 3 x 3 window. 7 shows the final image segmentation result processed as described above. As shown, it can be seen that the overall contour of the tank, including the artillery far from the reference position and having a lower brightness value than the reference, is clearly distinguished.

이상 상술한 바와 같이, 본 발명은 퍼지 쓰레솔딩 및 에지검출을 결합하여 적외선 센서나 적외선 카메라로부터 입력되는 적외선 자연 영상에서 물체 영역과 배경 영역을 정확하고 빠르게 분리할 수 있는 우수한 효과가 있으며, 그 결과 적외선을 이용한 물체추적이나 물체인식 기술에 사용되어 기능을 더욱 향상시킬 수 있는 우수한 효과가 있다. 특히 야간 관측을 위해 적외선 센서를 필수적으로 장착하고 있는 군용장비의 자동추적 및 자동 인식분야에서 널리 사용될 수 있고, 민간 분야의 적외선 감시 시스템 등에 폭넓게 활용되어 성능을 향상시킬 수 있는 것이다.As described above, the present invention has an excellent effect of accurately and quickly separating the object area and the background area from the infrared natural image input from the infrared sensor or the infrared camera by combining fuzzy thrusting and edge detection. It can be used for object tracking or object recognition technology using infrared rays, which has an excellent effect to further improve the function. In particular, it can be widely used in the field of automatic tracking and automatic recognition of military equipment which is equipped with infrared sensor for night observation, and can be widely used in infrared surveillance system in civil field to improve performance.

Claims (8)

적외선 영상에서의 관심 대상 분할 방법에 있어서,In the segmentation method of interest in the infrared image, (가) 적외선 영상에서 관심대상을 포함한 관심영역을 선택하고, 관심영역의 기준밝기 및 기준위치를 구하는 단계;(A) selecting a region of interest including an object of interest in the infrared image and obtaining reference brightness and a reference position of the region of interest; (나) 상기 선택된 관심영역을 퍼지 쓰레솔딩처리하여 배경과 관심대상을 분리하는 단계;(B) separating the background and the object of interest by fuzzy threading the selected region of interest; (다) 상기 선택된 관심영역에 대하여, 팽창처리한 영상과 침식처리한 영상을 만든 후, 두 영상을 원래 영상의 픽셀값과 비교하여 가까운 픽셀값으로 치환하여 대비확장된 영상을 만드는 단계;(C) creating an expanded image and an eroded image with respect to the selected region of interest, and then comparing the two images with pixel values of the original image and replacing the two images with a near pixel value to create a contrast-extended image; (라) 상기 대비확장된 영상에서 에지를 검출하는 단계; 및(D) detecting an edge in the contrast-enhanced image; And (마) 상기 퍼지쓰레솔딩된 영상과 에지검출된 영상을 2진 오어결합하여 후처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 적외선 영상에서의 관심 대상 분할 방법.And (e) binary post-combining the fuzzy thresholded image and the edge-detected image to perform post-processing. 제 1 항에 있어서, 상기 관심영역을 선택하는 (가) 단계는The method of claim 1, wherein the selecting of the region of interest comprises: 최소 및 최대 물체 크기에 대한 정보가 사전지식으로 주어져 있을 때,h(g)를 히스토그램에서 밝기 값g에서의 빈도라고 할 때, 다음의 수학식 에 의해 최대 임계값을 구하여, 쓰레솔딩하는 단계;When the information on the minimum and maximum object sizes is given prior knowledge, when h ( g ) is the frequency at the brightness value g in the histogram, obtaining the maximum threshold value by the following equation, and threading; (여기에서, M은 영상의 폭, N은 영상의 높이,XminYmin은 각각 최소물체의 폭과 높이이다.)Where M is the image width, N is the image height, and Xmin and Ymin are the minimum object width and height, respectively. 8 연속 성분 라벨링(eight connectivity component labeling)을 적용하여 최대 영역을 선택하여 기준영역 Rr로 설정하는 단계; 및Applying maximum connectivity component labeling to select a maximum area and setting the reference area as Rr; And 상기 기준 영역Rr의 기준위치로부터 최대물체의 크기(Xmax,Ymax)만큼 4방향으로 확대시켜 관심영역을 정의하는 단계로 이루어지는 것을 특징으로 하는 적외선영상에서의 관심대상 분할 방법.And a region of interest defined in the infrared image by expanding in four directions from the reference position of the reference region Rr by the size of the maximum object ( Xmax , Ymax ). 제 1 항에 있어서, 상기 (나) 단계의 퍼지쓰레솔딩과정은The method of claim 1, wherein the step (b) of purging (a) 선택된 관심영역에서 각 픽셀에 대한 기준밝기와의 유사도 S를(여기서,gr는 기준 밝기 값,C는 밝기값 차의 변동폭을 나타내는 상수로서(여기에서, gmin은 최소 밝기 값이다)이고, 0≤S(g xy ,g r )≤1 이고, gr은 기준밝기값이다)에 의하여 구하는 단계;(a) Similarity S with reference brightness for each pixel in the selected region of interest Where gr is the reference brightness value and C is the constant representing the variation (Wherein g min is the minimum brightness value), 0 ≦ S ( g xy , g r ) ≦ 1, and g r is the reference brightness value; (b) 선택된 관심영역에서 각 픽셀위치 P에 대한 기준위치P'와의 인접도 A를(b) the proximity A to the reference position P 'for each pixel position P in the selected region of interest. (여기서,이고, d(P,P')는 두 위치간의 거리이다)에 의하여 구하는 단계; (here, D (P, P ') is the distance between two positions); (c) 상기 유사도와 인접도를 이용하여 멤버쉽평면(여기서, 0≤μ(g xy )≤1이고, β는 유사도 S와 인접도 A의 가중치를 다르게 주기 위한 상수이다)를 구하는 단계;(c) Membership Plan using the similarity and adjacency (Where 0 ≦ μ ( g xy ) ≦ 1 and β is a constant for differently assigning weights of similarity S and proximity A); (d) 상기 (c)단계에서 구해진 멤버쉽평면을 수학식(여기서,는 정수 값을 갖는 멈버쉽 값으로, int[x] 는 실수값 x와 가장 가까운 정수 값이고, 상기C 1 은 정수 멤버쉽 값의 변동 폭이다)에 의하여, 정수값을 갖는 멤버쉽평면으로 변환하는 단계;(d) the membership plane obtained in step (c) (here, Is a stop value with an integer value, int [ x ] is an integer value closest to the real value x, and C 1 is the variation width of the integer membership value). Converting to; (e) 관심영역에서 정수 멤버쉽 값의 빈도수를 구하여, 최종 임계값 Tf를 구하는 단계; 및(e) obtaining a frequency of integer membership values in the region of interest to obtain a final threshold value T f ; And (f) 상기 멤버쉽 평면에 상기 최종 임계값 Tf을 사용하여 물체픽셀과 배경 픽셀로 구분하는 단계로 이루어지는 것을 특징으로 하는 적외선영상에서의 관심대상 분할 방법.and dividing the object pixel and the background pixel into the membership plane using the final threshold value T f . 제 3 항에 있어서, 상기 인접도를 구하는 (b)단계에서 픽셀위치 P는 (x,y)라 하고, 기준위치 P'는 (x',y')라 할때 거리 d(P,P')는4. The distance d (P, P ') according to claim 3, wherein the pixel position P is (x, y) and the reference position P' is (x ', y') in the step (b) of obtaining the adjacency. ) 로 정의되는 것을 특징으로 하는 적외선 영상에서의 관심 대상 분할 방법. Method of segmentation of interest in the infrared image, characterized in that defined as. 제 3 항에 있어서, 상기 (c)단계에서 β=0.4 임을 특징으로 하는 적외선 영상에서의 관심 대상 분할 방법.4. The method of claim 3, wherein β = 0.4 in the step (c). 제 3 항에 있어서, 상기 (d)단계에서C 1 =100 임을 특징으로 하는 적외선 영상에서의 관심 대상 분할 방법.4. The method of claim 3, wherein in step (d), C 1 = 100. 제 3 항에 있어서, 상기 최종 임계값 Tf를 구하는 (e)단계는4. The method of claim 3, wherein the step (e) of obtaining the final threshold value T f is 를 기준영역에서의 정수 멤버쉽 값의 빈도수라 할때, 기준영역에 대한 최대 빈도값 Mr을 Is the frequency of integer membership values in the reference region, 에 의하여 구하는 단계; Obtaining by; 관심영역에서 기준영역을 제외한 영역을 Rb라 하고,를 상기 영역 Rb에서의 정수 멤버쉽 값 빈도라 할때, 최대 빈도값 Mb를The region of interest except for the reference region is called Rb, Is the integer membership value frequency in the region Rb, the maximum frequency value Mb 에 의하여 구하는 단계; 및 Obtaining by; And 상기 관심영역내에서 기준영역Rr과 기준영역을 제외한 영역Rb의 최대 빈도값 Mr, Mb를 다음의 수학식The maximum frequency values Mr and Mb of the reference region Rr and the region Rb excluding the reference region in the ROI are expressed as 에 대입하여, 최종 임계값 Tf를 구하는 단계로 이루어지는 것을 특징으로 하는 적외선영상에서의 관심 대상 분할 방법. And obtaining a final threshold value T f by substituting for. 제 1 항에 있어서, 상기 대비확장 영상을 만드는 (다) 단계는The method of claim 1, wherein the generating of the contrast-expanded image (c) 관심영역을 팽창처리한 영상을 fd(x,y)라 하고, 관심영역을 침식처리한 영상을 fe(x,y)라 할 때,When the image of the expanded region of interest is called f d (x, y) and the image of the eroded region of interest is called f e (x, y), 에 의하여, 원래 형상f(x,y)을 새로운 영상 fnew(x,y)으로 변환하는 것을 특징으로 하는 적외선 영상에서의 관심대상 분할 방법.And converting the original shape f (x, y) into a new image f new (x, y).
KR10-2001-0018385A 2001-04-06 2001-04-06 Segmentation method for interesting object in natural infrared images KR100387106B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0018385A KR100387106B1 (en) 2001-04-06 2001-04-06 Segmentation method for interesting object in natural infrared images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0018385A KR100387106B1 (en) 2001-04-06 2001-04-06 Segmentation method for interesting object in natural infrared images

Publications (2)

Publication Number Publication Date
KR20020078610A true KR20020078610A (en) 2002-10-19
KR100387106B1 KR100387106B1 (en) 2003-06-12

Family

ID=27700134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0018385A KR100387106B1 (en) 2001-04-06 2001-04-06 Segmentation method for interesting object in natural infrared images

Country Status (1)

Country Link
KR (1) KR100387106B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100943562B1 (en) * 2002-12-31 2010-02-22 엘지전자 주식회사 Digital effect implementing method
KR101011515B1 (en) * 2007-10-15 2011-01-31 록히드 마틴 코포레이션 Method of object recognition in image data using combined edge magnitude and edge direction analysis techniques
KR101280839B1 (en) * 2013-04-24 2013-07-02 (주)나인정보시스템 A new parallel labelling apparatus and method for objects in the image
KR101314259B1 (en) * 2011-03-24 2013-10-02 삼성테크윈 주식회사 Image synthesis system and image synthesis method
KR101893557B1 (en) * 2017-12-29 2018-08-30 (주)제이엘케이인스펙션 Image processing apparatus and method
WO2021149857A1 (en) * 2020-01-22 2021-07-29 고려대학교 세종산학협력단 Accurate animal detection method and apparatus using yolo-based light-weight bounding box detection and image processing
CN114937142A (en) * 2022-07-20 2022-08-23 北京智盟信通科技有限公司 Power equipment fault diagnosis model implementation method based on graph calculation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101086142B1 (en) * 2010-02-02 2011-11-25 한국수력원자력 주식회사 Method and System for Detecting Leakage by Using Camera Image
KR101194906B1 (en) 2012-08-09 2012-10-25 군산대학교산학협력단 Fault diagnostic apparatus for renewable energy generating system using infrared camera and method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100943562B1 (en) * 2002-12-31 2010-02-22 엘지전자 주식회사 Digital effect implementing method
KR101011515B1 (en) * 2007-10-15 2011-01-31 록히드 마틴 코포레이션 Method of object recognition in image data using combined edge magnitude and edge direction analysis techniques
KR101314259B1 (en) * 2011-03-24 2013-10-02 삼성테크윈 주식회사 Image synthesis system and image synthesis method
KR101280839B1 (en) * 2013-04-24 2013-07-02 (주)나인정보시스템 A new parallel labelling apparatus and method for objects in the image
KR101893557B1 (en) * 2017-12-29 2018-08-30 (주)제이엘케이인스펙션 Image processing apparatus and method
WO2019132592A1 (en) * 2017-12-29 2019-07-04 (주)제이엘케이인스펙션 Image processing device and method
WO2021149857A1 (en) * 2020-01-22 2021-07-29 고려대학교 세종산학협력단 Accurate animal detection method and apparatus using yolo-based light-weight bounding box detection and image processing
CN114937142A (en) * 2022-07-20 2022-08-23 北京智盟信通科技有限公司 Power equipment fault diagnosis model implementation method based on graph calculation
CN114937142B (en) * 2022-07-20 2022-09-23 北京智盟信通科技有限公司 Power equipment fault diagnosis model implementation method based on graph calculation

Also Published As

Publication number Publication date
KR100387106B1 (en) 2003-06-12

Similar Documents

Publication Publication Date Title
US9684966B2 (en) Foreground / background separation in digital images
EP2467828B1 (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
CN108629343B (en) License plate positioning method and system based on edge detection and improved Harris corner detection
KR100387106B1 (en) Segmentation method for interesting object in natural infrared images
Shakeel et al. Automated multimodal background detection and shadow removal process using robust principal fuzzy gradient partial equation methods in intelligent transportation systems
Li et al. Automatic infrared ship target segmentation based on structure tensor and maximum histogram entropy
Abdusalomov et al. An improvement for the foreground recognition method using shadow removal technique for indoor environments
CN107038690B (en) Moving shadow removing method based on multi-feature fusion
Fung et al. Effective moving cast shadow detection for monocular color image sequences
Soundrapandiyan et al. Adaptive pedestrian detection in infrared images using fuzzy enhancement and top-hat transform
Pujar et al. Medical image segmentation based on vigorous smoothing and edge detection ideology
Yu et al. MSER based shadow detection in high resolution remote sensing image
Wang et al. Adaptive binarization: A new approach to license plate characters segmentation
Liu et al. Cast shadow removal with gmm for surface reflectance component
Marinas et al. Detection and tracking of traffic signs using a recursive Bayesian decision framework
Voles et al. Target identification in a complex maritime scene
Khaire et al. Image edge detection based on soft computing approach
CN110321828B (en) Front vehicle detection method based on binocular camera and vehicle bottom shadow
Nandini et al. A survey of the existing shadow detection techniques
Goswami Edge Detection Technology using Image processing in Matlab
Musleh et al. A comparative study on shadow detection methods based on features
Sun et al. Retinex theory‐based shadow detection and removal in single outdoor image
Mohankumar et al. MODFAT: Moving Object Detection by Removing Shadow Based on Fuzzy Technique with an Adaptive Thresholding Method
Guo et al. Research on Geometry Contour Positioning Technology of Small Components Based on Improved Canny Algorithm
Lakhotiya et al. Human object tracking using background subtraction and shadow removal technique

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120525

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee