KR101507732B1 - Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same - Google Patents

Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same Download PDF

Info

Publication number
KR101507732B1
KR101507732B1 KR20130090072A KR20130090072A KR101507732B1 KR 101507732 B1 KR101507732 B1 KR 101507732B1 KR 20130090072 A KR20130090072 A KR 20130090072A KR 20130090072 A KR20130090072 A KR 20130090072A KR 101507732 B1 KR101507732 B1 KR 101507732B1
Authority
KR
South Korea
Prior art keywords
filter
aerial image
technique
area
responses
Prior art date
Application number
KR20130090072A
Other languages
Korean (ko)
Other versions
KR20150014646A (en
Inventor
송현승
최형욱
전태균
전문구
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR20130090072A priority Critical patent/KR101507732B1/en
Publication of KR20150014646A publication Critical patent/KR20150014646A/en
Application granted granted Critical
Publication of KR101507732B1 publication Critical patent/KR101507732B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 무인 항공기 영상에 대한 영상 분할 기법에 관한 것으로서, 더 상세하게는 영상처리에서 일반적으로 사용되던 기법과 새로이 고안된 기술을 조합하여 항공영상에 최적화된 영상분할 기법을 개발함으로써 일반 야외 영상 및 항공 시뮬레이션 영상에 대한 감시, 정찰 등의 지능형 영상처리 분야와 지형 분석 분야에서 맥락 정보를 이용하여 해당 지형이 속하는 클래스로 지형을 분류하는 것과 분류의 정확도를 높이는 영역 기반의 항공 영상 분할 방법에 대한 것이다. The present invention relates to an image segmentation technique for an unmanned aerial vehicle image, and more particularly, to an image segmentation technique optimized for aerial image by combining a technique commonly used in image processing and a newly designed technique, This paper is concerned with intelligent image processing such as surveillance and reconnaissance of simulation images, and area - based aerial image segmentation method that classifies terrain into classes to which the terrain belongs by using context information in the field of terrain analysis.

Description

영역 기반의 항공 영상 분할 방법 및 이를 실행하는 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 저장 매체{Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same}Field of the Invention [0001] The present invention relates to an area-based aerial image segmentation method and a computer readable storage medium storing the program code for executing the method.

본 발명은 무인 항공기 영상에 대한 영상 분할 기법에 관한 것으로서, 더 상세하게는 영상처리에서 일반적으로 사용되던 기법과 새로이 고안된 기술을 조합하여 항공영상에 최적화된 영상분할 기법을 개발함으로써 일반 야외 영상 및 항공 시뮬레이션 영상에 대한 감시, 정찰 등의 지능형 영상처리 분야와 지형 분석 분야에서 맥락 정보를 이용하여 해당 지형이 속하는 클래스로 지형을 분류하는 것과 분류의 정확도를 높이는 영역 기반의 항공 영상 분할 방법에 대한 것이다. The present invention relates to an image segmentation technique for an unmanned aerial vehicle image, and more particularly, to an image segmentation technique optimized for aerial image by combining a technique commonly used in image processing and a newly designed technique, This paper is concerned with intelligent image processing such as surveillance and reconnaissance of simulation images, and area - based aerial image segmentation method that classifies terrain into classes to which the terrain belongs by using context information in the field of terrain analysis.

장면 분할은 입력 영상에서 나타나는 각기 다른 의미적 물체 및 공간에 대한 분리하는 기술이며 최근 감시, 정찰, 자료수집, 안내 등의 다양한 지능형 영상처리 분야에 응용되고 있다. 지형 분석의 경우 지리정보시스템(GIS)에서 최종적인 목표로 삼고 있는 형태이며, 지형에 관한 입력 영상이 주어질 때, 각 영역의 지형적인 특징을 바탕으로 해당 지형이 속하는 클래스로 분류하고자 하는 것이 지리정보시스템(GIS)의 목표이다.Scene segmentation is a technique for separating different semantic objects and spaces appearing in the input image and has recently been applied to a variety of intelligent image processing fields such as surveillance, reconnaissance, data collection, and guidance. Geographical analysis is the final goal in GIS. Given the input image of the terrain, based on the geographical characteristics of each area, it is desirable to classify it as a class to which the terrain belongs. System (GIS) is the goal.

영상들을 분할하는 기술은 많은 디지털 영상 처리 분야에서 중요한 처리이다.The technique of segmenting images is an important process in many digital image processing fields.

영상 분할 기술은 영상을 유사한 특징을 가지는 영역으로 분할하는 기술로서 예를 들면 원하는 특정 영역을 얻고자 할 때 영역내의 객체의 경계선을 찾아 원하는 객체와 배경 부분을 분리하여 객체만 얻고자 할 때 사용되기도 한다.Image segmentation technology is a technique for dividing an image into regions having similar characteristics. For example, when a desired specific region is to be obtained, it is used to obtain an object by separating a desired object and a background portion from the boundary of an object in the region do.

하지만 이러한 영상 분할 기술은 이웃하는 객체들 간에 색상 변화가 매우 작거나 없다면, 알고리즘은 종종 상이한 세그먼트들 간에도 최적의 선명한 분리를 하지 않을 것이다. 이러한 문제를 조금씩 해결하면서 현재까지 개발된 대표적인 영상 분할 알고리즘으로서, 경곗값 처리법, 영역 확장법, 분할 통합법, 엣지를 이용한 분할법 등이 있다. 각각의 방법들은 각각의 특성을 가진다.However, if this image segmentation technique is very small in color change between neighboring objects or the algorithm will not make an optimal clear separation often between different segments. As a representative image segmentation algorithm that has been developed so far to solve these problems little by little, there are a lightness value processing method, an area expansion method, a division integration method, and a division method using an edge. Each method has its own characteristics.

우선, 경곗값(Threshold) 처리법은, 경곗값을 사용해서 경곗값보다 큰 값과 경곗값보다 작은 부분으로 나누어서 구분하는 방식이다. 이 방식은 이진 영상에 대해서는 효율이 좋지만 여러 가지 값이 존재하는 실질적인 영상에서는 적용하기 힘들다.First of all, the Threshold method is a method of dividing a value larger than the warning value and a part smaller than the warning value by using the warning value. This method is effective for binary images, but it is difficult to apply to practical images in which various values exist.

다음으로, 영역 확장법(region growing)은, 영상내의 임의의 위치를 씨드(seed)로 하여 이 씨드를 중심으로 밝기값, 에지, 컬러 등의 비슷한 특성을 가지는 영역을 찾아내는 방법이다. 즉, 처리되고 있는 소영역과 그에 인접한 소영역이 서로 같은 특징을 가지고 있는 경우에 각 영역을 하나의 영역으로 통합하는 것으로, 특징이 같은 영역을 조금씩 성장시켜 최종적으로는 영상전체에 대하여 영역 분할을 하는 방법이다.Next, the region growing method is a method of finding a region having similar characteristics such as brightness value, edge, and color with the seed as a seed at an arbitrary position in the image. That is, when a small region being processed and a small region adjacent to the small region have the same characteristics, each region is integrated into one region, and the region having the same characteristic is gradually grown to finally divide the region .

분할 통합법(split-and-merge)은, 영역을 잘게 나누어서 비슷한 특성을 가지는 크기까지 만든 후, 주변 영역과 비교하여 비슷한 특성을 가지면 두 영역을 결합해 나가는 방식이다. 그러나 영역 확정법과 분할 통합법은 영상 전체를 탐색하여 같은 특성을 가지는 영역을 찾아내기 위하여 많은 계산 량과 반복을 요구함에도 불구하고 정확히 분할하는데 많은 어려움이 있다.Split-and-merge is a method of dividing a region into parts having similar characteristics and then combining the two regions if they have similar characteristics compared to the surrounding region. However, the region fixation method and the segmentation integration method have a lot of difficulty in dividing the entire image even though it requires a lot of calculation amount and repetition in order to find the region having the same characteristics.

1. 한국공개특허번호 제10-2013-023752호1. Korean Patent Publication No. 10-2013-023752 2. 한국등록특허번호 제10-0980282호2. Korean Patent No. 10-0980282 3. 한국등록특허번호 제10-0988872호3. Korean Patent No. 10-0988872

1. 권현외, "영상분할기법을 이용한 수치항공영상 해석에 관한 연구",한국지형공간정보학회논문집 제2권 제2호, pp.131-142, 1994.121. Kwon Hyun et al., "A Study on the Analysis of Numerical Aerial Image Using Image Segmentation Technique", Journal of Geographical Spatial Information, Vol. 2, No. 2, pp.131-142, 1994.

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 최근, 감시, 정찰, 자료수집, 안내 등의 다양한 지능형 영상처리 분야에서 응용되고 있는 분할 기법을 무인 항공기 영상 또는 항공 영상에 최적화시키기 위해서 항공 영상이 가지고 있는 학습 데이터가 부족하며 해상도가 낮고 특징점이 불충분 하다는 문제들을 해결하기 위한 영역 기반의 항공 영상 분할 방법을 제공하는데 그 목적이 있다.The present invention has been proposed in order to solve the problems according to the above background art, and recently, it has been proposed to optimize a segmentation technique applied in various intelligent image processing fields such as surveillance, reconnaissance, data collection, In this paper, we propose an area - based aerial image segmentation method which solves the problems that the aerial image has low learning data, low resolution and insufficient feature points.

부연하면, 본 발명은 항공 영상의 이러한 문제점에 특화된 기술을 개발하여 항공 영상을 카테고리별로 분할, 인식함에 있어서 정확도를 향상시키는 영역 기반의 항공 영상 분할 방법을 제공하는데 다른 목적이 있다.It is another object of the present invention to provide an area-based aerial image segmentation method that improves accuracy in dividing and recognizing aerial images by category by developing a technology specialized in such problems of aerial image.

또한, 본 발명은 이러한 영역 기반의 항공 영상 분할 방법을 실행하는 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 저장 매체를 제공하는데 또 다른 목적이 있다.It is another object of the present invention to provide a computer-readable storage medium storing program codes for executing the area-based aerial image segmentation method.

본 발명은 위에서 제시된 과제를 달성하기 위해, 감시, 정찰, 자료수집, 안내 등의 다양한 지능형 영상처리 분야에서 응용되고 있는 분할 기법을 무인 항공기 영상 또는 항공 영상에 최적화시키기 위해서 항공 영상이 가지고 있는 학습 데이터가 부족하며 해상도가 낮고 특징점이 불충분 하다는 문제들을 해결하기 위한 영역 기반의 항공 영상 분할 방법을 제공한다.In order to achieve the above-mentioned object, the present invention provides a method for optimizing a segmentation technique applied in various intelligent image processing fields such as surveillance, reconnaissance, data collection, and guidance to a unmanned aerial vehicle image or an aerial image, Based aerial image segmentation method for solving the problems that the resolution is low and the feature points are insufficient.

상기 항공 영상 분할 방법은,The method of claim 1,

무인 항공기에 의해 촬영된 항공 영상에 대하여 영역 기반으로 분할하는 영역 기반의 항공 영상 분할 방법에 있어서,A method for segmenting an aerial image captured by an unmanned aerial vehicle into regions based on regions,

필터들의 집합인 필터뱅크를 상기 항공 영상의 픽셀들에 적용하여 필터반응들을 추출하는 초기화 단계;An initialization step of applying a filter bank, which is a set of filters, to pixels of the aerial image to extract filter responses;

상기 필터 반응들에 대하여 좁은 구역 및 넓은 구역으로 분할하고 분할 기법을 적용하여 반응을 획득하는 반응 획득 단계; A reaction obtaining step of dividing the filter reactions into a narrow region and a wide region and applying a division technique to obtain a reaction;

상기 항공 영상에 대해 각 픽셀별로 텍스톤화(textonize)하여 클러스터로 생성하여 텍스톤을 추출하고 상기 각 필터 반응들과 클러스터의 중심점을 매핑하여 텍스톤 맵을 생성하고, 상기 텍스톤 맵에 이용하여 반응 정도를 생성하는 텍스톤 사전 생성 단계; A texton map is generated by textonizing each of the pixels with respect to the aerial image, generating a cluster, extracting texton, mapping the center points of the respective filter reactions and the cluster, and using the texton map as the texture map A texton dictionary generation step of generating a degree of reaction;

상기 반응 정도에 대하여 에러를 최소화하고 가중치를 부여하여 상기 항공 영상의 픽셀들 각각에 대하여 최종 반응들을 추출하는 부스팅 단계; 및 A boosting step of extracting final responses for each of the pixels of the aerial image by minimizing an error and assigning a weight to the response degree; And

추출된 최종 반응들 중 가장 높은 비율에 따라 상기 항공 영상의 픽셀들 중 해당 픽셀의 카테고리를 분류하는 카테고리 결정 단계;를 포함하는 것을 특징으로 할 수 있다.And a category determination step of classifying the category of the pixel among the pixels of the aerial image according to the highest ratio among the extracted final responses.

여기서, 상기 텍스톤 사전 생성 단계는, 클러스터링 기법 및 거리 측정 기법을 사용하여 상기 필터 반응들을 클러스터로 생성하는 단계; K-D 트리 기법을 이용하여 상기 필터 반응들 각각과 가장 가까운 클러스터 중심점을 매핑하여 텍스톤 맵을 생성하는 단계; 및 특정 개수의 다수의 직사각형 영역(region)(ri) 및 텍스쳐(ti)로 생성된 텍스톤 맵의 특정 위치에 해당하는 반응들과 비교하여 반응 정도를 획득하는 단계;를 포함하는 것을 특징으로 할 수 있다.Here, the texton dictionary creation step may include generating the filter reactions as clusters using a clustering technique and a distance measurement technique; Generating a texture map by mapping each of the filter reactions and a closest cluster center point using a KD tree technique; And obtaining a degree of reaction by comparing the responses with a specific position of the texture map generated by the predetermined number of rectangular regions r i and the texture t i . .

또한, 상기 반응 정도는 상기 텍스톤 맵에서 다수의 직사각형 영역(ri)내의 텍스쳐(ti)가 차지하는 비중을 0과1 사이 확률로서 표현되며, 상기 비중은 수학식

Figure 112014106062093-pat00001
(여기서, area(r)은 직사각형 영역(ri)의 면적을 나타내고, Tj는 상기 직사각형 영역 내의 특성을 표현하는 텍스쳐를 나타낸다)로 표현되는 것을 특징으로 할 수 있다.Also, the degree of reaction is represented by a probability that the texture t i occupies a plurality of rectangular areas r i in the texture map between 0 and 1,
Figure 112014106062093-pat00001
(Where area (r) represents an area of the rectangular area (r i ), and T j represents a texture representing characteristics in the rectangular area).

또한, 상기 필터 뱅크는 적어도 17개의 필터들을 포함하되, 상기 필터 뱅크의 구성 필터는 가우시안 미분 필터(Derivative Of Gaussian Filter), 라플라시안 필터(Laplacian Filter) 및 가우시안 필터(Gaussian Filter)의 조합인 것을 특징으로 할 수 있다.In addition, the filter bank includes at least 17 filters, and the constituent filter of the filter bank is a combination of a Gaussian filter, a Laplacian filter, and a Gaussian filter. can do.

또한, 상기 가우시안 미분 필터의 경우, x축 또는 y축에 대해 파라미터 시그마 값이 2와 4 중 하나인 것을 특징으로 할 수 있다.Also, in the case of the Gaussian differential filter, the parameter sigma value may be one of 2 and 4 for the x-axis or the y-axis.

또한, 상기 라플라시안 필터의 경우, L채널에 대하여 파라미터 시그마 값이 1,2,4, 및 8 중 하나인 것을 특징으로 할 수 있다.Also, in the case of the Laplacian filter, the parameter sigma value may be one of 1, 2, 4, and 8 for the L channel.

또한, 상기 가우시안 필터의 경우, 랩(LAB)의 3채널 모두에 대해서 각각 파라미터 시그마 값이 1,2 및 4 중 하나인 것을 특징으로 할 수 있다.In the case of the Gaussian filter, the parameter sigma values may be one of 1, 2, and 4 for all three channels of the wrap (LAB).

또한, 상기 항공 영상의 구성 요소는 RGBs 색상 구성 및 CIELab 색상구성 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.In addition, the components of the aerial image may include at least one of an RGBs color configuration and a CIELab color configuration.

또한, 상기 넓은 구역에 대해 서로 다른 3가지 인자값들을 이용하여 평균 이동 기법을 적용하고, 상기 좁은 구역에 대해 서로 다른 3가지 인자값을 이용하여 K-means 분할 기법을 적용하는 것을 특징으로 할 수 있다.In addition, an average moving method is applied to the wide area using three different factor values, and a K-means partitioning technique is applied using three different factor values for the narrow area have.

또한, 상기 부스팅 단계는, 조인트 부스팅( Joint Boosting) 기법을 사용하는 것을 특징으로 할 수 있다.Also, the boosting step may be characterized by using a joint boosting technique.

또한, 상기 피쳐는, 텍스톤 피쳐, SIFT 피쳐 및 위치정보가 포함되는 피쳐 중 어느 하나인 것을 특징으로 할 수 있다.The feature may be one of a texture feature, a SIFT feature, and a feature including position information.

또한, 상기 최종 반응들은 6가지 반응결과로서, 3개는 넓은 구역에서의 반응결과이고 3개는 좁은 구역에서의 반응결과인 것을 특징으로 할 수 있다.Also, the final reactions may be characterized as a result of six reactions, three of which are reaction results in a large zone and three of which are reaction results in a narrow zone.

다른 한편으로, 본 발명의 다른 일실시예는 위에 기술된 영역 기반의 항공 영상 분할 방법을 실행하는 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 저장 매체를 제공한다.On the other hand, another embodiment of the present invention provides a computer-readable storage medium storing program code for executing the above-described region-based aerial image segmentation method.

본 발명에 따르면, 항공 영상 분할의 정확도 향상은 군에서의 감시, 정찰에 관한 영상처리 관련 기술 개발에 대해서도 많은 기여를 할 뿐 아니라 학습 데이터가 적고 해상도가 낮고 피쳐 정보가 불충분한 영상에 대한 문제에 대해서도 높은 정확도로 영상을 분류 할 수 있다. According to the present invention, the improvement of the accuracy of the aerial image segmentation not only contributes much to the development of technology related to image processing related to surveillance and reconnaissance in the military, but also to the problem of low learning data, low resolution and insufficient feature information The image can be classified with high accuracy.

또한, 본 발명의 다른 효과로서는 디지털지도 개발이나 지형 분석 같은 부분에 대해서도 항공영상을 카테고리별로 도로나 산림 등을 정확하고 빠르게 분류함으로써 효율성을 높이고 비용을 절감 할 수 있다는 점을 들 수 있다.Another advantage of the present invention is that the efficiency and the cost can be improved by accurately and quickly classifying the aerial image into categories such as roads and forests even in the areas such as digital map development and terrain analysis.

도 1은 본 발명의 일실시예에 따른 영역 기반의 항공 영상 분할 과정을 보여주는 흐름도이다.
도 2는 본 발명의 일실시예에 따른 넓은 영역(그룹)에 대해 평균 이동 분할 기법을 적용한 그림이다.
도 3은 본 발명의 다른 일실시예에 따른 좁은 영역(그룹)에 대해 K-means 분할 기법을 적용한 그림이다.
도 4는 본 발명의 다른 일실시예에 따른 나누어진 한 구역에 대해서 클러스터 값을 바꾸어 주는 개념을 도시한 그림이다.
도 5는 본 발명의 일실시예에 따른 하나의 파라미터와 영역만을 고려했을 경우의 항공 영상 분할 결과를 보여주는 화면예이다.
도 6은 본 발명의 다른 일실시예에 따른 주변의 파라미터까지 6개를 고려했을 경우의 항공 영상 분할 결과를 보여주는 화면예이다.
도 7은 본 발명의 일실시예에 따른 분할 기법이 적용된 경우 정확도를 나타내는 그래프이다.
도 8은 도 1에 도시된 분할 단계(S102)를 세부적으로 보여주는 흐름도이다.
도 9는 도 1에 도시된 텍스톤 사전 생성 단계(S103)를 세부적으로 보여주는 흐름도이다.
1 is a flowchart illustrating an area-based aerial image segmentation process according to an exemplary embodiment of the present invention.
FIG. 2 is a diagram illustrating an average moving division method applied to a wide area (group) according to an embodiment of the present invention.
3 is a diagram illustrating a K-means partitioning scheme for a narrow region (group) according to another embodiment of the present invention.
FIG. 4 is a diagram illustrating a concept of changing cluster values for a divided region according to another embodiment of the present invention.
5 is a view showing a result of aerial image segmentation when only one parameter and region according to an embodiment of the present invention are considered.
FIG. 6 is a view showing a result of aerial image segmentation according to another embodiment of the present invention, in which six parameters are taken into consideration.
FIG. 7 is a graph illustrating the accuracy when the segmentation technique according to an embodiment of the present invention is applied.
FIG. 8 is a flow chart showing in detail the dividing step (S102) shown in FIG.
FIG. 9 is a flowchart showing details of the texton dictionary creation step (S103) shown in FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

따라서, 몇몇 실시예에서, 잘 알려진 공정 단계들, 잘 알려진 구조 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다.Thus, in some embodiments, well known process steps, well-known structures, and well-known techniques are not specifically described to avoid an undue interpretation of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 포함한다(comprises) 및/또는 포함하는(comprising)은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는 의미로 사용한다. 그리고, "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is to be understood that the terms comprise and / or comprise are used in a generic sense to refer to the presence or addition of one or more other elements, steps, operations and / or elements other than the stated elements, steps, operations and / It is used not to exclude. And "and / or" include each and any combination of one or more of the mentioned items.

또한, 본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 개략도들을 참고하여 설명될 것이다. 따라서, 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서, 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 또한 본 발명에 도시된 각 도면에 있어서 각 구성 요소들은 설명의 편의를 고려하여 다소 확대 또는 축소되어 도시된 것일 수 있다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Further, the embodiments described herein will be described with reference to cross-sectional views and / or schematic drawings that are ideal illustrations of the present invention. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include changes in the shapes that are generated according to the manufacturing process. In addition, in the drawings of the present invention, each component may be somewhat enlarged or reduced in view of convenience of explanation. Like reference numerals refer to like elements throughout the specification.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 영역 기반의 항공 영상 분할 방법 및 이를 실행하는 프로그램 코드를 저장하는 저장 매체를 상세하게 설명하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method for dividing an area-based aerial image according to an embodiment of the present invention and a storage medium for storing program codes for executing the method will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 영역 기반의 항공 영상 분할 과정을 보여주는 흐름도이다. 도 1을 참조하면, 본 발명에 따른 영역 기반의 항공 영상 분할 방법은, 초기화 단계(S101), 분할 단계(S102), 텍스톤 사전 생성단계(S103), 부스팅 단계(S104), 최종적으로 카테고리를 결정하는 카테고리 결정 단계(S105) 등을 포함하여 구성된다. 여기서 텍스톤(texton)은 텍스트에 존재하는 기호열을 나타낸다. 1 is a flowchart illustrating an area-based aerial image segmentation process according to an exemplary embodiment of the present invention. Referring to FIG. 1, an area-based aerial image segmentation method according to the present invention includes an initialization step S101, a segmentation step S102, a texton dictionary creation step S103, a boosting step S104, (S105), and the like. Here, texton represents a symbol string existing in the text.

먼저 초기화 단계(S101)에서는 다음과 같은 필터들로 구성된 필터 뱅크(필터들의 집합)를 만든다. 필터를 만들 때의 요소는 RGBs 값이 아니라 CIELab형태의 컬러구성을 사용하였다.First, in the initialization step (S101), a filter bank (a set of filters) composed of the following filters is created. The elements used when creating the filter were the CIELab type color configuration, not the RGBs value.

1. 가우시안 미분 필터(Derivative Of Gaussian Filter) 4개 :1. Four Derivative Of Gaussian Filters:

L채널만 고려함Consider only L channel

x축 방향 필터 :

Figure 112013069009125-pat00002
=2,4x-axis directional filter:
Figure 112013069009125-pat00002
= 2,4

y축 방향 필터 :

Figure 112013069009125-pat00003
=2,4
y-axis directional filter:
Figure 112013069009125-pat00003
= 2,4

2. 라플라시안 필터(Laplacian Filter) 4개 : L채널만 고려함,

Figure 112013069009125-pat00004
=1,2,4,82. Four Laplacian filters: Consider only L channel,
Figure 112013069009125-pat00004
= 1,2,4,8

3. 가우시안 필터(Gaussian Filter) 9개 : Lab 3채널 모두 고려함,

Figure 112013069009125-pat00005
=1,2,43. Gaussian filter (9): Consider all three channels of Lab,
Figure 112013069009125-pat00005
= 1,2,4

위와 같이 총 17개의 필터를 가지는 필터 뱅크를 데이터 셋에서 모든 pixel들에 대하여 적용하여 필터 반응을 추출한다.We apply the filter bank with a total of 17 filters to all the pixels in the data set to extract the filter response.

다음으로 분할 단계(S102)에서는 도 8에서 도식된 바와 같이 넓은 구역과 좁은 구역에 따라 각각 다른 분할 기법이 적용된다. 넓은 구역에서 3가지 경우와 좁은 구역에서 3가지 경우를 고려하여 총 6가지의 경우와 그에 따른 6가지의 반응을 얻게 된다. 넓은 구역에서의 3가지 경우는 도2에 도식화 되어있고 좁은 구역에서의 3가지 경우는 도3에 도식화 되어있다.Next, in the dividing step (S102), different partitioning techniques are applied according to a wide area and a narrow area as shown in FIG. Considering three cases in a wide area and three cases in a narrow area, a total of six cases and six responses are obtained. Three cases in a large area are illustrated in FIG. 2, and three cases in a narrow area are shown in FIG.

이렇게 넓은 구역과 좁은 구역으로 나누어서 계산을 한 뒤 반응을 취합하는 방법을 하는 이유는 도 4에 도식되어 있는 그림을 보면 이해가 쉽다. 한 가지 파라미터에 대해서만 계산된 구역의 크기는 해당 픽셀과 주변에 이웃한 픽셀에 대해서 잘못된 값의 변화와 오류가 생기기 쉽다. 따라서 다양한 크기의 묶음들(슈퍼픽셀)을 고려하여 분할 기법을 적용해야 한다. The reason why we divide the area into a large area and the narrow area and then calculate the reaction is summarized in Figure 4. The size of the calculated area for only one parameter is prone to false value changes and errors for the pixel and neighboring pixels. Therefore, the partitioning technique should be applied considering bundles of various sizes (super pixels).

부연하면, 넓은 구역(400)의 경우 픽셀(400-1)을 기준으로 서브 영역(400-2)내의 픽셀값은 주변 영역에 "3"을 갖는 픽셀이 많으므로 "1"은 "3"으로, "2"는 "3"으로 변경된다. 즉, 서브 영역(400-2)이 모두 "3"으로 변경된다.Further, in the case of the wide area 400, the pixel value in the sub-area 400-2 on the basis of the pixel 400-1 is "3" because there are many pixels having "3" in the peripheral area , "2" is changed to "3 ". That is, the sub area 400-2 is all changed to "3 ".

이와 달리, 좁은 구역(410)의 경우 픽셀(410-1)을 기준으로 서브 영역(410-2)내 픽셀(410-1)값만이 "2"에서 "1"로 변경된다. 즉, 서브 영역(410-2)이 모두 "1"로 변경된다. 따라서, 이렇게 하나의 픽셀에 변경되는 반응들이 모두 총 6개 존재하게 된다.On the other hand, in the case of the narrow area 410, only the value of the pixel 410-1 in the sub area 410-2 is changed from "2" to "1" based on the pixel 410-1. That is, the sub region 410-2 is all changed to "1 ". Thus, there are a total of six reactions that change in one pixel.

먼저 도 2에서 보는 바와 같이 3가지 경우의 넓은 구역에 대해서 분할 기법을 적용할 때는 적절한 기준 파라미터 값과 그 값을 기준으로 허용되는 범위 안에 있는 다른 두 개의 파라미터 값(Rspatial, Rcolor)을 선택한다. 이렇게 선택된 파라미터 값으로 평균 이동법을 적용해서 넓은 구역에서의 3가지 경우 일 때의 반응을 추출해 낸다. 즉 2개의 파라미터 값(Rspatial=5,7,9, Rcolor=7)에 따라 원본 영상(201)으로부터 3가지 경우의 영상(202,203,204)이 추출된다.As shown in FIG. 2, when the division technique is applied to a wide area of three cases, it selects an appropriate reference parameter value and two other parameter values (R spatial , R color ) within an allowable range based on the reference parameter value. do. The average moving method is applied to the selected parameter values to extract the reaction in three cases in a wide area. That is, according to the two parameter values (R spatial = 5,7,9, R color = 7) Three images 202, 203, and 204 are extracted from the original image 201. [

그 다음, 컬러값을 기준으로 특정 반경 안에서 K-means 분할 기법을 적용하면 도 3의 원본영상(301)으로부터 302에서와 같이 추상적인 슈퍼픽셀과 같은 효과를 얻을 수 있다. 물론, 도 2에 도시된 원본영상(301)과 도 3에 도시된 원본영상(301)은 동일하다.Then, applying the K-means division technique within a specific radius based on the color value, an effect like an abstract super-pixel can be obtained from the original image 301 of FIG. 3 as in 302. Of course, the original image 301 shown in Fig. 2 and the original image 301 shown in Fig. 3 are the same.

여기서 슈퍼픽셀이란 픽셀 근처의 유사성이 높은 픽셀끼리 작은 구역으로 묶어 하나의 픽셀과 같은 역할을 함을 말한다. 이렇게 작은 구역으로 묶어진 상태에서 K-means 분할 기법을 적절한 거리(Distance)를 기준으로 허용 범위 안에서 총 3가지 경우에 대해서 적용한다. 이렇게 함으로써 거리(Distance = 10,15,20)에 따른 구역크기 별로 3가지 경우(302,303,304)에 대한 반응을 추출할 수 있다.Here, superpixel means that pixels with high similarity near the pixel are grouped into small regions and act as one pixel. K-means partitioning is applied to all three cases within the allowable range based on the appropriate distance (Distance). By doing so, it is possible to extract responses for three cases (302, 303, 304) according to the area size according to the distance (Distance = 10, 15, 20).

일반적으로, n개의 객체를 가진 데이터 집합 D와 군집수로 k가 주어진다면, 분할 알고리즘은 객체들을 나누어 k개의 군집으로 나누어진다. 결과적으로 군집내의 객체들은 유사하고, 다른 군집의 객체들끼리는 그렇지 않도록 하는 것이다. 이러한 분할 알고리즘으로는 K-means 분할 기법을 들 수 있다. Generally, given a data set D with n objects and k as the number of clusters, the partitioning algorithm divides the objects into k clusters. As a result, objects in the cluster are similar, and objects in different clusters do not. K-means partitioning is one such segmentation algorithm.

도 8의 K-means 분할 기법을 이용한 분할 단계(S810)를 거쳐서 나온 3가지 경우의 반응과 평균 이동 분할 기법을 이용한 분할 단계(S820)를 거쳐서 나온 3가지 경우의 반응이 도 1의 분할 단계(S102)를 거쳐서 나오게 된다.The reaction of the three cases through the division step (S810) using the K-means division method of FIG. 8 and the division step (S820) using the average movement division method are shown in the division step of FIG. 1 S102).

도 1을 계속 참조하여 설명하면, 텍스톤(texton) 사전 생성 단계(S103)는 도 9에서 도식화된 것처럼 세부적으로 총 3개의 단계(S910,S920,S930)로 구성된다. 첫 번째는 텍스톤 사전을 학습시키는 단계(S910), 두 번째는 K-D 트리(Tree) 기법을 적용하여 모든 영상을 텍스톤화시키는 단계(S920), 마지막으로 텍스쳐-레이아웃 필터(texture-layout filter)를 이용하여 필터링하는 단계(S930)로 이루어져있다. 여기서, K-D 트리(k-dimensional tree)는 k-차원의 공간 내에서 점들을 구성하기 위한 공간 분할 자료구조로 binary tree의 특수한 경우를 일컫는다.Referring to FIG. 1, a texton dictionary creation step (S103) is composed of three steps (S910, S920, S930) in detail as illustrated in FIG. The first is the step of learning the texture dictionary (S910), the second is the step of textureizing all the images by applying the KD tree method (S920), and finally the texture-layout filter And filtering (S930). Here, a k-dimensional tree is a space-division data structure for constructing points in a k-dimensional space, which is a special case of a binary tree.

텍스톤 사전 학습 단계(S910)에서는 영상의 각 픽셀별 필터 반응들을 군집화한다. 이때 사용되는 클러스터링 기법은 K-means 분할 기법을 사용하였으며 거리를 측정하는 기법은 유클라디안 기법을 사용하였다.In the Texon advance learning step (S910), the filter responses for each pixel of the image are clustered. The clustering technique used was K-means partitioning and the distance was measured using the Euclidian technique.

텍스톤 사전 학습 단계(S910)에서 도출된 클러스터의 중심점을 기반으로 두 번째 단계인 텍스톤화 단계(S920)에서는 K-D Tree 알고리즘을 이용하여 필터뱅크를 거친 각각 필터 반응들과 가장 가까운 클러스터 중심점을 매핑하여 텍스톤 맵을 만든다.In the textonization step (step S920), which is based on the center point of the cluster derived from the texture learning step (S910), the KD tree algorithm maps the filter responses and the closest cluster center point through the filter bank To create a texton map.

마지막 단계인 텍스쳐-레이아웃 필터링 단계(S930)에서는 특징점에 대해 임의의 크기를 가지는 100개의 여러 가지 크기의 직사각형 영역(region)

Figure 112013069009125-pat00006
과 이 직사각형 영역(ri) 내의 특성을 보여주는 텍스쳐(Texture)
Figure 112013069009125-pat00007
에 대해 이전 단계(S920)에서 만들어진 텍스톤 맵(Textons map)의 임의의 위치에 해당하는 반응들과 비교하며 이때 텍스톤 맵(Textons map)에서
Figure 112013069009125-pat00008
내의
Figure 112013069009125-pat00009
가 차지하는 비중을 0과1 사이 확률로서 나타내어 반응정도를 얻는다. 예를 들면, r1과 t1을 갖는 피쳐(feature1)를 입력 영상에 위치한 경우 영상의 컬러가 t1의 컬러와 완전히 일치하면 반응 정도의 값은 "1"이고, 반정도만 일치하면 반응 정도의 값은 "0.5"이고, 완전히 다른 컬러이면 반응 정도의 값은"0"이 된다. 여기서, 직사각형 영역은 가로 직사각형, 또는 세로 직사각형 등으로 표현될 수 있다. In the texture-layout filtering step (S930), which is the last step, a rectangular region having a size of 100,
Figure 112013069009125-pat00006
And a texture showing characteristics in the rectangular area ri.
Figure 112013069009125-pat00007
Is compared with responses corresponding to arbitrary positions of the Textons map created in the previous step (S920) with respect to the Textons map,
Figure 112013069009125-pat00008
undergarment
Figure 112013069009125-pat00009
And the degree of reaction is obtained by expressing the specific gravity occupied by the probability as 0 and 1. For example, r 1 and t if in a feature (feature1) having a first input image when the color of the image completely matches the t1 color value of the reaction degree is "1" and, if they match only about half the value of the reaction degree Is "0.5 ", and if the color is completely different, the value of the reaction degree becomes" 0 ". Here, the rectangular area may be represented by a horizontal rectangle, a vertical rectangle, or the like.

랜덤한 크기를 가지는 직사각형 영역(region) 모양의 피쳐들은 {x, y, width, height}의 값을 갖는다. 여기서, x, y는 위치좌표를 나타내고, width, height는 랜덤 크기의 사각형의 높이와 폭을 나타낸다.Random-sized rectangular region features have {x, y, width, height} values. Where x and y represent position coordinates, and width and height represent the height and width of a random-sized square.

이러한 직사각형 영역(region) r 내에서 t가 차지하는 비중(v)을 0~1사이의 확률로 나타냄을 수식적으로 표현하면 다음식과 같다.The probability that the specific gravity (v) occupied by t in the rectangular region r is expressed by a probability between 0 and 1 is expressed as the following equation.

Figure 112013069009125-pat00010
Figure 112013069009125-pat00010

여기서, Tj는 텍스쳐이다.Where Tj is a texture.

따라서, r 영역 전체에 대해서 텍스쳐(Tj)가 모두 일치하면 v의 값은 1이 된다.Therefore, if all of the textures (T j ) coincide with the entire region r, the value of v becomes 1.

도 1을 계속 참조하여 설명하면, 부스팅 단계(S104)에서는 조인트 부스팅(Joint Boosting) 기법을 적용하게 된다. 조인트 부스팅 기법은 약한 학습자(weak learners)를 찾은 뒤 그것으로 각 학습 이미지에 대해서 수학식 2의 계산식을 적용하여 에러를 계산한다. 이를 수학식으로 나타내면 다음과 같다.Continuing referring to FIG. 1, in the boosting step (S104), a joint boosting technique is applied. The joint boosting technique finds weak learners and then calculates the error by applying the equation (2) to each learning image. This can be expressed by the following equation.

Figure 112013069009125-pat00011
Figure 112013069009125-pat00011

여기서, w는 가중치를 나타내며 z는 이미 일고 있는 학습자(답안), h는 상기의 반응들로 계산된 현재의 약한 학습자이다. Here, w represents a weight, z represents a learner who has already been raised (answer), and h is a current weak learner calculated by the above reactions.

그 중 에러를 최소화하는 약한 학습자의 집합을 선택하게 되고, 얻어진 약한 학습자를 강한 학습자(strong classifier)와 더해서 강한 학습자를 업데이트 시킨다. 그리고 계산된 약한 학습자 값을 기반으로 가중치를 업데이트시킨다. We choose a set of weak learners that minimize errors and update weak learners with strong learners by adding them to strong learners. And updates the weight based on the calculated weak learner value.

따라서, 조인트 부스팅 방식에 대하여는 널리 알려져 있으므로 더 이상의 설명은 생략하기로 한다.Therefore, since the joint boosting method is widely known, a further explanation will be omitted.

이러한 과정을 반복하여 각 픽셀에 대해서 6개의 반응들을 추출하고 얻어진 반응들을 마지막 단계인 카테고리 결정 단계(S105)에서 사용한다.This process is repeated to extract six reactions for each pixel and the obtained responses are used in the final step of category determination step (S105).

카테고리 결정 단계(S105)에서는 가장 높은 비율을 차지하고 있는 카테고리 값을 최종적으로 선택하여 해당 픽셀의 카테고리를 분류하게 된다.In the category determination step (S105), the category value that occupies the highest ratio is finally selected to classify the category of the pixel.

이때 상기 부스팅으로 구해진 텍스톤의 피쳐를 이용한 것 이외에도 널리 쓰이는 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 나오는 피쳐와 해당 이미지에서 보편적으로 나타나는 위치에 대한 피쳐도 같이 사용할 수 있다.At this time, besides using the texton feature obtained by boosting, it is also possible to use a feature derived from a commonly used SIFT (Scale Invariant Feature Transform) algorithm and a feature for a position commonly appearing in the image.

도 5는 본 발명의 일실시예에 따른 하나의 파라미터와 영역만을 고려했을 경우의 항공 영상 분할 결과를 보여주는 화면예이다. 5 is a view showing a result of aerial image segmentation when only one parameter and region according to an embodiment of the present invention are considered.

도 6은 본 발명의 다른 일실시예에 따른 주변의 파라미터까지 6개를 고려했을 경우의 항공 영상 분할 결과를 보여주는 화면예이다.FIG. 6 is a view showing a result of aerial image segmentation according to another embodiment of the present invention, in which six parameters are taken into consideration.

도 7은 본 발명의 일실시예에 따른 분할 기법이 적용된 경우 정확도를 나타내는 그래프이다. 도 7을 참조하면, 텍스톤만의 정확도 곡선(710), 텍스톤 + Loc(Locator)의 정확도 곡선(720), 텍스톤 + Loc + LBP(Local Binary Pattern)의 정확도 곡선(730), 텍스톤 + Loc + LBP(Local Binary Pattern) + 다중 분할의 정확도 곡선(740)이 도시된다.
FIG. 7 is a graph illustrating the accuracy when the segmentation technique according to an embodiment of the present invention is applied. 7, an accuracy curve 710 of only Texton, an accuracy curve 720 of Texton + Loc (Locator), an accuracy curve 730 of Texton + Loc + LBP (Local Binary Pattern) + Loc + Local Binary Pattern (LBP) + multiple division accuracy curve 740 is shown.

특히, 본 발명의 일실시예에 따른 영역 기반의 항공 영상 분할 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 코드 형태로 구현되어 컴퓨터로 읽을 수 있는 저장 매체에 기록될 수 있다. In particular, the area-based aerial image segmentation method according to an embodiment of the present invention may be implemented in the form of program command codes that can be executed through various computer means and recorded in a computer-readable storage medium.

상기 컴퓨터로 읽을 수 있는 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The computer-readable storage medium may include program instructions, data files, data structures, etc., alone or in combination.

상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

컴퓨터로 읽을 수 있는 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs and DVDs, floppy disks, Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관등의 전송 매체일 수도 있다. The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 본 발명의 일실시예는 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다.In addition, one embodiment of the present invention may be implemented in hardware, software, or a combination thereof. (DSP), a programmable logic device (PLD), a field programmable gate array (FPGA), a processor, a controller, a microprocessor, and the like, which are designed to perform the above- , Other electronic units, or a combination thereof.

소프트웨어적인 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.In a software implementation, it may be implemented as a module that performs the functions described above. The software may be stored in a memory unit and executed by a processor. The memory unit or processor may employ various means well known to those skilled in the art.

201,301: 원본 영상201,301: Original video

Claims (13)

무인 항공기에 의해 촬영된 항공 영상에 대하여 영역 기반으로 분할하는 영역 기반의 항공 영상 분할 방법에 있어서,
필터들의 집합인 필터뱅크를 상기 항공 영상의 픽셀들에 적용하여 필터반응들을 추출하는 초기화 단계;
상기 필터 반응들에 대하여 좁은 구역 및 넓은 구역으로 분할하고 분할 기법을 적용하여 반응을 획득하는 반응 획득 단계;
상기 항공 영상에 대해 각 픽셀별로 텍스톤화(textonize)하여 클러스터로 생성하여 텍스톤을 추출하고 각 필터 반응들과 클러스터의 중심점을 매핑하여 텍스톤 맵을 생성하고, 상기 텍스톤 맵을 이용하여 반응 정도를 생성하는 텍스톤 사전 생성 단계;
반응 정도에 대하여 에러를 최소화하고 가중치를 부여하여 상기 항공 영상의 픽셀들 각각에 대하여 최종 반응들을 추출하는 부스팅 단계; 및
추출된 최종 반응들 중 가장 높은 비율에 따라 상기 항공 영상의 픽셀들 중 해당 픽셀의 카테고리를 분류하는 카테고리 결정 단계;
를 포함하는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
A method for segmenting an aerial image captured by an unmanned aerial vehicle into regions based on regions,
An initialization step of applying a filter bank, which is a set of filters, to pixels of the aerial image to extract filter responses;
A reaction obtaining step of dividing the filter reactions into a narrow region and a wide region and applying a division technique to obtain a reaction;
A texton map is generated by extracting a texton from each of the pixels of the aerial image, mapping the center points of each of the filter reactions and the cluster, generating a texture map by using the texture map, A texton dictionary generation step of generating a degree of text;
A boosting step of minimizing an error with respect to the degree of reaction and assigning a weight to extract final responses for each of the pixels of the aerial image; And
A category determination step of classifying the category of the pixel among the pixels of the aerial image according to the highest ratio among the extracted final responses;
Based aerial image segmentation method.
제 1 항에 있어서,
상기 텍스톤 사전 생성 단계는,
클러스터링 기법 및 거리 측정 기법을 사용하여 필터 반응들을 클러스터로 생성하는 단계;
K-D 트리 기법을 이용하여 필터 반응들 각각과 가장 가까운 클러스터 중심점을 매핑하여 텍스톤 맵을 생성하는 단계; 및
특정 개수의 다수의 직사각형 영역(region)(ri) 및 텍스쳐(ti)로 생성된 텍스톤 맵의 특정 위치에 해당하는 반응들과 비교하여 반응 정도를 획득하는 단계;를 포함하는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
Wherein the texton dictionary creation step comprises:
Generating clusters of filter responses using a clustering technique and a distance measurement technique;
Generating a texture map by mapping each of the filter responses and a closest cluster center point using a KD tree technique; And
And obtaining a degree of reaction by comparing the responses with a specific position of the texture map generated by the specific number of the plurality of rectangular regions r i and the texture t i , doing Region - based aerial image segmentation method.
제 2 항에 있어서,
상기 반응 정도는 상기 텍스톤 맵에서 다수의 직사각형 영역(ri)내의 텍스쳐(ti)가 차지하는 비중을 0과1 사이 확률로서 표현되며, 비중은 수학식
Figure 112014106062093-pat00012
(여기서, area(r)은 직사각형 영역(ri)의 면적을 나타내고, Tj는 상기 직사각형 영역 내의 특성을 표현하는 텍스쳐를 나타낸다)로 표현되는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
3. The method of claim 2,
The degree of the reaction is represented by the probability that the texture t i occupies a plurality of rectangular areas r i in the texture map between 0 and 1,
Figure 112014106062093-pat00012
Wherein the area (r) represents an area of the rectangular area (r i ), and Tj represents a texture representing a characteristic in the rectangular area.
제 1 항에 있어서,
상기 필터 뱅크는 적어도 17개의 필터들을 포함하되, 필터 뱅크의 구성 필터는 가우시안 미분 필터(Derivative Of Gaussian Filter), 라플라시안 필터( Laplacian Filter) 및 가우시안 필터(Gaussian Filter)의 조합인 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
Characterized in that the filter bank comprises at least 17 filters, the constituent filter of the filter bank being a combination of a Derivative Of Gaussian Filter, a Laplacian Filter and a Gaussian Filter. A method of aerial image segmentation.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 항공 영상의 구성 요소는 RGBs 색상 구성 및 CIELab 색상구성 중 적어도 하나를 포함하는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
Wherein the components of the aerial image include at least one of an RGBs color scheme and a CIELab color scheme.
제 1 항에 있어서,
넓은 구역에 대해 서로 다른 3가지 인자값들을 이용하여 평균 이동 기법을 적용하고, 좁은 구역에 대해 서로 다른 3가지 인자값을 이용하여 K-means 분할 기법을 적용하는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
And a K-means segmentation scheme is applied using three different factor values for a narrow region, using an average moving method using three different factor values for a wide region, Split method.
제 1 항에 있어서,
상기 부스팅 단계는, 조인트 부스팅( Joint Boosting) 기법을 사용하는 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
Wherein the boosting step uses a joint boosting technique.
삭제delete 제 1 항에 있어서,
최종 반응들은 6가지 반응결과로서, 3개는 넓은 구역에서의 반응결과이고 3개는 좁은 구역에서의 반응결과인 것을 특징으로 하는 영역 기반의 항공 영상 분할 방법.
The method according to claim 1,
Wherein the final responses are the results of the six reactions, three are the results of the reactions in the broad zone and three are the results of the reactions in the narrow zone.
제 1 항 내지 제 4 항, 제 8 항 내지 제 10 항, 및 제 12 항 중 어느 한 항에 따른 영역 기반의 항공 영상 분할 방법을 실행하는 프로그램 코드를 저장하는 컴퓨터로 읽을 수 있는 저장 매체.A computer-readable storage medium storing program code for executing an area-based aerial image segmentation method according to any one of claims 1 to 4, 8 to 10, and 12.
KR20130090072A 2013-07-30 2013-07-30 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same KR101507732B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130090072A KR101507732B1 (en) 2013-07-30 2013-07-30 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130090072A KR101507732B1 (en) 2013-07-30 2013-07-30 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same

Publications (2)

Publication Number Publication Date
KR20150014646A KR20150014646A (en) 2015-02-09
KR101507732B1 true KR101507732B1 (en) 2015-04-07

Family

ID=52571482

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130090072A KR101507732B1 (en) 2013-07-30 2013-07-30 Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same

Country Status (1)

Country Link
KR (1) KR101507732B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101694697B1 (en) 2015-08-03 2017-01-10 안동대학교 산학협력단 IMAGE PARTITIONING METHOD USING SLIC(Simple Linear Iterative Clustering) INCLUDING TEXTURE INFORMATION AND RECORDING MEDIUM

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941043B1 (en) * 2017-04-17 2019-01-22 광주과학기술원 Method for Object Detection Using High-resolusion Aerial Image
CN107341493B (en) * 2017-07-14 2020-03-06 电子科技大学中山学院 Terrain feature line extraction method and device based on branch similarity and electronic equipment
CN110008630B (en) * 2019-04-18 2022-07-15 哈尔滨工程大学 Underwater unmanned vehicle cluster simulation platform
CN112019757B (en) * 2020-10-15 2021-03-02 深圳眸瞳科技有限公司 Unmanned aerial vehicle collaborative shooting method and device, computer equipment and storage medium
CN113238646B (en) * 2021-04-20 2024-04-09 北京易华录信息技术股份有限公司 Energy-saving storage method and device for optical storage cluster
CN116503633B (en) * 2023-07-03 2023-09-05 山东艾迈科思电气有限公司 Intelligent detection control method for switch cabinet state based on image recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031390A (en) 2004-07-15 2006-02-02 Hitachi Software Eng Co Ltd Image division processing system
JP2006031114A (en) 2004-07-12 2006-02-02 Hitachi Software Eng Co Ltd Image division processing system
KR20060083138A (en) * 2005-01-14 2006-07-20 삼성전자주식회사 Method and apparatus for category-based photo clustering using photographic region templates of digital photo

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031114A (en) 2004-07-12 2006-02-02 Hitachi Software Eng Co Ltd Image division processing system
JP2006031390A (en) 2004-07-15 2006-02-02 Hitachi Software Eng Co Ltd Image division processing system
KR20060083138A (en) * 2005-01-14 2006-07-20 삼성전자주식회사 Method and apparatus for category-based photo clustering using photographic region templates of digital photo

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101694697B1 (en) 2015-08-03 2017-01-10 안동대학교 산학협력단 IMAGE PARTITIONING METHOD USING SLIC(Simple Linear Iterative Clustering) INCLUDING TEXTURE INFORMATION AND RECORDING MEDIUM

Also Published As

Publication number Publication date
KR20150014646A (en) 2015-02-09

Similar Documents

Publication Publication Date Title
KR101507732B1 (en) Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same
US11830246B2 (en) Systems and methods for extracting and vectorizing features of satellite imagery
CN109753885B (en) Target detection method and device and pedestrian detection method and system
Dornaika et al. Building detection from orthophotos using a machine learning approach: An empirical study on image segmentation and descriptors
Song et al. Road extraction using SVM and image segmentation
CN107085708B (en) High-resolution remote sensing image change detection method based on multi-scale segmentation and fusion
Cascianelli et al. Robust visual semi-semantic loop closure detection by a covisibility graph and CNN features
Mahmoudi et al. Object oriented image analysis based on multi-agent recognition system
Sumer et al. An adaptive fuzzy-genetic algorithm approach for building detection using high-resolution satellite images
Liao et al. Taking optimal advantage of fine spatial resolution: Promoting partial image reconstruction for the morphological analysis of very-high-resolution images
CN107369158A (en) The estimation of indoor scene layout and target area extracting method based on RGB D images
KR20210034429A (en) Apparatus and method for classificating point cloud using neighbor connectivity convolutional neural network
CN111275616B (en) Low-altitude aerial image splicing method and device
Bulatov et al. Automatic tree-crown detection in challenging scenarios
JP2011150605A (en) Image area dividing device, image area dividing method, and image area dividing program
Lu et al. Closing the loop for edge detection and object proposals
CN116645500A (en) Determination method, determination device, determination apparatus, determination device, determination program storage medium, and determination program product
JP2011150627A (en) Method, device, and program for detecting passage
CN116645499A (en) Determination method, determination device, determination apparatus, determination device, determination program storage medium, and determination program product
CN107085725B (en) Method for clustering image areas through LLC based on self-adaptive codebook
JP2017117025A (en) Pattern identification method, device thereof, and program thereof
Imani et al. Spectral-spatial classification of high dimensional images using morphological filters and regression model
Huang et al. Semantic labeling and refinement of LiDAR point clouds using deep neural network in urban areas
Parajuli et al. Reconstructing road network graphs from both aerial lidar and images
Zemmoudj et al. Feature selection and classification for urban data using improved F-score with Support Vector Machine

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180305

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200303

Year of fee payment: 6