KR20140085964A - Apparatus and method for topographical change detection using aerial images photographed in aircraft - Google Patents

Apparatus and method for topographical change detection using aerial images photographed in aircraft Download PDF

Info

Publication number
KR20140085964A
KR20140085964A KR1020120155890A KR20120155890A KR20140085964A KR 20140085964 A KR20140085964 A KR 20140085964A KR 1020120155890 A KR1020120155890 A KR 1020120155890A KR 20120155890 A KR20120155890 A KR 20120155890A KR 20140085964 A KR20140085964 A KR 20140085964A
Authority
KR
South Korea
Prior art keywords
image
terrain
stitching
change
images
Prior art date
Application number
KR1020120155890A
Other languages
Korean (ko)
Other versions
KR101417527B1 (en
Inventor
김중욱
구삼옥
이상근
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020120155890A priority Critical patent/KR101417527B1/en
Publication of KR20140085964A publication Critical patent/KR20140085964A/en
Application granted granted Critical
Publication of KR101417527B1 publication Critical patent/KR101417527B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Provided is an apparatus to detect a topographic change using an aircraft. The apparatus includes: a first calculation unit which generates a difference image between an image of the terrain by the first time the aircraft captures and an image of the terrain by the second time the aircraft captures; and a second calculation unit which generates a change mask by binarizing the difference image.

Description

항공기에서 촬영되는 항공 영상을 이용하는 지형 변화 탐지 장치 및 방법{APPARATUS AND METHOD FOR TOPOGRAPHICAL CHANGE DETECTION USING AERIAL IMAGES PHOTOGRAPHED IN AIRCRAFT}[0001] APPARATUS AND METHOD FOR TOPOGRAPHICAL CHANGE DETECTION USING AERIAL IMAGES [0002] PHOTOGRAPHED IN AIRCRAFT [0003]

영상을 이용한 지형 변화를 탐지하는 장치 및 방법에 연관되며, 보다 특정하게는 항공기에서 촬영되는 항공 영상을 이용하여 지형 변화를 탐지를 제공하는 장치 및 방법에 연관된다.The present invention relates to an apparatus and method for detecting terrain change using an image, and more particularly to an apparatus and method for providing terrain change detection using an aerial image taken on an aircraft.

우리나라는 경제 개발 계획 등의 급속한 산업화로 인해 고도 성장의 시대에 접어들면서 국가 산업의 발달 및 국토의 급속한 개발이 이루어졌다. 이에 따라, 생활 수준도 함께 향상되어 지속적인 경제 성장도 이루고 있다.In Korea, due to rapid industrialization such as economic development plan, the development of the national industry and the rapid development of the land have been achieved as the era of high growth began. As a result, the standard of living has also been improved to achieve sustainable economic growth.

그러나, 단순 경제 발전을 위한 개발 지향적 정책의 남발로 인해 수도권의 과밀 현상, 지역간의 불균형 심화, 국토의 무분별한 개발 및 환경 파괴 등이 문제로 대두되고 있는 실정이다.However, due to the development-oriented policies for simple economic development, overcrowding of the metropolitan area, imbalance between regions, indiscriminate development of the land, and destruction of the environment are becoming problems.

정부에서 위와 같은 문제를 해결하고 국토의 균형적인 발전을 위해 국토 종합 계획을 수립하고 막대한 예산 및 인력을 투입하고 있으나, 보다 체계적이고 종합적인 국토의 관리를 위한 대책 수립이 필요하다.Although the government has solved the above problems and established a comprehensive national land plan for the balanced development of the land, and puts enormous budget and manpower into it, it is necessary to establish measures for systematic and comprehensive management of the land.

위와 같은 대책 수립을 위해 국토에 대한 정확한 파악, 개발 계획을 위한 효율적인 자료 수집, 현황 분석 및 관리 체계가 수립되어야 한다. 따라서, 국토 내의 지형 변화 탐지와 자연 현상의 정량적 분석이 가능하도록 지형 변화의 지속적인 관찰과 효율적인 정보 수집 방법이 필요함을 알 수 있었다.In order to establish the above measures, it is necessary to establish an accurate understanding of the land, an efficient data collection for the development plan, a status analysis and management system. Therefore, continuous observation of topographic changes and efficient information collection method are needed to enable detection of topographic changes in the land and quantitative analysis of natural phenomena.

또한, 위와 같이 국토와 관련된 지형 탐사뿐만 아니라 태풍 등의 자연 재해로 인한 피해 지역 확인, 재개발 보상 시 불법 건축물 단속, 군사 시설 내의 부대 이동 현황 및 감시 기능을 겸비한 지형 변화를 탐사할 수 있는 기술이 요구된다.In addition, as well as the geographical survey related to the land as mentioned above, it is necessary to identify the damaged areas due to natural disasters such as typhoons, to crack down on illegal buildings in compensation for redevelopment, and to exploit the terrain change do.

일측에 따르면, 항공기에서 촬영되는 항공 영상을 이용하여 지형 변화를 탐지하는 장치가 제공된다. 지형을 상기 지형 변화 탐지 장치는 제1 시점에 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에 항공 촬영한 제2 영상을 차분하여 차영상을 생성하는 제1 계산부 및 상기 차영상을 이진화하여 변화 마스크를 생성하는 제2 계산부를 포함할 수 있다.According to one aspect, there is provided an apparatus for detecting a terrain change using an aerial image taken on an aircraft. The terrain change detection apparatus includes a first calculation unit for generating a difference image by subtracting a first image obtained by aerial photographing at a first point of time and a second image obtained by aerial photographing the terrain at a second point of time, And a second calculation unit for generating a change mask.

일실시예에 따르면, 상기 지형 변화 탐지 장치는 상기 제1 영상 및 상기 제2 영상 중 적어도 하나에 대해 전역적 호모그라피를 추정하는 처리부를 더 포함할 수 있다.According to an embodiment, the terrain change detection apparatus may further include a processing unit for estimating a global homography of at least one of the first image and the second image.

일실시예에 따르면, 상기 지형 변화 탐지 장치의 상기 처리부는 상기 제1 영상 및 상기 제2 영상 중 적어도 하나에 대해 가우시안 커널을 이용하여 크기를 줄이고, RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하여 상기 전역적 호모그라피를 추정할 수 있다.According to one embodiment, the processing unit of the terrain change detection apparatus may reduce the size of at least one of the first image and the second image using a Gaussian kernel, and apply the RANSAC algorithm to the global It is possible to estimate the red homography.

일실시예에 따르면, 상기 지형 변화 탐지 장치의 상기 제1 계산부는 상기 제1 영상 및 상기 제2 영상의 각각을 블록 단위로 비교하여 블록 기반으로 상기 차영상을 생성할 수 있다.According to an embodiment, the first calculation unit of the terrain change detection apparatus may generate the difference image on a block-by-block basis by comparing each of the first image and the second image on a block-by-block basis.

일실시예에 따르면, 상기 지형 변화 탐지 장치는 상기 변화 마스크에 포함된 검출 영역 중 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행하는 노이즈 제거부를 더 포함할 수 있다.According to an embodiment of the present invention, the terrain change detection apparatus may further include a noise removing unit for removing a region having a size smaller than a threshold value among the detection regions included in the change mask to perform morphological noise removal.

일실시예에 따르면, 상기 지형 변화 탐지 장치는 상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 상기 제1 시점에 항공 촬영된 복수 개의 제1 서브 영상들을 스티칭하여 상기 제1 영상을 생성하고, 상기 복수 개의 영역들 각각에 대해 상기 제2 시점에 항공 촬영된 복수 개의 제2 서브 영상들을 스티칭하여 상기 제2 영상을 생성하는 스티칭부를 더 포함할 수 있다.According to one embodiment, the terrain change detection apparatus stitches a plurality of first sub images aerial photographed at the first viewpoint for each of a plurality of spatially divided regions of the terrain to generate the first image And a stitching unit for stitching a plurality of second sub images photographed at the second time point for each of the plurality of areas to generate the second image.

일실시예에 따르면, 상기 스티칭부는, 상기 스티칭 전에 상기 복수 개의 제1 서브 영상들 각각 또는 상기 복수 개의 제2 서브 영상들 각각의 밝기 리매핑을 수행할 수 있다.According to an embodiment, the stitching unit may perform brightness remapping of each of the plurality of first sub images or each of the plurality of second sub images before the stitching.

일실시예에 따르면, 상기 스티칭부는 상기 스티칭 과정에서 SIFT(Scale Invariant Feature Transformation) 특징점을 추출 및 비교하여 상기 스티칭을 수행할 수 있다.According to one embodiment, the stitching unit may perform the stitching by extracting and comparing Scintillation Invariant Feature Transformation (SIFT) feature points in the stitching process.

일실시예에 따르면, 상기 스티칭부는 보간 및 블렌딩 중 적어도 하나의 기법을 이용하여 상기 복수 개의 제1 서브 영상들 사이의 경계 또는 상기 복수 개의 제2 서브 영상들 사이의 경계에서 심리스(seamless) 처리를 수행할 수 있다.According to one embodiment, the stitching unit performs seamless processing at a boundary between the plurality of first sub images or at a boundary between the plurality of second sub images using at least one technique of interpolation and blending Can be performed.

일실시예에 따르면, 상기 스티칭부는 상기 블렌딩에 있어서 저주파 성분은 상대적으로 넓게 블렌딩하고 고주파 성분은 상대적으로 좁게 블렌딩하는 멀티 밴드 블렌딩을 수행할 수 있다.According to one embodiment, the stitching unit may perform multiband blending in which the low frequency component is relatively broadly blended and the high frequency component is relatively narrowly blended in the blending.

일실시예에 따르면, 상기 스티칭부는 상기 스티칭 과정에서 상기 지형과 관계 없는 마커(Marker) 영역을 탐색하고, 상기 마커 영역을 인패인팅하여 상기 마커 영역을 제거할 수 있다.According to an embodiment, the stitching unit may search for a marker area that is not related to the terrain during the stitching process, and may remove the marker area by in-painting the marker area.

다른 일측에 따르면, 항공기에서 촬영되는 항공 영상을 이용하여 지형 변화를 탐지하는 방법이 제공된다. 상기 지형 변화 탐지 방법은 지형을 제1 시점에 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에 항공 촬영한 제2 영상을 차분하여 차영상을 생성하는 단계 및 상기 차영상을 이진화하여 변화 마스크를 생성하는 단계를 포함할 수 있다.According to another aspect, there is provided a method of detecting a change in terrain using an aerial image taken on an aircraft. The terrain change detection method includes generating a difference image by subtracting a first image obtained by aerial photographing a terrain at a first time point and a second image obtained by aerial photographing the terrain at a second time point by binarizing the difference image, For example.

일실시예에 따르면, 상기 지형 변화 탐지 방법은 상기 변화 마스크에 포함된 검출 영역 중 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the topographic change detection method may further include performing morphological noise removal by removing a region having a size smaller than a threshold value among the detection regions included in the change mask.

일실시예에 따르면, 상기 지형 변화 탐지 방법은 상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 상기 제1 시점에 항공 촬영된 복수 개의 제1 서브 영상들을 스티칭하여 상기 제1 영상을 생성하고, 상기 복수 개의 영역들 각각에 대해 상기 제2 시점에 항공 촬영된 복수 개의 제2 서브 영상들을 스티칭하여 상기 제2 영상을 생성하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the terrain change detection method stitches a plurality of first sub images aerial photographed at the first viewpoint for each of a plurality of regions spatially dividing the terrain to generate the first image And generating the second image by stitching a plurality of second sub images aerial photographed at the second time point for each of the plurality of areas.

도 1은 일실시예에 따른, 지형 변화 탐지 장치의 블록도이다.
도 2는 일실시예에 따른, 항공기에서 촬영되는 복수 개의 서브 영상들을 나타내는 도면이다.
도 3의 (a) 및 (b)는 일실시예에 따른, 상기 복수 개의 영상들 각각에 대해 밝기 리매핑을 수행하기 위한 실시예를 나타내는 도면이다.
도 4는 일실시예에 따른, 상기 복수 개의 영상들 각각에 대해 SIFT 특징점을 추출 및 비교를 수행하기 위한 실시예를 나타내는 도면이다.
도 5는 일실시예에 따른, 지형을 제1 시점에서 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에서 항공 촬영한 제2 영상을 나타내는 도면이다.
도 6은 일실시예에 따른, 상기 제1 영상과 상기 제2 영상을 차분하여 차영상을 생성하는 실시예를 나타내는 도면이다.
도 7은 일실시예에 따른, 상기 생성된 차영상을 이진화함으로써 변화 마스크를 생성하는 실시예를 나타내는 도면이다.
1 is a block diagram of a topographic change detection device, according to one embodiment.
FIG. 2 is a diagram illustrating a plurality of sub-images shot on an aircraft, according to an embodiment.
3 (a) and 3 (b) illustrate an embodiment for performing brightness remapping for each of the plurality of images, according to an embodiment.
FIG. 4 illustrates an embodiment for extracting and comparing SIFT feature points for each of the plurality of images, according to an exemplary embodiment. Referring to FIG.
FIG. 5 is a diagram illustrating a first image obtained by aerial photographing a terrain at a first viewpoint and a second image obtained by aerial photographing the terrain at a second viewpoint, according to an embodiment.
6 is a diagram illustrating an example of generating a difference image by performing a difference between the first image and the second image according to an embodiment.
7 is a diagram illustrating an embodiment for generating a change mask by binarizing the generated difference image, according to an embodiment.

이하에서, 일부 실시예들을, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, some embodiments will be described in detail with reference to the accompanying drawings. However, it is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례, 새로운 기술의 출현 등에 따라 달라질 수 있다.Although the terms used in the following description have selected the general terms that are widely used in the present invention while considering the functions of the present invention, they may vary depending on the intention or custom of the artisan, the emergence of new technology, and the like.

또한 특정한 경우는 이해를 돕거나 및/또는 설명의 편의를 위해 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.Also, in certain cases, there may be terms chosen arbitrarily by the applicant for the sake of understanding and / or convenience of explanation, and in this case the meaning of the detailed description in the corresponding description section. Therefore, the term used in the following description should be understood based on the meaning of the term, not the name of a simple term, and the contents throughout the specification.

지형이 변화는 시공간적으로 매우 다양한 형태를 보이기 때문에, 이에 대한 적절한 모니터링 및 지형 변화 정보 획득을 위한 방안이 요구되고 있다. 본 발명은 앞에서 언급한 문제를 해결하기 위한 방안으로 항공기에서 촬영되는 항공 영상을 활용할 수 있다.Since the change of the topography shows a wide variety of shapes in time and space, it is required to properly monitor and acquire the topographic change information. The present invention can utilize an aerial image photographed on an aircraft to solve the above-mentioned problems.

또한, 지형 변화 탐지 기술은 재난 발생 시 피해 면적 산출, 산불 발생 시 피해 면적의 산출, 토지 개발에 따른 개발 면적 산출, 적 부대의 이동을 감시하는 등의 여러 분야에서 활용될 수 있다.In addition, terrain change detection technology can be used in various fields such as calculation of damage area in case of disasters, calculation of damage area in the case of forest fire, calculation of development area according to land development, and monitoring of movement of enemy units.

본 발명의 일실시예에 따르면 카메라로 촬영되는 지형 및 건물 등에 대해 시간의 차이를 두고 촬영한 두 개의 영상을 이용하여 지형 변화를 탐지할 수 있다. 상기 두 개의 영상은 정지 영상일 수도 있고 또는 동영상일 수도 있다. 상기 두 개의 영상을 비교하기 위해서는 시간상으로 먼저 촬영된 영상(이를 테면, 제1 영상)이 존재할 수 있고, 어느 정도 시간의 차이를 두고 나중에 촬영된 영상(이를 테면, 제2 영상)이 존재할 수 있다.According to an embodiment of the present invention, it is possible to detect the change of the terrain by using two images photographed with time difference with respect to the terrain, buildings, and the like photographed by the camera. The two images may be a still image or a moving image. In order to compare the two images, there may exist an image (for example, a first image) photographed first in time, and an image (such as a second image) photographed at a later time with a certain time difference .

일실시예에 따른 상기 영상의 종류는 하나의 이미지 또는 대형 면적을 비교하기 위해 이미지 스티칭(Image Stitching) 작업이 이루어진 영상 또는 동영상을 이용할 수 있다.The type of the image according to an exemplary embodiment may be one image or an image or moving image in which an image stitching operation is performed to compare a large area.

일실시예에 따르면, 640 x 480 UAV 영상 2장의 stitching 시간은 약 2~3초 이내가 되며, 영상이 추가될수록 배로 증가할 수 있다. 3장 내지 4장의 이미지를 정합하여 이미지 변화 검출(Image change detection) 소요 시간은 대략 15초 내외로 유지될 수 있다.According to one embodiment, the stitching time of two 640 x 480 UAV images is within about 2 to 3 seconds, and can be doubled as the image is added. The time required for image change detection (image change detection) by matching three or four images can be maintained at about 15 seconds or less.

도 1은 일실시예에 따른, 지형 변화 탐지 장치(100)의 블록도이다. 상기 지형 변화 탐지 장치는 스티칭부(110), 제1 계산부(120), 처리부(130), 제2 계산부(140) 및 노이즈 제거부(150)를 포함할 수 있다.1 is a block diagram of a topographical change detection device 100, in accordance with one embodiment. The terrain change detecting apparatus may include a stitching unit 110, a first calculating unit 120, a processing unit 130, a second calculating unit 140, and a noise removing unit 150.

일실시예에 따르면, 제1 시점에서 지형을 항공 촬영한 제1 영상 및 제2 시점에서 상기 지형을 항공 촬영한 제2 영상은 공간적으로 분할되어 있는 복수 개의 영상 영역들을 포함할 수 있다. 이를 테면, 상기 제1 영상은 제1 시점에서 상기 지형이 항공 촬영된 복수 개의 제1 서브 영상들을 포함할 수 있고, 상기 제2 영상은 제2 시점에서 상기 지형이 항공 촬영된 복수 개의 제2 서브 영상들을 포함할 수 있다.According to an exemplary embodiment, a first image obtained by aerial photographing a terrain at a first viewpoint and a second image aerial photographing the terrain at a second viewpoint may include a plurality of image regions spatially divided. For example, the first image may include a plurality of first sub images aerial photographed at a first viewpoint, and the second image may include a plurality of second subviews aerographically photographed at a second viewpoint, Images.

일실시예에 따른 상기 스티칭부는 상기 제1 시점에서 항공 촬영된 복수 개의 상기 제1 서브 영상들을 스티칭하여, 상기 제1 영상을 생성할 수 있다. 또한, 상기 제2 시점에서 항공 촬영된 복수 개의 상기 제2 서브 영상들을 스티칭함으로써 상기 제2 영상을 생성할 수 있다.The stitching unit may stitch a plurality of first sub images aerial photographed at the first viewpoint to generate the first image. In addition, the second image may be generated by stitching a plurality of second sub images aerial captured at the second time point.

일실시예에 따른 상기 스티칭부는 상기 스티칭하기 전에 상기 복수 개의 제1 서브 영상 및 제2 서브 영상 각각에 대해 전처리 과정을 수행할 수 있는데, 이것은 아래에서 더 상세히 기술된다.The stitching unit according to an embodiment may perform a preprocessing process on each of the plurality of first sub images and second sub images before stitching, which will be described in more detail below.

일실시예에 따른 상기 제1 계산부는 상기 스티칭부에 의해 생성되는 상기 제1 영상 및 상기 제2 영상을 차분함으로써 차영상을 생성할 수 있다. 또한 상기 처리부는 상기 제1 영상 및 상기 제2 영상 중 적어도 하나에 대해 전역적 호모그라피를 추정할 수 있다.The first calculation unit according to an embodiment may generate a difference image by subtracting the first image and the second image generated by the stitching unit. The processing unit may estimate a global homography of at least one of the first image and the second image.

일실시예에 따른 상기 제2 계산부는 상기 제1 계산부에 의해 생성되는 상기 차영상을 이진화 함으로써 변화 마스크를 생성할 수 있다. 일실시예에 따른 상기 노이즈 제거부는 상기 변화 마스크에 포함되는 검출 영역 중 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행할 수 있다.The second calculation unit according to an embodiment may generate a change mask by binarizing the difference image generated by the first calculation unit. The noise removing unit may remove morphological noise by removing a region having a size smaller than a threshold value among the detection regions included in the change mask.

도 2는 일실시예에 따른, 항공기에서 촬영되는 복수 개의 서브 영상들을 나타내는 도면이다. 위에서 기술된 바와 같이 일실시예에 따른 상기 지형 변화 탐지 장치는 지형(또는 건물 등)에 대해 시간 차이를 두고 촬영한 두 개의 영상(이를 테면, 정지 영상 또는 동영상)을 이용하여, 상기 두 개의 영상 사이에서 변화된 부분을 추출하는 기능을 포함할 수 있다. 상기 두 개의 영상은, 시간상으로 먼저 촬영된 영상 이를 테면, 상기 제1 영상과, 시간상으로 나중에 촬영된 영상 이를 테면 상기 제2 영상일 수 있다.FIG. 2 is a diagram illustrating a plurality of sub-images shot on an aircraft, according to an embodiment. As described above, the terrain change detection apparatus according to an embodiment uses two images (for example, a still image or a moving image) photographed with a time difference with respect to a terrain (or a building or the like) And a function of extracting a changed portion between the two. The two images may be images captured in time, such as the first image and images taken later in time, such as the second image.

일실시예에 따르면, 상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 제1 시점에 항공 촬영된 복수 개의 상기 제1 서브 영상들이 스티칭됨으로써 상기 제1 영상이 생성될 수 있다.According to an embodiment, the first image may be generated by stitching a plurality of first sub images aerial photographed at a first viewpoint on each of a plurality of regions spatially dividing the terrain.

반대로 상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 제2 시점에 항공 촬영된 복수 개의 상기 제2 서브 영상들이 스티칭됨으로써 상기 제2 영상이 생성될 수 있다.In contrast, the second image may be generated by stitching a plurality of second sub images aerial photographed at a second point in time for each of a plurality of regions spatially dividing the terrain.

도 2의 (a), (b), (c) 및 (d)에서 도시된 도면은 이를 테면, 상기 제2 서브 영상에 포함되고 상기 제2 시점에서 항공 촬영된 복수 개의 상기 제2 서브 영상들을 나타내고 있다. 도면에 도시된 각각의 상기 제2 서브들이 상기 스티칭부에 의해 서로 스티칭되어 상기 제2 영상을 생성하게 되는 것이다. 이러한 스티칭에 대한 방법은 아래에서 더 상세히 기술된다.2 (a), 2 (b), 2 (c), and 2 (d) illustrate an example in which a plurality of second sub-images included in the second sub- Respectively. Each of the second subs shown in the figure is stitched together by the stitching unit to generate the second image. The method for such stitching is described in more detail below.

도 3의 (a) 및 (b)는 일실시예에 따른, 상기 복수 개의 영상들 각각에 대해 밝기 리매핑을 수행하기 위한 실시예를 나타내는 도면이다.3 (a) and 3 (b) illustrate an embodiment for performing brightness remapping for each of the plurality of images, according to an embodiment.

일실시예에 따르면, 상기 스티칭부는 상기 스티칭을 하기 전에 상기 복수 개의 제1 서브 영상들 각각 또는 상기 복수 개의 제2 서브 영상들 각각에 대해 밝기 리매핑(Luminance remapping)을 수행할 수 있다.According to an embodiment, the stitching unit may perform brightness remapping for each of the plurality of first sub images or each of the plurality of second sub images before stitching.

상기 밝기 리매핑은 입력된 두 영상에 대해 밝기 분포를 유사하게 일치 시키는 기술로써, 도 3은 도 2의 (a) 및 (b)에 대해 예시적으로 밝기 리매핑을 수행하는 실시예를 도시하였다.The brightness remapping is a technique of similarly matching brightness distributions to two input images. FIG. 3 shows an example of performing brightness remapping as an example for FIGS. 2 (a) and 2 (b).

위에서 언급된 바와 같이, 도 3의 (a) 및 (b)는 상기 제2 영상을 구성하는 상기 제2 서브 영상들일 수 있다. 그러나, 입력되는 서브 영상들은 시점에 따라 밝기 분포가 서로 다를 수도 있다. 이를 테면, 도 3의 (a)는 도 3의 (b)에 비해 밝기가 어둡고, 도 3의 (b)는 적당한 밝기를 갖는다고 가정할 수 있다.As mentioned above, (a) and (b) of FIG. 3 may be the second sub images constituting the second image. However, the input sub-images may have different brightness distributions depending on the viewpoint. For example, it can be assumed that FIG. 3 (a) is darker than FIG. 3 (b) and FIG. 3 (b) has an appropriate brightness.

따라서, 도 3의 (a)와 같은 경우에는 상기 밝기 리매핑 과정을 통해 도 3의 (b)와 같이 밝기가 조절되어 어두웠던 서브 영상이 밝게 조정될 수 있다. 이와 같이, 상기 스티칭을 하기 전에 상기 서브 영상들에 대해 밝기 리매핑을 수행함으로써 밝기 분포를 유사하게 일치시킬 수 있으며, 상기 서브 영상들이 스티칭이 되어 더욱 선명한 하나의 영상을 생성할 수 있다.Therefore, in the case of FIG. 3 (a), the sub-image whose brightness is adjusted as shown in FIG. 3 (b) through the brightness remapping process can be adjusted brightly. As such, by performing brightness remapping on the sub images before stitching, the brightness distribution can be similarly matched, and the sub images can be stitched to produce a single image that is clearer.

도 4는 일실시예에 따른, 상기 복수 개의 영상들 각각에 대해 SIFT 특징점을 추출 및 비교를 수행하기 위한 실시예를 나타내는 도면이다. 일실시예에 따른 상기 스티칭부는 상기 스티칭 과정에서 SIFT(Scale Invariant Feature Transformation) 특징점을 추출 및 비교하여 상기 스티칭을 수행할 수 있다.FIG. 4 illustrates an embodiment for extracting and comparing SIFT feature points for each of the plurality of images, according to an exemplary embodiment. Referring to FIG. The stitching unit may perform stitching by extracting and comparing Scale Invariant Feature Transformation (SIFT) feature points in the stitching process.

일실시예에 따르면 상기 영상들 사이의 변환 관계를 호모그래피(homography)라고 말하며, 상기 영상들 간의 대응점을 통해 변환 관계를 구할 수 있다. 상기 대응점 계산에서는 영상에서 가장 안정되며 특징을 잘 나타낼 수 있는 특징점을 추출하는 것이 가장 중요하다. 그러므로, 상기 특징점을 추출하는 경우 SIFT(Scale Invariant Feature Transformation) 특징점을 사용할 수 있다. 상기 SIFT는 회전과 크기 변환에 불면하고, 밝기 변화에 비교적 안정적이므로, 현재 가장 널리 사용되는 특징점 추출 알고리즘이다.According to one embodiment, the transformation relation between the images is referred to as homography, and a transformation relation can be obtained through a corresponding point between the images. In calculating the corresponding points, it is most important to extract the feature points that are most stable and can display the characteristics of the images. Therefore, when extracting the feature points, SIFT (Scale Invariant Feature Transformation) feature points can be used. The SIFT suffers from rotation and size conversion, and is relatively stable to brightness change, and is the most widely used feature point extraction algorithm at present.

또한, 상기 영상들 사이의 변환 관계는 크게 유클리디언(Euclidean), 유사성(similarity), 아핀(affine) 및 프로젝티브(projective) 변환으로 나뉠 수 있다. 이 중에서 상기 프로젝티브 변환이 가장 자유도가 높으며, 다양한 형태를 표현할 수 있다. 본 발명에서는 자연스러운 모자이크 영상을 생성하기 위해 상기 프로젝트 변환을 이용할 수 있다.In addition, the conversion relation between the images can be largely divided into Euclidean, similarity, affine and projective conversion. Of these, the projective transformation has the highest degree of freedom and can express various forms. In the present invention, the project conversion may be used to generate a natural mosaic image.

상기 영상들 사이의 변환 관계, 즉 상기 호모그래피를 구하는 문제에서 가장 핵심은 아웃라이어에 대한 영향을 감소시키는 것이다. 또한 대응점 중에서 대략 10% 정도의 아웃라이어에도 그 결과는 상당히 저하될 수 있다. 따라서, RANSAC(RANdom SAmple Consensus set) 기술을 이용함으로써 상기 특징점 중에서 가장 신뢰할 만한 특징점을 판별하여 아웃라이어를 제거할 수 있다.The key to the conversion relationship between images, i.e., the problem of obtaining the homography, is to reduce the influence on outliers. In addition, outliers of about 10% of the corresponding points may be significantly degraded. Therefore, by using RANSAC (Random Absolute Consensus Set) technique, outliers can be removed by discriminating the most reliable feature points among the feature points.

호모그래피 추정(Homography estimation)이 영상들 간의 기하학적 유사성을 높이기 위한 기술이라고 한다면, 보간(interpolation) 및 블렌딩(blending) 기술은 정합된 영상 결과를 더욱 자연스럽게 만들어주는 일종의 렌더링(rendering) 기술일 수 있다. 상기 보간 기술은 주로 상기 프로젝티브 변환 과정에서 데이터 정보가 없어서 생성된 파노라마 영상에 생기 구멍(hole)을 채우는 보간법을 지칭한다. 본 발명에서는 처리 시간이 빠르고 효과적인 이중 선형 보간법(bilinear interpolation)이 이용될 수 있다.If homography estimation is a technique for increasing the geometrical similarity between images, interpolation and blending techniques may be a kind of rendering technique that makes the matched image results more natural. The interpolation technique mainly refers to an interpolation method that fills a hole in a panoramic image generated because there is no data information in the project conversion process. In the present invention, bilinear interpolation, which is fast and effective in processing time, can be used.

일실시예에 따르면, 상기 보간 기술과 더불어 렌더링 기술의 또 다른 기술은 블렌딩 기술은 서로 다른 영상이 합쳐졌을 경우, 경계에서 생기는 선(seam)을 제거하기 위해 사용되는 기술이다. 상기 블렌딩 기술은 경계 부분의 선(seam)을 자연스럽게 섞는 기술이다. 본 발명은 블렌딩 기술 중에서 멀티 밴드 블렌딩 기술을 사용하여 경계선 주의에서 저주파 성분은 넓게 하고, 고주파 성분은 좁게 섞음으로써 선 주변의 세밀한 성분의 오차를 최소화할 수 있다(또는, 심리스 (seamless) 처리를 수행할 수 있다).According to one embodiment, another technique of the rendering technique in addition to the interpolation technique is a technique used to remove a seam occurring at a boundary when different images are combined. The blending technique is a technique of naturally mixing a seam of a boundary portion. In the present invention, by using the multi-band blending technique in the blending technique, it is possible to minimize the error of detailed components around the line by widening the low frequency component and narrowly mixing the high frequency component in the boundary line attention (or performing seamless processing can do).

도 4에 도시된 바와 같이, 복수의 상기 제2 서브 영상들이 스티칭되어 상기 제2 영상을 생성할 수 있다. 또한 상기 제2 서브 영상들이 스티칭되기 전에 상기 영상들 간의 밝기가 유사해지도록 밝기 리매핑 과정을 포함할 수 있다.As shown in FIG. 4, a plurality of the second sub images may be stitched to generate the second image. And a brightness remapping process so that the brightness of the images become similar before the second sub images are stitched.

도 4와 같이 상기 서브 영상들이 스티칭되는 경우, 영상과 영상 사이의 경계선이 복잡하게 이루어진 부분(410)은 위에 기술된 멀티 밴드 블렌딩 기술에 의해 고주파 성분이 좁게 섞여짐으로써 심리스 처리될 수 있다. 반대로, 영상과 영상 사이의 경계선이 상대적으로 단순하게 이루어진 부분(420)은 위에서 기술된 상기 멀티 밴드 블렌딩 기술에 의해 저주파 성분이 넓게 섞여짐으로써 심리스 처리될 수 있다.As shown in FIG. 4, when the sub images are stitched, a complex part 410 between the image and the image can be seamlessly processed by narrowly mixing high-frequency components by the above-described multi-band blending technique. On the contrary, the portion 420 in which the boundary between the image and the image is relatively simple can be seamlessly processed by mixing the low frequency components with the multiband blending technique described above.

일실시예에 따르면, 상기 스티칭부는 상기 스티칭 과정에서 상기 지형과 관계 없는 마커(Marker) 영역을 탐색할 수 있고, 상기 마커 영역을 인패인팅하여(Inpainting) 상기 마커 영역을 제거할 수 있다.According to one embodiment, the stitching unit can search for a marker area that is not related to the terrain during the stitching process, and can remove the marker area by inpainting the marker area.

일실시예에 따르면, 일부 많은 마커를 포함하는 영상들이 잇는 경우, 특히 항공 영상에는 운영자에게 비행 정보를 제공하다 보니 원래의 영상에 여러 가지의 정보들이 섞여 잇는 경우가 대부분일 수 있다.According to one embodiment, when images including a plurality of markers are connected to each other, particularly, when providing flight information to an operator in an aerial image, most of the information may be mixed with the original image.

그러나, 이러한 정보들은 영상 분석 과정에서 프로세싱 단계뿐만 아니라 시각적인 부분에서도 큰 악영항을 줄 수 있다. 또한, 차후의 지형 변화 탐지에서 좋지 않은 결과를 초래할 수 있기 때문에, 상기 임패인팅 기술을 이용하여 마커를 제거할 수 있다.However, such information can be detrimental to visual processing as well as processing steps in the image analysis process. In addition, the marking can be removed using the imprinting technique because it can lead to poor results in detection of future topographic changes.

도 5는 일실시예에 따른, 지형을 제1 시점에서 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에서 항공 촬영한 제2 영상을 나타내는 도면이다. 위에서 기술된 바와 같이 본 발명의 지형 변화 탐지 장치 및 방법은 항공 촬영되는 지형(또는 건물 등)에 대해 적절한 시간의 차이를 두고 촬영되는 두 개의 영상이 이용될 수 있다. 상기 두 개의 영상은 정지 영상이거나 또는 동영상일 수 있다.FIG. 5 is a diagram illustrating a first image obtained by aerial photographing a terrain at a first viewpoint and a second image obtained by aerial photographing the terrain at a second viewpoint, according to an embodiment. As described above, the terrain change detection apparatus and method of the present invention can use two images that are photographed with an appropriate time difference for an aerial photographing terrain (or a building, etc.). The two images may be still images or moving images.

일실시예에 따른 상기 지형 변화 탐지 장치는 상기 두 개의 영상을 비교하기 위해 도 5의 (a)와 같이 시간상으로 먼저 촬영된 이를 테면, 상기 제1 시점에서 항공 촬영된 상기 제1 영상과 도 5의 (b)와 같이 시간상으로 나중에 촬영된 이를 테면, 상기 제2 시점에서 항공 촬영된 상기 제2 영상을 이용할 수 있다.In order to compare the two images, the terrain change detection apparatus according to an exemplary embodiment of the present invention includes a first image captured in time in the first time and a second image captured in time in FIG. 5 (a) For example, the second image photographed at the second point in time, as shown in (b) of FIG.

도 5의 (a)와 도 5의 (b)를 육안으로 비교했을 경우에는, 상기 제1 시점에서 촬영된 상기 제1 영상에서 존재하지 않던 두 개의 비닐하우스(501, 502)와 컨테이너 가건물(503)이 상기 제2 시점에서 촬영된 상기 제2 영상 내에 존재하는 것을 볼 수 있다.5A and 5B, the two vinyl houses 501 and 502, which are not present in the first image photographed at the first time point, and the container greenhouse 503 ) Is present in the second image photographed at the second point in time.

일실시예에 따른 상기 제1 영상 및 상기 제2 영상 사이에서 차 영상을 구하기 위해 제공되는 두 개의 영상(상기 제1 영상 및 상기 제2 영상) 사이에는 기본 적으로 시간 차이가 존재하며, 영상을 얻는 시점 및 노출 상태가 매우 다를 수 있다.There is basically a time difference between two images (the first image and the second image) provided to obtain a difference image between the first image and the second image according to an embodiment, The point of time of exposure and the state of exposure may be very different.

따라서, 가우시안 커널을 이용하여 영상의 크기를 줄이면서 관계를 구하는 피라미드를 이용할 수 있다. 상기 피라미드를 이용함으로써 한 단계의 레벨로만 각 영상을 줄임으로써 RANSAC(RANdom SAmple Consensus)을 이용하여 이질적인 영상 간의 전역적인 호모그래피를 추정할 수 있다.Therefore, it is possible to use a pyramid that reduces the image size and obtains the relationship using the Gaussian kernel. By using the pyramid, the global homography between heterogeneous images can be estimated using RANSAC (Random Access Consensus) by reducing each image to only one level.

일실시예에 따르면, 앞에 언급된 기하학적 정합과 밝기 보정을 통해 획득되는 각각의 중복된 영역에 대해 차이 값을 구하는 것을 차영상(differencing)이라고 말할 수 있다. 일반적으로 차이가 낮은 영상에 대해서는 픽셀 기반의 차이 값을 구하지만, 지형 변화 탐지와 같은 경우의 영상은 상당히 넓은 영역을 포함하기 때문에 기하학적으로 차이가 크다. According to one embodiment, finding the difference value for each overlapping area obtained through geometric matching and brightness correction as described above may be referred to as differencing. Generally, pixel-based difference values are obtained for low-difference images, but the geometric difference is large because the images in the case of the detection of the topographic change include a considerably large area.

따라서, 상기 지형 변화 탐지 장치 및 방법은 픽셀 기반이 아닌 블록 기반의 차영상 방법을 사용할 수 있다. 상기 차영상을 생성하여, 상기 차영상을 이진화함으로써 변화 마스크(Change Mask)를 생성하는 내용에 대해서는 아래에서 도면과 함께 더 상세히 기술된다.Therefore, the terrain change detection apparatus and method can use a block-based difference image method that is not pixel based. The generation of the difference image and the generation of a change mask by binarizing the difference image will be described in detail below with reference to the drawings.

도 6의 (a)는 일실시예에 따른, 상기 제1 영상과 상기 제2 영상을 차분하여 차영상을 생성하는 실시예를 나타내는 도면이다.6A is a diagram illustrating an example of generating a difference image by subtracting the first image and the second image from each other according to an embodiment.

앞에서 언급한 바와 같이, 앞에 언급된 기하학적 정합과 밝기 리매핑을 통해 획득되는 각각의 중복된 서브 영역에 대해 차이 값을 구하는 것을 차영상(differencing)이라고 말할 수 있다.As mentioned earlier, it can be said that finding the difference value for each overlapping sub-region obtained through the above-mentioned geometric matching and brightness remapping is referred to as differencing.

이를 테면, 도 5의 (a)에 도시된, 상기 제1 시점에 항공 촬영된 상기 제1 영상과 도 5의 (b)에 도시된, 상기 제2 시점에 항공 촬영된 상기 제2 영상을 서로 차분하게 되면, 도 6의 (a)와 같은 차영상을 획득할 수 있다.For example, the first image aerial photographed at the first point of time and the second image aerial photographed at the second point of view shown in FIG. 5 (b), shown in FIG. 5 (a) If it is calibrated, the difference image as shown in Fig. 6 (a) can be obtained.

도 6의 (b)는 일실시예에 따른, 상기 생성된 차영상을 이진화함으로써 변화 마스크를 생성하는 실시예를 나타내는 도면이다.6 (b) is a diagram illustrating an embodiment for generating a change mask by binarizing the generated difference image, according to an embodiment.

일실시예에 따른 상기 제2 계산부는 위의 과정에 의해 생성된 도 6의 (a)와 같은 상기 차영상을 이진화하여 도 6의 (b)에서 도시한 바와 같은 상기 변화 마스크를 생성할 수 있다. 상기 변화 마스크에서 나타난 영역은 관심 영역으로써 이질적인 영상 간의 차이를 탐지한 부분이 될 수 있다.The second calculation unit according to the embodiment may generate the change mask as shown in FIG. 6B by binarizing the difference image as shown in FIG. 6A generated by the above process . The region indicated by the change mask may be a region of interest, which detects the difference between the heterogeneous images.

위와 같이, 상기 이진 영상을 생성하더라도 사익 영상 안에는 노이즈가 남아있을 수 있다. 일반적으로 일정 크기 이하의 객체를 노이즈라고 가정할 수 있으므로, 형태학적(morphology) 방법을 사용하여 노이즈를 제거할 수 있다. 즉, 상기 운용자가 임계치를 조정함으로써 일정한 크기 이하의 물체를 고려하지 않음으로써 지형 변화 탐지 기증을 높일 수 있다.As described above, even if the binary image is generated, noises may remain in the sikik image. In general, since an object of a certain size or less can be assumed to be noise, a morphology method can be used to remove noise. That is, since the operator does not take into consideration an object of a certain size or less by adjusting the threshold value, the terrain change detection donation can be enhanced.

일실시예에 따른 상기 노이즈 제거부가 위에 언급한 바와 같이, 상기 변화 마스크에 포함된 검출 영역 중 상기 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행할 수 있다. 또한, 상기 임계치는 상기 운용자에 의해 조정이 가능할 수 있다.As described above, the noise removing unit according to the embodiment may remove morphological noise by removing a region having a size smaller than the threshold value among detection regions included in the change mask. In addition, the threshold value may be adjustable by the operator.

도 7은 일실시예에 따른, 상기 지형 변화 탐지 방법의 흐름도이다.7 is a flow diagram of the method for detecting topographic change according to one embodiment.

일실시예에 따르면, 상기 제1 영상 및 상기 제2 영상은 일정한 시간 차이를 두고 항공 촬영된 영상이 될 수 있다. 먼저, 상기 제1 영상 및 상기 제2 영상에 연관되는 복수의 서브 영상을 항공 촬영에 의해 획득 될 수 있다(710).According to an embodiment, the first image and the second image may be aerial photographed at a predetermined time difference. First, a plurality of sub images related to the first image and the second image may be acquired by aerial photographing (710).

이를 테면, 상기 제1 영상은 제1 시점에서 상기 지형이 항공 촬영된 복수 개의 제1 서브 영상들을 가공함으로써 생성될 수 있고, 상기 제2 영상은 제2 시점에서 상기 지형이 항공 촬영된 복수 개의 제2 서브 영상들을 가공함으로써 생성될 수 있다. 이와 같은 가공 과정은 아래의 단계에서 상세히 설명된다.For example, the first image may be generated by processing a plurality of first sub images aerial photographed at a first viewpoint, and the second image may be generated by processing a plurality of aerial photographed aerial photographs at a second viewpoint, 2 < / RTI > sub-images. This process is described in detail in the following steps.

일실시예에 따른 상기 스티칭부는 상기 제1 시점에서 항공 촬영된 복수 개의 상기 제1 서브 영상들을 스티칭하여, 상기 제1 영상을 생성할 수 있는데, 이러한 스티칭 과정 전에 상기 복수의 서브 영상들에 대해 밝기 리매핑이 수행될 수 있다(720). 일실시예에 따른 상기 밝기 리매핑은 입력된 영상들이 시점에 따라 밝기 분포가 다를 경우, 전처리 과정을 통해 상기 밝기 분포를 유사하게 일치시키는 과정일 수 있다.The stitching unit may stitch a plurality of first sub-images aerial photographed at the first point in time to generate the first image. Before the stitching process, Remapping may be performed 720. The brightness remapping according to an exemplary embodiment may be a process of similarly matching the brightness distribution through preprocessing when the input images have different brightness distributions according to the viewpoints.

상기 밝기 리매핑 과정을 통해 서브 영상들 간의 밝기 분포가 적절하게 조정된 후에는, SIFT 특징점을 이용하여 영상 사이에서 안정되면서도 특징을 잘 나타낼 수 있도록 특징점을 추출할 수 있다(730). 여기서, 상기 영상들 간의 변환 관계를 호모그래피라고 말하며, 영상 간의 대응점을 통해 변환 관계를 구할 수 있다.After the brightness distribution between the sub-images is appropriately adjusted through the brightness remapping process, feature points may be extracted 730 so that the SIFT feature points can be stabilized between the images and can be well characterized. Here, the conversion relation between the images is called homography, and the conversion relation can be obtained through the correspondence point between the images.

일실시예에 따른 상기 SIFT는 회전과 크기 변환에 불면하고, 밝기 변화에 비교적 안정적이다.The SIFT according to an exemplary embodiment suffers from rotation and size conversion, and is relatively stable to brightness variations.

위와 같은 스티칭 과정을 통해 복수 개의 서브 영역을 스티칭함으로써 상기 제1 영상 또는 상기 제2 영상을 생성할 수 있다(740).In step 740, the first image or the second image may be generated by stitching a plurality of sub regions through the stitching process.

상기 지형 변화 탐지 장치의 상기 제1 계산부는 시간의 차이를 갖는 두 개의 영상인 상기 제1 영상과 상기 제2 영상을 서로 차분할 수 있다(750). 이와 같이 상기 제1 영상과 상기 제2 영상을 서로 차분함으로써 두 영상의 차이 값이 차 영상을 생성하게 된다.The first calculation unit of the terrain change detection apparatus may subtract the first image and the second image, which are two images having a time difference, with each other (750). As described above, the first image and the second image are separated from each other to generate a difference image of the difference between the two images.

일실시예에 따른 상기 제2 계산부는 상기 차영상을 이진화하여 상기 변화 마스크를 생성할 수 있다(760). 도 7의 지형 변화 탐지 방법의 흐름도에는 도시되지 않았지만, 상기 변화 마스크를 생성한 후에, 상기 노이즈 제거부에 의해 상기 변화 마스크에 포함되는 검출 영역 중 상기 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거가 수행될 수 있다. 일실시예에 따르면, 상기 임계치는 상기 운용자가 미리 설정 가능할 수 있다.The second calculator according to an exemplary embodiment may generate the change mask by binarizing the difference image (760). Although not shown in the flowchart of the topographical change detection method of FIG. 7, after generating the change mask, a region having a size smaller than the threshold value among the detection regions included in the change mask by the noise removing unit is removed, Noise removal can be performed. According to one embodiment, the threshold may be preset by the operator.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

지형을 제1 시점에 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에 항공 촬영한 제2 영상을 차분하여 차영상을 생성하는 제1 계산부; 및
상기 차영상을 이진화하여 변화 마스크를 생성하는 제2 계산부
를 포함하는 지형 변화 탐지 장치.
A first calculation unit for generating a difference image by subtracting a first image obtained by aerial photographing a terrain at a first point of time and a second image obtained by aerial photographing the terrain at a second point of time; And
A second calculation unit for binarizing the difference image to generate a change mask,
And a terrain change detection device.
제1항에 있어서,
상기 제1 영상 및 상기 제2 영상 중 적어도 하나에 대해 전역적 호모그라피를 추정하는 처리부
를 더 포함하는 지형 변화 탐지 장치.
The method according to claim 1,
A processor for estimating a global homography of at least one of the first image and the second image,
Further comprising: a terrain change detection device for detecting the terrain change.
제2항에 있어서,
상기 처리부는 상기 제1 영상 및 상기 제2 영상 중 적어도 하나에 대해 가우시안 커널을 이용하여 크기를 줄이고, RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하여 상기 전역적 호모그라피를 추정하는 지형 변화 탐지 장치.
3. The method of claim 2,
Wherein the processing unit reduces the size of at least one of the first image and the second image using a Gaussian kernel and estimates the global homography by applying a RANSAC algorithm.
제1항에 있어서,
상기 제1 계산부는 상기 제1 영상 및 상기 제2 영상의 각각을 블록 단위로 비교하여 블록 기반으로 상기 차영상을 생성하는 지형 변화 탐지 장치.
The method according to claim 1,
Wherein the first calculation unit compares each of the first image and the second image on a block basis to generate the difference image on a block basis.
제1항에 있어서,
상기 변화 마스크에 포함된 검출 영역 중 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행하는 노이즈 제거부
를 더 포함하는 지형 변화 탐지 장치.
The method according to claim 1,
A noise removing unit for removing a region having a size smaller than a threshold value among the detection regions included in the change mask to perform morphological noise removal;
Further comprising: a terrain change detection device for detecting the terrain change.
제1항에 있어서,
상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 상기 제1 시점에 항공 촬영된 복수 개의 제1 서브 영상들을 스티칭하여 상기 제1 영상을 생성하고, 상기 복수 개의 영역들 각각에 대해 상기 제2 시점에 항공 촬영된 복수 개의 제2 서브 영상들을 스티칭하여 상기 제2 영상을 생성하는 스티칭부
를 더 포함하는 지형 변화 탐지 장치.
The method according to claim 1,
Stitching a plurality of first sub images aerial photographed at the first viewpoint for each of a plurality of spatially divided regions of the terrain to generate the first image, and for each of the plurality of regions, And a stitching unit for stitching a plurality of second sub images photographed at a time point of the second image to generate the second image,
Further comprising: a terrain change detection device for detecting the terrain change.
제6항에 있어서,
상기 스티칭부는, 상기 스티칭 전에 상기 복수 개의 제1 서브 영상들 각각 또는 상기 복수 개의 제2 서브 영상들 각각의 밝기 리매핑을 수행하는 지형 변화 탐지 장치.
The method according to claim 6,
Wherein the stitching unit performs brightness remapping of each of the plurality of first sub images or each of the plurality of second sub images before stitching.
제6항에 있어서,
상기 스티칭부는, 상기 스티칭 과정에서 SIFT(Scale Invariant Feature Transformation) 특징점을 추출 및 비교하여 상기 스티칭을 수행하는 지형 변화 탐지 장치.
The method according to claim 6,
Wherein the stitching unit performs the stitching by extracting and comparing Scale Invariant Feature Transformation (SIFT) feature points in the stitching process.
제6항에 있어서,
상기 스티칭부는, 보간 및 블렌딩 중 적어도 하나의 기법을 이용하여 상기 복수 개의 제1 서브 영상들 사이의 경계 또는 상기 복수 개의 제2 서브 영상들 사이의 경계에서 심리스(seamless) 처리를 수행하는 지형 변화 탐지 장치.
The method according to claim 6,
The stitching unit may include at least one of a terrain change detection unit that performs seamless processing at a boundary between the plurality of first sub images or at a boundary between the plurality of second sub images using at least one of interpolation and blending, Device.
제9항에 있어서,
상기 스티칭부는, 상기 블렌딩에 있어서 저주파 성분은 상대적으로 넓게 블렌딩하고 고주파 성분은 상대적으로 좁게 블렌딩하는 멀티 밴드 블렌딩을 수행하는 지형 변화 탐지 장치.
10. The method of claim 9,
Wherein the stitching unit performs multiband blending in which the low frequency component is relatively broadly blended and the high frequency component is relatively narrowly blended in the blending.
제6항에 있어서,
상기 스티칭부는, 상기 스티칭 과정에서 상기 지형과 관계 없는 마커(Marker) 영역을 탐색하고, 상기 마커 영역을 인패인팅하여 상기 마커 영역을 제거하는 지형 변화 탐지 장치.
The method according to claim 6,
Wherein the stitching unit searches for a marker area that is not related to the terrain in the stitching process and removes the marker area by in-painting the marker area.
지형을 제1 시점에 항공 촬영한 제1 영상 및 상기 지형을 제2 시점에 항공 촬영한 제2 영상을 차분하여 차영상을 생성하는 단계; 및
상기 차영상을 이진화하여 변화 마스크를 생성하는 단계
를 포함하는 지형 변화 탐지 방법.
Generating a difference image by subtracting a first image aerial photographed at a first point of time and a second image aerial photographed at a second point of time; And
A step of binarizing the difference image to generate a change mask
And detecting the change of the terrain.
제12항에 있어서,
상기 변화 마스크에 포함된 검출 영역 중 임계치 이하의 크기를 갖는 영역을 제거하여 형태학적 노이즈 제거를 수행하는 단계
를 더 포함하는 지형 변화 탐지 방법.
13. The method of claim 12,
Performing morphological noise removal by removing a region having a size smaller than a threshold value among detection regions included in the change mask
And detecting the change of the terrain.
제12항에 있어서,
상기 지형을 공간적으로 분할한 복수 개의 영역들 각각에 대해 상기 제1 시점에 항공 촬영된 복수 개의 제1 서브 영상들을 스티칭하여 상기 제1 영상을 생성하고, 상기 복수 개의 영역들 각각에 대해 상기 제2 시점에 항공 촬영된 복수 개의 제2 서브 영상들을 스티칭하여 상기 제2 영상을 생성하는 단계
를 더 포함하는 지형 변화 탐지 방법.
13. The method of claim 12,
Stitching a plurality of first sub images aerial photographed at the first viewpoint for each of a plurality of spatially divided regions of the terrain to generate the first image, and for each of the plurality of regions, Stitching a plurality of second sub images photographed at a time point to generate the second image
And detecting the change of the terrain.
제12항 내지 제14항 중 어느 한 항의 지형 변화 탐지 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium containing a program for performing the terrain change detection method of any one of claims 12 to 14.
KR1020120155890A 2012-12-28 2012-12-28 Apparatus and method for topographical change detection using aerial images photographed in aircraft KR101417527B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120155890A KR101417527B1 (en) 2012-12-28 2012-12-28 Apparatus and method for topographical change detection using aerial images photographed in aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120155890A KR101417527B1 (en) 2012-12-28 2012-12-28 Apparatus and method for topographical change detection using aerial images photographed in aircraft

Publications (2)

Publication Number Publication Date
KR20140085964A true KR20140085964A (en) 2014-07-08
KR101417527B1 KR101417527B1 (en) 2014-07-10

Family

ID=51735324

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120155890A KR101417527B1 (en) 2012-12-28 2012-12-28 Apparatus and method for topographical change detection using aerial images photographed in aircraft

Country Status (1)

Country Link
KR (1) KR101417527B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529831A (en) * 2019-08-28 2021-03-19 深圳市熠摄科技有限公司 Landform latent deformation observation equipment using image processing technology
KR20220067351A (en) * 2020-11-17 2022-05-24 한국항공우주연구원 Method and system for detecting variation amount of object in sar images
CN116363085A (en) * 2023-03-21 2023-06-30 江苏共知自动化科技有限公司 Industrial part target detection method based on small sample learning and virtual synthesized data
KR102616873B1 (en) * 2023-09-13 2023-12-27 메이사플래닛 주식회사 Device and method for change detection
CN112529831B (en) * 2019-08-28 2024-05-24 深圳市熠摄科技有限公司 Landform potential change observation equipment using image processing technology

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591197B1 (en) 2014-10-01 2016-02-04 한국항공우주연구원 Apparatus and method for generating mosaic image using assistant information
KR102078254B1 (en) 2018-03-30 2020-02-17 서울시립대학교 산학협력단 Method, system and computer program for topographical change detection using LiDAR data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297641A (en) * 2001-03-29 2002-10-11 Hitachi Software Eng Co Ltd Storing method, updating method, and display method for map data, and software
US20090122195A1 (en) * 2007-11-09 2009-05-14 Van Baar Jeroen System and Method for Combining Image Sequences
KR100954884B1 (en) * 2009-10-29 2010-04-28 주식회사 힘스코리아 Image binarization device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529831A (en) * 2019-08-28 2021-03-19 深圳市熠摄科技有限公司 Landform latent deformation observation equipment using image processing technology
CN112529831B (en) * 2019-08-28 2024-05-24 深圳市熠摄科技有限公司 Landform potential change observation equipment using image processing technology
KR20220067351A (en) * 2020-11-17 2022-05-24 한국항공우주연구원 Method and system for detecting variation amount of object in sar images
CN116363085A (en) * 2023-03-21 2023-06-30 江苏共知自动化科技有限公司 Industrial part target detection method based on small sample learning and virtual synthesized data
CN116363085B (en) * 2023-03-21 2024-01-12 江苏共知自动化科技有限公司 Industrial part target detection method based on small sample learning and virtual synthesized data
KR102616873B1 (en) * 2023-09-13 2023-12-27 메이사플래닛 주식회사 Device and method for change detection

Also Published As

Publication number Publication date
KR101417527B1 (en) 2014-07-10

Similar Documents

Publication Publication Date Title
KR102137264B1 (en) Apparatus and method for camera pose estimation
Qin et al. A hierarchical building detection method for very high resolution remotely sensed images combined with DSM using graph cut optimization
KR101417527B1 (en) Apparatus and method for topographical change detection using aerial images photographed in aircraft
EP3001384A1 (en) Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and program for three-dimensional coordinate computing
US10255507B2 (en) Detection of an object in a distorted image
Li et al. Extracting man-made objects from high spatial resolution remote sensing images via fast level set evolutions
US9928574B2 (en) Method and apparatus for generating superpixels
Porzi et al. Learning contours for automatic annotations of mountains pictures on a smartphone
JP2010205067A (en) Device, method and program for extracting area
Wendel et al. Unsupervised facade segmentation using repetitive patterns
Bellavia et al. Image orientation with a hybrid pipeline robust to rotations and wide-baselines
EP3044734B1 (en) Isotropic feature matching
JP2011054062A (en) Apparatus and method for processing image, and program
KR20160036081A (en) Line tracking with automatic model initialization by graph matching and cycle detection
Kröhnert et al. Segmentation of environmental time lapse image sequences for the determination of shore lines captured by hand-held smartphone cameras
KR102211159B1 (en) Apparatus and Method of Body Parts Detection
JP2013012034A (en) Area extraction method, area extraction program and area extraction device
JP2005241886A (en) Extraction method of changed area between geographical images, program for extracting changed area between geographical images, closed area extraction method and program for extracting closed area
KR101749029B1 (en) Apparatus and Method of Body Part Detection in Image
KR101284252B1 (en) Curvature Field-based Corner Detection
WO2021110051A1 (en) Method and system for associating device coordinate systems in a multi‐person ar system
JP5838112B2 (en) Method, program and apparatus for separating a plurality of subject areas
Chican et al. Constrained patchmatch for image completion
Yaakob et al. Moving object extraction in PTZ camera using the integration of background subtraction and local histogram processing
Cheng et al. Registration of Mars remote sensing images under the crater constraint

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190326

Year of fee payment: 6