KR102170260B1 - Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it - Google Patents

Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it Download PDF

Info

Publication number
KR102170260B1
KR102170260B1 KR1020190052506A KR20190052506A KR102170260B1 KR 102170260 B1 KR102170260 B1 KR 102170260B1 KR 1020190052506 A KR1020190052506 A KR 1020190052506A KR 20190052506 A KR20190052506 A KR 20190052506A KR 102170260 B1 KR102170260 B1 KR 102170260B1
Authority
KR
South Korea
Prior art keywords
image
aperture radar
composite aperture
multispectral
radar image
Prior art date
Application number
KR1020190052506A
Other languages
Korean (ko)
Inventor
어양담
서대교
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020190052506A priority Critical patent/KR102170260B1/en
Application granted granted Critical
Publication of KR102170260B1 publication Critical patent/KR102170260B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

Disclosed are an apparatus and a method for fusing a synthetic aperture radar image and a multispectral image, and a method for detecting a change using the same. The method for fusing the synthetic aperture radar image and the multispectral image, according to one embodiment of the present application, comprises the steps of: processing a multispectral image; processing a synthetic aperture radar image; determining a training pixel from the multispectral image and the synthetic aperture radar image; learning a correlation between the multispectral image and the synthetic aperture radar image based on color information of the multispectral image corresponding to the training pixel and feature information of the synthetic aperture radar image; and colorizing the synthetic aperture radar image by fusing the multispectral image and the synthetic aperture radar image, based on the learned correlation.

Description

합성 개구 레이더 영상 및 다중분광영상의 융합 장치, 방법 및 그를 이용한 변화 검출 방법{APPARATUS AND METHOD FOR FUSING SYNTHETIC APERTURE RADAR IMAGE AND MULTISPECTRAL IMAGE, METHOD FOR DETECTING CHANGE USING IT}Synthetic aperture radar image and multispectral image fusion device, method, and change detection method using the same {APPARATUS AND METHOD FOR FUSING SYNTHETIC APERTURE RADAR IMAGE AND MULTISPECTRAL IMAGE, METHOD FOR DETECTING CHANGE USING IT}

본원은 합성 개구 레이더 영상 및 다중분광영상의 융합 장치, 방법 및 그를 이용한 변화 검출 방법에 관한 것이다.The present application relates to an apparatus and method for fusion of a composite aperture radar image and a multispectral image, and a change detection method using the same.

동일지역을 촬영한 위성 영상을 이용하여 변화 탐지를 수행하기 위해서는 동일한 조건으로 촬영된 영상이 활용되어야 하나, 광학위성 영상의 경우 촬영주기, 대기조건 및 기상조건 등에 의해 필요한 시기의 영상을 획득하는데 어려움이 있다. 특히, 다시기의 영상 정보가 활용되는 경우 취득되는 시기에 따라 센서 특성 및 방사적, 계절적으로 다른 특성을 담고 있다. 이러한 특성의 보정이 수행되지 않는 경우, 실제 변화된 객체가 아님에도 해당 객체를 변화된 지역으로 판단하는 오류를 범할 수 있다.In order to perform change detection using a satellite image captured in the same area, an image captured under the same conditions must be used, but in the case of an optical satellite image, it is difficult to acquire an image at a required time due to the shooting period, atmospheric conditions, and weather conditions. There is this. In particular, when the image information of Dajigi is used, it contains sensor characteristics and radially and seasonally different characteristics depending on the timing of acquisition. If the correction of such characteristics is not performed, an error of determining the object as a changed area may be made even though the object is not actually changed.

또한, 변화 탐지는 동일지역을 서로 다른 시간에 촬영한 위성 영상 등을 이용하여 영상을 분석하여 자연적으로 발생하거나 인간 활동에 의해 생성된 해당 지역 내 변경 사항을 모니터링하는 프로세스이다. 이러한 변화 탐지를 높은 정확도로 수행하기 위해서는 변화 탐지의 기초가 되는 위성 영상 등이 시간적으로 서로 가깝고 풍부한 특징을 반영할 수 있어야 한다. 그러나, 한 가지 종류의 영상만을 고려하는 경우(예를 들어, 합성 개구 레이더 영상만 사용하거나 광학 데이터만 사용하는 경우)에는 이러한 요구 사항이 충족되기 어렵다. 최근 들어 다양한 해상도와 성능 수준을 제공하는 관측 센서가 장착된 인공 위성이 만들어지고 동작하고 있으며, 변화 탐지의 대상이 되는 영상이 가진 한계를 극복하기 위한 각종 센서가 마련되고 있는 실정이다.In addition, change detection is a process of analyzing images using satellite images captured at different times of the same area and monitoring changes in the area that occur naturally or generated by human activities. In order to perform such change detection with high accuracy, satellite images, which are the basis of change detection, must be close to each other in time and be able to reflect rich features. However, when only one type of image is considered (for example, when only a composite aperture radar image is used or only optical data is used), this requirement is difficult to meet. Recently, artificial satellites equipped with observation sensors that provide various resolutions and performance levels have been made and operated, and various sensors are being prepared to overcome the limitations of images subject to change detection.

구체적으로, 광학 데이터(광학 이미지)는 반사 특성 및 방사 특성에 대해 비교적 풍부한 정보를 반영할 수 있어 그 해석이 용이하여 변화 탐지를 위한 주요한 데이터로 활용될 수 있다. 다만, 광학 데이터는 촬영시 구름의 존재 등의 대기 조건의 영향을 상대적으로 크게 받아 변화 탐지에 활용되기 위한 시간적 제약을 극복하기 어렵다. 반대로, 레이더 센서(예를 들어, 합성 개구 레이더)는 대기를 통과하는 긴 파장의 자체 조명원의 구비를 통해 기상 조건의 영향을 덜 받고 낮과 밤의 영향 또한 받지 않는다. 나아가 레이더 센서는 지형 및 물체에 대한 후방 산란에 대한 민감도가 높고 진폭 및 위상 측면에서 일관된 이미징을 가능케 한다. 다만, 스펙클 노이즈, 경사 범위 이미징, 레이어 오버, 그림자에 의한 영향 또는 제한된 대역으로 인해 광학 이미지와 비교할 때 상대적으로 해석이 어렵다는 한계를 가진다.Specifically, optical data (optical image) can reflect relatively rich information on reflection characteristics and radiation characteristics, and thus can be easily interpreted and used as main data for change detection. However, optical data is relatively largely affected by atmospheric conditions such as the presence of clouds during photographing, so it is difficult to overcome the temporal constraint for use in detecting changes. Conversely, radar sensors (eg, synthetic aperture radars) are less affected by weather conditions and are not affected by weather conditions through the provision of their own light source of long wavelengths that pass through the atmosphere. Furthermore, radar sensors are highly sensitive to backscattering of terrain and objects, and enable consistent imaging in terms of amplitude and phase. However, it has a limitation that it is relatively difficult to interpret when compared to an optical image due to speckle noise, oblique range imaging, layer over, influence by shadow, or limited band.

이와 관련하여, 변화 탐지에 다양한 원격 감지 데이터를 활용하기 위해 합성 개구 레이더(Synthetic Aperture Radar; SAR)에 의한 영상과 광학 이미지 데이터를 보완적으로 함께 사용하거나 상이한 두 유형의 데이터를 융합하는 것을 고려할 수 있다. 다만, 종래의 영상 융합 방법은 상이한 두 유형의 데이터 간의 이미징 메커니즘(imaging mechnism) 차이를 좁히지 못하고, 변화 탐지에서 사용되는 광학 이미지 데이터의 시간적 한계를 극복하지 못했다.In this regard, in order to utilize various remote sensing data for change detection, it may be considered to complementarily use an image and optical image data by a Synthetic Aperture Radar (SAR) or fuse two different types of data. have. However, the conventional image fusion method has not narrowed the difference in imaging mechanism between two different types of data, and has not overcome the temporal limitation of optical image data used in change detection.

특히, 종래의 영상 융합 방법은 합성 개구 레이더 영상과 광학 이미지의 영상화 메커니즘 간의 상당한 차이에 의해, 융합된 영상은 기존 영상과 회색 값(gray value) 차이가 상대적으로 크고, 융합된 영상에 무시할 수 없는 색상 왜곡이 유발되는 단점이 있다.In particular, the conventional image fusion method has a relatively large difference in gray value from the existing image due to a significant difference between the imaging mechanism of the composite aperture radar image and the optical image, and cannot be ignored in the fused image. There is a disadvantage of causing color distortion.

본원의 배경이 되는 기술은 한국등록특허공보 제10-1693705호에 개시되어 있다.The technology behind the present application is disclosed in Korean Patent Application Publication No. 10-1693705.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 합성 개구 레이더 영상과 광학 이미지(특히, 다중분광영상)의 상관 관계를 탐색하여 이를 학습하여, 합성 개구 레이더 영상과 광학 이미지의 융합 영상을 기초로 합성 개구 레이더 영상을 컬러화하는 합성 개구 레이더 영상 및 다중분광영상의 융합 장치를 제공하는 것을 목적으로 한다.The present application is to solve the above-described problems of the prior art, by searching the correlation between the composite aperture radar image and the optical image (especially, multispectral image) and learning it, based on the fusion image of the composite aperture radar image and the optical image. An object of the present invention is to provide an apparatus for fusion of a composite aperture radar image and a multispectral image to colorize a composite aperture radar image.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 합성 개구 레이더 영상 및 다중분광영상의 융합을 통한 변화 검출 방법 및 시스템을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object thereof is to provide a method and system for detecting changes through fusion of a composite aperture radar image and a multispectral image.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiment of the present application is not limited to the technical problems as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 방법은, 다중분광영상을 처리하는 단계, 합성 개구 레이더 영상을 처리하는 단계, 상기 다중분광영상 및 상기 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정하는 단계, 상기 트레이닝 픽셀에 대응하는 다중분광영상의 색상 정보 및 합성 개구 레이더 영상의 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 단계 및 학습된 상관 관계에 기초하여, 상기 다중분광영상 및 상기 합성 개구 레이더 영상을 융합하여 상기 합성 개구 레이더 영상을 컬러화하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the fusion method of a composite aperture radar image and a multispectral image according to an embodiment of the present application includes processing a multispectral image, processing a composite aperture radar image, the Determining a training pixel from the multispectral image and the composite aperture radar image, correlation between the multispectral image and the composite aperture radar image based on color information of the multispectral image corresponding to the training pixel and characteristic information of the composite aperture radar image And colorizing the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learning relationship and the learned correlation.

또한, 상기 상관 관계를 학습하는 단계는, 상기 합성 개구 레이더 영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 상기 다중분광영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 것일 수 있다.In addition, the learning of the correlation may include inputting characteristic information of a pixel corresponding to the position of the training pixel in the composite aperture radar image and color information of a pixel corresponding to the position of the training pixel in the multispectral image. It may be to learn a correlation between a multispectral image and a composite aperture radar image using a random forest model.

또한, 상기 다중분광영상을 처리하는 단계는, 상기 다중분광영상으로부터 RGB 대역의 픽셀값을 추출하는 단계 및 상기 다중분광영상을 복수의 클래스로 분류하는 단계를 포함할 수 있다.Further, the processing of the multispectral image may include extracting pixel values of an RGB band from the multispectral image and classifying the multispectral image into a plurality of classes.

또한, 상기 랜덤 포레스트 모델은 상기 복수의 클래스마다 생성될 수 있다.In addition, the random forest model may be generated for each of the plurality of classes.

또한, 상기 상관 관계를 학습하는 단계는, 복수의 클래스마다 생성된 랜덤 포레스트 모델 각각을 이용하여 수행될 수 있다.In addition, the learning of the correlation may be performed using each of the random forest models generated for each of a plurality of classes.

또한, 상기 다중분광영상을 복수의 클래스로 분류하는 단계는, K 평균 클러스터링 알고리즘을 기 설정된 반복 횟수만큼 수행하여 상기 다중분광영상을 복수의 클래스로 분류하는 것일 수 있다.In addition, the step of classifying the multispectral image into a plurality of classes may include classifying the multispectral image into a plurality of classes by performing a K average clustering algorithm as many times as a preset repetition number.

또한, 상기 상기 합성 개구 레이더 영상을 처리하는 단계는, 상기 합성 개구 레이더 영상으로부터 픽셀 정보를 추출하는 단계, 상기 합성 개구 레이더 영상의 각 픽셀에서의 GLCM(gray level co-occurrence matrix)를 생성하는 단계 및 상기 GLCM으로부터 상기 합성 개구 레이더 영상의 상기 특성 정보를 추출하는 단계를 포함할 수 있다.In addition, the processing of the composite aperture radar image may include extracting pixel information from the composite aperture radar image, and generating a gray level co-occurrence matrix (GLCM) in each pixel of the composite aperture radar image. And extracting the characteristic information of the composite aperture radar image from the GLCM.

또한, 상기 트레이닝 픽셀을 결정하는 단계는, 합성 개구 레이더 영상 및 다중분광영상의 픽셀값을 차분하는 단계 및 픽셀값의 차분 결과에 기초하여 미변화 픽셀을 상기 트레이닝 픽셀로 결정하는 단계를 포함할 수 있다.In addition, the determining of the training pixel may include differentiating pixel values of the composite aperture radar image and the multispectral image, and determining an unchanged pixel as the training pixel based on the difference result of the pixel values. have.

또한, 상기 합성 개구 레이더 영상을 컬러화하는 단계는, 상기 학습된 상관 관계에 기초하여, 상기 합성 개구 레이더 영상의 상기 트레이닝 픽셀 이외의 픽셀에서의 색상 정보를 예측하고, 상기 예측된 색상 정보에 기초하여 상기 합성 개구 레이더 영상을 컬러화하는 것일 수 있다.In addition, the step of colorizing the composite aperture radar image may include predicting color information in pixels other than the training pixels of the composite aperture radar image, based on the learned correlation, and based on the predicted color information. It may be to colorize the composite aperture radar image.

또한, 상기 다중분광영상과 상기 합성 개구 레이더 영상은 서로 다른 시점(time)에 획득된 것일 수 있다.In addition, the multispectral image and the composite aperture radar image may be acquired at different times.

한편, 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법은, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법을 이용하여 상기 합성 개구 레이더 영상을 컬러화하는 단계 및 상기 컬러화된 합성 개구 레이더 영상 및 상기 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행하는 단계를 포함할 수 있다.On the other hand, the change detection method based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application includes the steps of colorizing the composite aperture radar image using a fusion method of a composite aperture radar image and a multispectral image. And detecting a change in an area to be photographed based on the colored composite aperture radar image and the multispectral image.

또한, 상기 다중분광영상과 상기 합성 개구 레이더 영상은 서로 다른 시점(time)에 획득된 것일 수 있다.In addition, the multispectral image and the composite aperture radar image may be acquired at different times.

한편, 본원의 일 실시예에 따른, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치는, 다중분광영상으로부터 색상 정보를 추출하고, 상기 다중분광영상을 복수의 클래스로 분류하는 다중분광영상 처리부, 합성 개구 레이더 영상으로부터 픽셀 정보 및 특성 정보를 추출하는 합성 개구 레이더 영상 처리부, 상기 다중분광영상 및 상기 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정하는 트레이닝 픽셀 설정부, 상기 트레이닝 픽셀에 대응하는 다중분광영상의 상기 색상 정보 및 합성 개구 레이더 영상의 상기 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 학습부 및 학습된 상관 관계에 기초하여, 상기 다중분광영상 및 상기 합성 개구 레이더 영상을 융합하여 상기 합성 개구 레이더 영상을 컬러화하는 컬러화부를 포함할 수 있다.On the other hand, according to an embodiment of the present application, the fusion device of the composite aperture radar image and the multispectral image, a multispectral image processing unit that extracts color information from the multispectral image and classifies the multispectral image into a plurality of classes, and A composite aperture radar image processing unit that extracts pixel information and characteristic information from an aperture radar image, a training pixel setting unit that determines a training pixel from the multispectral image and the composite aperture radar image, and the multispectral image corresponding to the training pixel. A learning unit that learns the correlation between the multispectral image and the composite aperture radar image based on the color information and the characteristic information of the composite aperture radar image, and the multispectral image and the composite aperture radar image based on the learned correlation. It may include a colorization unit for colorizing the composite aperture radar image by fusion.

또한, 본원의 일 실시예에 따른, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치는, 컬러화된 합성 개구 레이더 영상 및 상기 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행하는 변화 검출부를 포함할 수 있다.In addition, according to an embodiment of the present disclosure, the apparatus for fusion of a composite aperture radar image and a multispectral image includes a change detection unit that detects a change in a region to be photographed based on the colored composite aperture radar image and the multispectral image. can do.

또한, 상기 학습부는, 상기 합성 개구 레이더 영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 상기 다중분광영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.In addition, the learning unit may generate a random forest model for inputting characteristic information of a pixel corresponding to the position of the training pixel in the composite aperture radar image and color information of a pixel corresponding to the position of the training pixel in the multispectral image. Using this, it is possible to learn the correlation between the multispectral image and the composite aperture radar image.

또한, 상기 컬러화부는, 상기 학습된 상관 관계에 기초하여, 상기 합성 개구 레이더 영상의 상기 트레이닝 픽셀 이외의 픽셀에서의 색상 정보를 예측하고, 상기 예측된 색상 정보에 기초하여 상기 합성 개구 레이더 영상을 컬러화하는 것일 수 있다.In addition, the colorization unit predicts color information in pixels other than the training pixels of the composite aperture radar image based on the learned correlation, and colorizes the composite aperture radar image based on the predicted color information. It can be.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 합성 개구 레이더 영상과 광학 이미지(특히, 다중분광영상)의 상관 관계를 획득하고 이를 학습하여, 합성 개구 레이더 영상과 광학 이미지의 융합 영상을 기초로 합성 개구 레이더 영상을 컬러화하는 합성 개구 레이더 영상 및 다중분광영상의 융합 장치를 제공할 수 있는 효과가 있다.According to the above-described problem solving means of the present application, by acquiring and learning the correlation between the composite aperture radar image and the optical image (especially, multispectral image), a composite aperture radar based on the fusion image of the composite aperture radar image and the optical image. There is an effect of providing an apparatus for fusion of a composite aperture radar image and a multispectral image to colorize an image.

전술한 본원의 과제 해결 수단에 의하면, 합성 개구 레이더 영상 및 다중분광영상의 융합을 통한 변화 검출 방법 및 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide a method and system for detecting changes through fusion of a composite aperture radar image and a multispectral image.

전술한 본원의 과제 해결 수단에 의하면, 종래의 영상 융합 기법과 달리, 촬영된 시점에 시간차가 존재하는 영상들을 기반으로도 영상 융합을 수행할 수 있고, 융합된 영상을 변경 탐지에 활용할 수 있는 효과가 있다.According to the above-described problem solving means of the present application, unlike the conventional image fusion technique, image fusion can be performed even based on images with a time difference at the captured point of view, and the fused image can be utilized for change detection. There is.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effect obtainable in the present application is not limited to the effects as described above, and other effects may exist.

도 1은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 장치를 포함하는, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출시스템의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 합성 개구 레이더 영상과 다중분광영상을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 랜덤 포레스트 모델 기반의 합성 개구 레이더 영상 및 다중분광영상의 융합 결과와 종래의 영상 융합 기법 또는 다른 회귀 모델에 기반한 모델에 의한 융합 결과를 비교하여 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 클래스의 수에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 결과를 분석하여 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 결과를 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 결과를 통계적 지표를 통해 평가한 도표이다.
도 7 은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 장치의 개략적인 구성도이다.
도 8은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 방법의 동작흐름도이다.
도 9는 본원의 일 실시예에 따른 합성 개구 레이더 영상을 처리하는 방법의 동작흐름도이다.
도 10은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법의 동작흐름도이다.
1 is a schematic configuration diagram of a change detection system based on a fusion image of a composite aperture radar image and a multispectral image, including a fusion device for a composite aperture radar image and a multispectral image according to an embodiment of the present application.
2 is a diagram showing a composite aperture radar image and a multispectral image according to an embodiment of the present application.
3 is a view showing a comparison of a fusion result of a synthetic aperture radar image and a multispectral image based on a random forest model and a fusion result by a conventional image fusion technique or a model based on another regression model according to an embodiment of the present application.
4 is a diagram illustrating a result of fusion of a composite aperture radar image and a multispectral image according to the number of classes according to an exemplary embodiment of the present application.
5 is a diagram illustrating a change detection result based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application.
6 is a chart in which a change detection result based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application is evaluated through a statistical index.
7 is a schematic configuration diagram of an apparatus for fusion of a composite aperture radar image and a multispectral image according to an embodiment of the present application.
8 is an operation flow diagram of a method for fusion of a composite aperture radar image and a multispectral image according to an embodiment of the present application.
9 is an operation flow diagram of a method of processing a composite aperture radar image according to an embodiment of the present application.
10 is a flowchart illustrating an operation of a method for detecting a change based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present application. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present application, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be "connected" with another part, it is not only the case that it is "directly connected", but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including the case.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned "on", "upper", "upper", "under", "lower", and "lower" of another member, this means that a member is located on another member. It includes not only the case where they are in contact but also the case where another member exists between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 1은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 장치를 포함하는, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a change detection system based on a fusion image of a composite aperture radar image and a multispectral image, including a fusion device for a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 1을 참조하면, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 시스템(10)은, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치(100)(이하, '영상 융합 장치(100)'라 한다.), 합성 개구 레이더(200), 다중분광영상 촬영 장치(300) 및 네트워크(20)를 포함할 수 있다.Referring to FIG. 1, a change detection system 10 based on a fusion image of a composite aperture radar image and a multispectral image includes a fusion device 100 for a composite aperture radar image and a multispectral image (hereinafter referred to as ``image fusion device 100 )'.), a composite aperture radar 200, a multispectral imaging apparatus 300, and a network 20.

합성 개구 레이더(200)(Synthetic Aperture Radar, SAR)는 공중에서 지상 및 해양을 관찰하는 레이더일 수 있다. 구체적으로, 합성 개구 레이더(200)는 지상 및 해양에 대해 전파 신호를 순차적으로 쏜 이후, 상기 전파 신호가 관측 지역으로부터 반사되어 돌아오는 시간차를 선착순으로 합성하여 지상지형도를 만들어내는 레이더 시스템을 의미할 수 있다. 아울러, 합성 개구 레이더 영상은 상기 레이더 시스템을 통하여 만들어진 영상이다. 상기 합성 개구 레이더 영상은 평상 시뿐만 아니라, 주야간, 및 악천후 시에도 상기 레이더 시스템을 통하여 만들어질 수 있다.The synthetic aperture radar 200 (Synthetic Aperture Radar, SAR) may be a radar that observes the ground and the ocean from the air. Specifically, the composite aperture radar 200 refers to a radar system that generates a ground topographic map by sequentially firing radio signals on the ground and the ocean, and then synthesizing the time difference in which the radio signals are reflected from the observation area and return in a first-come-first-served basis. I can. In addition, the composite aperture radar image is an image created through the radar system. The composite aperture radar image may be produced through the radar system not only in normal time, but also in day and night, and in bad weather.

본원의 일 실시예에 따르면, 합성 개구 레이더(200)는 다목적 위성인 KOMPSAT-5 에 구비된 레이더일 수 있다. 참고로, KOMPSAT-5는 표준 모드(ST 모드, 3m, 30km swath), 고해상도 모드(HR 모드, 1m, 5km swath), 와이드 워쓰 모드(WS 모드, 20m, 100 km swath)의 3가지 이미징 모드를 제공할 수 있으며, 본원의 일 실시예에 따른 합성 개구 레이더 영상은 KOMPSAY-5의 공간 분해능 3m, 하강 궤도(descending orbit), HH 편파(polarization)의 파라미터를 제공하는 표준 모드(ST 모드)에서 촬영된 것 일 수 있다.According to an embodiment of the present application, the composite aperture radar 200 may be a radar provided in the multipurpose satellite KOMPSAT-5. For reference, KOMPSAT-5 has three imaging modes: standard mode (ST mode, 3m, 30km swath), high resolution mode (HR mode, 1m, 5km swath), and wide water mode (WS mode, 20m, 100km swath). The composite aperture radar image according to an embodiment of the present application is taken in a standard mode (ST mode) that provides parameters of a spatial resolution of 3m, a descending orbit, and HH polarization of KOMPSAY-5. It may have been.

다중분광영상 촬영 장치(300)는, 예시적으로, Landsat-8 Operational Land Imager (OLI)일 수 있다. 본원의 일 실시예에 따른 다중분광영상은 공간 분해능이 30m 이고, 7개의 대역(대역 1: 0.433-0.453μm, 대역 2: 0.450-0.515 μm, 대역 3: 0.525-0.600μm, 대역 4: 0.630-0.680μm, 대역 5: 0.845-0.885μm, 대역 6: 1.560-1.660μm, 대역 7: 2.100-2.300μm)를 지원하는 다중분광영상 촬영 장치(300)에 의해 촬영된 것일 수 있다.The multispectral imaging apparatus 300 may be, for example, a Landsat-8 Operational Land Imager (OLI). The multispectral image according to an embodiment of the present application has a spatial resolution of 30 m, and 7 bands (Band 1: 0.433-0.453 μm, Band 2: 0.450-0.515 μm, Band 3: 0.525-0.600 μm, Band 4: 0.630- 0.680 μm, band 5: 0.845-0.885 μm, band 6: 1.560-1.660 μm, band 7: 2.100-2.300 μm) may be photographed by the multispectral imaging apparatus 300 supporting.

영상 융합 장치(100)는 합성 개구 레이더(200) 및 다중분광영상 촬영 장치(300)와 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The image fusion device 100 may communicate with the composite aperture radar 200 and the multispectral imaging device 300 through the network 20. The network 20 refers to a connection structure in which information exchange is possible between respective nodes such as terminals and servers, and examples of such a network 20 include a 3rd Generation Partnership Project (3GPP) network, and a Long Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), a wifi network, a Bluetooth network, a satellite broadcasting network, an analog broadcasting network, and a Digital Multimedia Broadcasting (DMB) network, but are not limited thereto.

이하에서는, 영상 융합 장치(100)가 합성 개구 레이더 영상 및 다중분광영상을 융합하는 과정에 대해 상세히 서술하기로 한다.Hereinafter, the process of fusing the composite aperture radar image and the multispectral image by the image fusion device 100 will be described in detail.

먼저, 영상 융합 장치(100)는, 네트워크(20)를 통해 합성 개구 레이더(200)가 촬영한 합성 개구 레이더 영상을 획득할 수 있다.First, the image fusion device 100 may acquire a composite aperture radar image captured by the composite aperture radar 200 through the network 20.

또한, 영상 융합 장치(100)는, 네트워크(20)를 통해 다중분광영상 촬영 장치(300)가 촬영한 다중분광영상을 획득할 수 있다.In addition, the image fusion device 100 may acquire a multispectral image captured by the multispectral image capturing apparatus 300 through the network 20.

도 2는 본원의 일 실시예에 따른 합성 개구 레이더 영상과 다중분광영상을 나타낸 도면이다.2 is a diagram showing a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 2의 (a) 본원의 일 실시예에 따른 합성 개구 레이더 영상이고, (b)는 본원의 일 실시예에 따른 다중분광영상일 수 있다.2A is a composite aperture radar image according to an embodiment of the present application, and (b) may be a multispectral image according to an exemplary embodiment of the present application.

또한, 본원의 일 실시예에 따르면, 다중분광영상과 합성 개구 레이더 영상은 서로 다른 시점(time)에 획득된 것일 수 있다. 예시적으로, 도 2의 합성 개구 레이더 영상(a)은 2014년 8월 21일에 획득된 것일 수 있다. 또한, 도 2의 다중분광영상(b)은 2016년 9월 24일에 획득된 것일 수 있다. 달리 말해, 본원의 일 실시예에 따르면, 다중분광영상은 제 1시점에 획득(촬영)된 영상일 수 있고, 합성 개구 레이더 영상은 상기 제 1시점과 상이한 제 2시점에 획득(촬영)된 영상을 의미할 수 있다. 상기 제 1 시점 및 상기 제 2 시점의 시간적 선후 관계는 실시예에 따라 달라질 수 있음은 물론이다.Further, according to the exemplary embodiment of the present disclosure, the multispectral image and the composite aperture radar image may be acquired at different times. For example, the composite aperture radar image (a) of FIG. 2 may be acquired on August 21, 2014. In addition, the multispectral image (b) of FIG. 2 may be acquired on September 24, 2016. In other words, according to an embodiment of the present application, the multispectral image may be an image acquired (photographed) at a first point of view, and the composite aperture radar image is an image acquired (photographed) at a second point different from the first point of view. Can mean It goes without saying that the temporal relationship between the first viewpoint and the second viewpoint may vary according to embodiments.

구체적으로, 제 2시점에 촬영된 합성 개구 레이더 영상은, 제 1 시점에 촬영된 다중분광영상과 제 2시점에 촬영된 다중분광영상을 기초로 하여 촬영 대상 영역의 변화 검출을 수행하려는 경우, 상기 제 2 시점에 촬영된 다중분광영상이 구름이 존재하는 등의 대기 조건 또른 다른 불측의 원인에 의해 변화 검출에 활용되기 적합하게 촬영되지 못한 경우, 제 2시점에 촬영된 다중분광영상을 대체하기 위하여 활용될 수 있다.Specifically, the composite aperture radar image photographed at the second point of view is, in the case of performing detection of a change in the area to be photographed based on the multispectral image photographed at the first viewpoint and the multispectral image photographed at the second viewpoint, the To replace the multispectral image captured at the second time point when the multispectral image captured at the second time point is not suitable for use in detecting changes due to atmospheric conditions such as the presence of clouds or other unforeseen causes. Can be utilized.

달리 말해, 후술할 영상 융합 방법에 의한 서로 다른 시점(time)에 촬영된 다중분광영상과 합성 개구 레이더 영상의 융합 영상으로 특정 시점의 다중분광영상에 문제가 있더라도 해당 특정 시점의 다중분광영상을 대체할 수 있다.In other words, it is a fusion image of a multispectral image captured at different times and a composite aperture radar image by the image fusion method described later, and even if there is a problem with the multispectral image at a specific viewpoint, the multispectral image at that specific viewpoint is replaced. can do.

영상 융합 장치(100)는, 다중분광영상을 처리할 수 있다. 본원의 일 실시예에 따르면, 상기 다중분광영상은 상기 제 1시점에 촬영된 것일 수 있다. 먼저, 영상 융합 장치(100)는, 대기 조건에 의한 영향을 보정하기 위해 다중분광영상에 대해 Dark-Object Substraction 알고리즘 기반의 전처리를 수행할 수 있다. 또한, 본원의 일 실시예에 따르면, 영상 융합 장치(100)는 다중분광영상이 합성 개구 레이더 영상과 동일한 해상도를 갖도록 다중분광영상의 해상도를 15m로 재샘플링할 수 있다.The image fusion device 100 may process a multispectral image. According to an embodiment of the present application, the multispectral image may be photographed at the first point of view. First, the image fusion apparatus 100 may perform pre-processing based on a dark-object substraction algorithm on a multispectral image in order to correct an effect of the atmospheric condition. In addition, according to the exemplary embodiment of the present disclosure, the image fusion device 100 may resample the resolution of the multispectral image to 15m so that the multispectral image has the same resolution as the composite aperture radar image.

또한, 영상 융합 장치(100)는, 다중분광영상으로부터 RGB 대역의 픽셀값을 추출할 수 있다. 달리 말해, 영상 융합 장치(100)는 다중분광영상으로부터 가시 스펙트럼인 적색(R), 녹색(G), 청색(B) 대역만을 추출할 수 있다. 상기 RGB 대역의 픽셀값은 본원 명세서 전반에서 다중분광영상의 색상 정보를 의미하는 것으로 이해될 수 있다. 또한, 상기 다중분광영상은 상기 제 1시점에 촬영된 것일 수 있으며, 따라서 상기 색상 정보는 제 1시점에서의 촬영 대상 영역의 특성(색상)을 반영한 것일 수 있다.Also, the image fusion device 100 may extract pixel values of an RGB band from a multispectral image. In other words, the image fusion device 100 may extract only visible spectrums of red (R), green (G), and blue (B) bands from the multispectral image. The pixel value of the RGB band may be understood to mean color information of a multispectral image throughout the present specification. In addition, the multispectral image may be photographed at the first point of view, and therefore, the color information may reflect a characteristic (color) of a region to be photographed at the first point of view.

또한, 영상 융합 장치(100)는, 다중분광영상을 복수의 클래스로 분류할 수 있다. 영상 융합 장치(100)는, 영상 융합의 전체 알고리즘의 복잡도를 줄이고, 높은 예측 정확도를 확보하기 위하여, 다중분광영상과 합성 개구 레이더 영상을 전체 대 전체로서 융합하는 것이 아니라, 복수의 클래스로 다중분광영상을 분할하고 복수의 클래스 별로 후술할 영상 융합 알고리즘(예를 들어, 두 영상의 특성을 학습하는 알고리즘)을 독립적으로 적용할 수 있다.Also, the image fusion device 100 may classify a multispectral image into a plurality of classes. In order to reduce the complexity of the entire image fusion algorithm and to ensure high prediction accuracy, the image fusion device 100 does not fusion the multispectral image and the composite aperture radar image as a whole, but multispectral multiple classes into a plurality of classes. An image fusion algorithm (for example, an algorithm for learning characteristics of two images) to be described later may be applied independently for each of a plurality of classes by dividing an image.

구체적으로, 영상 융합 장치(100)는, K 평균 클러스터링 알고리즘을 기 설정된 반복 횟수만큼 수행하여 다중분광영상을 복수의 클래스로 분류할 수 있다. K 평균 클러스터링 알고리즘은 클러스터 중심을 기초로 하여 데이터 분류를 위한 모델을 수립하는 중심 기반(centroid-based) 기법이며, 중심점 벡터에 대한 각 픽셀(점) 사이의 거리의 합을 최소화 하기 위해 목적하는 분류 결과가 달성될 때까지 반복적으로 모델을 수정할 수 있다. 즉, K 평균 클러스터링 알고리즘에 적용되는 매개 변수는 클래스의 수, 반복(iteration) 횟수일 수 있다.Specifically, the image fusion apparatus 100 may classify a multispectral image into a plurality of classes by performing a K-average clustering algorithm as many times as a preset repetition number. The K-means clustering algorithm is a centroid-based technique that establishes a model for data classification based on the cluster center, and is intended to minimize the sum of the distances between each pixel (point) for the center point vector. Models can be modified iteratively until results are achieved. That is, parameters applied to the K-means clustering algorithm may be the number of classes and the number of iterations.

본원의 일 실시예에 따르면, 최적 클래스의 수는 두 영상의 특성을 학습하는 알고리즘의 학습 시간을 포함하는 학습 성능 및 토지 피복 분포 특성(land cover distribution characteristics)과 연관된 정보를 고려하여 결정될 수 있으며, 이를 기초로 하여 결정되는 최소 클래스의 수는 6개일 수 있다.According to an embodiment of the present application, the number of optimal classes may be determined in consideration of learning performance including learning time of an algorithm for learning characteristics of two images and information related to land cover distribution characteristics, The minimum number of classes determined based on this may be six.

또한, 본원의 일 실시예에 따르면, K 평균 클러스터링 알고리즘의 반복 횟수(iteration)가 20을 초과하는 경우에는 유의미한 학습 성능의 향상이 없으므로 최대 반복 횟수는 20으로 결정될 수 있다.In addition, according to an embodiment of the present disclosure, when the iteration of the K-means clustering algorithm exceeds 20, there is no significant improvement in learning performance, so the maximum number of iterations may be determined as 20.

영상 융합 장치(100)는, 합성 개구 레이더 영상을 처리할 수 있다. 본원의 일 실시예에 따르면, 상기 합성 개구 레이더 영상은 상기 제 2시점에 촬영된 것일 수 있다. 먼저 영상 융합 장치(100)는, 멀티룩킹(multi-looking), 스페클 필터링(speckle filtering), 지형 보정 등의 영상 전처리를 수행할 수 있다. 예시적으로, 멀티룩킹(multi-looking)은 스페클 노이즈를 저감하기 위하여 3개의 range look과 6개의 azimuth look을 바탕으로 수행될 수 있다. 또한, 스페클 필터링(speckle filtering)은 물체의 외곽(edge)를 유지하면서 스페클 노이즈를 감소시키기 위하여 3x3 커널의 감마 맵 필터를 통해 수행될 수 있다. 또한, 지형 보정은 셔틀 레이더 지형 미션(Shuttle Radar Topography Mission, SRTM)와 연계되어 수행될 수 있으며, 쌍 선형 보간법(bilinear interpolation)이 함께 적용될 수 있다.The image fusion device 100 may process a composite aperture radar image. According to the exemplary embodiment of the present application, the composite aperture radar image may be photographed at the second viewpoint. First, the image fusion device 100 may perform image preprocessing such as multi-looking, speckle filtering, and terrain correction. For example, multi-looking may be performed based on three range looks and six azimuth looks in order to reduce speckle noise. In addition, speckle filtering may be performed through a 3x3 kernel gamma map filter in order to reduce speckle noise while maintaining the edge of the object. In addition, terrain correction may be performed in connection with a shuttle radar topography mission (SRTM), and a bilinear interpolation method may be applied together.

또한, 영상 융합 장치(100)는 합성 개구 레이더 영상으로부터 픽셀 정보를 추출할 수 있다. 상기 픽셀 정보는 합성 개구 레이더 영상의 세기 정보(intensity)를 의미할 수 있으며, 상기 픽셀 정보를 통해 합성 개구 레이더 영상의 각 픽셀은 다중분광영상의 각 픽셀과의 매핑될 수 있다. 종래의 영상 융합 기법은, 합성 개구 레이더 영상으로부터 픽셀 정보만을 고려하였으나 픽셀 정보만을 고려하는 경우에는 높은 정확도를 갖는 예측 결과를 기대하기 어렵다. 따라서, 본원의 일 실시예에 따른 영상 융합 장치(100)는 픽셀 정보와 함께 GLCM을 통해 획득되는 특성 정보(특히, 재질 특성, 거칠기 특성 등을 포함한다)를 영상 융합에 활용할 수 있다. 또한, 상기 합성 개구 레이더 영상은 상기 제 2시점에 촬영된 것일 수 있으며, 따라서 상기 픽셀 정보 및 상기 특성 정보는 촬영 대상 영역의 제 2시점에서의 특성을 반영한 것일 수 있다. 이하에서는 영상 융합 장치(100)는 GLCM을 기초로 특성 정보를 획득하는 과정을 상세히 설명한다.In addition, the image fusion device 100 may extract pixel information from the composite aperture radar image. The pixel information may mean intensity information of the composite aperture radar image, and each pixel of the composite aperture radar image may be mapped with each pixel of the multispectral image through the pixel information. In the conventional image fusion technique, only pixel information from a composite aperture radar image is considered, but when only pixel information is considered, it is difficult to expect a prediction result with high accuracy. Accordingly, the image fusion apparatus 100 according to the exemplary embodiment of the present disclosure may utilize the characteristic information (especially, including material characteristics, roughness characteristics, etc.) obtained through GLCM together with pixel information for image fusion. In addition, the composite aperture radar image may be photographed at the second viewpoint, and thus the pixel information and the characteristic information may reflect characteristics at the second viewpoint of the photographing target area. Hereinafter, a process of obtaining the characteristic information based on the GLCM will be described in detail by the image fusion device 100.

영상 융합 장치(100)는 합성 개구 레이더 영상의 각 픽셀에서의 GLCM(gray level co-occurrence matrix)를 생성할 수 있다. GLCM은 하나의 픽셀에 대하여 그 픽셀과 인접한 픽셀 사이의 통계값을 통해 해당 픽셀의 공간적 특성을 나타내는 행렬을 의미할 수 있다.The image fusion device 100 may generate a gray level co-occurrence matrix (GLCM) in each pixel of the composite aperture radar image. The GLCM may refer to a matrix representing spatial characteristics of a pixel through statistical values between the pixel and adjacent pixels for one pixel.

또한, 영상 융합 장치(100)는 GLCM으로부터 합성 개구 레이더 영상의 특성 정보를 추출할 수 있다. 구체적으로, 영상 융합 장치(100)는, GLCM 으로부터 대비(contrast), 불일치도(dissimilarity), 동질성(homogeneity), 상관도(correlation), ASM(angular second moment) 및 에너지(energy) 등의 GLCM 기술자를 적어도 하나 획득할 수 있다.Also, the image fusion device 100 may extract characteristic information of the composite aperture radar image from the GLCM. Specifically, the image fusion device 100 is a GLCM technician such as contrast, dissimilarity, homogeneity, correlation, angular second moment (ASM), and energy from GLCM. At least one can be obtained.

구체적으로, 대비(contrast)는 합성 개구 레이더 영상의 텍스쳐 구조의 깊이와 부드러운 정도를 나타낼 수 있다. 불일치도(dissimilarity)는 대비(contrast)와 유사한 GLCM 기술자이나, 대비(contrast)는 하나의 픽셀로부터 대각선 방향으로 멀어짐에 따라 지수적으로 증가(예를 들어, 0,1,4,9 등)하는 값인 반면, 불일치도(dissimilarity)는 선형적으로 증가(예를 들어, 0,1,2,3 등)한다는 차이가 존재한다. 동질성(homogeneity)은 합성 개구 레이더 영상의 텍스쳐의 매끄러움을 측정하며, 이웃하는 픽셀에서 스펙트럼이 크게 변하는 경우 그 값이 작게 측정되며, 반대로 스펙트럼이 작게 변하는 경우 그 값이 크게 측정될 수 있다. 상관도(correlation)는 합성 개구 레이더 영상의 텍스쳐의 수평 또는 수직 방향의 유사성을 반영할 수 있다. ASM은 영상 분포의 규칙성 및 균일성을 측정할 수 있으며, 에너지(energy)는 ASM의 제곱근으로 계산될 수 있다.Specifically, contrast may represent the depth and softness of the texture structure of the composite aperture radar image. The dissimilarity is a GLCM descriptor similar to contrast, but the contrast increases exponentially (e.g., 0,1,4,9, etc.) While it is a value, there is a difference that the dissimilarity increases linearly (eg 0,1,2,3, etc.). Homogeneity measures the smoothness of the texture of the composite aperture radar image, and when the spectrum changes significantly in neighboring pixels, the value is measured to be small. Conversely, when the spectrum changes to small, the value can be measured large. The correlation may reflect the similarity in the horizontal or vertical direction of the texture of the composite aperture radar image. ASM can measure the regularity and uniformity of the image distribution, and energy can be calculated as the square root of the ASM.

또한, GLCM로부터 각 GLCM기술자를 계산하기 위해서는, 합성 개구 레이더 영상에 특정 크기의 창(window)을 설정해야 하며, 본원의 일 실시예에 따르면, 5x5 크기의 창의 경우, 세부적인 질감(특성 정보)를 잘 반영할 수 있다.In addition, in order to calculate each GLCM technician from the GLCM, a window of a specific size must be set in the composite aperture radar image. According to an embodiment of the present application, in the case of a 5x5 size window, detailed texture (characteristic information) Can reflect well.

또한, 본원의 일 실시예에 따르면, 영상 융합 장치(100)는 모든 특성 정보를 명확히 측정하기 위하여, GLCM을 통한 특성 정보 추출 이전에 영상 정합(co-register) 및 지형 보정을 선행하여 수행할 수 있다.In addition, according to an exemplary embodiment of the present application, in order to clearly measure all characteristic information, the image fusion device 100 may perform image co-register and terrain correction prior to extraction of characteristic information through GLCM. have.

영상 융합 장치(100)는, 다중분광영상 및 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정할 수 있다.The image fusion device 100 may determine a training pixel from the multispectral image and the composite aperture radar image.

이와 관련하여, 영상 융합 장치(100)는, 합성 개구 레이더 영상 및 다중분광영상의 픽셀값을 차분할 수 있다.In this regard, the image fusion device 100 may differentiate between pixel values of the composite aperture radar image and the multispectral image.

또한, 영상 융합 장치(100)는, 픽셀값의 차분 결과에 기초하여 미변화 픽셀을 트레이닝 픽셀로 결정할 수 있다. 구체적으로, 영상 융합 장치(100)는, 픽셀값의 차분 결과에 기초하여 분광 반사율(spectral reflectance)이 소정의 수준 이하로만 변한 영역(다시 말해, 거의 변하지 않은 영역)을 상기 미변화 픽셀로 결정하고 이를 트레이닝 픽셀로 결정할 수 있다.Also, the image fusion apparatus 100 may determine an unchanged pixel as a training pixel based on a result of difference between pixel values. Specifically, the image fusion device 100 determines a region in which spectral reflectance has changed only below a predetermined level (that is, a region that has not changed substantially) based on the difference result of pixel values as the unchanged pixel, This can be determined as a training pixel.

또한, 본원의 일 실시예에 따르면, 영상 융합 장치(100)는, 트레이닝 픽셀을 결정하기에 앞서, 합성 개구 레이더 영상과 다중분광영상의 차원(dimension)을 일치시키기 위한 광도법(luminosity method)를 선행하여 적용할 수 있다. 상기 광도법은 하기 식 1에 의해 수행되는 것일 수 있다.In addition, according to an embodiment of the present application, before determining the training pixel, the image fusion device 100 performs a luminosity method for matching the dimensions of the composite aperture radar image and the multispectral image. Can be applied. The photometric method may be performed by Equation 1 below.

[식 1][Equation 1]

Figure 112019045930476-pat00001
Figure 112019045930476-pat00001

영상 융합 장치(100)는, 트레이닝 픽셀에 대응하는 다중분광영상의 색상 정보 및 합성 개구 레이더 영상의 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다. 또한, 상기 다중분광영상은 상기 제 1시점에 촬영된 것이고, 상기 합성 개구 레이더 영상은 상기 제 2시점에 촬영된 것일 수 있다. 따라서, 상기 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 것은, 다중분광영상으로부터 제 1시점의 색상 정보를 파악하고, 합성 개구 레이더 영상으로부터 제 2시점의 특성 정보를 파악하여, 둘 사이의 상관 관계를 도출하는 것을 의미할 수 있다. 나아가, 상기 다중분광영상과 합성 개구 레이더 영상의 상관 관계가 학습되면, 제 1시점의 색상 정보와 제 2 시점의 특성 정보를 통해, 제 2 시점의 색상 정보를 예측할 수 있다.The image fusion apparatus 100 may learn a correlation between the multispectral image and the composite aperture radar image based on color information of the multispectral image corresponding to the training pixel and characteristic information of the composite aperture radar image. In addition, the multispectral image may be photographed at the first viewpoint, and the composite aperture radar image may be photographed at the second viewpoint. Therefore, learning the correlation between the multispectral image and the composite aperture radar image is to grasp the color information of the first point of view from the multispectral image, grasp the characteristic information of the second point of view from the composite aperture radar image, It can mean to derive a correlation of. Further, when the correlation between the multispectral image and the composite aperture radar image is learned, color information of the second view may be predicted through color information of the first view and characteristic information of the second view.

본원의 일 실시예에 따르면, 영상 융합 장치(100)는, 합성 개구 레이더 영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 다중분광영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트(Random Forest, RF) 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.According to an exemplary embodiment of the present application, the image fusion device 100 inputs characteristic information of a pixel corresponding to a position of a training pixel in a composite aperture radar image and color information of a pixel corresponding to a position of a training pixel in a multispectral image. The correlation between the multispectral image and the composite aperture radar image can be learned using a random forest (RF) model.

랜덤 포레스트(RF) 기법은 분류기(classifier) 또는 회귀기(regressor)와 연계되어 다수의 독립 트리를 만들고 통계 분석을 통해 결과를 얻는 앙상블 학습법(학습 알고리즘)을 의미할 수 있다. 랜덤 포레스트 모델은 다수의 데이터에서 파악되는 복잡한 관계를 모델링하고, 예측 변수와 응답 변수 사이의 비선형 관계를 모델링하는데 적합하다. 분류기의 경우, 모델링 결과는 개별 트리의 결과에서 결정된 다수의 표를 사용하여 획득되며, 회귀기의 경우, 모델링 결과는 트리의 평균을 사용하여 획득된다. 구체적으로, 회귀 트리는 랜덤 포레스트 기반의 회귀 분석에서 기본 학습자로 사용되며, 각 회귀 트리는 기존 데이터 세트에서 파생된 별도의 부트 스트랩 샘플에서 재배치된다(부트 스트랩 집계, bagging). 즉, 독립 트리를 통해 결과를 얻은 다음 그 결과를 집계하므로 안정성이 높고 노이즈가 데이터에 미치는 영향이 상대적으로 작으며, 과도한 오류를 방지할 수 있다. 또한, 랜덤 포레스트 모델의 성능은 학습 대상에서 제외된 일부 트리 데이터(Out-of-Bag Data; OOB data)를 사용하여 평가된다.The random forest (RF) technique may refer to an ensemble learning method (learning algorithm) in which a number of independent trees are created in connection with a classifier or a regressor, and results are obtained through statistical analysis. The random forest model is suitable for modeling complex relationships identified in a large number of data and for modeling nonlinear relationships between predictors and response variables. In the case of the classifier, the modeling result is obtained using a number of tables determined from the results of individual trees, and in the case of the regressor, the modeling result is obtained using the average of the tree. Specifically, the regression tree is used as a basic learner in random forest-based regression analysis, and each regression tree is rearranged in a separate bootstrap sample derived from the existing data set (bootstrap aggregation, bagging). In other words, since results are obtained through an independent tree and then the results are aggregated, stability is high, the effect of noise on the data is relatively small, and excessive errors can be prevented. In addition, the performance of the random forest model is evaluated using some tree data (Out-of-Bag Data; OOB data) excluded from the training target.

종합하면, 랜덤 포레스트는 두 데이터 간의 관계가 다소 복잡하거나 비선형인 경우, 높은 정확도로 모델링을 수행할 수 있으며, 높은 예측 성능과 안정성 측면의 이점이 있어 원격 감지(변화 탐지) 분야에 적용되기에 적합한 학습 모델이다.In sum, random forest can perform modeling with high accuracy when the relationship between the two data is rather complex or nonlinear, and has advantages in terms of high prediction performance and stability, making it suitable for application in the field of remote sensing (change detection). It is a learning model.

본원의 일 실시예에 따르면, 랜덤 포레스트 모델은 다중분광영상을 처리하는 과정에서 분류된 복수의 클래스마다 생성될 수 있다. 또한, 영상 융합 장치(100)는 복수의 클래스 마다 생성된 랜덤 포레스트 모델 각각을 이용하여 상관 관계의 학습을 수행할 수 있다. 영상 융합 장치(100)가 복수의 클래스 별로 랜덤 포레스트 모델을 이용한 학습을 독립적으로 수행함에 따라, 전체 알고리즘(학습)의 복잡성이 감소될 수 있으며, 다중분광영상으로부터 더 풍부한 정보를 검색할 수 있다. 구체적으로, 복수의 클래스 마다 생성된 랜덤 포레스트 모델 각각은 트레이닝 픽셀에서의 합성 개구 레이더 영상의 특성 정보(특히, 재질, 거칠기 특성)와 다중분광영상의 RGB 대역의 픽셀값(색상 정보)을 사용하여 학습을 수행한다.According to an embodiment of the present application, a random forest model may be generated for each of a plurality of classes classified in a process of processing a multispectral image. In addition, the image fusion apparatus 100 may perform correlation learning using each of the random forest models generated for each of a plurality of classes. As the image fusion device 100 independently performs learning using a random forest model for each of a plurality of classes, the complexity of the entire algorithm (learning) may be reduced, and richer information may be retrieved from a multispectral image. Specifically, each of the random forest models generated for each of the plurality of classes uses the characteristic information (especially, material, roughness characteristics) of the composite aperture radar image in the training pixel and the pixel value (color information) in the RGB band of the multispectral image. Carry out learning.

또한, 본원의 일 실시예에 따르면, 랜덤 포레스트 모델링을 위한 트리(Tree) 수는 랜덤 포레스트 모델의 학습 시간을 포함하는 성능을 고려하여 결정될 수 있으며, 상기 트리(Tree) 수는 예시적으로 32개로 결정될 수 있다.In addition, according to an embodiment of the present application, the number of trees for random forest modeling may be determined in consideration of the performance including the training time of the random forest model, and the number of trees is exemplarily 32. Can be determined.

영상 융합 장치(100)는, 학습된 상관 관계에 기초하여, 다중분광영상 및 합성 개구 레이더 영상을 융합하여 상기 합성 개구 레이더 영상을 컬러화할 수 있다.The image fusion device 100 may colorize the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learned correlation.

구체적으로 영상 융합 장치(100)는, 학습된 상관 관계에 기초하여, 합성 개구 레이더 영상의 트레이닝 픽셀 이외의 픽셀(예를 들면, 전체 픽셀에서 트레이닝 픽셀을 제외한 픽셀)에서의 색상 정보를 예측할 수 있다.In more detail, the image fusion device 100 may predict color information in pixels other than the training pixels of the composite aperture radar image (eg, pixels excluding the training pixels from all pixels) based on the learned correlation. .

또한, 영상 융합 장치(100)는, 예측된 색상 정보에 기초하여 합성 개구 레이더 영상을 컬러화할 수 있다. 또한, 상기 다중분광영상은 상기 제 1시점에 촬영된 것이고, 상기 합성 개구 레이더 영상은 상기 제 2시점에 촬영된 경우, 상기 예측된 색상 정보는 상기 다중분광영상과 합성 개구 레이더 영상의 상관 관계에 기초하여, 제 1시점의 색상 정보와 제 2 시점의 특성 정보를 통해, 예측된 제 2 시점의 색상 정보를 의미할 수 있다.In addition, the image fusion device 100 may colorize the composite aperture radar image based on the predicted color information. In addition, when the multispectral image is captured at the first point of view, and the composite aperture radar image is taken at the second point of view, the predicted color information is related to the correlation between the multispectral image and the synthesized aperture radar image. Based on the color information of the first viewpoint and the characteristic information of the second viewpoint, it may mean color information of the second viewpoint.

구체적으로, 본원의 일 실시예에 따르면, 합성 개구 레이더 영상의 전체 픽셀 중 미변화 픽셀인 트레이닝 픽셀에 대응하는 위치의 색상 정보(예를 들면, RGB 값)는 다중분광영상의 트레이닝 픽셀에 대응하는 위치의RGB 대역의 픽셀값으로 결정될 수 있으며, 합성 개구 레이더 영상의 전체 픽셀 중 트레이닝 픽셀이 아닌 영역의 색상 정보(RGB 값)은 학습된 상관 관계에 기초하여 예측된 색상 정보(RGB 값)으로 결정될 수 있다.Specifically, according to an embodiment of the present application, color information (eg, RGB value) of a position corresponding to a training pixel that is an unchanged pixel among all pixels of a composite aperture radar image is corresponding to a training pixel of a multispectral image. It can be determined by the pixel value of the RGB band of the location, and the color information (RGB value) of a region other than the training pixel among all pixels of the composite aperture radar image will be determined as predicted color information (RGB value) based on the learned correlation. I can.

도 3a는 본원의 일 실시예에 따른 랜덤 포레스트 모델 기반의 합성 개구 레이더 영상 및 다중분광영상의 융합 결과와 종래의 영상 융합 기법 또는 다른 회귀 모델에 기반한 모델에 의한 융합 결과를 비교하여 나타낸 도면이다.3A is a view showing a comparison between a fusion result of a synthetic aperture radar image and a multispectral image based on a random forest model and a fusion result by a conventional image fusion technique or a model based on another regression model according to an embodiment of the present application.

도 3a를 참조하면, (a)는 기준 다중분광영상, (b) 본원의 일 실시예에 따른 영상 융합 장치(100)에 의한 합성 개구 레이더 영상 및 다중분광영상의 융합 영상, (c)는 개선된 intensity-hue-saturation(IHS) 기법에 의한 융합 영상, (d)는 principal component analysis(PCA) 기법에 의한 융합 영상, (e)는 Gram-Schmidt(GS) 기법에 의한 융합 영상, (f)는 Ehlers 기법에 의한 융합 영상, (g)는 stochastic gradient boosting(SGB) 회귀 모델에 의한 융합 영상, (h)는 adaptive boosting(AdaBoost) 회귀 모델에 의한 융합 영상을 각각 의미할 수 있다. 도 3에 도시된 융합 영상 비교를 통하여 합성 개구 레이더 영상 및 다중분광영상의 융합 영상의 품질을 육안으로 확인할 수 있다.3A, (a) is a reference multispectral image, (b) a fusion image of a composite aperture radar image and a multispectral image by the image fusion device 100 according to an embodiment of the present application, and (c) is an improvement. Convergence image by the intensity-hue-saturation (IHS) technique, (d) is a fusion image by principal component analysis (PCA) technique, (e) is a fusion image by Gram-Schmidt (GS) technique, (f) Denotes a fusion image using the Ehlers method, (g) a fusion image using a stochastic gradient boosting (SGB) regression model, and (h) a fusion image using an adaptive boosting (AdaBoost) regression model, respectively. The quality of the fusion image of the composite aperture radar image and the multispectral image can be visually confirmed through the fusion image comparison shown in FIG. 3.

도 3a를 참조하면, 본원의 일 실시예에 따른 영상 융합 장치(100)에 의한 합성 개구 레이더 영상 및 다중분광영상의 융합 영상이 단일 합성 개구 레이더 영상 또는 단일 다중분광영상에 의할 때 보다 더 많은 정보를 포함하고 있음을 확인할 수 있다. 특히, 본원에 의한 융합 영상은 합성 개구 레이더 영상의 특성 정보뿐만 아니라 다중분광영상의 색상 정보를 함께 반영할 수 있다.3A, the fusion image of the composite aperture radar image and the multispectral image by the image fusion device 100 according to an embodiment of the present invention is more than when a single composite aperture radar image or a single multispectral image is used. It can be confirmed that it contains information. In particular, the fusion image according to the present application may reflect not only characteristic information of the composite aperture radar image but also color information of the multispectral image.

구체적으로, (c)의 개선된 intensity-hue-saturation(IHS) 기법에 의한 융합 영상, (d)의 principal component analysis(PCA) 기법에 의한 융합 영상, (e)의 Gram-Schmidt(GS) 기법에 의한 융합 영상의 경우 색상 왜곡이 크게 나타나며, 스펙트럼 보존이 제대로 수행되지 않은 것을 확인할 수 있고, (f)의 Ehlers 기법에 의한 융합 영상의 경우, 다른 영상 융합 기법과 비교할 때 스펙트럼 보존은 비교적 잘 수행되지만, 융합 영상이 전반적으로 흐려져 세부적인 특성이 제대로 반영되지 않을 수 있다.Specifically, the fusion image using the improved intensity-hue-saturation (IHS) technique in (c), the fusion image using the principal component analysis (PCA) technique in (d), and the Gram-Schmidt(GS) technique in (e) In the case of the fusion image by fusion, it can be seen that the color distortion is large, and the spectrum preservation is not performed properly. However, the fusion image is generally blurred and detailed characteristics may not be properly reflected.

또한, (g)의 stochastic gradient boosting(SGB) 회귀 모델에 의한 융합 영상의 경우, 배경 영역의 색상은 잘 표현하지만 지면 또는 지상의 색상을 제대로 표현되지 않는 것을 확인할 수 있으며, (h)의 adaptive boosting(AdaBoost) 회귀 모델에 의한 융합 영상의 경우, 전체적으로 다소 붉은 색조로 왜곡될 수 있으며, 합성 개구 레이더 영상의 특성을 주로 반영한 부분은 녹색의 노이즈가 나타날 수 있다.In addition, in the case of the fusion image based on the stochastic gradient boosting (SGB) regression model in (g), it can be seen that the color of the background area is well expressed, but the color of the ground or the ground is not properly expressed, and the adaptive boosting of (h) (AdaBoost) In the case of a fusion image based on a regression model, the overall color may be slightly distorted with a reddish hue, and green noise may appear in the part mainly reflecting the characteristics of the composite aperture radar image.

반면, (b)의 본원의 일 실시예에 따른 영상 융합 장치(100)에 의한 합성 개구 레이더 영상 및 다중분광영상의 융합 영상은 비교적 색상 왜곡이 적고, 다중분광영상의 스펙트럼 특성이 잘 유지되며, 합성 개구 레이더 영상의 특성 정보(특히, 재질 특성 또는 거칠기 특성)이 잘 반영되는 것을 알 수 있다.On the other hand, the fusion image of the composite aperture radar image and the multispectral image by the image fusion device 100 according to the embodiment of the present application of (b) has relatively little color distortion, and the spectral characteristics of the multispectral image are well maintained, It can be seen that characteristic information (especially, material characteristics or roughness characteristics) of the composite aperture radar image is well reflected.

도 3a을 참조하면, 융합 영상에 대한 육안 검사는 비교적 쉽고 직관적이나, 영상 융합 장치(100)의 실제 효과를 정확하게 평가하기 위해서는 통계적 수치 기반의 정량적 분석이 병행되어야 한다.Referring to FIG. 3A, visual inspection of a fused image is relatively easy and intuitive, but in order to accurately evaluate the actual effect of the image fusion device 100, quantitative analysis based on statistical values must be performed in parallel.

융합 영상을 정량적으로 평가하기 위한 통계적 기법과 관련하여, UIQI(universal image quality index, 범용 이미지 품질 계수)는, 영상 융합 장치(100)에 의해 생성된 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 다중분광영상 사이의 휘도 왜곡, 콘트라스트 왜곡 및 상관 손실의 조합을 이용하여 계산될 수 있다.Regarding the statistical technique for quantitatively evaluating the fused image, the UIQI (universal image quality index) is a fusion image of a composite aperture radar image and a multispectral image generated by the image fusion device 100 It can be calculated using a combination of luminance distortion, contrast distortion, and correlation loss between multispectral images.

구체적으로, UIQI는 하기 식 2-1 내지 식 2-4를 통해 측정된다.Specifically, UIQI is measured through Equations 2-1 to 2-4 below.

[식 2-1][Equation 2-1]

Figure 112019045930476-pat00002
Figure 112019045930476-pat00002

[식 2-2][Equation 2-2]

Figure 112019045930476-pat00003
Figure 112019045930476-pat00003

[식 2-3][Equation 2-3]

Figure 112019045930476-pat00004
Figure 112019045930476-pat00004

[식 2-4][Equation 2-4]

Figure 112019045930476-pat00005
Figure 112019045930476-pat00005

CC(correlation coefficient, 상관 계수)는 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 기준 다중분광영상의 상관 관계를 나타낼 수 있으며, 하기 식 3에 의해 결정될 수 있다.The CC (correlation coefficient) may represent a correlation between a fusion image of a composite aperture radar image and a multispectral image and a reference multispectral image, and may be determined by Equation 3 below.

[식 3][Equation 3]

Figure 112019045930476-pat00006
Figure 112019045930476-pat00006

상기 식 2-1 내지 식 3에서, μx, μy는 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 기준 다중분광영상의 평균값, σx, σy는 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 기준 다중분광영상의 표준 편차값, σxy는 두 영상의 공분산을 각각 의미할 수 있다.In Equations 2-1 to 3, μ x and μ y are the average values of the fusion image and the reference multispectral image of the composite aperture radar image and the multispectral image, and σ x and σ y are the composite aperture radar image and the multispectral image. The standard deviation value, σ xy , of the fusion image and the reference multispectral image may mean the covariance of the two images, respectively.

상술한 UIQI와 CC는 [-1,1]의 범위를 가지며, 1에 가까울수록 더 나은 품질을 나타내는 것일 수 있다.The above-described UIQI and CC have a range of [-1,1], and the closer to 1 may indicate a better quality.

또한, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 기준 다중분광영상의 공간적 품질(spatial quality)을 평가하기 위한 엔트로피 (Entropy)와 흐림 검출 누적 확률(cumulative probability of blur detection; CPBD)이 고려될 수 있다.In addition, entropy and cumulative probability of blur detection (CPBD) for evaluating the spatial quality of the fusion image of the composite aperture radar image and the multispectral image and the reference multispectral image are considered. I can.

엔트로피는 영상에 포함된 평균 정보를 표시하고 융합 영상의 세부 정보를 반영할 수 있다. 일반적으로 융합 영상의 엔트로피가 클수록 영상에 포함된 정보가 풍부해지고 융합의 품질이 높은 것으로 평가될 수 있다. 엔트로피는 하기 식 4에 의해 계산될 수 있다.Entropy may display average information included in an image and reflect detailed information of the fusion image. In general, the greater the entropy of the fusion image, the richer the information contained in the image and the higher the quality of the fusion can be evaluated. Entropy can be calculated by Equation 4 below.

[식 4][Equation 4]

Figure 112019045930476-pat00007
Figure 112019045930476-pat00007

여기서, P i 는 영상에서의 i번째 확률을 의미할 수 있다.Here, P i may mean the i- th probability in the image.

또한, 흐림 검출 누적 확률(CPBD)는, 상이한 콘트라스트에서 관찰자의 흐림 인식의 감도에 기초하여 계산될 수 있다. 구체적으로, 영상의 각 가장자리에서 흐림을 감지할 확률을 추정한 다음 최종 품질 평가 점수를 얻기 위해 영상 전체를 풀 오버(pooled over)할 수 있다. 콘트라스트 C 값이 주어졌다고 할 때, 흐림 검출 누적 확률(CPBD)은 하기 식 5-1 및 식 5-2에 의해 계산될 수 있다.Further, the cloud detection cumulative probability (CPBD) may be calculated based on the sensitivity of the observer's blur recognition at different contrasts. Specifically, after estimating the probability of detecting blur at each edge of the image, the entire image may be pooled over to obtain a final quality evaluation score. Given a contrast C value, the cloud detection cumulative probability (CPBD) can be calculated by the following equations 5-1 and 5-2.

[식 5-1][Equation 5-1]

Figure 112019045930476-pat00008
Figure 112019045930476-pat00008

[식 5-2][Equation 5-2]

Figure 112019045930476-pat00009
Figure 112019045930476-pat00009

여기서, w(e i )는 측정된 가장자리 e i 의 폭, w JNB (e i )는 국부적인 콘트라스트 C 값에 의존하여 결정되는 눈에 보이는 번짐 폭, β는 최소 제곱합에 의해 획득되는 매개 변수, P(P BLUR )는, 주어진 P BLUR 에 대한 확률 분포 함수 값을 의미할 수 있으며, CPBD는 [0,1]의 범위를 가지고, 1에 가까울수록 더 좋은 영상 품질을 의미할 수 있다.Where w(e i ) is the width of the measured edge e i , w JNB (e i ) is the visible bleeding width determined depending on the local contrast C value, and β is a parameter obtained by the least square sum, P (P BLUR) is, it is possible to sense the probability distribution function value for a given P BLUR, CPBD has a range of [0, 1], can be closer to 1 means that a better image quality.

도 3b는 본원의 일 실시예에 따른 랜덤 포레스트 모델 기반의 합성 개구 레이더 영상 및 다중분광영상의 융합 결과와 종래의 영상 융합 기법 또는 다른 회귀 모델에 기반한 모델에 의한 융합 결과를 UIQI 및 CC 수치 측면에서 비교한 도표이다.3B is a fusion result of a synthetic aperture radar image and a multispectral image based on a random forest model and a fusion result based on a conventional image fusion technique or another regression model in terms of UIQI and CC values according to an embodiment of the present application. This is a comparison chart.

도 3b를 참조하면, 본원의 일 실시예에 따른 영상 융합 장치(100)에 의한 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 대한 UIQI 값은, 개선된 intensity-hue-saturation(IHS) 기법에 의한 융합 영상, principal component analysis(PCA) 기법에 의한 융합 영상, Gram-Schmidt(GS) 기법에 의한 융합 영상 및 Ehlers 기법에 의한 융합 영상보다 RGB 대역 모두에서 1에 가장 가까운 값(R 대역에서 0.7794, G 대역에서 0.7388, B 대역에서 0.7622)을 보이는 것을 확인할 수 있다.Referring to FIG. 3B, the UIQI value for the fusion image of the composite aperture radar image and the multispectral image by the image fusion device 100 according to an embodiment of the present application is based on the improved intensity-hue-saturation (IHS) technique. Fused image by principal component analysis (PCA), fused image by Gram-Schmidt (GS) method, and fused image by Ehlers method in both RGB bands (0.7794 in R band, It can be seen that 0.7388 in the G band and 0.7622 in the B band).

또한, 도 3b를 참조하면, 본원의 일 실시예에 따른 영상 융합 장치(100)에 의한 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 대한 CC 값은, 개선된 intensity-hue-saturation(IHS) 기법에 의한 융합 영상, principal component analysis(PCA) 기법에 의한 융합 영상, Gram-Schmidt(GS) 기법에 의한 융합 영상 및 Ehlers 기법에 의한 융합 영상보다 RGB 대역 모두에서 1에 가장 가까운 값(R 대역에서 0.8178, G 대역에서 0.7794, B 대역에서 0.7622)을 보이는 것을 확인할 수 있다.In addition, referring to FIG. 3B, the CC value for the fusion image of the composite aperture radar image and the multispectral image by the image fusion device 100 according to an embodiment of the present application is improved intensity-hue-saturation (IHS). The value closest to 1 in both RGB bands than the fusion image by the method, the fusion image by the principal component analysis (PCA) method, the fusion image by the Gram-Schmidt (GS) method, and the fusion image by the Ehlers method (in the R band). 0.8178, 0.7794 in the G band, and 0.7622 in the B band).

즉, 본원의 일 실시예에 따른 영상 융합 장치(100)에 의할 때, 종래의 영상 융합 기법에서보다 정량적으로 융합 영상의 품질이 향상되는 것을 확인할 수 있다.That is, when the image fusion device 100 according to the exemplary embodiment of the present application is used, it can be confirmed that the quality of the fusion image is improved quantitatively than in the conventional image fusion technique.

도 4는 본원의 일 실시예에 따른 클래스의 수에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 결과를 분석하여 나타낸 도면이다.4 is a diagram illustrating a result of fusion of a composite aperture radar image and a multispectral image according to the number of classes according to an exemplary embodiment of the present application.

최적 클래스의 수는 전술한 바와 같이 랜덤 포레스트 모델의 학습 시간을 포함하는 학습 성능 및 토지 피복 분포 특성(land cover distribution characteristics)과 연관된 정보를 고려하여 결정될 수 있으며, 본원의 일 실시예에 따르면, 이에 따라 최소 클래수의 수는 6으로, 최대 클래스의 수는 10으로 결정될 수 있다. 도 4는 6부터 10까지의 클래스의 수에 따라 합성 개구 레이더 영상 및 다중분광영상의 융합 영상의 UIQI, CC, Entropy, CPBD을 평가하고, 랜덤 포레스트 모델이 소요한 학습 시간을 나타낸 것일 수 있다.As described above, the number of optimal classes may be determined in consideration of information related to the learning performance including the learning time of the random forest model and the land cover distribution characteristics, and according to an embodiment of the present application, Accordingly, the minimum number of classes may be 6 and the maximum number of classes may be 10. FIG. 4 may be a view showing the learning time required by the random forest model by evaluating UIQI, CC, Entropy, and CPBD of a fusion image of a composite aperture radar image and a multispectral image according to the number of classes from 6 to 10.

도 4를 참조하면, 클래스의 수가 증가할수록, 학습 시간이 증가하나, 클래스의 수의 증가에 따른 성능(UIQI, CC, Entropy, CPBD 값)은 소폭 상승하거나 오히려 감소하는 경향을 보이는 것을 알 수 있다. 이는, 많은 수의 클래스의 수가 영상을 융합하는 과정에서 과부화를 일으킬 가능성이 있는 것으로 해석될 수 있으므로, 본원의 바람직한 실시예에서 최적 클래스의 수는 6개로 결정될 수 있다.Referring to FIG. 4, it can be seen that the learning time increases as the number of classes increases, but the performance (UIQI, CC, Entropy, CPBD values) according to the increase in the number of classes slightly increases or decreases. . This can be interpreted as having a possibility of causing overloading in the process of fusing images in the number of a large number of classes, and thus the optimal number of classes may be determined to be six in a preferred embodiment of the present application.

또한, 영상 융합 장치(100)는, 컬러화된 합성 개구 레이더 영상 및 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행할 수 있다. 본원의 일 실시예에 따르면, 다중분광영상은 제 1시점에 획득(촬영)된 영상일 수 있고, 컬러화된 합성 개구 레이더 영상은 상기 제 1시점과 상이한 제 2시점에 획득(촬영)된 합성 개구 레이더 영상을 상기 제 1시점에 획득된 다중분광영상에 기초하여 컬러화한 영상을 의미할 수 있다. 이 때, 상기 제 1 시점 및 상기 제 2 시점의 시간적 선후 관계는 실시예에 따라 달라질 수 있다.In addition, the image fusion apparatus 100 may detect a change in a region to be photographed based on a colored composite aperture radar image and a multispectral image. According to an embodiment of the present application, the multispectral image may be an image acquired (photographed) at a first point of view, and the colored composite aperture radar image is a synthesized aperture acquired (photographed) at a second point different from the first point of view. It may mean an image obtained by colorizing a radar image based on a multispectral image acquired at the first point of view. In this case, the temporal relationship between the first viewpoint and the second viewpoint may vary according to embodiments.

즉, 상기 제 2 시점에 촬영된 다중분광영상이 구름이 존재하는 등의 대기 조건 또른 다른 불측의 원인에 의해 변화 검출에 활용되기 적합하게 촬영되지 못한 경우, 제 2시점에 촬영된 합성 개구 레이더 영상을 상기 제 1시점에 획득된 다중분광영상에 기초하여 컬러화한 영상으로 상기 제 2시점에 촬영된 다중분광영상을 대체하여 촬영 대상 영역의 변화 검출을 수행할 수 있다.That is, when the multispectral image captured at the second point of view is not properly photographed to be used for change detection due to atmospheric conditions such as the presence of clouds or other unforeseen causes, the composite aperture radar image captured at the second point of view A colorized image based on the multispectral image acquired at the first point of view may replace the multispectral image captured at the second point of view to perform change detection of the region to be photographed.

달리 말해, 종래의 영상 융합 기법에 의한 변화 검출 방법에 의하면, 합성 개구 레이더 영상과 다중분광영상의 이미징 메커니즘의 상이함을 극복할 수 없어, 시간적으로 서로 근접하여 촬영된 합성 개구 레이더 영상과 다중분광영상에 대한 융합만이 가능했기 때문에, 제 2 시점에 촬영된 다중분광영상이 대기 조건 또른 다른 불측의 원인에 의해 변화 검출에 활용되기 적합하게 촬영되지 못한 경우, 제 2 시점에 촬영된 합성 개구 레이더 영상을 확보하더라도 촬영 시점이 근접하지 않은 제 1 시점에 촬영된 다중분광영상과의 융합을 수행할 수 없었으나, 본원에 개시된 영상 융합 기법에 의하면 서로 다른 시점에 촬영된 합성 개구 레이더 영상과 다중분광영상 간의 영상 융합이 가능하며, 나아가 변화 검출 프로세스에 적용 가능한 효과가 있다.In other words, according to the conventional method of detecting changes using the image fusion technique, the difference in the imaging mechanism of the composite aperture radar image and the multispectral image cannot be overcome, so that the composite aperture radar image and the multispectral image photographed close to each other in time cannot be overcome. Since only the fusion of the image was possible, when the multispectral image captured at the second viewpoint was not properly photographed to be used for change detection due to atmospheric conditions or other unforeseen causes, the composite aperture radar photographed at the second viewpoint Even if an image was secured, it was not possible to perform fusion with the multispectral image captured at the first viewpoint that was not close to the photographing viewpoint. Image fusion between images is possible, and further, there is an effect applicable to the change detection process.

본원의 일 실시예에 따르면, 영상 융합 장치(100)는, 촬영 대상 영역의 변화 검출을 수행하기에 앞서, 방사성 표준화(radiometric normalization) 기법으로 일반적으로 사용되는 히스토그램 매칭을 수행할 수 있다.According to an exemplary embodiment of the present disclosure, the image fusion apparatus 100 may perform histogram matching, which is generally used as a radiometric normalization technique, prior to detecting a change in a region to be photographed.

본원의 일 실시예에 따르면, 영상 융합 장치(100)는, 컬러화된 합성 개구 레이더 영상 및 다중분광영상을 기초로 픽셀 기반의 변화 검출 또는 객체 기반의 변화 검출 중 적어도 하나를 수행할 수 있다.According to an exemplary embodiment of the present disclosure, the image fusion apparatus 100 may perform at least one of pixel-based change detection or object-based change detection based on a colored composite aperture radar image and a multispectral image.

본원의 일 실시예에 따르면, 상기 픽셀 기반의 변화 검출은 영상 융합 장치(100)에 의해 컬러화된 합성 개구 레이더 영상과 다중분광영상을 비교하여 시간의 흐름에 따라 변화된 픽셀을 탐지하는 방식의 변화 검출 방법을 의미할 수 있다. 이와 관련하여, 이미지 차분 기법이 사용될 수 있으며, 구체적으로 상기 이미지 차분 기법은 두 영상(컬러화된 합성 개구 레이더 영상과 다중분광영상)을 공통된 좌표계에 정합하고 두 영상의 픽셀 값을 빼고, 변경된 픽셀과 변경되지 않은 픽셀을 구분하기 위한 임계 픽셀차를 설정하여, 변화된 픽셀을 검출할 수 있다. 본원의 일 실시예에 따르면, 상기 임계 픽셀차를 설정하기 위하여 입력 영상의 밝기 분포에 기초하여 일반적으로 사용되는 오츠 임계값(Otsu's threshold)이 고려될 수 있다.According to an embodiment of the present application, the pixel-based change detection is a change detection method of detecting a pixel that has changed over time by comparing a composite aperture radar image colored by the image fusion device 100 with a multispectral image. It can mean the way. In this regard, an image difference technique may be used. Specifically, the image difference technique matches two images (a colored composite aperture radar image and a multispectral image) to a common coordinate system, subtracting the pixel values of the two images, and A changed pixel may be detected by setting a threshold pixel difference for distinguishing unchanged pixels. According to an exemplary embodiment of the present disclosure, an Otsu's threshold generally used based on a brightness distribution of an input image may be considered in order to set the threshold pixel difference.

다만, 상기 픽셀 기반의 변화 검출은 조각화 또는 불완전한 변화 검출 결과 도출 등의 한계를 가질 수 있다.However, the pixel-based change detection may have limitations such as derivation of fragmentation or incomplete change detection results.

또한, 본원의 일 실시예에 따르면, 상기 객체 기반의 변화 검출은, 상기 픽셀 기반의 변화 검출의 결과로 획득된 변화된 픽셀을 형태학적 조작을 통해 변화된 객체로 구성하는 방식을 의미할 수 있다. 이를 위해, 영상 융합 장치(100)는 형태학적 폐쇄 처리, 빈 공간을 메우는 처리 및 형태학적 개방 처리를 순차적으로 수행할 수 있다. 이 때, 전술한 형태학적 폐쇄 처리 또는 형태학적 개방 처리를 수행하기 위한 사각형 구조 요소가 두 영상에 설정될 수 있고, 본원의 일 실시예에 따르면, 상기 사각형 구조 요소는 3x3 크기 또는 5x5 크기로 설정될 수 있다.In addition, according to an exemplary embodiment of the present disclosure, the object-based change detection may refer to a method of configuring a changed pixel obtained as a result of the pixel-based change detection into a changed object through morphological manipulation. To this end, the image fusion device 100 may sequentially perform a morphological closing process, a process of filling an empty space, and a morphological opening process. In this case, a rectangular structural element for performing the above-described morphological closing processing or morphological open processing may be set in two images, and according to an embodiment of the present application, the rectangular structural element is set to a size of 3x3 or 5x5. Can be.

도 5는 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 결과를 나타낸 도면이다.5 is a diagram illustrating a change detection result based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 5를 참조하면, (a)는 촬영 대상 영역에서 실제로 변화된 영역을 표현한 이미지, (b)는 두 다중분광영상 간의 변화 검출 결과, (c) 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 다중분광영상 간의 변화 검출 결과, (d)는 두 합성 개구 레이더 영상 간의 변화 검출 결과를 각각 나타낸 것일 수 있다. Referring to FIG. 5, (a) is an image representing an actually changed area in a photographing target area, (b) is a change detection result between two multispectral images, and (c) a composite aperture radar image and multiplex according to an embodiment of the present application The result of detecting the change between the fusion image of the spectral image and the multispectral image, (d) may represent the result of detecting the change between the two composite aperture radar images, respectively.

또한, 도 5a 전반에서 흰색 영역은 변화된 영역 또는 변화된 것으로 탐지된 영역, 검은색 영역은 불변 영역 또는 불변 영역으로 탐지된 영역, 빨간색 사각형은 (a) 내지 (d)의 변화 검출 결과를 명확하게 비교하기 위하여 (a) 내지 (d)에서 유의미하게 차이가 나는 영역을 표시한 것일 수 있다.In addition, in FIG. 5A, the white area is a changed area or the area detected as changed, the black area is the area detected as a constant area or constant area, and the red square is a clear comparison of the change detection results of (a) to (d). In order to do so, it may be to indicate a region that is significantly different in (a) to (d).

도 5를 참조하면, (c)의 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 다중분광영상 간의 변화 검출 결과는 어느 한 시점의 다중분광영상이 변화 검출에 사용되지 않았음에도 (b)의 두 다중분광영상 간의 변화 검출 결과와 유사한 결과를 도출하는 반면, (d)의 두 합성 개구 레이더 영상 간의 변화 검출 결과는 다수의 점 형태의 변화 검출 결과를 나타낼 뿐이며, (a) 내지 (c)의 변화 검출 결과에 비해 정확도가 떨어지는 것을 확인할 수 있다.5, the result of detecting the change between the fusion image of the composite aperture radar image and the multispectral image and the multispectral image according to an embodiment of the present application of (c) is that a multispectral image at any one point of view is not used for change detection. Although not, the result is similar to the result of detecting the change between the two multispectral images in (b), whereas the result of detecting the change between the two composite aperture radar images in (d) only shows the result of detecting changes in the form of multiple points. It can be seen that the accuracy is inferior to the change detection results of) to (c).

도 6은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 결과를 통계적 지표를 통해 평가한 도표이다.6 is a chart in which a change detection result based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application is evaluated through a statistical index.

구체적으로, 도 6은 도 5의 (a)의 촬영 대상 영역에서 실제로 변화된 영역을 표현한 이미지를 통해 파악되는 진리 데이터를 기반으로 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 다중분광영상 간의 변화 검출 결과(1번째 행), 두 다중분광영상 간의 변화 검출 결과(2번째 행) 및 두 합성 개구 레이더 영상 간의 변화 검출 결과(3번째 행)를 정량적으로 비교한 도표이다.Specifically, FIG. 6 is a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application based on the truth data identified through the image representing the actually changed area in the photographing target area of FIG. 5A. It is a chart that quantitatively compares the change detection result between the and multispectral images (first row), the change detection result between two multispectral images (second row), and the change detection result between two composite aperture radar images (third row).

도 6을 참조하면, 변화 검출 결과는 재현율(Recall), 정확률(Precision) 또는 F1 점수(F1 Score: F1)를 이용하여 평가될 수 있다. 재현율, 정확률 및 F1 점수는 하기 식 6-1 내지 식 6-3으로 계산될 수 있다.Referring to FIG. 6, the change detection result may be evaluated using a recall, a precision, or an F1 score (F1). The recall, accuracy, and F1 score can be calculated by the following Equations 6-1 to 6-3.

[식6-1][Equation 6-1]

Figure 112019045930476-pat00010
Figure 112019045930476-pat00010

[식6-2][Equation 6-2]

Figure 112019045930476-pat00011
Figure 112019045930476-pat00011

F1점수는 재현율과 정확률의 조화 평균으로 계산될 수 있다.The F1 score can be calculated as a harmonic average of recall and accuracy.

[식6-3][Equation 6-3]

Figure 112019045930476-pat00012
Figure 112019045930476-pat00012

도 6을 참조하면, 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상과 다중분광영상 간의 변화 검출 결과(1번째 행)는 정확률 80.76%, 재현율 73.51% 및 F1 점수 76.96%를 나타낼 수 있다. 두 다중분광영상 간의 변화 검출 결과(2번째 행)는 정확률 90.805%, 재현율 69.425% 및 F1 점수 78.68%를 나타낼 수 있다. 두 합성 개구 레이더 영상 간의 변화 검출 결과(3번째 행)는 정확률 54.11%, 재현율 56.52% 및 F1 점수 59.29%를 나타낼 수 있다.Referring to FIG. 6, the result of detection of a change between a fusion image of a composite aperture radar image and a multispectral image and a multispectral image according to an embodiment of the present application (first row) is an accuracy of 80.76%, a recall rate of 73.51%, and an F1 score of 76.96%. Can represent. The change detection result (2nd row) between the two multispectral images may indicate an accuracy rate of 90.805%, a recall rate of 69.425%, and an F1 score of 78.68%. The change detection result (third row) between the two composite aperture radar images can show an accuracy rate of 54.11%, a recall rate of 56.52%, and an F1 score of 59.29%.

즉, 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 결과는, 합성 개구 레이더 영상만 활용한 경우보다 비약적인 성능(예측 정확도) 향상을 보이며, 다중분광영상만 활용한 경우의 성능과 유사한 수준의 변화 검출 정확도를 보임을 알 수 있다.That is, the change detection result based on the fusion image of the composite aperture radar image and the multispectral image according to an embodiment of the present application shows a dramatic improvement in performance (prediction accuracy) compared to the case using only the composite aperture radar image, and only the multispectral image It can be seen that the accuracy of change detection is similar to that of the case of using it.

도 7은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 장치의 개략적인 구성도이다.7 is a schematic configuration diagram of an apparatus for fusion of a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 7을 참조하면, 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 장치(100)(즉, 영상 융합 장치(100))는, 다중분광영상 처리부(110), 합성 개구부 레이더 영상 처리부(120), 트레이닝 픽셀 설정부(130), 학습부(140), 컬러화부(150) 및 변화 검출부(160)를 포함할 수 있다.Referring to FIG. 7, the fusion device 100 (ie, the image fusion device 100) of a composite aperture radar image and a multispectral image according to an embodiment of the present disclosure includes a multispectral image processing unit 110, a composite aperture radar An image processing unit 120, a training pixel setting unit 130, a learning unit 140, a colorization unit 150, and a change detection unit 160 may be included.

다중분광영상 처리부(110)는, 다중분광영상으로부터 색상 정보를 추출하고, 다중분광영상을 복수의 클래스로 분류할 수 있다.The multispectral image processing unit 110 may extract color information from the multispectral image and classify the multispectral image into a plurality of classes.

합성 개구 레이더 영상 처리부(120)는, 합성 개구 레이더 영상으로부터 픽셀 정보 및 특성 정보를 추출할 수 있다.The composite aperture radar image processing unit 120 may extract pixel information and characteristic information from the composite aperture radar image.

트레이닝 픽셀 결정부(130)는, 다중분광영상 및 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정할 수 있다.The training pixel determiner 130 may determine a training pixel from the multispectral image and the composite aperture radar image.

학습부(140)는, 트레이닝 픽셀에 대응하는 다중분광영상의 색상 정보 및 합성 개구 레이더 영상의 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.The learning unit 140 may learn a correlation between the multispectral image and the composite aperture radar image based on color information of the multispectral image corresponding to the training pixel and characteristic information of the composite aperture radar image.

또한, 학습부(140)는, 합성 개구 레이더 영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 다중분광영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트(Random Forest) 모델을 이용하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.In addition, the learning unit 140 inputs the characteristic information of a pixel corresponding to the position of the training pixel in the composite aperture radar image and the color information of the pixel corresponding to the position of the training pixel in the multispectral image. ) It is possible to learn the correlation between the multispectral image and the composite aperture radar image using the model.

컬러화부(150)는, 학습된 상관 관계에 기초하여, 다중분광영상 및 합성 개구 레이더 영상을 융합하여 합성 개구 레이더 영상을 컬러화할 수 있다.The colorization unit 150 may color the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learned correlation.

또한, 컬러화부(150)는, 학습된 상관 관계에 기초하여, 합성 개구 레이더 영상의 트레이닝 픽셀 이외의 픽셀(예를 들면, 전체 픽셀에서 트레이닝 픽셀을 제외한 픽셀)에서의 색상 정보를 예측할 수 있다.In addition, the colorization unit 150 may predict color information in pixels other than the training pixels of the composite aperture radar image (eg, pixels excluding the training pixels from all pixels) based on the learned correlation.

또한, 컬러화부(150)는, 예측된 색상 정보에 기초하여 합성 개구 레이더 영상을 컬러화할 수 있다.Also, the colorization unit 150 may colorize the composite aperture radar image based on the predicted color information.

변화 검출부(160)는, 컬러화된 합성 개구 레이더 영상 및 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행할 수 있다.The change detector 160 may detect a change in an area to be photographed based on a colorized composite aperture radar image and a multispectral image.

도 8은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 방법의 동작흐름도이다.8 is an operation flow diagram of a method for fusion of a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 8에 도시된 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 방법은 앞서 설명된 영상 융합 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 영상 융합 장치(100)에 대하여 설명된 내용은 도 8에도 동일하게 적용될 수 있다.The fusion method of the composite aperture radar image and the multispectral image according to the exemplary embodiment of the present application illustrated in FIG. 8 may be performed by the image fusion device 100 described above. Accordingly, even if the contents are omitted below, the contents described with respect to the image fusion apparatus 100 may be equally applied to FIG. 8.

도 8을 참조하면, 단계 S810에서 다중분광영상 처리부(110)는, 다중분광영상을 처리할 수 있다.Referring to FIG. 8, in step S810, the multispectral image processing unit 110 may process the multispectral image.

구체적으로, 단계 S810에서 다중분광영상 처리부(110)는, 다중분광영상 으로부터 RGB 대역의 픽셀값을 추출할 수 있다.Specifically, in step S810, the multispectral image processing unit 110 may extract pixel values in the RGB band from the multispectral image.

또한, 단계 S810에서 다중분광영상 처리부(110)는, 다중분광영상을 복수의 클래스로 분류할 수 있다. 이 때, 다중분광영상 처리부(110)는, K 평균 클러스터링 알고리즘을 기 설정된 반복 횟수만큼 수행하여 다중분광영상을 복수의 클래스로 분류하는 것일 수 있다.In addition, in step S810, the multispectral image processing unit 110 may classify the multispectral image into a plurality of classes. In this case, the multispectral image processing unit 110 may classify the multispectral image into a plurality of classes by performing the K average clustering algorithm as many times as a preset repetition number.

다음으로, 단계 S820에서 합성 개구 레이더 영상 처리부(120)는, 합성 개구 레이더 영상을 처리할 수 있다.Next, in step S820, the composite aperture radar image processing unit 120 may process the composite aperture radar image.

다음으로, 단계 S830에서 트레이닝 픽셀 설정부(130)는, 다중분광영상 및 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정할 수 있다.Next, in step S830, the training pixel setting unit 130 may determine a training pixel from the multispectral image and the composite aperture radar image.

구체적으로, 단계 S830에서 트레이닝 픽셀 설정부(130)는, 합성 개구 레이더 영상 및 다중분광영상의 픽셀값을 차분할 수 있다. 또한, 트레이닝 픽셀 설정부(130)는 픽셀값의 차분 결과에 기초하여 미변화 픽셀을 트레이닝 픽셀로 결정할 수 있다.Specifically, in step S830, the training pixel setting unit 130 may differentiate between pixel values of the composite aperture radar image and the multispectral image. Also, the training pixel setting unit 130 may determine an unchanged pixel as a training pixel based on a result of the difference between pixel values.

다음으로, 단계 S840에서 학습부(140)는, 트레이닝 픽셀에 대응하는 다중분광영상의 색상 정보 및 합성 개구 레이더 영상의 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.Next, in step S840, the learning unit 140 may learn the correlation between the multispectral image and the composite aperture radar image based on the color information of the multispectral image corresponding to the training pixel and the characteristic information of the composite aperture radar image. have.

본원의 일 실시예에 따르면, 단계 S840에서 학습부(140)는, 합성 개구 레이더 영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 다중분광영상 중 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습할 수 있다.According to an embodiment of the present application, in step S840, the learning unit 140 includes characteristic information of a pixel corresponding to a position of a training pixel in a composite aperture radar image, and color information of a pixel corresponding to a position of a training pixel of a multispectral image. The correlation between the multispectral image and the composite aperture radar image can be learned by using the random forest model having as an input.

다음으로, 단계 S850에서 컬러화부(150)는, 학습된 상관 관계에 기초하여, 다중분광영상 및 합성 개구 레이더 영상을 융합하여 합성 개구 레이더 영상을 컬러화할 수 있다.Next, in step S850, the colorization unit 150 may color the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learned correlation.

구체적으로, 단계 S850에서 컬러화부(150)는, 학습된 상관 관계에 기초하여, 합성 개구 레이더 영상의 트레이닝 픽셀 이외의 픽셀에서의 색상 정보를 예측할 수 있다. 또한, 컬러화부(150)는, 예측된 색상 정보에 기초하여 합성 개구 레이더 영상을 컬러화할 수 있다.Specifically, in step S850, the colorization unit 150 may predict color information in pixels other than the training pixels of the composite aperture radar image based on the learned correlation. Also, the colorization unit 150 may colorize the composite aperture radar image based on the predicted color information.

상술한 설명에서, 단계 S810 내지 S850은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S810 to S850 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 9는 본원의 일 실시예에 따른 합성 개구 레이더 영상을 처리하는 방법의 동작흐름도이다.9 is an operation flow diagram of a method of processing a composite aperture radar image according to an embodiment of the present application.

도 9에 도시된 본원의 일 실시예에 따른 합성 개구 레이더 영상을 처리하는 방법은 앞서 설명된 영상 융합 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 영상 융합 장치(100)에 대하여 설명된 내용은 도 9에도 동일하게 적용될 수 있다.The method of processing the composite aperture radar image according to the exemplary embodiment of the present disclosure illustrated in FIG. 9 may be performed by the image fusion device 100 described above. Accordingly, even if the contents are omitted below, the contents described with respect to the image fusion apparatus 100 may be equally applied to FIG. 9.

도 9를 참조하면, 단계 S910에서 합성 개구 레이더 영상 처리부(120)는, 합성 개구 레이더 영상으로부터 픽셀 정보를 추출할 수 있다.Referring to FIG. 9, in step S910, the composite aperture radar image processing unit 120 may extract pixel information from the composite aperture radar image.

다음으로, 단계 S920에서 합성 개구 레이더 영상 처리부(120)는, 합성 개구 레이더 영상의 각 픽셀에서의 GLCM(gray level co-occurrence matrix)를 생성할 수 있다.Next, in step S920, the composite aperture radar image processing unit 120 may generate a gray level co-occurrence matrix (GLCM) in each pixel of the composite aperture radar image.

다음으로, 단계 S930에서 합성 개구 레이더 영상 처리부(120)는, GLCM으로부터 상기 합성 개구 레이더 영상의 특성 정보를 추출할 수 있다.Next, in step S930, the composite aperture radar image processing unit 120 may extract characteristic information of the composite aperture radar image from the GLCM.

상술한 설명에서, 단계 S910 내지 S930은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S910 to S930 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 10은 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법의 동작흐름도이다.10 is an operation flow diagram of a method for detecting a change based on a fusion image of a composite aperture radar image and a multispectral image according to an embodiment of the present application.

도 10에 도시된 본원의 일 실시예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법은 앞서 설명된 영상 융합 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 영상 융합 장치(100)에 대하여 설명된 내용은 도 10에도 동일하게 적용될 수 있다.The change detection method based on the fusion image of the composite aperture radar image and the multispectral image according to the exemplary embodiment of the present disclosure illustrated in FIG. 10 may be performed by the image fusion device 100 described above. Therefore, even if the contents are omitted below, the contents described with respect to the image fusion apparatus 100 may be equally applied to FIG. 10.

도 10을 참조하면, 단계 S1010에서 영상 융합 장치(100)는, 전술한 합성 개구 레이더 영상 및 다중분광영상의 융합 방법을 이용하여 합성 개구 레이더 영상을 컬러화할 수 있다.Referring to FIG. 10, in step S1010, the image fusion apparatus 100 may colorize the composite aperture radar image using the above-described fusion method of the composite aperture radar image and the multispectral image.

다음으로, 단계 S1020에서 변화 검출부(160)는, 컬러화된 합성 개구 레이더 영상 및 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행할 수 있다.Next, in step S1020, the change detection unit 160 may perform detection of a change in the area to be photographed based on the colored composite aperture radar image and the multispectral image.

상술한 설명에서, 단계 S1010 내지 S1020은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S1010 to S1020 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

본원의 일 실시 예에 따른 합성 개구 레이더 영상 및 다중분광영상의 융합 방법 또는 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The fusion method of the composite aperture radar image and the multispectral image or the change detection method based on the fusion image of the composite aperture radar image and the multispectral image according to an embodiment of the present application are implemented in the form of program commands that can be executed through various computer means. And recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

또한, 전술한 합성 개구 레이더 영상 및 다중분광영상의 융합 방법 또는 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for fusion of the composite aperture radar image and multispectral image or the change detection method based on the fusion image of the composite aperture radar image and multispectral image is in the form of a computer program or application executed by a computer stored in a recording medium. Can also be implemented.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustrative purposes only, and those of ordinary skill in the art to which the present application pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present application.

10: 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 시스템
100: 합성 개구 레이더 영상 및 다중분광영상의 융합 장치
110: 다중분광영상 처리부
120: 합성 개구부 레이더 영상 처리부
130: 트레이닝 픽셀 설정부
140: 학습부
150: 컬러화부
160: 변화 검출부
200: 합성 개구 레이더
300: 다중분광영상 촬영 장치
20: 네트워크
10: Change detection system based on fusion image of composite aperture radar image and multispectral image
100: fusion device for composite aperture radar image and multispectral image
110: multispectral image processing unit
120: composite aperture radar image processing unit
130: training pixel setting unit
140: Learning Department
150: colorization unit
160: change detection unit
200: composite aperture radar
300: multispectral imaging device
20: network

Claims (15)

합성 개구 레이더 영상 및 다중분광영상의 융합 방법에 있어서,
다중분광영상을 처리하는 단계;
합성 개구 레이더 영상을 처리하는 단계;
상기 다중분광영상 및 상기 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정하는 단계;
상기 트레이닝 픽셀에 대응하는 다중분광영상의 색상 정보 및 합성 개구 레이더 영상의 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 단계; 및
학습된 상관 관계에 기초하여, 상기 다중분광영상 및 상기 합성 개구 레이더 영상을 융합하여 상기 합성 개구 레이더 영상을 컬러화하는 단계,
를 포함하고,
상기 트레이닝 픽셀을 결정하는 단계는,
합성 개구 레이더 영상 및 다중분광영상의 픽셀값을 차분하는 단계; 및
픽셀값의 차분 결과에 기초하여 미변화 픽셀을 상기 트레이닝 픽셀로 결정하는 단계,
를 포함하고,
상기 합성 개구 레이더 영상을 컬러화하는 단계는,
상기 학습된 상관 관계에 기초하여, 상기 합성 개구 레이더 영상의 상기 트레이닝 픽셀 이외의 픽셀에서의 색상 정보를 예측하고, 상기 예측된 색상 정보에 기초하여 상기 합성 개구 레이더 영상을 컬러화하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
In the fusion method of a composite aperture radar image and a multispectral image,
Processing a multispectral image;
Processing the composite aperture radar image;
Determining a training pixel from the multispectral image and the composite aperture radar image;
Learning a correlation between a multispectral image and a composite aperture radar image based on color information of a multispectral image corresponding to the training pixel and characteristic information of a composite aperture radar image; And
Colorizing the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learned correlation,
Including,
Determining the training pixel,
Dividing pixel values of the composite aperture radar image and the multispectral image; And
Determining an unchanged pixel as the training pixel based on the difference result of pixel values,
Including,
The step of colorizing the composite aperture radar image,
Predicting color information in pixels other than the training pixel of the composite aperture radar image based on the learned correlation, and colorizing the composite aperture radar image based on the predicted color information Fusion method of radar image and multispectral image.
제 1항에 있어서,
상기 상관 관계를 학습하는 단계는,
상기 합성 개구 레이더 영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 상기 다중분광영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 1,
Learning the correlation,
A multispectral image using a random forest model that inputs characteristic information of a pixel corresponding to the position of the training pixel in the composite aperture radar image and color information of a pixel corresponding to the position of the training pixel in the multispectral image. A method of fusion of a composite aperture radar image and a multispectral image to learn a correlation between a composite aperture radar image and a composite aperture radar image.
제 2항에 있어서,
상기 다중분광영상을 처리하는 단계는,
상기 다중분광영상으로부터 RGB 대역의 픽셀값을 추출하는 단계; 및
상기 다중분광영상을 복수의 클래스로 분류하는 단계,
를 포함하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 2,
The step of processing the multispectral image,
Extracting pixel values of an RGB band from the multispectral image; And
Classifying the multispectral image into a plurality of classes,
The method of fusion of the composite aperture radar image and the multispectral image comprising a.
제 3항에 있어서,
상기 랜덤 포레스트 모델은 상기 복수의 클래스마다 생성되고,
상기 상관 관계를 학습하는 단계는,
복수의 클래스마다 생성된 랜덤 포레스트 모델 각각을 이용하여 수행되는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 3,
The random forest model is generated for each of the plurality of classes,
Learning the correlation,
A method of fusion of a composite aperture radar image and a multispectral image that is performed using each of the random forest models generated for each of a plurality of classes.
제 3항에 있어서,
상기 다중분광영상을 복수의 클래스로 분류하는 단계는,
K 평균 클러스터링 알고리즘을 기 설정된 반복 횟수만큼 수행하여 상기 다중분광영상을 복수의 클래스로 분류하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 3,
Classifying the multispectral image into a plurality of classes,
A method for fusion of a composite aperture radar image and a multispectral image, which classifies the multispectral image into a plurality of classes by performing a K average clustering algorithm as many times as a preset number of repetitions.
제 2항에 있어서,
상기 합성 개구 레이더 영상을 처리하는 단계는,
상기 합성 개구 레이더 영상으로부터 픽셀 정보를 추출하는 단계;
상기 합성 개구 레이더 영상의 각 픽셀에서의 GLCM(gray level co-occurrence matrix)를 생성하는 단계; 및
상기 GLCM으로부터 상기 합성 개구 레이더 영상의 상기 특성 정보를 추출하는 단계,
를 포함하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 2,
Processing the composite aperture radar image,
Extracting pixel information from the composite aperture radar image;
Generating a gray level co-occurrence matrix (GLCM) in each pixel of the composite aperture radar image; And
Extracting the characteristic information of the composite aperture radar image from the GLCM,
The method of fusion of the composite aperture radar image and the multispectral image comprising a.
삭제delete 삭제delete 제 1항에 있어서,
상기 다중분광영상과 상기 합성 개구 레이더 영상은 서로 다른 시점(time)에 획득된 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 방법.
The method of claim 1,
The method of fusion of the composite aperture radar image and the multispectral image, wherein the multispectral image and the composite aperture radar image are acquired at different times.
합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법에 있어서,
제1항의 합성 개구 레이더 영상 및 다중분광영상의 융합 방법을 이용하여 상기 합성 개구 레이더 영상을 컬러화하는 단계; 및
상기 컬러화된 합성 개구 레이더 영상 및 상기 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행하는 단계,
를 포함하는, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법.
In the change detection method based on a fusion image of a composite aperture radar image and a multispectral image,
Colorizing the composite aperture radar image using the fusion method of the composite aperture radar image and the multispectral image according to claim 1; And
Performing change detection of an area to be photographed based on the colored composite aperture radar image and the multispectral image,
A change detection method based on the fusion image of the composite aperture radar image and the multispectral image comprising a.
제10항에 있어서,
상기 다중분광영상과 상기 합성 개구 레이더 영상은 서로 다른 시점(time)에 획득된 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 영상에 기초한 변화 검출 방법.
The method of claim 10,
The method of detecting a change based on a fusion image of the composite aperture radar image and the multispectral image, wherein the multispectral image and the composite aperture radar image are acquired at different times.
합성 개구 레이더 영상 및 다중분광영상의 융합 장치에 있어서,
다중분광영상으로부터 색상 정보를 추출하고, 상기 다중분광영상을 복수의 클래스로 분류하는 다중분광영상 처리부;
합성 개구 레이더 영상으로부터 픽셀 정보 및 특성 정보를 추출하는 합성 개구 레이더 영상 처리부;
상기 다중분광영상 및 상기 합성 개구 레이더 영상으로부터 트레이닝 픽셀을 결정하는 트레이닝 픽셀 설정부;
상기 트레이닝 픽셀에 대응하는 다중분광영상의 상기 색상 정보 및 합성 개구 레이더 영상의 상기 특성 정보에 기초하여 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 학습부; 및
학습된 상관 관계에 기초하여, 상기 다중분광영상 및 상기 합성 개구 레이더 영상을 융합하여 상기 합성 개구 레이더 영상을 컬러화하는 컬러화부,
를 포함하고,
상기 트레이닝 픽셀 설정부는,
합성 개구 레이더 영상 및 다중분광영상의 픽셀값을 차분하고, 픽셀값의 차분 결과에 기초하여 미변화 픽셀을 상기 트레이닝 픽셀로 결정하고,
상기 컬러화부는,
상기 학습된 상관 관계에 기초하여, 상기 합성 개구 레이더 영상의 상기 트레이닝 픽셀 이외의 픽셀에서의 색상 정보를 예측하고, 상기 예측된 색상 정보에 기초하여 상기 합성 개구 레이더 영상을 컬러화하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치.
In the fusion device of a composite aperture radar image and a multispectral image,
A multispectral image processing unit for extracting color information from a multispectral image and classifying the multispectral image into a plurality of classes;
A composite aperture radar image processing unit that extracts pixel information and characteristic information from the composite aperture radar image;
A training pixel setting unit determining a training pixel from the multispectral image and the composite aperture radar image;
A learning unit for learning a correlation between the multispectral image and the composite aperture radar image based on the color information of the multispectral image corresponding to the training pixel and the characteristic information of the composite aperture radar image; And
A colorization unit for colorizing the composite aperture radar image by fusing the multispectral image and the composite aperture radar image based on the learned correlation,
Including,
The training pixel setting unit,
Differentiate pixel values of the composite aperture radar image and the multispectral image, and determine an unchanged pixel as the training pixel based on the difference result of the pixel values,
The colorization unit,
Predicting color information in pixels other than the training pixel of the composite aperture radar image based on the learned correlation, and colorizing the composite aperture radar image based on the predicted color information A fusion device for radar image and multispectral image.
제 12항에 있어서,
컬러화된 합성 개구 레이더 영상 및 상기 다중분광영상을 기초로 촬영 대상 영역의 변화 검출을 수행하는 변화 검출부,
를 더 포함하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치.
The method of claim 12,
A change detection unit that detects a change in an area to be photographed based on the colored composite aperture radar image and the multispectral image,
The fusion device of the composite aperture radar image and the multispectral image further comprising a.
제 12항에 있어서,
상기 학습부는,
상기 합성 개구 레이더 영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 특성 정보 및 상기 다중분광영상 중 상기 트레이닝 픽셀의 위치에 대응하는 픽셀의 색상 정보를 입력으로 하는 랜덤 포레스트 모델을 이용하여, 다중분광영상과 합성 개구 레이더 영상의 상관 관계를 학습하는 것인, 합성 개구 레이더 영상 및 다중분광영상의 융합 장치.
The method of claim 12,
The learning unit,
A multispectral image using a random forest model that inputs characteristic information of a pixel corresponding to the position of the training pixel in the composite aperture radar image and color information of a pixel corresponding to the position of the training pixel in the multispectral image. A fusion device of a composite aperture radar image and a multispectral image to learn the correlation between the composite aperture radar image and the composite aperture radar image.
삭제delete
KR1020190052506A 2019-05-03 2019-05-03 Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it KR102170260B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190052506A KR102170260B1 (en) 2019-05-03 2019-05-03 Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190052506A KR102170260B1 (en) 2019-05-03 2019-05-03 Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it

Publications (1)

Publication Number Publication Date
KR102170260B1 true KR102170260B1 (en) 2020-10-26

Family

ID=73006181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190052506A KR102170260B1 (en) 2019-05-03 2019-05-03 Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it

Country Status (1)

Country Link
KR (1) KR102170260B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
CN113642629A (en) * 2021-08-09 2021-11-12 厦门大学 Visualization method and device for improving reliability of spectral analysis based on random forest
KR20220067351A (en) * 2020-11-17 2022-05-24 한국항공우주연구원 Method and system for detecting variation amount of object in sar images
KR20230060111A (en) * 2021-10-27 2023-05-04 한국항공우주연구원 Multi-band image generation system and method for optical satellite imagery using deep-learning network
CN116109829A (en) * 2023-04-11 2023-05-12 耕宇牧星(北京)空间科技有限公司 Coral reef water area image segmentation method based on fusion network
KR20230082327A (en) * 2021-12-01 2023-06-08 한국환경연구원 Photovoltaic panel monitoring system and methods using SAR
KR102656376B1 (en) * 2023-08-18 2024-04-11 (주)유에스티21 Monitoring system and method for lithium mine using satellite images

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Dae Kyo Seo ET AL:"Learning-Based Colorization of Grayscale Aerial Images Using Random Forest Regression", Appl. Sci., Aug. 2018(2018.08.31.) 1부.* *
Hongsheng Zhang ET AL:"Urban land cover mapping using random forest combined with optical and SAR data", 2012 IEEE International Geoscience and Remote Sensing Symposium, 22 July 2012(2012.07.22.) 1부.* *
Israa Jameel Muhsin ET AL:"Augment the Spatial Resolution of Multispectral Image Using PCA Fusion Method and Classified It's Region Using Different Techniques", 2015 by IJETT Journal(2015.08.31.) 1부.* *
Yu Zeng ET AL:"Change detection approach to SAR and optical image integration", Int. Arch. Photogramm. Remote Sens. 2008, XXXVII Pt B7, pp.1077-1084(2008.07.03.) 1부.* *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220067351A (en) * 2020-11-17 2022-05-24 한국항공우주연구원 Method and system for detecting variation amount of object in sar images
KR102468927B1 (en) 2020-11-17 2022-11-21 한국항공우주연구원 Method and system for detecting variation amount of object in sar images
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
CN113642629A (en) * 2021-08-09 2021-11-12 厦门大学 Visualization method and device for improving reliability of spectral analysis based on random forest
CN113642629B (en) * 2021-08-09 2023-12-08 厦门大学 Visualization method and device for improving reliability of spectroscopy analysis based on random forest
KR20230060111A (en) * 2021-10-27 2023-05-04 한국항공우주연구원 Multi-band image generation system and method for optical satellite imagery using deep-learning network
KR102553797B1 (en) 2021-10-27 2023-07-12 한국항공우주연구원 Multi-band image generation system and method for optical satellite imagery using deep-learning network
KR20230082327A (en) * 2021-12-01 2023-06-08 한국환경연구원 Photovoltaic panel monitoring system and methods using SAR
KR102612681B1 (en) 2021-12-01 2023-12-13 한국환경연구원 Photovoltaic panel monitoring system and methods using SAR
CN116109829A (en) * 2023-04-11 2023-05-12 耕宇牧星(北京)空间科技有限公司 Coral reef water area image segmentation method based on fusion network
KR102656376B1 (en) * 2023-08-18 2024-04-11 (주)유에스티21 Monitoring system and method for lithium mine using satellite images

Similar Documents

Publication Publication Date Title
KR102170260B1 (en) Apparatus and method for fusing synthetic aperture radar image and multispectral image, method for detecting change using it
Gao et al. A comparison of the performance of pixel-based and object-based classifications over images with various spatial resolutions
US11682201B2 (en) Identifying targets within images
Jung et al. A framework for land cover classification using discrete return LiDAR data: Adopting pseudo-waveform and hierarchical segmentation
US20050286770A1 (en) Endmember spectrum database construction method, endmember spectrum database construction apparatus and endmember spectrum database construction program
US20110200249A1 (en) Surface detection in images based on spatial data
JP6200826B2 (en) Forest phase analysis apparatus, forest phase analysis method and program
CN112347895A (en) Ship remote sensing target detection method based on boundary optimization neural network
KR101918007B1 (en) Method and apparatus for data fusion of polarimetric synthetic aperature radar image and panchromatic image
Li et al. GIS-based detection of grain boundaries
CN110310246A (en) A kind of cane -growing region remote sensing information extracting method based on three-line imagery
CN108492288B (en) Random forest based multi-scale layered sampling high-resolution satellite image change detection method
Wang et al. Ship detection in multispectral remote sensing images via saliency analysis
Rangzan et al. Supervised cross-fusion method: a new triplet approach to fuse thermal, radar, and optical satellite data for land use classification
Bouhennache et al. Extraction of urban land features from TM Landsat image using the land features index and Tasseled cap transformation
Khoshboresh-Masouleh et al. Robust building footprint extraction from big multi-sensor data using deep competition network
Erener et al. A methodology for land use change detection of high resolution pan images based on texture analysis
Teo et al. Object-based land cover classification using airborne lidar and different spectral images
JP6334281B2 (en) Forest phase analysis apparatus, forest phase analysis method and program
US20160267382A1 (en) Methods and devices for analysis of digital color images and methods of applying color image analysis
Siok et al. A simulation approach to the spectral quality of multispectral images enhancement
Yousif et al. Fusion of SAR and optical data for unsupervised change detection: A case study in Beijing
CN112106346A (en) Image processing method, device, unmanned aerial vehicle, system and storage medium
Shabna et al. HSEG and PCA for Hyper-spectral Image Classification
Bandyopadhyay et al. On the fusion of lidar and aerial color imagery to detect urban vegetation and buildings

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant