KR102390433B1 - 글로벌 융합영상 제작 장치 및 제작 방법 - Google Patents

글로벌 융합영상 제작 장치 및 제작 방법 Download PDF

Info

Publication number
KR102390433B1
KR102390433B1 KR1020200180193A KR20200180193A KR102390433B1 KR 102390433 B1 KR102390433 B1 KR 102390433B1 KR 1020200180193 A KR1020200180193 A KR 1020200180193A KR 20200180193 A KR20200180193 A KR 20200180193A KR 102390433 B1 KR102390433 B1 KR 102390433B1
Authority
KR
South Korea
Prior art keywords
image
global
fusion
vestibular
satellite
Prior art date
Application number
KR1020200180193A
Other languages
English (en)
Inventor
정형섭
박숭환
이광재
오관영
Original Assignee
서울시립대학교 산학협력단
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단, 한국항공우주연구원 filed Critical 서울시립대학교 산학협력단
Priority to KR1020200180193A priority Critical patent/KR102390433B1/ko
Application granted granted Critical
Publication of KR102390433B1 publication Critical patent/KR102390433B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • H04N9/097
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image

Abstract

글로벌 융합영상 제작 방법은, 위성으로부터 획득한 동일한 위성영상군에 속하는 복수의 다중분광영상을 전정색영상으로 모사하기 위한 복수의 모사가중치를 결정하는 단계, 상기 복수의 모사가중치에 기초하여 상기 복수의 다중분광영상에 공통적으로 적용될 수 있는 글로벌 전정색영상 모사가중치를 결정하는 단계, 상기 글로벌 전정색영상 모사가중치를 사용하여 상기 복수의 다중분과영상을 제1 전정색영상으로 모사하는 단계, 상기 복수의 다중분광영상과 위성으로부터 획득한 제2 전정색영상 간에 글로벌로 사용할 수 있는 글로벌 융합계수를 결정하는 단계, 및 상기 복수의 다중분과영상과 상기 제1 전정색영상을 상기 글로벌 융합계수를 이용하여 융합하는 단계를 포함한다.

Description

글로벌 융합영상 제작 장치 및 제작 방법{Global convergence video production device and production method}
본 개시는 글로벌 융합영상 제작 장치 및 제작 방법에 관한 것이다.
일반적으로 위성영상시스템은 지면으로부터 반사된 태양복사에너지를 수집하여 영상화를 수행하는 센서의 물리적 한계로 인하여 저해상도의 다중분광영상과 고해상도의 전정색영상을 별도로 촬영한다. 영상융합 기법은 상대적으로 해상도가 낮은 다중분광영상의 해상도를 높이기 위하여, 저해상 다중분광영상과 고해상 전정색영상을 수학적으로 융합하여 전정색영상이 가진 해상도 수준의 고해상 다중분광영상을 제작하는 기법을 의미한다.
이러한 영상융합 기법은 일반적으로 component-substitution(CS)을 활용하는데, 이는 최종 제작된 융합영상의 공간해상도가 융합에 사용된 고해상 전정색영상과 유사한 공간해상도를 유지할 수 있다는 장점이 있기 때문이다. 이는 본 발명이 속한 분야에서는 매우 잘 알려진 기술로, 본 발명이 속한 분야에서는 현재 CS를 기반으로 영상융합을 수행하되, 융합과정에서 나타나는 분광정보의 왜곡을 최소화하는 방향으로 영상 융합이 수행되고 있다.
다만, 기존의 CS 기반의 영상융합으로 제작된 융합영상 간에 공간적 상세정보와 분광정보가 차이가 나는 한계점이 발생한다.
본 발명은 융합영상 간의 분광정보의 차이를 최소화할 수 있는 글로벌 융합영상 제작 장치 및 제작 방법을 제공하고자 한다.
발명의 한 특징에 따른 글로벌 융합영상 제작 장치는, 위성으로부터 획득한 동일한 위성영상군에 속하는 복수의 다중분광영상을 전정색영상으로 모사하기 위해 상기 복수의 다중분광영상에 공통적으로 적용될 수 있는 글로벌 전정색영상 모사가중치를 결정하는 글로벌 전정색영상 모사가중치 결정부, 상기 글로벌 전정색영상 모사가중치를 사용하여 상기 복수의 다중분과영상을 제1 전정색영상으로 모사하는 전정색영상 모사부, 상기 복수의 다중분광영상과 위성으로부터 획득한 제2 전정색영상 간에 글로벌로 사용할 수 있는 글로벌 융합계수를 결정하는 글로벌 융합계수 결정부, 및 상기 복수의 다중분과영상과 상기 제1 전정색영상을 상기 글로벌 융합계수를 이용하여 융합하는 융합영상 제작부를 포함한다.
발명의 다른 특징에 따른 글로벌 융합영상 제작 방법은, 위성으로부터 획득한 동일한 위성영상군에 속하는 복수의 다중분광영상을 전정색영상으로 모사하기 위한 복수의 모사가중치를 결정하는 단계, 상기 복수의 모사가중치에 기초하여 상기 복수의 다중분광영상에 공통적으로 적용될 수 있는 글로벌 전정색영상 모사가중치를 결정하는 단계, 상기 글로벌 전정색영상 모사가중치를 사용하여 상기 복수의 다중분과영상을 제1 전정색영상으로 모사하는 단계, 상기 복수의 다중분광영상과 위성으로부터 획득한 제2 전정색영상 간에 글로벌로 사용할 수 있는 글로벌 융합계수를 결정하는 단계, 및 상기 복수의 다중분과영상과 상기 제1 전정색영상을 상기 글로벌 융합계수를 이용하여 융합하는 단계를 포함한다.
본 발명은 융합영상 간의 분광정보의 차이를 최소화할 수 있는 글로벌 융합영상 제작 장치 및 제작 방법을 제공한다.
도 1은 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 장치를 도식적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 모사가중치의 분포를 나타낸 도면이다.
도 3은 일 실시예에 따른 융합계수를 히스토그램으로 나타낸 도면이다.
도 4 및 도 5는 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 결정하기 위한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 융합영상을 생성하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통해 획득된 위성영상의 예를 나타낸 이미지이다.
도 8은 글로벌 융합계수를 사용하여 제작한 융합영상과 영상 맞춤형 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 정량적으로 평가하기 위한 융합영상을 나타낸다.
도 9는 도 8에 표현된 융합영상을 대상으로 분광정보의 차이를 정량적으로 평가하기 위한 그래프의 예시를 나타낸 도면이다.
CS 기반의 영상융합 기법은 1) 저해상 다중분광영상으로부터 고해상 전정색 영상을 모사하고, 2) 모사된 고해상 전정색 영상과 실제 고해상 전정색 영상을 차분하여, 3) 고해상 전정색 영상의 고주파 성분(공간적 상세정보)을 추출한 후, 4) 저해상 다중분광영상과 고주파 성분 간의 융합계수를 결정한 뒤, 5) 결정된 융합계수를 이용하여 융합영상을 제작하는 과정을 포함한다.
여기서, 고해상 전정색 영상을 모사하기 위한 모사가중치와 저해상 다중분광 영상에 고주파 성분을 추가하기 위한 융합계수는 융합대상이 되는 저해상 다중분광영상과 고해상 전정색영상 간의 통계적 기법을 사용하여 수학적으로 결정한다. 즉, 위성영상의 융합영상의 제작에는 저해상 다중분광영상과 고해상 전정색영상의 통계값에 의존적이게 되며, 이는 곧 위성영상을 구성하는 지표 피복의 특성에 따라 융합영상의 제작 결과가 달라질 수 있음을 의미한다.
이때, 단일 촬영영상에 대해서는 위와 같은 통계적 방법을 사용하여 결정된 융합계수를 사용함으로써 전정색영상의 공간적 상세정보와 다중분광영상의 분광정보를 동시에 적절히 제공할 수 있다. 다만, 여러 지역을 촬영한 다수의 촬영영상에 대해 각각의 융합계수를 사용할 경우, 제작된 융합영상 간에 공간적 상세정보와 분광정보가 차이가 발생할 수 있다. 예를 들어, 도심지 위주로 촬영된 단일 영상과 산림지역 위주로 촬영된 단일 영상에 대하여 융합영상을 제작할 경우, 서로 다른 통계적 특성으로 인하여 융합영상 간에 시각적, 분광적 차이가 발생하게 된다. 이를 해결하기 위해서, 일 실시예는 다양한 지역과 지역적 특성을 대표할 수 있는 대표 융합계수를 활용한 융합영상 제작 방법을 제공한다.
본 발명의 일 실시예를 설명하는데 있어, 주지 기술에 대한 설명은 생략하고, 한국등록특허 제10-1580585호 “전정색영상과 적외선영상의 융합 방법 및 장치”, 한국등록특허 제10-1928393호 “적외선 영상과 레이더 영상의 융합방법 및 장치”, 한국등록특허 제10-1928391호 “다중분광 영상과 레이더 영상의 융합방법 및 장치”, 한국등록특허 제10-1918007호 “다중 편광레이더 영상과 전정색 영상의 융합방법 및 장치”및 한국등록특허 제10-1291219호 “전정색영상과 다중분광영상의 융합 방법 및 그 장치”등에서 기재된 내용을 참조할 수 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및/또는 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 장치를 도식적으로 나타낸 도면이다.
도 1을 참조하면, 글로벌 융합영상 제작 장치(100)는, 위성영상 획득부 (110), 글로벌 전정색영상 모사가중치 결정부(120), 전정색영상 모사부(130), 글로벌 융합계수 결정부(140), 및 융합영상 제작부(150)를 포함한다.
위성영상 획득부(110)는 위성으로부터 위성 영상에 대한 신호를 수신하고, 수신된 신호에 기초하여 동일한 좌표계를 가진 저해상 다중분광영상과 고해상 전정색영상을 획득할 수 있다. 즉, 위성영상 획득부는(110)는 동일한 좌표계와 서로 다른 공간해상도를 가지는 다중분광영상과 전정색영상을 획득할 수 있다.
위성영상 획득부(110)는 획득한 저해상 다중분광영상과 고해상 전정색 영상이 서로 다른 좌표계를 지닐 경우, 동일한 좌표계로 좌표변환을 수행할 수 있다. 이러한 좌표변환 방법과 리샘플링 방법은 본 발명이 속한 분야에서는 주지한 기술로, 상세한 설명은 생략한다.
위성영상 획득부(110)를 통해 획득된 저해상 다중분광영상과 고해상 전정색영상 간에는, 공간해상도 및 위성영상을 구성하는 행과 열의 크기가 일정한 비율을 유지한다. 이에 대한 일 예로, 대한민국 다목적실용위성 3A호의 경우, 알려진 공간해상도는 전정색영상의 경우 0.55m이고 다중분광영상의 2.2m로 4:1 비율을 따른다. 그러면, 전정색영상이 24,000행과 24,000열일 때, 다중분광영상은 6,000행과 6,000열로 구성되어 4:1의 비율을 따른다.
위성영상 획득부(110)는 복수의 다중분광영상과 전정색영상을 획득한다. 위성영상 획득부(110)에 의해 획득된 복수의 다중분광영상과 전정색영상은 융합영상 간의 분광정보의 차이를 최소화한 복수의 융합영상을 제작하는데 이용된다. 융합영상이란 지역적으로 특정 군을 대표할 수 있는 영상으로, 전지구 융합영상, 한반도 융합영상, 해양영역 융합영상, 도심영역 융합영상 또는 삼림영역 융합영상 등을 의미하며, 각 지역적 목적과 특성을 나타내는 융합영상을 의미한다.
글로벌 전정색영상 모사가중치 결정부(120)는 복수의 다중분광영상을 전정색영상으로 모사하기 위해 복수의 다중분광영상 모두에 공통적으로 적용될 수 있는 모사가중치를 결정한다. 글로벌 전정색영상 모사가중치 결정부(120)는 위성영상 획득부(110)에 의해 획득된 복수의 위성영상 각각에 대한 모사가중치를 계산한 후, 복수의 모사가중치를 대표할 수 있는 글로벌 전정색영상 모사가중치를 결정한다.
예를 들어, 글로벌 전정색영상 모사가중치 결정부(120)는 복수의 위성영상 각각의 특징(예를 들어, 지표 피복)에 기초하여 위상영상 군으로 분류하고, 각 위상영상 군을 대표할 수 있는 글로벌 전정색영상 모사가중치를 결정한다. 위성영상 군은 전지구 영역, 한반도 영역, 해양영역, 도심영역, 삼림영역 등을 포함하고, 각 군에 속하는 위성영상들은 특정 영역의 공통점을 가질 수 있다. 결정부()는 전지구 영역, 한반도 영역, 해양영역, 도심영역, 삼림영역 등 각각에 대해서 글로벌 전정색영상 모사가중를 결정하고, 글로벌 전정색영상 모사가중치 각각은 특정영역을 대표할 수 있다.
구체적으로, 글로벌 전정색영상 모사가중치 결정부(120)는 위성영상 획득부(110)에서 획득한 복수의 위성영상 중 저해상의 다중분광영상을 고해상의 전정색영상으로 모사하기 위한 모사가중치를 추출하고, 위상영상 군별 복수의 모사가중치에 대해서 통계적 기법을 적용하여 해당 위성영상 군을 대표할 수 있는 글로벌 전정색영상 모사가중치수를 결정한다. 이때, 모사가중치란 다중분광영상과 전정색영상 간의 선형관계식 또는 비선형관계식을 사용할 때 얻어지는 계수로서, 선형관계식을 사용할 경우, 하기 수학식 1을 통하여 얻어진다.
Figure 112020139137617-pat00001
이때,
Figure 112020139137617-pat00002
는 위성영상 군의 i번째 전정색영상,
Figure 112020139137617-pat00003
는 위성영상 군의 i번째 다중분광영상의 k번째 채널영상을 나타낸다. Ni는 위성영상 군의 총 위성영상 수, Nk는 다중분광영상의 채널 수를 나타낸다. 만약 획득한 위성영상 군이 네 개의 다중분광영상을 제공하는 우리나라 다목적실용위성 3A호이고, 한반도영역을 대상으로 획득한 100장의 영상으로 이루어졌다면, Ni는 100이 되며, Nk는 4가 된다.
Figure 112020139137617-pat00004
(k=1,…, Nk)는 i번째 k개 채널의 다중분광영상들 각각에 대한 모사가중치로, i번째 전정색영상과 i번째 k개 채널의 다중분광영상들 간의 선형관계식으로부터 추정될 수 있다. k=0일 때의
Figure 112020139137617-pat00005
(=
Figure 112020139137617-pat00006
)는 선형 관계식에서의 상수 값이다.
이러한 전정색영상 모사가중치는 해당 다중분광영상들(i번째 k개의 채널 다중분광영상)과 대응하는 전정색영상(i번째 전정색영상) 쌍에 대하여 정의되고, 글로벌 전정색영상 모사가중치 결정부(120)는, 모든 다중분광영상 각각 및 각 다중분광영상에 대응하는 전정색영상의 쌍에 대한 복수의 모사가중치로부터, 통계적 기법을 활용하여 글로벌 전정색영상 모사가중치를 결정할 수 있다.
도 2는 본 발명의 일 실시예에 따른 모사가중치의 분포를 나타낸 도면이다.
도 2에 도시된 히스토그램은, 한반도 영역의 융합영상 생성을 목적으로 활용된 대한민국 다목적실용위성 3A호 영상들로부터 다중분광영상과 전정색영상 간의 선형관계식을 사용하여 추정한 모사가중치에 관한 것이다.
도 2에 도시된 바와 같이, 다목적실용위성 3A호는 네 장의 다중분광영상을 제공하기 때문에 총 다섯개의 모사가중치(c0, c1, c2, c3, c4)를 나타낸다. 이때, 통계적 기법 중 중앙값을 사용하여 글로벌 전정색영상 모사가중치를 결정할 경우, c0은 -8.984, c1은 0.083, c2는 0.025, c3은 0.172, c4는 0.179의 값으로 글로벌 전정색영상 모사가중치를 결정할 수 있다. 통계적 기법 중 평균값을 사용하는 것보다 중앙값을 사용하는 것이 글로벌 전정색영상 모사가중치에 더 적합하다. c3의 히스토그램의 경우 분포가 왼쪽으로 즉, 낮은 값으로 형성되어 있어 평균값을 취할 경우, c3가 낮게 결정된다. 그러면, 높은 모사가중치를 가지는 다중분광영상이 c3에 따라 전정색영상으로 모사될 때 심한 왜곡이 발생할 수 있다.
전정색영상 모사부(130)는 글로벌 전정색영상 모사가중치 결정부(120)에서 결정한 글로벌 전정색영상 모사가중치를 사용하여 복수의 다중분광영상을 전정색영상으로 모사한다.
전정색영상 모사부(130)는 글로벌 전정색영상 모사가중치를 사용한 수학식 2에 따라 각 다중분광영상을 전정색영상으로 모사한다.
Figure 112020139137617-pat00007
이때,
Figure 112020139137617-pat00008
는 위성영상 군의 i번째 다중분광영상의 k번째 채널영상을 나타내며, Ni는 위성영상 군의 총 위성영상 수, Nk는 다중분광영상의 채널 수를 나타낸다.
Figure 112020139137617-pat00009
(k=1,…, Nk)는 글로벌 전정색영상 모사가중치 결정부(120)에서 결정한 글로벌 전정색영상 모사가중치를 나타낸다. Ii는 i번째 k개의 채널 다중분광영상 각각에 대응하는 글로벌 전정색영상 모사가중치를 사용하여 모사된 i번째 전정색영상을 나타낸다.
글로벌 융합계수 결정부(140)는 복수의 다중분광영상과 전정색영상 간에 글로벌로 사용할 수 있는 융합계수를 결정한다. 글로벌 융합계수는 공간적 상세정보를 융합영상에 반영하기 위해 사용된다. 예를 들어, 글로벌 융합계수 결정부(140)는 전정색영상 모사부(130)에서 모사한 전정색영상과 다중분광영상들 간의 통계적 정보를 활용하여 글로벌 융합계수를 결정할 수 있다.
글로벌 융합계수 결정부(140)는 전정색영상 모사부(130)에서 모사한 i 번째 전정색영상과 i번째 k개 채널의 다중분광영상들 간의 수학적 관계로부터 각각의 융합계수를 계산하여 복수의 융합계수들을 생성하고, 복수의 융합계수들을 대표할 수 있는 글로벌 융합계수를 결정한다.
여기서, 각 융합계수는 모사한 i 번째 전정색영상과 i번째 k개 채널의 다중분광영상들 각각 간의 수학적 관계로부터 결정하며, 이때 사용되는 수학적 관계란 공분산, 분산 등을 포함할 수 있다.
공분산과 분산을 사용하여 각 융합계수를 결정할 경우, 수학식 3이 이용될 수 있다.
Figure 112020139137617-pat00010
이때, con(A, B)는 A와 B영상 간 공분산을 지시하는 것으로, 수학식 3에서
Figure 112020139137617-pat00011
는 모사한 i 번째 전정색영상과 i번째 k번째 채널의 다중분광영상 간의 공분산을 의미한다. var(A)는 A영상의 분산을 지시하는 것으로, 수학식 3에서 의미하며,
Figure 112020139137617-pat00012
는 모사한 i 번째 전정색영상의 분산을 의미한다.
Figure 112020139137617-pat00013
는 위성영상 군의 i번째 전정색영상의 k번째 채널영상에 대한 융합계수를 지시한다.
도 3은 일 실시예에 따른 융합계수를 히스토그램으로 나타낸 도면이다.
도 3에서, 한반도 영역의 융합영상 생성을 목적으로 활용된 우리나라 다목적실용위성 3A호 영상들로부터 수학식 3으로부터 계산한 각 채널영상의 융합계수를 나타낸 히스토그램이 도시되어 있다.
도 3을 참조하면, 글로벌 융합계수 결정부(140)는 통계적 기법 중 중앙값을 사용하여 글로벌 융합계수를 결정한다. 예를 들어, 글로벌 융합계수 결정부(140)는 각 채널별 히스토그램의 평균을 산출하여
Figure 112020139137617-pat00014
은 0.817,
Figure 112020139137617-pat00015
는 1.234,
Figure 112020139137617-pat00016
은 1.380,
Figure 112020139137617-pat00017
는 2.395로 글로벌 융합계수를 결정할 수 있다.
도 4 및 도 5는 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 결정하기 위한 순서도이다.
도 4 및 도 5에 도시된 바와 같이, 글로벌 융합영상 제작 장치(100)는 위성영상 군에 속한 복수 채널의 다중분광영상과 전정색영상들로부터 각 모사가중치를 추정한 후, 글로벌 전정색영상 모사가중치를 결정하고, 글로벌 전정색영상 모사가중치를 사용하여 각 전정색영상을 모사한 후, 각 모사한 전정색영상과 다중분광영상들로부터 융합계수를 추정한 후, 글로벌 융합계수를 결정하며, 결정된 글로벌 융합계수를 이용하여 융합영상을 제작한다.
도 4및 도 5에 도시된 바와 같이, 위상영상 획득부(110)는 복수 채널의 다중분광영상(MSl) 및 하나의 전정색영상(PANh)을 포함하는 영상 셋(Image Set)을 획득하고, 위성영상 획득부(110)는 동일한 좌표체계를 가진 복수 채널의 저해상 다중분광영상과 고해상 전정색영상을 획득할 수 있다(S1).
모사가중치 결정부(120)는 복수 채널의 저해상 다중분광영상(MSl) 각각으로부터 고해상도 전정색영상(PANh)을 모사할 수 있는 전정색영상 모사가중치(ck)를 계산(Estimation of Weights ck)하고, 대표적으로 사용할 수 있는 대표적 모사가중치(
Figure 112020139137617-pat00018
)를 결정(Decision of Representative Weights
Figure 112020139137617-pat00019
)한다(S2). 대표적 모사가중치(
Figure 112020139137617-pat00020
)가 글로벌 전정색영상 모사가중치다.
전정색영상 모사부(130)는 글로벌 전정색영상 모사가중치를 사용하여 복수 채널의 저해상 다중분광영상을 고해상전정색영상으로 모사(Generation of Pseudo Intensity Image I)한다(S3).
글로벌 융합계수 결정부(140)는 모사된 전정색영상과 복수 채널의 다중분광영상 각각 간의 융합계수를 계산(Estimation of Fusion Parameters αk)한 다음, 대표적으로 사용할 수 있는 글로벌 융합계수를 결정(Decision of Representative Fusion Parameter
Figure 112020139137617-pat00021
)한다(S4).
융합영상 제작부(150)는 S4 단게에서 결정된 채널 별 글로벌 융합계수를 사용하여 복수 채널의 저해상 다중분광영상 각각과 고해상 전정색영상을 융합하여 고해상 융합영상을 생성한다(S5).
이와 같이, 글로벌 전정색영상 모사가중치 및 글로벌 융합계수는 위성영상 군으로부터 결정되고, 각 위성영상들로부터 획득한 복수의 모사가중치 및 융합계수로부터 통계적 기법을 사용하여 글로벌 전정색영상 모사가중치 및 글로벌 융합계수가 결정된다.
융합영상 제작부(150)는 전정색영상을 모사하기 위한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 융합영상을 제작한다. 융합영상 제작부(150)는 글로벌 전정색영상 모사가중치 결정부(120)에서 결정한 글로벌 전정색영상 모사가중치와 글로벌 융합계수 결정부(140)에서 결정한 글로벌 융합계수를 수학식 4에 적용하여 융합영상을 제작한다.
Figure 112020139137617-pat00022
이때, 여기서,
Figure 112020139137617-pat00023
는 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 제작한 i번째 영상의 k번째 채널에 대한 융합영상을 의미하고,
Figure 112020139137617-pat00024
는 위성영상 군의 i번째 다중분광영상의 k번째 채널영상이며,
Figure 112020139137617-pat00025
는 k번째 채널영상에 대한 글로벌 융합계수를 말하며,
Figure 112020139137617-pat00026
는 i번째 영상에 대한 공간적 상세정보를 나타낸다.
융합영상 제작부(150)는 융합영상 제작에 있어서 공간적 상세정보를 반영하는 정도를 결정하는 글로벌 융합계수를 이용하여 융합영상을 생성할 수 있다. 즉, 수학식 4와 같이, 융합영상 제작부(150)는 공간적 상세정보에 글로벌 융합계수를 곱한 결과를 각 채널별 다중분광영사에 더하여 각 채널별 융합 영상을 제작할 수 있다.
도 6은 본 발명의 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 융합영상을 생성하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 융합영상을 생성하는데 사용하는 글로벌 전정색영상 모사가중치와 글로벌 융합계수는 위성영상 군의 지역적 특성을 반영할 수 있다.
예를 들어, 도 6에서, 글로벌 융합영상 제작 장치(100)는 영상 융합 파라미터 블록(160)을 더 포함한다. 전정색영상 모사부(130)는 복수 채널의 다중분광영상(MSl)에 대해서, 영상 융합 파라미터 블록(160)에 저장된 대표적인 대역 비율 가중치(글로벌 전정색영상 모사가중치,
Figure 112020139137617-pat00027
)를 선택하여 복수 채널의 다중분광영상(MSl) 각각에 선택된 글로벌 전정색영상 모사가중치를 곱한 결과를 합하여 전정색영상(Il)을 생성한다. 융합영상 제작부(150)는 영상 융합 파라미터 블록(160)에 저장된 대표적인 융합 계수(글로벌 융합계수,
Figure 112020139137617-pat00028
)를 채널별로 선택하고, 전정색영상(PANh)과 모사된 전정색영상(Il) 간의 차인 공간적 상세정보에 선택된 채널별 글로벌 융합계수를 곱한 결과를 채널별 다중분광영상(MSl)에 더하여 채널별 융합 영상(MSh)을 생성한다.
영상 융합 파라미터 블록(160)은 한반도 파라미터(Korean Peninsula Parameter) 블록(161), 전지구 파라미터(Grobal Parameter) 블록(162), 및 지역 파라미터(Local Parameter) 블록(163)을 포함한다. 지역 파라미터 블록(163)은 도심영역, 산림영역, 해양영역, 사막영역, 적설지대와 같이 특정 지역에 대하여 융합영상을 제작할 때 필요한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 포함하는 블록으로, 각 영역 별로 구분되어 글로벌 전정색영상 모사가중치와 글로벌 융합계수가 저장될 수 있다.
복수 채널의 다중분광영상(MSl) 및 전정색영상(PANh)이 우리나라 영역에 속할 경우, 글로벌 융합영상 제작 장치(100)는 우리나라를 촬영한 위성영상들로부터 결정한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 저장한 한반도 파라미터 블록(161)에서 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 선택한다. 복수 채널의 다중분광영상(MSl) 및 전정색영상(PANh)이 전지구 영역에 속할 경우, 글로벌 융합영상 제작 장치(100)는 전지구 영상을 촬영한 위성영상들로부터 결정한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 저장한 전지구 파라미터 블록(162)에서 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 선택한다. 복수 채널의 다중분광영상(MSl) 및 전정색영상(PANh)이 도심영역, 산림영역, 해양영역, 사막영역, 적설지대와 같이 특정 지역에 속할 경우, 글로벌 융합영상 제작 장치(100)는 특정 지역 영상을 촬영한 위성영상들로부터 결정한 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 저장한 지역 파라미터 블록(162)에서 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 선택한다.
도 7은 본 발명의 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치를 통해 획득된 위성영상의 예를 나타낸 이미지이다.
도 7에 도시된 바와 같이, 전지구 융합영상, 한반도 융합영상, 해양영역 융합영상, 도심영역 융합영상, 삼림영역 융합영상 등을 제작하기 위해서는 글로벌 융합계수를 사용하여 융합영상 간의 분광적 정보의 차이를 최소화하는 것이 적합하다.
또한, 도 7을 참조하면, 위성은 일반적으로 동일 지구궤도를 따라 위성영상을 촬영하기 때문에 일부 영역이 중첩될 수 있으며, 융합영상 생성 후 중첩지역(Overlap Area)의 분광적 정보의 차이를 최소화하기 위하여서도 글로벌 융합계수의 사용이 요구된다.
융합영상 제작부(150)는 기존에 결정된 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 분광적정보 간의 차이를 최소화 할 수 있는 융합영상을 생성할 수 있다. 이러한 과정으로 생성한 융합영상은 융합영상 간의 분광적정보의 차이를 최소화 할 수 있는 장점이 있다. 즉, 글로벌 전정색영상 모사가중치와 글로벌 융합계수를 사용하여 생성한 융합영상은 동일한 융합계수를 사용함으로써 융합영상 간의 분광정보의 차이가 최소화 되는 특징이 있다.
도 8은 글로벌 융합계수를 사용하여 제작한 융합영상과 영상 맞춤형 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 정량적으로 평가하기 위한 융합영상을 나타낸다.
이때, 도 8(a)는 도심지역의 저해상 다중분광영상을 나타내며, 도 8(b)는 도심지역의 고해상 전정색영상을 나타내며, 도 8(c)는 도심지역을 대상으로 제작한 고해상 융합영상이다.
도 8(d)는 농경지역의 저해상 다중분광영상을 나타내며, 도 8(e)는 농경지역의 고해상 전정색영상을 나타내며, 도 8(f)는 농경지역을 대상으로 제작한 고해상 융합영상을 나타낸다. 여기서, 도 8(a)와 도 8(d)에 표현된 선은 융합영상 간의 분광정보의 차이를 확인하기 위해 분광정보를 추출한 영역을 나타낸다.
도 8(c)와 도 8(f)를 참조하면, 글로벌 융합계수를 사용하여 제작한 융합영상은 저해상 다중분광영상의 해상도를 고해상 전정색영상 수준으로 개선할 수 있음을 나타낸다.
도 9는 도 8에 표현된 융합영상을 대상으로 분광정보의 차이를 정량적으로 평가하기 위한 그래프의 예시를 나타낸 도면이다.
도 8(c) 및 도 8(f)의 융합영상에서, 도 8(a)의 단선 AB 및 도 8(d)의 단선 CD을 따른 분광정보의 차이가 도 9에 도시되어 있다.
도 9에서, 도 9에서 가로축은 도 8에 도시된 단선 AB 및 CD에 따른 거리이고, 세로축은 분광 정보의 차이에 따른 디지털 넘버(Digital Number, DN) 값 차이이다. 9a는 도심지역을 대상으로 채널 별로 맞춤형 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 나타내고, 도 9b는 도심지역을 대상으로 글로벌 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 나타낸다.
도 9c는 농경지역을 대상으로 채널 별로 맞춤형 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 나타내며, 도 9d는 농경지역을 대상으로 글로벌 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이를 나타낸다.
도 9에 도시된 바와 같이, 채널 별 맞춤형 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이는 모든 채널영상에서 높게 나타나는 것을 확인할 수 있다. 반면, 글로벌 융합계수를 사용하여 제작한 융합영상 간의 분광정보의 차이는 모든 채널영상에서 상대적으로 낮게 나타나는 것을 확인할 수 있다. 본 예시의 경우, 도심지역은 분광정보차이가 약 80.4% 감소하였으며, 농경지역은 분광정보차이가 약 23.5% 감소한 것을 확인할 수 있다.
이로부터 본 발명에 의한 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치로부터 융합영상을 생성할 경우, 생성된 융합영상 간의 분광정보의 차이는 최소화되는 것을 확인할 수 있다.
이와 같이, 본 발명에서 제시하는 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치는 글로벌 융합계수를 사용하여 고해상 융합영상을 생성할 수 있으며, 생성된 융합영상 간의 분광정보의 차이를 최소화하는 것이 가능하다. 또한 전지구영역, 한반도영역, 해양영역, 도심영역 및 산림영역에 대하여 글로벌 융합계수를 결정할 수 있을 경우, 지역적 특성을 반영한 융합영상의 생성이 가능하다. 또한 알려진 글로벌 융합계수를 사용하여 융합영상을 제작할 경우, 영상처리 시간은 맞춤형 융합계수를 사용하여 융합영상을 제작하는데 필요한 시간보다 적게 소요되기 때문에 영상처리 속도 개선의 효과가 있다.
본 발명의 일 실시예에 따른 글로벌 융합계수를 이용한 융합영상 제작 방법 및 그 장치는 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 audfudd을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.
100: 글로벌 융합영상 제작 장치
110: 위성영상 획득부
120: 글로벌 전정색영상 모사가중치 결정부
130: 전정색영상 모사부
140: 글로벌 융합계수 결정부
150: 융합영상 제작부
160; 영상 융합 파라미터 블록

Claims (10)

  1. 복수의 위성영상군 중 동일한 위성영상군에 속하는 복수의 다중분광영상을 전정색영상으로 모사하기 위해 상기 복수의 다중분광영상에 공통적으로 적용될 수 있는 글로벌 전정색영상 모사가중치를 결정하는 글로벌 전정색영상 모사가중치 결정부;
    상기 글로벌 전정색영상 모사가중치를 사용하여 상기 복수의 다중분과영상을 제1 전정색영상으로 모사하는 전정색영상 모사부;
    상기 복수의 다중분광영상과 위성으로부터 획득한 제2 전정색영상 간에 글로벌로 사용할 수 있는 글로벌 융합계수를 결정하는 글로벌 융합계수 결정부; 및
    상기 복수의 다중분과영상과 상기 제1 전정색영상을 상기 글로벌 융합계수를 이용하여 융합하는 융합영상 제작부를 포함하고,
    상기 모사가중치 결정부는,
    복수의 모사가중치를 수학식 1을 이용하여 결정하며,
    [수학식 1]
    Figure 112021148187039-pat00043

    상기
    Figure 112021148187039-pat00044
    는 위성영상 군의 i번째 전정색영상이고, 상기
    Figure 112021148187039-pat00045
    는 위성영상 군의 i번째 다중분광영상의 k번째 채널영상이며, 상기 Ni는 위성영상 군의 총 위성영상 수이고, 상기 Nk는 다중분광영상의 채널 수이며, 상기
    Figure 112021148187039-pat00046
    (k=1,??, Nk)는 i번째 k개 채널의 다중분광영상들 각각에 대한 모사가중치이고, 상기
    Figure 112021148187039-pat00047
    는 선형관계식에서의 상수 값이고, 상기 복수의 모사가중치에 기초하는, 글로벌 융합영상 제작 장치.
  2. 제1항에 있어서,
    상기 글로벌 전정색영상 모사가중치 결정부는,
    상기 복수의 다중분광영상의 채널 별 모사가중치를 추출하고, 추출된 복수의 모사가중치에 대해서 통계적 기법을 적용하여 채널 별로 상기 글로벌 전정색영상 모사가중치를 결정하는, 글로벌 융합영상 제작 장치.
  3. 제2항에 있어서,
    상기 글로벌 전정색영상 모사가중치 결정부는,
    상기 통계적 기법으로 중앙값을 적용하여, 상기 추출된 복수의 모사가중치 중 중앙값을 상기 글로벌 전정색영상 모사가중치로 결정하는, 글로벌 융합영상 제작 장치.
  4. 제2항에 있어서,
    상기 전정색영상 모사부는,
    상기 채널 별 글로벌 전정색영상 모사가중치와 상기 채널 별 다중분광영상을 곱한 결과를 더하여 상기 복수의 다중분광영상으로부터 상기 제1 전정색영상을 모사하는, 글로벌 융합영상 제작 장치.
  5. 제3항에 있어서,
    상기 글로벌 융합계수 결정부는,
    상기 제1 전정색영상과 상기 채널 별 다중분과영상 간의 융합계수를 계산하여 복수의 융합계수들을 생성하고, 상기 복수의 융합계수들에 대해서 통계적 기법을 적용하여 상기 글로벌 융합계수를 결정하는, 글로벌 융합영상 제작 장치.
  6. 제5항에 있어서,
    상기 글로벌 융합계수 결정부는,
    상기 통계적 기법으로 중앙값을 적용하여, 상기 복수의 융합계수들 중 중앙값을 상기 글로벌 융합계수로 결정하는, 글로벌 융합영상 제작 장치.
  7. 제5항에 있어서,
    상기 융합영상 제작부는,
    상기 제2 전정색영상에서 상기 제1 전정색영상을 차감한 결과에 상기 글로벌 융합계수를 곱한 값을 상기 채널 별 다중분광영상에 더하여 채널 별 융합영상을 제작하는, 글로벌 융합영상 제작 장치.
  8. 제1항에 있어서,
    상기 복수의 위상영상군 각각에 대응하는 글로벌 전정색영상 모사가중치 및 글로벌 융합계수를 저장하는 영상 융합 파라미터 블록을 더 포함하고,
    상기 위성영상군의 종류에 따라 상기 영상 융합 파라미터 블록에서 대응하는 글로벌 전정색영상 모사가중치 및 글로벌 융합계수를 선택하는, 글로벌 융합영상 제작 장치.
  9. 위성으로부터 획득한 동일한 위성영상군에 속하는 복수의 다중분광영상을 전정색영상으로 모사하기 위한 복수의 모사가중치를 결정하는 단계;
    상기 복수의 모사가중치에 기초하여 상기 복수의 다중분광영상에 공통적으로 적용될 수 있는 글로벌 전정색영상 모사가중치를 결정하는 단계;
    상기 글로벌 전정색영상 모사가중치를 사용하여 상기 복수의 다중분과영상을 제1 전정색영상으로 모사하는 단계
    상기 복수의 다중분광영상과 위성으로부터 획득한 제2 전정색영상 간에 글로벌로 사용할 수 있는 글로벌 융합계수를 결정하는 단계; 및
    상기 복수의 다중분과영상과 상기 제1 전정색영상을 상기 글로벌 융합계수를 이용하여 융합하는 단계를 포함하고,
    상기 복수의 모사가중치 결정하는 단계는,
    수학식 1을 이용하는 단계를 포함하고,
    [수학식 1]
    Figure 112021148187039-pat00048

    상기
    Figure 112021148187039-pat00049
    는 위성영상 군의 i번째 전정색영상이고, 상기
    Figure 112021148187039-pat00050
    는 위성영상 군의 i번째 다중분광영상의 k번째 채널영상이며, 상기 Ni는 위성영상 군의 총 위성영상 수이고, 상기 Nk는 다중분광영상의 채널 수이며, 상기
    Figure 112021148187039-pat00051
    (k=1,??, Nk)는 i번째 k개 채널의 다중분광영상들 각각에 대한 모사가중치이고, 상기
    Figure 112021148187039-pat00052
    는 선형관계식에서의 상수 값인, 글로벌 융합영상 제작 방법.
  10. 삭제
KR1020200180193A 2020-12-21 2020-12-21 글로벌 융합영상 제작 장치 및 제작 방법 KR102390433B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200180193A KR102390433B1 (ko) 2020-12-21 2020-12-21 글로벌 융합영상 제작 장치 및 제작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200180193A KR102390433B1 (ko) 2020-12-21 2020-12-21 글로벌 융합영상 제작 장치 및 제작 방법

Publications (1)

Publication Number Publication Date
KR102390433B1 true KR102390433B1 (ko) 2022-04-25

Family

ID=81451722

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200180193A KR102390433B1 (ko) 2020-12-21 2020-12-21 글로벌 융합영상 제작 장치 및 제작 방법

Country Status (1)

Country Link
KR (1) KR102390433B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101291219B1 (ko) * 2012-03-16 2013-07-31 한국항공우주연구원 전정색영상과 다분광영상의 융합 방법 및 그 장치
KR20170139816A (ko) * 2016-06-10 2017-12-20 (주)한국미래기술 실시간 영상 합성 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101291219B1 (ko) * 2012-03-16 2013-07-31 한국항공우주연구원 전정색영상과 다분광영상의 융합 방법 및 그 장치
KR20170139816A (ko) * 2016-06-10 2017-12-20 (주)한국미래기술 실시간 영상 합성 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
변영기 외 1명, 결정론적 영상복원과정을 이용한 고해상도 위성영상 융합 품질 개선정도 평가, 한국측량학회지, 제 29권 제 5호, 2011.10, p. 471~478. 1부.* *
신정일 외 4명, KOMPSAT-3A 영상과 항공정사영상의 영상정합 성공률 향상 방법, 대한원격탐사학회지대한원격탐사학회지 제34권 제6호, 2018. 1부.* *
오관영 외 3명, 아리랑 2호/3호 영상을 이용한 영상융합 비교 분석, 한국측량학회지 32(2), 2014.04, 117-132(16 pages) 1부.* *

Similar Documents

Publication Publication Date Title
CN111640159B (zh) 一种基于孪生卷积神经网络的遥感影像变化检测方法
CN109447994B (zh) 结合完全残差与特征融合的遥感图像分割方法
Zhang Automatic digital surface model (DSM) generation from linear array images
Toutin Impact of terrain slope and aspect on radargrammetric DEM accuracy
Toutin Three-dimensional topographic mapping with ASTER stereo data in rugged topography
Huang et al. Cloud removal from optical satellite imagery with SAR imagery using sparse representation
Shen et al. A spatiotemporal fusion based cloud removal method for remote sensing images with land cover changes
CN109872278B (zh) 基于u形网络和生成对抗网络的图像云层移除方法
KR102127405B1 (ko) 인공위성 영상을 이용한 하천의 유량추정방법 및 장치
CA2678491A1 (en) Exemplar/pde-based technique to fill null regions and corresponding accuracy assessment
JP2010539621A (ja) 停止メトリックのある修復を提供する地理空間的モデリング・システムおよび関係する方法
Simioni et al. 3DPD: A photogrammetric pipeline for a PUSH frame stereo cameras
CN108444451B (zh) 一种行星表面影像匹配方法与装置
Wang et al. A noise removal algorithm based on adaptive elevation difference thresholding for ICESat-2 photon-counting data
Cheng et al. QuickBird–geometric correction, path and block processing and data fusion
EP1763807B1 (en) Simulating a sensing system
JP2010539622A (ja) 選択可能な補筆機能に基づくボイド修復を提供する地理空間的モデリング・システムおよび関係する方法
CN103728022A (zh) 一种坏像元的校正方法
KR102390433B1 (ko) 글로벌 융합영상 제작 장치 및 제작 방법
Chen et al. CNN-Based Large Area Pixel-Resolution Topography Retrieval From Single-View LROC NAC Images Constrained With SLDEM
Deng et al. Mapping bathymetry from multi-source remote sensing images: A case study in the Beilun Estuary, Guangxi, China
US20210125308A1 (en) Method for increasing the spatial resolution of a multispectral image from a panchromatic image
Borde et al. A direct link between feature tracking and height assignment of operational atmospheric motion vectors
Zhang et al. A CNN-based subpixel level DSM generation approach via single image super-resolution
Yu et al. A hybrid model-based and data-driven approach for cloud removal in satellite imagery using multi-scale distortion-aware networks

Legal Events

Date Code Title Description
GRNT Written decision to grant