KR20230047230A - Daily image fusion producing method and system using geostationary satellite imagery - Google Patents

Daily image fusion producing method and system using geostationary satellite imagery Download PDF

Info

Publication number
KR20230047230A
KR20230047230A KR1020210129391A KR20210129391A KR20230047230A KR 20230047230 A KR20230047230 A KR 20230047230A KR 1020210129391 A KR1020210129391 A KR 1020210129391A KR 20210129391 A KR20210129391 A KR 20210129391A KR 20230047230 A KR20230047230 A KR 20230047230A
Authority
KR
South Korea
Prior art keywords
image
geostationary
fusion
orbit satellite
polar
Prior art date
Application number
KR1020210129391A
Other languages
Korean (ko)
Other versions
KR102538242B1 (en
Inventor
류영렬
공주원
정성찬
최원석
헤녹 마모 데베르네
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210129391A priority Critical patent/KR102538242B1/en
Publication of KR20230047230A publication Critical patent/KR20230047230A/en
Application granted granted Critical
Publication of KR102538242B1 publication Critical patent/KR102538242B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a daily interval image fusion method and system utilizing geostationary satellite images. The daily interval image fusion method utilizing geostationary satellite images according to the present invention includes: an input data construction step in which a database consisting of polar orbit satellite images observed from polar orbit satellites and geostationary satellite images observed from geostationary satellites is constructed; a step of preprocessing, by a preprocessing unit, the polar orbit satellite image and the geostationary orbit satellite image; and a fusion step in which a fusion unit fuses the preprocessed polar orbit satellite image and the geostationary orbit satellite image to produce a daily interval fusion image.

Description

정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템{DAILY IMAGE FUSION PRODUCING METHOD AND SYSTEM USING GEOSTATIONARY SATELLITE IMAGERY}Daily image fusion method and system using geostationary satellite images {DAILY IMAGE FUSION PRODUCING METHOD AND SYSTEM USING GEOSTATIONARY SATELLITE IMAGERY}

본 발명은 정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템에 관한 것으로, 보다 상세하게는 광학 원격탐사 분야에서 지표반사율을 다양한 지표모니터링에 활용할 수 있도록 하기 위한 정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for convergence of daily interval images using geostationary satellite images, and more particularly, to utilizing geostationary satellite images to utilize surface reflectance for various surface monitoring in the field of optical remote sensing. Interval image fusion method and system.

단일 극궤도위성에서 관측한 지표반사율 영상은 같은 지역을 방문하는 빈도와 해상도는 반비례 관계를 보인다. 이는 위성센서가 한정된 광량을 이용하여 지표면 관측할 때, 관측범위와 해상도의 반관계에서 나타나는 현상이다.The surface reflectance image observed from a single polar orbiting satellite shows an inverse relationship between the frequency and resolution of visiting the same area. This is a phenomenon that appears in the inverse relationship between the observation range and the resolution when the satellite sensor observes the ground surface using a limited amount of light.

이와 달리 정지궤도위성은 지구 자전속도와 같은 속도로 지구를 공전하고 있기에 지구의 특정면을 지속적으로 관측할 수 있다.Unlike this, geostationary satellites orbit the earth at the same speed as the earth's rotation, so they can continuously observe a specific surface of the earth.

극궤도위성으로 지표면을 관측할 시, 관측 시점에 구름, 연무 등과 같이 지표반사율 관측을 저해하는 요인으로 인해 해당 지역의 영상을 다음 관측시까지 획득할 수 없고 많은 결측이 발생한다. 하지만 정지궤도를 활용한 지속적인 관측은 해당날짜 내 기상 영향이 적은 다른 시간대 영상을 이용하여 해당 날짜의 지표반사율을 관측할 수 있으며, 이를 바탕으로 높은 품질의 산출물 제작에 기여할 수 있다.When observing the ground surface with a polar orbiting satellite, due to factors that hinder the observation of surface reflectance, such as clouds and haze, the image of the area cannot be obtained until the next observation, and many omissions occur. However, continuous observation using geostationary orbit can observe the surface reflectance of the corresponding date using images of other time zones with less meteorological influence within the corresponding date, and can contribute to the production of high-quality products based on this.

한편, 정지궤도위성은 극궤도 위성에 비해 지구에서 멀리 떨어져 있어서, 공간해상도가 낮다. 그리고 정지궤도위성의 특성상 지표면을 관측하는 각도에 따른 지표 반사율값의 차이가 극명하다.On the other hand, geostationary satellites are farther from the Earth than polar orbiting satellites, so their spatial resolution is low. In addition, due to the characteristics of geostationary satellites, the difference in the surface reflectance value according to the angle at which the ground surface is observed is clear.

또한, 현장 자료를 활용한 체계적인 평가로 자료의 안정성을 확보해야 하나, 연속적인 현장 자료 획득의 어려움으로 시장 진입 용이성을 막고 있다.In addition, it is necessary to secure the stability of data through systematic evaluation using field data, but difficulties in obtaining continuous field data prevent easy market entry.

따라서, 지표반사율의 일변화를 고해상도로 관측할 수 있다면, 토지 피복이 단조롭지 않은 곳에서 식생변화를 정확히 감지하고, 탄소 고정량을 산정할 수 있을 것이다.Therefore, if the diurnal change in surface reflectance can be observed at high resolution, it will be possible to accurately detect vegetation changes and calculate carbon fixation in areas where land cover is not monotonous.

특허문헌 1: 등록특허공보 제10-1770745호(2017.08.17)Patent Document 1: Registered Patent Publication No. 10-1770745 (2017.08.17)

본 발명은 전술한 문제를 해결하기 위해 안출된 것으로서, 본 발명에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템은 기상관측으로 사용되는 정지궤도 위성영상을 활용하여 자료 결측을 최소화하고, 높은 공간 및 시간해상도를 가진 융합산출물을 제공하며, 광학 원격탐사 분야에서 지표반사율을 다양한 지표모니터링에 활용하고자 한다.The present invention has been devised to solve the above problems, and the daily interval image fusion method and system using geostationary satellite images according to the present invention minimize data missing by utilizing geostationary satellite images used for weather observation , provides convergence products with high spatial and temporal resolution, and intends to utilize surface reflectance for various surface monitoring in the field of optical remote sensing.

또한, 본 발명에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템은 입력자료의 확보, 전처리, 융합까지 한 번에 구동할 수 있도록 하고, 대상지와 날짜 입력에 의한 자동 설정을 통해, 다양한 위성영상 처리에 사용이 가능하도록 하고자 한다.In addition, the daily interval image convergence method and system using geostationary satellite images according to the present invention enables securing of input data, preprocessing, and fusion to be driven at once, and through automatic setting by inputting the target location and date, It is intended to be used for various satellite image processing.

또한, 본 발명에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법 및 시스템은 타 영상산출 방법에 비교하여 보다 뛰어난 공간해상도와 시간해상도를 확보할 수 있도록 하고자 한다.In addition, the daily interval image convergence method and system using geostationary satellite images according to the present invention are intended to secure better spatial resolution and temporal resolution compared to other image calculation methods.

전술한 문제를 해결하기 위한 본 발명의 실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법은 극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상으로 이루어진 데이터베이스가 구축되는 입력자료 구축 단계; 전처리부가 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 단계; 및 융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출하는 융합 단계;를 포함하여 구성된다.The daily interval image fusion method using geostationary satellite images according to an embodiment of the present invention to solve the above problem is composed of a polar orbit satellite image observed from a polar orbit satellite and a geostationary satellite image observed from a geostationary orbit satellite. An input data construction step in which a database is built; pre-processing the polar orbit satellite image and the geostationary orbit satellite image by a pre-processing unit; and a fusion step in which the convergence unit fuses the preprocessed polar-orbit satellite image and the geostationary-orbit satellite image to calculate a daily interval fusion image.

본 발명의 다른 일실시예에 따르면, 상기 전처리 단계는 상기 전처리부가 투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.According to another embodiment of the present invention, in the pre-processing step, the pre-processor may pre-process the polar-orbit satellite image and the geostationary-orbit satellite image through projection matching, spectral sensitivity matching, and ground geometry correction.

본 발명의 다른 일실시예에 따르면, 상기 전처리 단계는 상기 전처리부가 양방향 반사율 분포함수(Bidirectional Reflectance Distribution Function; BRDF)를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.According to another embodiment of the present invention, in the preprocessing step, the preprocessor may preprocess the polar orbit satellite image and the geostationary orbit satellite image using a bidirectional reflectance distribution function (BRDF).

본 발명의 다른 일실시예에 따르면, 상기 융합 단계는 상기 융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 결측보완(Gap filling) 및 시공간적 보간(Spatio temporal Image Fusion)을 통해 일간격 융합영상을 산출할 수 있다.According to another embodiment of the present invention, the fusion step is performed by the fusion unit through gap filling and spatio-temporal image fusion of the preprocessed polar-orbit satellite image and the geostationary-orbit satellite image. image can be produced.

본 발명의 다른 일실시예에 따르면, 검증부가 산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증하는 검증 단계;를 더 포함할 수 있다.According to another embodiment of the present invention, a verification step of spatially verifying the daily interval fusion image calculated by the verification unit using a drone-based surface reflectance map and comparing the time series with continuous observation data of the surface to verify the verification step; further can include

본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템은 극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상을 저장하는 데이터베이스; 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 전처리부; 및 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출하는 융합부;를 포함하여 구성될 수 있다.A daily interval image fusion system using geostationary satellite images according to an embodiment of the present invention includes a database for storing polar-orbit satellite images observed from polar-orbit satellites and geostationary-orbit satellite images observed from geostationary orbit satellites; a pre-processing unit pre-processing the polar orbit satellite image and the geostationary orbit satellite image; and a convergence unit configured to combine the preprocessed polar orbit satellite image and the geostationary orbit satellite image to calculate a daily interval fusion image.

본 발명의 다른 일실시예에 따르면, 상기 전처리부는 투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.According to another embodiment of the present invention, the pre-processing unit may pre-process the polar orbit satellite image and the geostationary orbit satellite image through projection matching, spectral sensitivity matching, and ground geometry correction.

본 발명의 다른 일실시예에 따르면, 상기 전처리부는 양방향 반사율 분포함수를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.According to another embodiment of the present invention, the preprocessor may preprocess the polar orbit satellite image and the geostationary orbit satellite image using a bidirectional reflectance distribution function.

본 발명의 다른 일실시예에 따르면, 상기 융합부는 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 결측보완(Gap filling) 및 시공간적 보간(Spatio temporal Image Fusion; STIF)을 통해 일간격 융합영상을 산출할 수 있다.According to another embodiment of the present invention, the fusion unit obtains daily fusion images through gap filling and spatio-temporal image fusion (STIF) of the preprocessed polar-orbit satellite images and geostationary-orbit satellite images. can be calculated

본 발명의 다른 일실시예에 따르면, 산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증하는 검증부;를 더 포함하여 구성될 수 있다.According to another embodiment of the present invention, a verification unit that spatially verifies the calculated daily interval fusion image using a drone-based surface reflectance map, and compares and verifies the continuous observation data of the surface with time series; further comprising can be configured.

본 발명에 따르면 정지궤도 위성영상을 기반으로 기존 산출물과 비교하여 시계열적으로 연속적이고, 높은 공간 가진 융합산출물을 제공할 수 있으며, 고품질의 융합산출물은 광학 원격탐사 분야에서 다양한 지표모니터링에서 핵심적으로 활용될 수 있다.According to the present invention, based on geostationary satellite images, it is possible to provide fusion products that are time-series continuous and have high space compared to existing products, and high-quality fusion products are key to various surface monitoring in the field of optical remote sensing. It can be.

또한, 본 발명에 따르면 입력자료의 확보, 전처리, 융합까지 한 번에 구동할 수 있으며, 대상지와 날짜 입력에 의한 자동 설정을 통해, 다양한 위성영상 처리에 사용할 수 있다.In addition, according to the present invention, securing of input data, pre-processing, and convergence can be driven at once, and it can be used for various satellite image processing through automatic setting by inputting the destination and date.

또한, 본 발명에 따르면 타 영상산출 방법에 비교하여 보다 뛰어난 공간해상도와 시간해상도를 확보할 수 있다.In addition, according to the present invention, it is possible to secure superior spatial resolution and temporal resolution compared to other image calculation methods.

도 1은 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템의 동작 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 입력자료 구축 방법을 설명하기 위한 도면이다.
도 4 내지 도 8은 본 발명의 일실시예에 따른 전처리 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일실시예에 따른 영상 융합 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일실시예에 따른 검증 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템의 구성도이다.
1 is a flowchart for explaining a daily interval image fusion method using geostationary satellite images according to an embodiment of the present invention.
2 is a diagram for explaining an operation method of a daily interval video convergence system using geostationary satellite images according to an embodiment of the present invention.
3 is a diagram for explaining a method for constructing input data according to an embodiment of the present invention.
4 to 8 are views for explaining a preprocessing method according to an embodiment of the present invention.
9 is a diagram for explaining an image fusion method according to an embodiment of the present invention.
10 is a diagram for explaining a verification method according to an embodiment of the present invention.
11 is a configuration diagram of a daily interval video convergence system using geostationary satellite images according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 바람직한 본 발명의 일실시예에 대해서 상세히 설명한다. 다만, 실시형태를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, a preferred embodiment of the present invention will be described in detail. However, in describing the embodiments, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, a detailed description thereof will be omitted.

또한, 본 발명은 취지를 벗어나지 않는 한도에서 다양하게 변경하여 실시할 수 있고, 하나 이상의 실시 예를 가질 수 있다. 그리고 본 발명에서 '발명을 실시하기 위한 구체적인 내용' 및 '도면' 등에 기재한 실시 예는, 본 발명을 구체적으로 설명하기 위한 예시이며, 본 발명의 권리 범위를 제한하거나 한정하는 것은 아니다.In addition, the present invention can be variously modified and practiced without departing from the gist, and may have one or more embodiments. In addition, the embodiments described in the 'specific contents for carrying out the invention' and 'drawings' in the present invention are examples for specifically explaining the present invention, and do not limit or limit the scope of the present invention.

따라서, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자가, 본 발명의 '발명을 실시하기 위한 구체적인 내용' 및 '도면' 등으로부터 용이하게 유추할 수 있는 것은, 본 발명의 범위에 속하는 것으로 해석할 수 있다.Therefore, what can be easily inferred from the 'specific contents for carrying out the invention' and 'drawings' of the present invention by those skilled in the art to which the present invention belongs is construed as belonging to the scope of the present invention. can do.

본 발명의 명세서에서 사용되는 용어를 특별히 정의하지 않는 이상, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 것과 동일한 의미를 가질 수 있다.Terms used in the specification of the present invention may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs unless specifically defined.

도 1은 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법을 설명하기 위한 흐름도이고, 도 2는 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템의 동작 방법을 설명하기 위한 도면이다. 이때, GDAL은 컴퓨터 소프트웨어 라이브러리로 지리공간 데이터 형식을 읽고 쓴다. 또한 Python과 MATLAB, IDL은 해당 시스템을 구현하기 위해 사용된 컴퓨터 언어이다. GEO-KOMPSAT-2A(GK2A;천리안 위성2A호)는 정지궤도 위성이고, (MODIS)와 Sentinel 2, Landsat 8은 극궤도 위성이다. MCD43A4는 MODIS)의 산출물이다.1 is a flowchart illustrating a method for fusion of daily interval images using geostationary satellite images according to an embodiment of the present invention, and FIG. It is a diagram for explaining the operation method of the video convergence system. At this time, GDAL is a computer software library that reads and writes geospatial data formats. Also, Python, MATLAB, and IDL are computer languages used to implement the system. GEO-KOMPSAT-2A (GK2A; Chollian Satellite 2A) is a geostationary satellite, and (MODIS), Sentinel 2, and Landsat 8 are polar orbit satellites. MCD43A4 is a product of MODIS).

또한, 도 3은 본 발명의 일실시예에 따른 입력자료 구축 방법을 설명하기 위한 도면이다. 이때, TOA는 Top of atmosphere (TOA)로 대기 상층부의 에서 위성센서에 측정된 산출값이며, Ozone(OZ)과 Water vapor(WV), Aerosol Optical Depth (AOD)는 대기 내 오존과 수분량 그리고 에어로졸의 광학적 두께를 나타내는 산출물이다.3 is a diagram for explaining a method for constructing input data according to an embodiment of the present invention. At this time, TOA is the top of atmosphere (TOA), which is the calculated value measured by the satellite sensor in the upper atmosphere, and Ozone (OZ), Water vapor (WV), and Aerosol Optical Depth (AOD) are the amount of ozone and moisture in the atmosphere and the amount of aerosol. It is a product representing the optical thickness.

도 4 내지 도 8은 본 발명의 일실시예에 따른 전처리 방법을 설명하기 위한 도면이고, 도 9는 본 발명의 일실시예에 따른 영상 융합 방법을 설명하기 위한 도면이며, 도 10은 본 발명의 일실시예에 따른 검증 방법을 설명하기 위한 도면이다.4 to 8 are views for explaining a preprocessing method according to an embodiment of the present invention, FIG. 9 is a view for explaining a video fusion method according to an embodiment of the present invention, and FIG. It is a diagram for explaining a verification method according to an embodiment.

이후부터는 도 1 내지 도 10을 참조하여 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 방법을 설명하기로 한다.Hereinafter, with reference to FIGS. 1 to 10 , a daily interval image fusion method using geostationary satellite images according to an embodiment of the present invention will be described.

먼저, 극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상으로 이루어진 데이터베이스가 구축된다(S110).First, a database consisting of polar orbit satellite images observed from polar orbit satellites and geostationary orbit satellite images observed from geostationary orbit satellites is constructed (S110).

이때, 상기 정지궤도 위성영상을 활용한 일간격 영상융합 시에는 일간격 영상융합 시스템을 이용해, 자르기(cropping), 재투영(reprojection), 구름 마스킹(cloud masking), 각도 매개변수(Angle Parameter)와 지표 반사율(Surface reflection) 적용, NBAR(Nadir Bidirectional Reflectance Distribution Function (BRDF)-Adjusted Reflectance) 산출, 자르기(cropping) 2, 공간적 일치(Co-registration; Spatial Registration), 밴드 별 스펙트럼 민감도 조화(Harmonization), 영상 융합(Image fusion)이 실행될 수 있다.At this time, in the case of daily image fusion using the geostationary satellite image, the daily image fusion system is used to perform cropping, reprojection, cloud masking, angle parameters and Surface reflection application, NBAR (Nadir Bidirectional Reflectance Distribution Function (BRDF)-Adjusted Reflectance) calculation, cropping 2, spatial registration (Co-registration; Spatial Registration), spectrum sensitivity harmonization for each band, Image fusion may be performed.

다양한 위성에서 관측된 영상을 융합하기 위해서는 입력자료 구축이 용이해야 한다. 따라서, 본 발명에 따르면 도 3에 도시된 바와 같이 사용되는 영상의 날짜와 위치를 지정하여 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 자동으로 다운로드하고 분류하여 전처리가 용이하도록 한다. In order to fuse images observed from various satellites, it is necessary to construct input data easily. Therefore, according to the present invention, as shown in FIG. 3, the polar orbit satellite image and the geostationary orbit satellite image are automatically downloaded and classified by specifying the date and location of the image to be used, and preprocessing is facilitated.

이후에는 전처리부가 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리한다(S120).Thereafter, the pre-processing unit pre-processes the polar orbit satellite image and the geostationary orbit satellite image (S120).

위성센서 간의 스펙트럼 민감도나 영상의 투영법과 기하보정이 일치하지 않는다. 이러한 차이가 영상융합 결과에 차이를 보일 수 있으므로, 융합하기 전에 전처리로 데이터 간의 조화를 이뤄야 한다.Spectral sensitivity between satellite sensors or image projection and geometric correction do not match. Since this difference may show a difference in the result of image convergence, it is necessary to harmonize the data as a preprocess before convergence.

이를 위해, 본 발명의 일실시예에 따르면, 전처리 시에는 상기 전처리부가 투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.To this end, according to an embodiment of the present invention, during pre-processing, the pre-processing unit may pre-process the polar-orbit satellite image and the geostationary-orbit satellite image through projection matching, spectral sensitivity matching, and ground geometry correction.

즉, 도 4에 도시된 바와 같이, 상기 극궤도 위성영상과 상기 정지궤도 위성영상 간의 투영법을 바꾸어 투영법 차이를 없애고, 도 5에 도시된 바와 같이 상기 극궤도 위성영상(Sentinel 2, Landsat 8)과 상기 정지궤도 위성영상에서 영상융합에 사용되지 않을 구름이 덮인 지역의 데이터를 구분할 수 있다(Fmask; 구름 마스킹 알고리듬).That is, as shown in FIG. 4, the projection method difference between the polar-orbit satellite image and the geostationary-orbit satellite image is changed to eliminate the projection difference, and as shown in FIG. 5, the polar-orbit satellite image (Sentinel 2, Landsat 8) and In the geostationary satellite image, data of a cloud-covered area that will not be used for image fusion can be identified (Fmask; cloud masking algorithm).

또한, 도 6에 도시된 바와 같이, 전처리 시에는 상기 전처리부가 양방향 반사율 분포함수를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.In addition, as shown in FIG. 6 , during pre-processing, the pre-processing unit may pre-process the polar-orbit satellite image and the geostationary-orbit satellite image using a bi-directional reflectance distribution function.

그 뿐만 아니라, 도 7에 도시된 바와 같이 상기 극궤도 위성영상(Sentinel 2, Landsat 8)과 상기 정지궤도 위성영상 간의 지표기하보정을 실시할 수 있으며, 도 8에 도시된 바와 같이 위성센서 간의 스펙트럼 민감도 일치를 시키며 이때, 각 밴드별 히스토그램의 분포를 표준정규화하여 서로 일치시킬 수 있다.In addition, as shown in FIG. 7, it is possible to perform ground geometry correction between the polar orbit satellite image (Sentinel 2, Landsat 8) and the geostationary satellite image, and as shown in FIG. 8, the spectrum between the satellite sensors At this time, the histogram distribution for each band can be standardized and matched with each other.

이와 같이, 본 발명의 일실시예에 의하면, 같이 상기 극궤도 위성영상과 상기 정지궤도 위성영상 간의, 투영법 일치, 스펙트럼 민감도 일치, 지표기하보정을 하며, 양"?향반사?* 분포함수를 이용해서 관측각에 따른 반사율 값 차이를 줄일 수 있다.In this way, according to an embodiment of the present invention, projection matching, spectral sensitivity matching, and surface geometry correction are performed between the polar-orbit satellite image and the geostationary-orbit satellite image, and the positive "? anti-reflection? * distribution function is used. Therefore, the difference in reflectance value according to the observation angle can be reduced.

이후에는, 융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출한다(S130).Thereafter, the fusion unit fuses the preprocessed polar orbit satellite image and the geostationary satellite image to calculate a daily interval fusion image (S130).

보다 상세하게 설명하면, 도 9에서와 같이 상기 융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 공간적 결측보완(Gap filling), 시공간적 보간(Spatio temporal Image Fusion; STIF), 시간적 결측보완을 통해 일간격 융합영상을 산출할 수 있다.More specifically, as shown in FIG. 9, the fusion unit performs gap filling, spatio-temporal image fusion (STIF), and temporal gap filling of the preprocessed polar-orbit satellite image and geostationary-orbit satellite image. Through this, daily interval fusion images can be calculated.

즉, 영상융합과 시공간적으로 보간하는 각 알고리즘을 활용하여 일간격 융합영상을 구성할 수 있으며, 이때 상기 융합부의 영상융합알고리듬에 극궤도 위성영상과 정지궤도 위성영상을 활용하여 일간격 융합영상을 산출할 수 있다.That is, it is possible to construct a daily convergence image by utilizing image convergence and each algorithm that interpolates in space and time. can do.

이와 같은 산출된 융합영상은 도 10에 도시되어 있으며, 보다 구체적으로, 도 10의 좌는 융합영상의 RGB 영상을 도시하고 있으며, 도 10의 우는 융합영상의 정규식생지수 지도를 도시하고 있다.The calculated fusion image is shown in FIG. 10, and more specifically, the left side of FIG. 10 shows an RGB image of the fusion image, and the right side of FIG. 10 shows a normal vegetation index map of the fusion image.

이후에는 검증부가 산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증할 수 있으며(S140), 이를 통해 공간적, 시간적 활용에 있어서 안정성을 확보할 수 있다.Afterwards, the daily interval convergence image calculated by the verification unit can be spatially verified using a drone-based surface reflectance map, and verified by comparing the continuous observation data and time series of the surface (S140). stability can be ensured.

이와 같이 본 발명에 따르면 기상관측으로 사용되는 정지궤도 위성영상을 활용하여 시간해상도의 불확실성을 낮추고, 높은 공간 및 시간해상도를 가진 융합산출물을 제공할 수 있으며, 광학 원격탐사 분야에서 지표반사율을 다양한 지표모니터링에 활용될 수 있다.As described above, according to the present invention, geostationary satellite images used for meteorological observation can be used to reduce the uncertainty of temporal resolution, provide convergence products with high spatial and temporal resolution, and use surface reflectivity as a variety of indicators in the field of optical remote sensing. Can be used for monitoring.

또한, 본 발명에 따르면 입력자료의 확보, 전처리, 융합까지 한번에 구동할 수 있으며, 대상지와 날짜 입력에 의한 자동 설정을 통해, 다양한 위성영상 처리에 사용할 수 있으며, 타 영상산출 방법에 비교하여 보다 뛰어난 공간해상도와 시간해상도를 확보할 수 있다.In addition, according to the present invention, the acquisition of input data, pre-processing, and convergence can be driven at once, and through automatic setting by inputting the destination and date, it can be used for various satellite image processing, and has more outstanding features compared to other image calculation methods. Spatial resolution and temporal resolution can be obtained.

도 11은 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템의 구성도이다.11 is a configuration diagram of a daily interval video convergence system using geostationary satellite images according to an embodiment of the present invention.

이후부터는 도 11을 참조하여 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템의 구성을 설명하기로 한다.Hereinafter, with reference to FIG. 11, the configuration of a daily interval video convergence system using geostationary satellite images according to an embodiment of the present invention will be described.

본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템(100)은 컴퓨터 단말로 구성되거나, 별도의 전용 장치로 구성될 수 있으며, 각 구성요소(모듈)는 하드웨어 또는 소프트웨어로 구성될 수 있다.The daily interval video convergence system 100 using geostationary satellite images according to an embodiment of the present invention may be configured as a computer terminal or as a separate dedicated device, and each component (module) is hardware or software may consist of

도 11을 참조하면, 본 발명의 일실시예에 따른 정지궤도 위성영상을 활용한 일간격 영상융합 시스템(100)은 데이터베이스(110), 전처리부(120), 융합부(130) 및 검증부(140)를 포함하여 구성될 수 있다.Referring to FIG. 11, a daily interval image convergence system 100 using geostationary satellite images according to an embodiment of the present invention includes a database 110, a pre-processing unit 120, a fusion unit 130, and a verification unit ( 140) may be configured.

상기 데이터베이스(110)는 극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상을 포함하여 저장하도록 구성된다.The database 110 is configured to include and store polar orbit satellite images observed from polar orbit satellites and geostationary orbit satellite images observed from geostationary orbit satellites.

상기 전처리부(120)는 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리한다.The preprocessor 120 preprocesses the polar orbit satellite image and the geostationary orbit satellite image.

이때, 상기 전처리부(120)는 투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.In this case, the preprocessing unit 120 may preprocess the polar orbit satellite image and the geostationary orbit satellite image through projection matching, spectral sensitivity matching, and ground geometry correction.

또한, 상기 전처리부(120)는 양방향 반사율 분포함수를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리할 수 있다.In addition, the preprocessor 120 may preprocess the polar orbit satellite image and the geostationary orbit satellite image using a bidirectional reflectance distribution function.

상기 융합부(130)는 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출한다.The convergence unit 130 fuses the preprocessed polar orbit satellite image and geostationary orbit satellite image to calculate a daily interval fusion image.

보다 구체적으로, 상기 융합부(130)는 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 결측보완(Gap filling) 및 시공간적 보간(Spatio temporal Image Fusion; STIF)을 통해 일간격 융합영상을 산출할 수 있다.More specifically, the fusion unit 130 calculates a daily interval fusion image through gap filling and spatio-temporal image fusion (STIF) of the preprocessed polar-orbit satellite image and geostationary-orbit satellite image. can

또한, 검증부(140)는 산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증할 수 있다.In addition, the verification unit 140 can spatially verify the calculated daily interval convergence image using a drone-based surface reflectance map, and can verify the result by comparing the time series with continuous observation data of the surface.

전술한 바와 같은 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였다. 그러나 본 발명의 범주에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능하다. 본 발명의 기술적 사상은 본 발명의 전술한 실시예에 국한되어 정해져서는 안 되며, 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention as described above, specific embodiments have been described. However, various modifications are possible without departing from the scope of the present invention. The technical spirit of the present invention should not be limited to the above-described embodiments of the present invention and should not be defined by the claims as well as those equivalent to these claims.

100: 정지궤도 위성영상을 활용한 일간격 영상융합 시스템
110: 데이터베이스
120: 전처리부
130: 융합부
140: 검증부
100: Daily image convergence system using geostationary satellite images
110: database
120: pre-processing unit
130: fusion part
140: verification unit

Claims (10)

극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상으로 이루어진 데이터베이스가 구축되는 입력자료 구축 단계;
전처리부가 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 단계; 및
융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출하는 융합 단계;
를 포함하는 정지궤도 위성영상을 활용한 일간격 영상융합 방법.
An input data construction step of constructing a database consisting of polar orbit satellite images observed from polar orbit satellites and geostationary satellite images observed from geostationary orbit satellites;
pre-processing the polar orbit satellite image and the geostationary orbit satellite image by a pre-processing unit; and
a fusion step in which a fusion unit fuses the preprocessed polar orbit satellite image and the geostationary orbit satellite image to calculate a daily interval fusion image;
Interval image convergence method using geostationary satellite images including
청구항 1에 있어서,
상기 전처리 단계는,
상기 전처리부가 투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 정지궤도 위성영상을 활용한 일간격 영상융합 방법.
The method of claim 1,
In the preprocessing step,
The daily image convergence method using geostationary satellite images, wherein the pre-processor preprocesses the polar-orbit satellite image and the geostationary-orbit satellite image through projection matching, spectral sensitivity matching, and surface geometry correction.
청구항 1에 있어서,
상기 전처리 단계는,
상기 전처리부가 양방향 반사율 분포함수(Bidirectional Reflectance Distribution Function; BRDF)를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 정지궤도 위성영상을 활용한 일간격 영상융합 방법.
The method of claim 1,
In the preprocessing step,
The daily interval image fusion method using geostationary satellite images in which the preprocessor preprocesses the polar orbit satellite images and the geostationary orbit satellite images using a bidirectional reflectance distribution function (BRDF).
청구항 1에 있어서,
상기 융합 단계는,
상기 융합부가 상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 결측보완(Gap filling) 및 시공간적 보간(Spatio temporal Image Fusion; STIF)을 통해 일간격 융합영상을 산출하는 정지궤도 위성영상을 활용한 일간격 영상융합 방법.
The method of claim 1,
The fusion step is
The fusion unit uses the geostationary satellite image to calculate a daily interval fusion image through gap filling and spatio-temporal image fusion (STIF) of the preprocessed polar-orbit satellite image and the geostationary satellite image. Interval image fusion method.
청구항 1에 있어서,
검증부가 산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증하는 검증 단계;
를 더 포함하는 정지궤도 위성영상을 활용한 일간격 영상융합 방법.
The method of claim 1,
A verification step of spatially verifying the daily interval convergence image calculated by the verification unit using a drone-based surface reflectance map and verifying the time-series comparison with continuous observation data of the surface;
Daily interval image fusion method using geostationary satellite images further comprising.
극궤도 위성에서 관측된 극궤도 위성영상과 정지궤도 위성에서 관측된 정지궤도 위성영상을 저장하는 데이터베이스;
상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 전처리부; 및
상기 전처리된 극궤도 위성영상과 정지궤도 위성영상을 융합하여 일간격 융합영상을 산출하는 융합부;
를 포함하는 정지궤도 위성영상을 활용한 일간격 영상융합 시스템.
A database for storing polar orbit satellite images observed from polar orbit satellites and geostationary orbit satellite images observed from geostationary orbit satellites;
a pre-processing unit pre-processing the polar orbit satellite image and the geostationary orbit satellite image; and
a convergence unit for fusing the pre-processed polar orbit satellite image and the geostationary orbit satellite image to calculate a daily interval fusion image;
Daily interval image convergence system using geostationary satellite images including
청구항 6에 있어서,
상기 전처리부는,
투영법 일치, 스펙트럼 민감도 일치 및 지표기하보정을 통해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 정지궤도 위성영상을 활용한 일간격 영상융합 시스템.
The method of claim 6,
The pre-processing unit,
A daily interval image convergence system using geostationary satellite images that preprocesses the polar-orbit satellite images and the geostationary-orbit satellite images through projection matching, spectral sensitivity matching, and ground geometry correction.
청구항 6에 있어서,
상기 전처리부는,
양방향 반사율 분포함수를 이용해 상기 극궤도 위성영상과 상기 정지궤도 위성영상을 전처리하는 정지궤도 위성영상을 활용한 일간격 영상융합 시스템.
The method of claim 6,
The pre-processing unit,
A daily interval image fusion system using geostationary satellite images that preprocesses the polar orbit satellite image and the geostationary orbit satellite image using a bidirectional reflectance distribution function.
청구항 6에 있어서,
상기 융합부는,
상기 전처리된 극궤도 위성영상과 정지궤도 위성영상의 결측보완(Gap filling) 및 시공간적 보간(Spatio temporal Image Fusion; STIF)을 통해 일간격 융합영상을 산출하는 정지궤도 위성영상을 활용한 일간격 영상융합 시스템.
The method of claim 6,
The fusion part,
Interval image fusion using geostationary satellite images, which calculates interphase fusion images through gap filling and spatio-temporal image fusion (STIF) of the preprocessed polar orbit satellite images and geostationary satellite images system.
청구항 6에 있어서,
산출된 상기 일간격 융합영상을 드론기반의 지표반사율 지도를 이용하여 공간적으로 검증하고, 지표의 연속관측 데이터와 시계열 비교하여 검증하는 검증부;
를 더 포함하는 정지궤도 위성영상을 활용한 일간격 영상융합 시스템.
The method of claim 6,
a verification unit that spatially verifies the calculated daily interval convergence image using a drone-based surface reflectance map and compares and verifies the continuous observation data of the surface in time series;
Daily interval image fusion system using geostationary satellite images further comprising.
KR1020210129391A 2021-09-30 2021-09-30 Daily image fusion producing method and system using geostationary satellite imagery KR102538242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210129391A KR102538242B1 (en) 2021-09-30 2021-09-30 Daily image fusion producing method and system using geostationary satellite imagery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210129391A KR102538242B1 (en) 2021-09-30 2021-09-30 Daily image fusion producing method and system using geostationary satellite imagery

Publications (2)

Publication Number Publication Date
KR20230047230A true KR20230047230A (en) 2023-04-07
KR102538242B1 KR102538242B1 (en) 2023-06-01

Family

ID=85979153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210129391A KR102538242B1 (en) 2021-09-30 2021-09-30 Daily image fusion producing method and system using geostationary satellite imagery

Country Status (1)

Country Link
KR (1) KR102538242B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100026229A (en) * 2008-08-29 2010-03-10 부경대학교 산학협력단 Method and system for compensating normalized distribution vegetation index
KR101728137B1 (en) * 2016-02-04 2017-04-19 (주)한라지리정보 Method for land-cover item images classification by using satellite picture and GIS
KR101770745B1 (en) 2016-01-22 2017-08-23 서울시립대학교 산학협력단 Method for evaluation of fusion feasibility on multi-sensor satellite images and Apparatus Thereof
KR101836135B1 (en) * 2017-01-10 2018-04-19 경북대학교 산학협력단 The apparatus and method for integrating rainfall data of multi-satelite
CN112819026A (en) * 2020-12-11 2021-05-18 中科三清科技有限公司 Fusion method and device for optical thickness data of multisource satellite aerosol
KR102306225B1 (en) * 2021-02-01 2021-09-29 (주)유에스티21 System for detecting marine debris using satellite image analysis and comparing/verifying with drone images and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100026229A (en) * 2008-08-29 2010-03-10 부경대학교 산학협력단 Method and system for compensating normalized distribution vegetation index
KR101770745B1 (en) 2016-01-22 2017-08-23 서울시립대학교 산학협력단 Method for evaluation of fusion feasibility on multi-sensor satellite images and Apparatus Thereof
KR101728137B1 (en) * 2016-02-04 2017-04-19 (주)한라지리정보 Method for land-cover item images classification by using satellite picture and GIS
KR101836135B1 (en) * 2017-01-10 2018-04-19 경북대학교 산학협력단 The apparatus and method for integrating rainfall data of multi-satelite
CN112819026A (en) * 2020-12-11 2021-05-18 中科三清科技有限公司 Fusion method and device for optical thickness data of multisource satellite aerosol
KR102306225B1 (en) * 2021-02-01 2021-09-29 (주)유에스티21 System for detecting marine debris using satellite image analysis and comparing/verifying with drone images and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Mariana Belgiu ET AL, Spatiotemporal Image Fusion in Remote Sensing, remote sensing, 4 April 2019(2019.4.4.) 1부.* *

Also Published As

Publication number Publication date
KR102538242B1 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
Claverie et al. The Harmonized Landsat and Sentinel-2 surface reflectance data set
US6282301B1 (en) Ares method of sub-pixel target detection
Roy et al. A general method to normalize Landsat reflectance data to nadir BRDF adjusted reflectance
Tan et al. The impact of gridding artifacts on the local spatial properties of MODIS data: Implications for validation, compositing, and band-to-band registration across resolutions
US9275267B2 (en) System and method for automatic registration of 3D data with electro-optical imagery via photogrammetric bundle adjustment
Roy et al. Multi-temporal MODIS–Landsat data fusion for relative radiometric normalization, gap filling, and prediction of Landsat data
US9001311B2 (en) Using parallax in remote sensing to determine cloud feature height
US7528938B2 (en) Geospatial image change detecting system and associated methods
US7630797B2 (en) Accuracy enhancing system for geospatial collection value of an image sensor aboard an airborne platform and associated methods
US8433457B2 (en) Environmental condition detecting system using geospatial images and associated methods
Modica et al. Using Landsat 8 imagery in detecting cork oak (Quercus suber L.) woodlands: a case study in Calabria (Italy)
Oliveira et al. Generating a hyperspectral digital surface model using a hyperspectral 2D frame camera
US20070162194A1 (en) Geospatial image change detecting system with environmental enhancement and associated methods
Sterckx et al. Atmospheric correction of APEX hyperspectral data
Schlundt et al. Synergetic cloud fraction determination for SCIAMACHY using MERIS
Holopainen et al. Forest inventory attribute estimation using airborne laser scanning, aerial stereo imagery, radargrammetry and interferometry–finnish experiences of the 3d techniques
Haala et al. Hybrid georeferencing, enhancement and classification of ultra-high resolution UAV lidar and image point clouds for monitoring applications
KR102538242B1 (en) Daily image fusion producing method and system using geostationary satellite imagery
Topan et al. Pléiades project: Assessment of georeferencing accuracy, image quality, pansharpening performence and DSM/DTM quality
Yurtseven et al. Using of high-resolution satellite images in object-based image analysis
Mostafa Comparison of Land cover change detection methods using SPOT images
Roncat et al. A comparison of LIDAR reflectance and radiometrically calibrated hyperspectral imagery
Kukko et al. Use of HRSC-A for sampling bidirectional reflectance
Jacobsen Very high resolution satellite images-competition to aerial images
Pinelli et al. Remote sensing monitoring of changes potentially associated to obstacles to air navigation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant