KR102540762B1 - 위성영상을 이용한 저수지 모니터링 방법 - Google Patents

위성영상을 이용한 저수지 모니터링 방법 Download PDF

Info

Publication number
KR102540762B1
KR102540762B1 KR1020220132238A KR20220132238A KR102540762B1 KR 102540762 B1 KR102540762 B1 KR 102540762B1 KR 1020220132238 A KR1020220132238 A KR 1020220132238A KR 20220132238 A KR20220132238 A KR 20220132238A KR 102540762 B1 KR102540762 B1 KR 102540762B1
Authority
KR
South Korea
Prior art keywords
image
satellite
sentinel
surface area
water surface
Prior art date
Application number
KR1020220132238A
Other languages
English (en)
Inventor
이준우
이달근
박진이
욱 정
정하규
박종수
이동만
김진영
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020220132238A priority Critical patent/KR102540762B1/ko
Application granted granted Critical
Publication of KR102540762B1 publication Critical patent/KR102540762B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

본 발명은 위성영상을 이용한 저수지 모니터링 방법에 관한 것으로,
인공위성에서 수신된 영상정보들과, 지상 관측자료에 의한 수치표고모델(DEM)과, 기타 공간보조자료에 의한 토지피복도가 서버에 제공되면, 상기 서버 내에서 전처리 및 영상 분류/분할 일고리즘이 수행됨으로써 저수지 수표면적을 모니터링하는 방법에 관한 것으로,
위성영상정보를 Sentinel-2 위성영상 처리기로 수신받는 과정과;
수신된 위성영상정보는 Sentinel 영상 처리기 내 구비된 프로그램에 의해 수집 및 전처리가 이뤄지는데, 상기 위성영상정보가 다운로드, 대기보정, RGB 영상 생성, KML 생성이 일괄 처리되는 전처리 과정과;
전처리가 완료된 위성영상정보는 위성영상 저장 및 관리서버로 보내져서, 영상 분류 알고리즘과 영상 분할 알고리즘이 순차적으로 실행됨에 따라 수표면적이 산출, 저장되는 과정과;
상기 알고리즘 실행 후 수표면적이 산출되면 서버에 기타 공간정보 보조자료로서 SRTM DEM에서 제공하는 수치 표고모델에 의해 해당지역에 대한 저수량이 산출되는 과정과;,
위 과정들을 일정기간 반복함으로써 시계열 자료들이 축적되는 과정과;
상기 축적된 시계열 자료들에 의해 평균치 및 표준편차를 산출하는 과정으로 이루어진 것을 특징으로 한다.

Description

위성영상을 이용한 저수지 모니터링 방법 {Reservoir monitoring method using satellite informations}
본 발명은 위성영상 자료를 기반으로 한 가뭄 분석 방법에 관한 것으로, Sentinel 위성영상을 기반으로 수표면적을 추출하여 중,소 저수지의 저수량을 산출함으로써, 가뭄 및 홍수 등의 재난을 예측하고 대비할 수 있도록 하는 위성영상을 이용한 저수지 모니터링 방법에 관한 것이다.
우리나라는 지난 15년간 위성체 및 탑재체 기술의 국산화에 주력하였으며 위성 개발기술이 성숙기에 들어섬에 따라 정부는 위성개발 중심에서 위성정보 활용 중심으로 정책을 전환하고 있다. 그 중에서도 재해,재난에 대응하기 위해 각 재난분야별 위성정보의 활용성은 구체성을 확보해가고 있으며 한국항공우주연구원, 국가기상위성센터에서도 인공위성 활용 분야에 재해,재난분야를 포함시키고 있다.
최근 들어 재난은 과거와는 다른 양상을 보이며 복잡화 및 대형화 되어가고 있는 추세인데, 특히 기후변화 현상으로 인하여 강수량 변동성이 커짐에 따라 집중호우, 가뭄 등에 대한 피해 예측이 어렵고, 가뭄 및 풍수해에 대한 장기적인 재난관리계획 수립에 있어 불확실성이 증가하고 있는 실정이다.
기후변화로 재난관리의 불확실성이 증가하고 있는 가운데 우리나라 가뭄을 관리하기 위한 대표적인 지표로서 수자원 이용 시설물인 저수지는 전국적으로 약 18,000여 개가 건설되어 있으며 전체 관개면적의 약 57%에 농업용수를 공급하고 있고, 농업활동을 위한 중요한 시설물이자 수단이다.
기상변화가 극심해지고 농업용수의 사용처가 다양해짐에 따라 제한된 농업용수의 효율적인 사용방안은 선택이 아닌 필수사항이 되었는데, 대부분의 농업저수지는 소규모 저수지로서 계측 설비와 제도적 장치의 미비, 유지관리 업무와 인력이 충분하지 않고, 농업 분야와 더불어 우리 생활에 중요한 수자원 이용 시설물인 저수지에 대해 재해,재난 대응을 수행하기에는 관련정보 제공 단위에 대한 명확한 기준과 충분한 가용자료가 제시되지 않고 있는 상황이다.
재난관리에 있어 관련 데이터의 확보가 선제적으로 이루어져야 하므로 담당부처와 기관에서 현장자료 측정을 위한 지상센서를 확충하며 전국단위의 관리를 수행하고 있지만 지상센서가 균일하게 분포하지 못하는 공간적인 편이로 인한 정보의 부정확성이 존재하고 있으며, 특히 미계측지역은 정보를 취득할 방법이 없어 지상센서 정보를 이용한 공간 보정 기법 등을 활용하여 정보를 생산,이용하지만, 근본적인 공간적 한계성 문제를 해결하기에는 어려움이 존재한다.
최근 수문기상재해에 대해 즉각적으로 예측 및 대응하기 위해 점 단위 자료만을 보유하고 있는 수문관측자료의 한계성을 극복하고 효율적인 수자원 관리를 위해 실시간 수자원 모니터링 시스템 설계 수요가 증가하고 있는 추세이며, 지상센서만을 이용해서 발생하는 공간적 단점을 극복하기 위하여 국내,외 재난분야에서는 위성영상을 이용한 다양한 시도가 이루어지고 있다.
위성영상을 활용할 시 정보의 사각지대인 미계측지역에 대한 가용정보를 확보할 수 있으며 또한 전국규모의 지속성이 확보되는 정보를 생산할 수 있기 때문이다.
*지구를 관측하는 위성은 크게 광학(Optic)위성과 레이더위성(Synthetic Aperture Radar, SAR)으로 구분되는데, 종래에는 재난분석을 위해 주로 광학(Optic)위성이 사용되어왔다.
광학위성은 지표면으로부터 반사된 태양복사 에너지를 이용하여 지표면을 관측하는 위성으로서, 광학 위성에서 취득되는 영상은 사실과 가까운 색상 표현이 되어 영상인식 및 분석에는 용이한 장점이 있지만, 가시광선을 이용하는 만큼 야간과 기상 상태에 따라 영상 취득에 어려움이 생기는 문제점이 있다.
저수지 모니터링을 위해서는 위성영상을 기상 상태에 영향을 받지않고 수신할 수 있어야하는데, 종래의 광학위성으로는 지속적인 저수지 모니터링이 불가능하게되는 문제점이 있었다.
특허문헌 1: 대한민국 특허공개공보 제 2000-0038273호 특허문헌 2: 대한민국 특허공개공보 제 2013-0007220호
본 발명은 종래의 문제점을 해결하기 위해 안출된 것으로, 위성정보를 활용하여 수표면적 분석을 수행함으로써 한반도 규모의 가뭄상황을 파악할 수 있도록 함에 첫번째 목적이 있는 것이다.
또한, 위성영상에 의해 중,소 저수지의 수표면적을 모니터링함으로써 저수량을 용이하게 산출할 수 있도록 하고, 저수지 모니터링은 시계열적으로 수행되고 수표면적 및 저수량의 평균 및 표준편차가 산출되게함으로써, 중,소 저수지에 대한 가뭄 및 수해 발생 가능성을 정확히 분석할 수 있도록 함에 두번째 목적이 있는 것이다.
뿐만 아니라, 가뭄에 취약한 중·소규모 농업용 저수지의 수표(수체)면적을 연중 기상 조건과 상관없이 연속적으로 관측할 수 있게 함으로써, 전국적인 가뭄의 정도를 직관적으로 파악할 수 있도록 함에 세번째 목적이 있는 것이다.
상기한 목적을 달성하기 위한 본 발명의 위성영상을 이용한 저수지 모니터링 방법에서는;
인공위성에서 수신된 영상정보들과, 지상 관측자료에 의한 수치표고모델(DEM)과, 기타 공간보조자료에 의한 토지피복도가 서버에 제공되면, 상기 서버 내에서 전처리 및 영상 분류/분할 일고리즘이 수행됨으로써 저수지 수표면적을 모니터링하는 방법에 관한 것으로,
위성영상정보를 Sentinel 영상 처리기로 수신받는 과정과;
수신된 위성영상정보는 Sentinel 영상 처리기 내 구비된 프로그램에 의해 수집 및 전처리가 이뤄지는데, 상기 위성영상정보가 다운로드, 방사보정, 지형보정, RGB 영상 생성, KML 생성이 일괄 처리되는 전처리 과정과;
전처리가 완료된 위성영상정보는 위성영상 저장 및 관리서버로 보내져서, 영상 분류/분할 알고리즘이 실행됨에 따라 수표면적이 산출되고 저장되는 과정과;
위 과정들을 일정기간 반복함으로써 시계열 자료들이 축적되는 과정과;
상기 축적된 시계열 자료들에 의해 평균치 및 표준편차를 산출하는 과정으로 이루어진 것을 특징으로 한다.
상기 Sentinel 영상 처리기 내 데몬 프로그램 (S1_ver02_demon.py)이 실행되면 사용자에 의해 설정된 시간 간격에 따라 반복적으로 서브프로그램(S1_ver02_sub.py)이 실행되며, 상기 서브프로그램은 SNAP과 연동되어 영상의 방사보정 및 지형보정을 차례로 적용하고, 이후 R과 연동되어 RGB 영상 및 KML 파일을 생성한다.
상기 Sentinel 위성영상의 전처리 작업은, 영상 서버기 내 구비 된 SAR 영상처리 프로그램인 SNAP을 연동하여 구현하며, SNAP의 방사 보정 기능(Calibration) 및 지형 보정 기능(Ellipsoid-Correction-R D)을 XML 파일로 구성하고, SNAP의 Graphic Processing Tool(GPT)을 이용하여 해당 기능을 호출함으로써 전처리가 적용된 Sentinel 위성영상(VV, VH)을 획득한다.
방사보정 및 지형보정이 완료된 Sentinel-1 위성영상은 VV, VH 편파로 구성 되는데, RADARSAT-2 및 Sentinel-1 영상의 VV, VH 편파를 이용하여 RGB 합성영상을 생성한다.
상기 Sentinel 위성영상의 전처리 과정은, SAR 영상처리 프로그램에 의해 대규모의 데이터를 일괄적으로 처리하도록 수행되는데, SNAP API를 이용한 파이썬(Python)으로 구현되고, 처리 절차는 정밀 궤도 보정, 열 노이즈 제거, 방사보정, 방사지형 평탄화, 지형보정, 영상 자르기, 스펙클 필터, 영상 데시벨 변환의 8개 과정으로 이루어진다.
상기 정밀 궤도 보정(Apply Orbit File)은 SAR 영상처리 프로그램에 의해 자동적으로 정확한 위성 위치와 속도 정보를 제공하는 정밀 궤도 정보를 다운로드 받아 적용할 수 있다.
상기 열 노이즈 제거 과정은 전체 Sentinel 영상의 후방산란 신호를 정규화하고 다양한 영상 획득 모드에서 발생하는 sub-swaths의 불연속을 감소시켜 inter-sub-swath texture에서 노이즈 영향을 감소시킨 것이다.
상기 방사보정 단계는 영상 내의 디지털 픽셀값을 방사보정된 SAR의 후방산란 값으로 변환하는 과정으로서, 보정 방정식에 필요한 정보는 Sentinel GRD 데이터에 포함되는데, 데이터에 주석으로 포함된 보정 벡터는 영상 강도 값을 시그마 너트 값으로 변환하고, 보정은 Level-1 데이터 생산 시 적용된 환산계수(Scaling Factor)를 반전시키며 절대 방사 상수를 포함하는 상수 오프셋과 영역에 범위 종속 이득을 적용할 수 있다.
상기 방사지형 평탄화 단계는 위성에서 SAR 영상 수신 시 센서와 지형간의 차이에 의해 기하학적 왜곡이 발생하므로 이를 제거하기 위한 과정으로서, 수치표고모델을 이용하여 정밀한 위성궤도 정보와 각 픽셀의 기하학적 계산을 통해 방사신호를 보정할 수 있다.
상기 지형보정(Range Doppler Terrain Correction)은, SAR 영상이 0도 이상의 다양한 시야각에서 관측될 경우 측면 형상과 관련된 일부 왜곡이 발생하므로 이를 보정하여 영상의 기하학적 특성이 실제와 최대한 유사하게 나타나기 위한 과정으로서, 기하학적 레이더 영상에서 좌표가 부여된 SAR 영상을 만들기 위하여 SNAP에 구현된 Range Doppler 정사보정하고, 위성영상 메타데이터에서 이용할 수 있는 궤도 상태 벡터 정보와 수치표고모델 데이터를 함께 사용하여 정밀한 지리적 위치정보를 유추하고 픽셀값을 경사 거리 값에서 지상 거리 값으로 변환한다.
상기 영상 자르기는, 연구대상 지역의 수체영역을 효과적으로 추출하기 위하여 목표물 외의 복잡한 지형물체가 없어야하고 효율적인 컴퓨팅 자원을 운용하기 위하여 연구대상 저수지 지역의 추출이 필요하므로, 지형보정된 SAR 위성영상과 같은 좌표계의 벡터 파일을 이용하여 연구대상 지역의 저수지만 추출하는 작업을 수행할 수 있다.
상기 스펙클 노이즈는 관측대상지역의 많은 산란체로부터 반사되는 전파의 간섭으로 인해 SAR 영상에서 오돌토돌하게 나타나는 노이즈로서, 스펙클 필터링은 스펙클 영향을 감소시켜 SAR영상 품질을 증가시키는 절차이다.
상기 영상 데시벨 변환(Linear Signal to dB)은 단위가 없는 영상의 후방산란계수 값을 로그 변환(log transformation)을 이용하여 데시벨(dB)로 치환하는 과정이다.
상기 영상분할/분류 알고리즘은 인공신경망(Neural Networ k), 서포트 벡터 머신 (Support Vect or Machines), 랜덤 포레스트(Random Forest) 기법과, 오츠(Otsu), 워터쉐드(Watershed), 찬-베세(Chan-Vese) 중에서 어느 하나를 사용할 수 있다.
본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치는,
위성정보를 활용하여 수표면적 분석을 수행함으로써 한반도 규모의 가뭄상황을 용이하게 파악케하는 효과가 있다.
또한, 위성영상에 의해 중,소 저수지의 수표면적을 모니터링함으로써 저수량을 용이하게 산출할 수 있도록 하고, 저수지 모니터링은 시계열적으로 수행되고 수표면적 및 저수량의 평균 및 표준편차가 산출되게함으로써, 중,소 저수지에 대한 가뭄 및 수해 발생 가능성을 정확히 분석할 수 있도록 하는 효과가 있다.
뿐만 아니라, 가뭄에 취약한 중·소규모 농업용 저수지의 수표(수체)면적을 연중 기상 조건과 상관없이 연속적으로 관측할 수 있게 함으로써, 전국적인 가뭄의 정도를 직관적으로 파악할 수 있도록 하는 효과가 있다.
도 1은 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치가 외부 기기와 연결된 상태를 나타낸 블럭도이고,
도 2는 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치의 개략적인 구성도이고,
도 3은 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 서버 내 처리과정을 나타낸 블럭도이고,
도 4는 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 Sentinel-1 수집 및 전처리(방사/지형보정) 자동화 절차를 나타낸 흐름도이고,
도 5는 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 Sentinel-2 수집 및 전처리(대기보정) 자동화 절차를 나타낸 흐름도이고,
도 6은 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 방사보정 및 지형보정 적용이 완료된 Sentinel-1 위성영상의 GIS 표출 예시도이고,
도 7은 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 RADARSAT-2 및 Sentinel-1의 RGB 합성영상 생성과정의 예시도이고,
도 8은 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 Sentinel-1의 최종 RGB 합성영상 및 KML 포맷 표출 예시도이고,
도 9는 본 발명에 따른 재난안전 다종 위성정보의 수신 및 처리장치에서 Sentinel-2 영상의 대기보정 적용과정의 예시도이고.
도 10은 본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법에 대한 전체 흐름도이고,
도 11은 본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법에서, 위성영상 전처리(preprocessing) 과정만을 나타낸 흐름도이고,
도 12는 본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법의 개략 흐름도이고,
도 13은 본 발명에 의해 산출되어진 중·소규모 저수지 수표면적 결과값의 도표이고,
도 14는 본 발명에 의해 산출되어진 중·소규모 저수지 수표면적 결과값의 시계열적인 정보가 축적된 도표이다.
이하, 본 발명의 바람직한 실시형태를 첨부된 도면들을 참조하여 보다 상세히 설명하기로 한다. 하지만, 본 발명의 범주가 여기에 한정되는 것이 아님은 물론이다.
본 명세서에서, 본 실시형태는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로서, 본 발명의 범주는 단지 청구항에 의해 정의될 뿐이다. 따라서, 몇몇 실시형태들에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다.
본 명세서에서 사용된 용어들은 실시형태를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 결코 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않은 한 복수형도 포함한다. 또한, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다.
지구를 관측하는 위성은 크게 광학(Optic)위성과 레이더위성(Synthetic Aperture Radar, SAR)으로 구분할 수 있다. 광학위성은 지표면으로부터 반사된 태양복사 에너지를 이용하여 지표면을 관측하는 위성이다. 광학 위성에서 취득되는 영상은 사실과 가까운 색상 표현이 되어 영상인식 및 분석에 용이 하다. 그러나 광학위성영상은 가시광선을 이용하는 만큼 야간과 기상 상태에 따라 영상 취득에 어려움이 있다. 그와 반대로 레이더위성은 짧은 파장을 가진 태양복사에너지 때문에 기상 상태에는 거의 영향을 받지 않는다.
본 발명은 위성영상에 의해 수표면적을 모니터링하되, 시계열적 분석이 가능하도록 기상에 관계없이 지속적인 모니터링이 가능해야할 것이므로,
본 발명에서는 가시광선에 의한 광학위성영상을 이용하지아니하고, 단파장 광에 의한 레이더위성인 센티넬(Sentinel)-2A/2B 위성영상을 사용하기로 한다.
센티넬(Sentinel)위성으로는 Sentinel-1A/1B 와 Sentinel-2A/2B 가 있는데,
Sentinel-1은 유럽 우주국(European Space Agency, ESA)이 수행한 코페르니쿠스 프로그램 위성단의 첫번째 위성으로서, Sentinel-1 위성단은 동일한 궤도면을 공유하는 Sentinel-1A (2014년 4월 발사)와 Sentinel-1B(2016년 4월 발사) 두 개의 위성으로 구성된다.
Sentinel-1 A/B 위성은 극궤도를 운행하며 12일 재방문 주기를 가지며, 주기당 175개의 궤도를 완료한다. Sentinel-1 위성의 탑재체는 C-band 합성개구레이더(Synthetic Aperture Radar, SAR) 장비로서, 전천후, 주야간 데이터 수집이 가능하다. 이 장비는 5m 이하의 공간해상도와 최대 400km의 관측폭을 가지고 있으며, 5,405 GHz에서 중심 주파수로 1dB 방사 측정 정확도를 제공한다.
Sentinel-2 위성 역시 유럽 우주국(ESA)이 수행한 코페르니쿠스 프로그램으로 개발되어 지구 표면 모니터링을 수행하며, 고해상도 광학 이미지를 제공하는 두 개의 극궤도 위성(A, B)으로 구성된다. 지표면 변화 모니터링에 있어 넓은 폭(290 km)과 짧은 재방문 주기(적도에서 1개의 위성으로 10일, 구름이 없는 조건에서 2개의 위성으로 5일)를 가진다. Sentinel-2 위성에는 다중분광장비(Multi-Spectral Instrument, MSI)가 탑재되어 있으며, 지표면 변화 탐지, 지구물리 변수 산출을 위한 관측을 수행하며, 기후변화, 지표 모니터링, 재해 감시 등에 응용될 수 있다.
육지와 연안 지역의 평균 관측시간은 약 17분, 최대 관측시간은 32분이다.
현재 Sentinel-1/2 영상은 인터넷을 통해 수집하고 있으나, 수집 및 전처리를 보다 효과적으로 수행할 필요가 있으며, 이에 수집 및 전처리 자동화 모듈의 프로토타입을 개발하였는데, 프로그램은 Python과 R로 작성되었고, 리눅스 crontab에 등록하여 사용 가능하다.
Sentinel-1은 다운로드, 방사보정, 지형보정, RGB 영상 생성, KML 생성 등이 일괄처리되고, Sentinel-2는 다운로드, 대기보정, RGB 영상 생성, KML 생성 등이 일괄처리 가능하다. (도 4, 5 참조)
Sentinel-1 수집 및 전처리 자동화 모듈은 영상 다운로드, SNAP을 연동한 방사 보정 및 지형보정, RGB 영상 및 KML 포맷 생성 절차가 일괄처리된다.
영상처리기 내 데몬 프로그램 (S1_ver02_demon.py)이 실행되면 사용자에 의해 설정된 시간 간격에 따라 반복적으로 서브프로그램(S1_ver02_sub.py)이 실행되는 구조이다. 서브프로그램은 SNAP과 연동되어 영상의 방사보정 및 지형보정을 차례로 적용하고, 이후 R과 연동되어 RGB 영상 및 KML 파일을 생성한다
Figure 112022108331295-pat00001
상기 영상 다운로드 과정에 대해 상세히 설명드리자면,
Sentinel-1/2 영상은 Python의 Sentinel API 라이브러리를 이용하여 사용자가 설정한 영상 검색 옵션에 따라 다운로드를 진행한다. 본 모듈에서는 별도로 생성 한 파라미터 파일로부터 API 쿼리를 던지는데 필요한 옵션을 저장하여 아래와 같 이 영상 일괄 다운로드를 진행한다.
Figure 112022108331295-pat00002
방사보정 및 지형보정에 대해 상세히 설명드리자면,
Sentinel-1 위성영상의 전처리 작업은, 영상서버 내 구비된 SAR 영상처리 프로그램인 SNAP을 연동하여 구현한다. SNAP의 방사보정 기능(Calibration) 및 지형 보정 기능(Ellipsoid-Correction-RD)을 XML 파일로 구성하고, SNAP의 Graphic Processing Tool(GPT)을 이용하여 해당 기능을 호출함으로써 전처리가 적용된 Sentinel-1 위성영상(VV, VH)을 획득한다.
RGB 영상 및 KML 포맷 생성에 대해 상세히 설명드리자면,
방사보정 및 지형보정이 완료된 Sentinel-1 위성영상은 VV, VH 편파로 구성 되는데, RADARSAT-2 및 Sentinel-1 영상의 VV, VH 편파를 이용하여 다음과 같이 RGB 합성영상을 생성하게된다. (도 7 참조)
Figure 112022108331295-pat00003
Sentinel-1 VV, VH 편파의 밴드조합을 이용하여 생성한 RGB 합성 영상을 보 다 선명하게 표현하기 위해서는 히스토그램 스트레칭 기법을 적용할 수 있다.
히스토그램 스트레칭은 원 영상의 히스토그램에서 명암도 간격을 균등하게 재분배하여 영상의 동적 범위를 넓혀주는 방법이다. 입력 영상의 명암도 Xk에 히스토 그램 스트레칭을 적용한 결과 영상의 명암도 f(Xk)는 다음 식과 같다.
Figure 112022108331295-pat00004
여기서 (L-1)은 출력 영상의 최대 명암도이고, Xk는 명암도 k의 입력 영 상이며, Xmax 와 Xmin 은 입력 영상의 최대 명암도와 최소 명암도이 다.
히스토그램 스트레칭 기법 적용이 완료된 Sentine-1의 RGB 합성영상은 Sentinel-1 영상을 구글 어스 등에서 활용할 수 있도록 KML 포맷으로 생성될 수 있 으며, 구글 어스를 이용하여 중첩한 예시도는 도 8과 같다
한편, Sentinel-2 수집 및 전처리 자동화 모듈은 영상 다운로드, ACOLITE를 연동한 대기보정, RGB 영상 및 KML 포맷 생성 등이 일괄처리된다.
영상처리 서버 내 데몬 프로그램(S2_ver02_demon.py)이 실행되면 사용자 에 의해 설정된 간격에 따라 반복적으로 서브프로그램(S2_ver02_sub .py)이 실행된다. 서브프로그램은 아래와 같이 ACOLITE와 연동되어 영상의 대기보정을 적용하고, 이후 R과 연동되어 최종 산출물인 RGB 영상 및 KML 포맷을 생성한다.
Figure 112022108331295-pat00005
Sentinel-2 영상 다운로드 과정은 상기 Sentinel-1 에서의 과정과 동일하다.
한편, Sentinel-2 대기보정과정에 대해 상세히 설명드리자면,
Sentinel-2 위성영상의 전처리는 영상처리 서버 내 구비되어진 대기보정 프로그램인 ACOLITE를 연동하여 구현한다. ACOLITE는 단파적외(SWIR) 영역 파장대를 이용하여 대기 보정이 가능한 Dark Spectrum Fitting(DSF) 알고리즘을 기반으로 한 대기보정을 적용한다.
Sentinel-2 Level-1C(L1C) 영상은 대기보정 처리 전 단계인 Top Of Atmosphere(TOA)의 반사율을 제공하므로, ACOLITE로 TOA에 대한 대기보정 처리를 거치면 지표면 반사율에 해당하는 Bottom Of Atmosphere(BOA) 영상을 산출할 수 있다. 따라서 이러한 과정을 통해 대기의 산란, 흡수 등으로 감쇄된 복사에너지를 보정하여 지표면 반사도를 산출한 Sentinel-2 영상을 생성할 수 있다. (도 9 참 조)
대기보정이 적용된 Sentinel-2 위성영상은 Sentinel-1 에서와 같이 RGB 영상이 형성되고, 히스토그램 스트레칭 기법을 적용하여 KML 포맷이 생성된다. (도 10 참조)
본 발명에서는 인터넷에서 수신되는 Sentinel-1/2 영상을 Sentinel-1/2 영상처리기 내 구비된 프로그램에 의해 방사보정, 지형보정, 대기보정, RGB 영상 생성, KML 생성이 일괄처리되어 재난안전 분석용도로 사용할 수 있는 것이다.
즉, 센티넬-1(Sentinel-1)은 C-band SAR 센서를 탑재하여 날씨나 주야와 관계없이 관측이 가능하여 침수피해 현황, 지표이동 감시 등의 관측에 매우 유용하다.
센티넬 위성의 공간해상도는 10m, 시간해상도는 5~7일인데, 재해,재난분야의 특성상 누적성, 반복성, 불확실성, 복잡성이 있음에 따라 장기적이고 안정적인 위성영상 활용을 위해서는 다음과 같은 조건이 충족해야 한다.
○ 동일한 지역과 시기에 대한 장기적인 위성영상 수급과 주기적인 축적 필요
○ 위성영상내 분석 결과의 품질 여부에 영향을 발생시키는 요소의 최소화(구름 및 비와 같은 기상조건 및 주,야간에 영향받지 않아야 함)
한편, 가뭄은 다른 재해,재난과 달리 시작과 끝을 판단하기 어렵고, 피해양상이 매우 점진적으로 진행되어 사회 및 경제적 피해 규모를 정량적으로 산정하기 어려운 특성을 가지므로, 가뭄에 대비 및 대응하기 위해서는 수자원 이용 시설물인 농업용 저수지에 대해 전국적으로 일원화된 지원정보를 생산하고 정보제공의 해상도 차이를 최소화하는 것이 매우 중요하다.
위성영상을 통해 저수지 수표면적을 분석하여 모니터링하는 연구를 수행하기 위해서는 시기와 지역에 영향받지 않는 분석방법론을 설정해야하며, 가뭄의 특성상 국소지역에서 발생하는 것이 아니라 광역적인 지역에서 발생하는 것에 대해 경향성을 분석하여 수표면적 변화에 대한 예측을 수행할 수 있어야 한다.
따라서 위성영상을 이용하여 주기적으로 중,소규모 저수지의 수표면적을 산출하기 위해서는 다음과 같은 방안을 도출하였다.
① 전천후로 대상지역 관측이 가능한 SAR 위성영상의 활용
② 장기간 지구관측 데이터가 축적되어 있고 주기성이 7일 미만으로 수급 가능한 중해상도 위성영상 활용
③ 위성영상과 지상센서, 공간정보와의 융합을 통한 분석기술 정확도 검증 및 개선
④ 국내 위성개발 프로그램과 연계를 고려한 선제적인 기술개발
본 발명에서는 기상조건에 관계없이 대상지역의 촬영이 가능하고, 일정한 기간 단위로 한반도를 관측하여 분석데이터의 주기성 확보에 유리한 위성자료로서는, 유럽우주국의 SAR 위성인 Sentinel 위성영상이 가장 적합하다는 사실을 발견하였다.
Sentinel 위성은 인터넷을 통하여 전 세계 영상을 무료로 제공하고 있어 인터넷이 되는 장소이면 활용이 가능한 장점이 있으며, 과거부터 관측된 영상을 보유하고 있어 대상지역의 시계열 분석에 활용성이 매우 높다.
다만, 위성영상에서 수표면적을 산출하기 위해서 SAR 위성영상을 이용한 대규모 유역이나 저수지를 대상으로 한 기존 선행 연구와는 달리 중·소규모 저수지의 수표면적 산출을 목적으로 한 새로운 분야이므로 분석기술 확보가 요구된다.
그 방안으로 위성영상에서 수체영역을 산출하는 대표적인 영상 분류·분할 기법을 적용하고 공간 정보(드론 영상 등)와의 정확도 검증을 통하여 최적의 분석기술을 확보하는 것이 필요하다. 또한 국내 위성개발 프로그램과 연계하여 국가위성의 활용성을 증대시키고 향후 위성영상의 원활한 수급을 위하여 관련 기관과의 유기적인 협력체계 구축도 요구된다.
위성영상을 이용하여 수체를 구분하는 방법은 여러 연구를 통해 다양한 방법이 제시되고 있다. 이를 위한 주요 방법으로 영상 분류(Classification)와 영상 분할 (Segmentation)이 있다. 영상 분류 기법은 객체의 종류에 따라 분류하는 것으로 일반적인 객체를 식별하는데 유용한 기법이며, 영상 분할 기법은 영상 내의 개별 개체를 감지하고 분류하는 기법으로 화소 단위 정보를 이용하여 영상 내 개체 윤곽선을 추출하는데 유리한 기법이다. 본 발명에서는 위성영상을 이용하여 저수지 수표면적을 산출하기 위하여 크게 영상 분류와 영상 분할 기법을 이용하였다.
일반적으로 위성영상 분류기법이란 위성영상의 각 지점을 여러 개의 클래스로 지정하여 화소(pixel)단위의 영상을 클래스(class)로 분류하여 정보를 생산하는 작업을 말한다. 위성영상 분류는 유사한 특성을 갖는 화소를 동일한 클래스로 추출하는 방법에 따라 감독 분류와 무감독 분류로 나눌 수 있다.
감독 분류는 각 클래스에 속하는 표본 화소들이 주어지고, 무감독 분류에서는 클래스에 속하는 화소들이 지정되지 않는다. 감독 분류의 학습 단계에서 각 클래스의 표본 화소들을 사용하여 해당 클래스를 대표할 수 있는 특징을 찾는다. 이러한 대표적 특징을 이용하여 화소의 클래스를 추출·분류하고 분류되지 않고 일정한 규칙을 갖는 화소를 여러 클래스 중에 한 클래스로 할당한다. 무감독 분류에서는 클래스에 속하는 패턴들을 미리 알 수 없기 때문에 각 클래스에 대한 특징을 추출 할 수 없다. 그러므로 분류하고자 하는 데이터 전체의 유사한 특징을 찾아내어 화소들을 그룹화하는 과정이 필요하다. 이러한 과정을 클러스터링(clustering)이라 한다. 영상을 여러 클러스터로 분류할 수 있는 각각의 특징을 추출하여 정의된 특징에 따라 클러스터를 분류한다. 감독 분류의 장점으로는 분석하고자 하는 영상 내 클래스를 사전에 결정할 수 있기 때문에 비교적 정확한 분류가 가능하다는 것이다. 단점으로는 사전에 정의한 클래스들이 영상 내의 모든 화소를 대표해야하므로 분포율이 적은 클래스는 적용하기 어렵다.
무감독 분류의 장점은 훈련 데이터를 구할 필요가 없으며 분류 초기에 물체에 대한 정보를 얻기 쉽다는 것이며, 단점으로는 가정에 따라 결과가 심하게 변한다.
본 발명에서는 안정적이고 정확성 높은 결과의 도출을 위하여 감독 분류 기반의 알고리즘을 이용하였으며 감독 분류 과정은 아래와 같이 훈련단계, 분류단계, 출력단계의 과정을 진행한다.
Figure 112022108331295-pat00006
훈련단계는 영상 내에서 각 클래스를 대표하는 훈련 자료를 추출하는 것으로 훈련자료를 이용하여 분류단계에서 사용할 최적의 특징을 추출한다. 분류단계는 훈련자료를 기반으로 분류 알고리즘을 통하여 영상 내의 각 화소와 각 클래스 간의 유사도를 분석하는 단계이며, 출력단계는 가장 유사한 클래스로 화소를 할당하여 주제도를 생성하는 단계이다.
본 발명에서는 다양한 위성영상 감독 분류 방법 중 범용적으로 사용되며 강건한 결과를 도출하는 기법으로 알려진 인공신경망(Neural Network), 서포트 벡터 머신 (Support Vector Machines), 랜덤 포레스트(Random Forest) 기법을 이용하여 위성영상 감독 분류를 수행하였다.
먼저, 신경망(NN, Neural Network)은 단계별 알고리즘이나 복잡한 논리적 프로그램을 통해 해결책에 도달하는 것이 아니라, 비 알고리즘 적이고 비구조적인 형태를 갖는 망(network) 속의 뉴런들을 연결하는 가중치를 조정함으로써 해결책에 도달한다.
신경망은 다양한 분야의 자료를 분류하는 데 사용되어 왔으며 기존의 통계기법을 이용하는 것보다 정확하고 효율적으로 문제를 해결할 수 있는데, 신경망은 인간의 정보처리 패턴과 유사한 방식의 시스템으로 비선형적인 특징을 갖고 있으며 대량의 데이터를 처리할 수 있는 장점을 가지고 있어 보편화된 모형으로 사용된다.
신경망은 아래의 구조 모식도에서와 같이 하나의 입력층(input layer)과 하나 이상의 은닉층(hidden layer), 마지막 층인 출력층(output layer)으로 구성되어있다.
Figure 112022108331295-pat00007
출력층을 제외한 모든 층은 뉴런을 포함하며 다음 층과 연결되어 있다. 입력층은 결과값을 내기 위해서 영상이나 보조데이터의 각 화소에 기록된 정보를 입력하며, 각 층은 상호 연결된 노드를 통해 다중 방향으로 정보가 흐르게 되고 신경망이 훈련되게 된다. 이러한 상호 연결의 가중치는 신경망에 의해 학습되고 저장되며, 이들 가중치가 데이터 분류 단계에서 사용된다. 훈련자료의 대표성이 강할수록 신경망은 은닉층의 가중치를 효과적으로 조정되어 정확한 분류를 수행할 수 있다. 출력층은 입력된 데이터와 학습된 모델을 이용하여 각 클래스의 결과를 나타낸다.
분류방법으로서 서포트 벡터 머신(SVM, Support Vector Machines)도 사용될 수 있는데, 서포트 벡터 머신은 분류를 위한 기준선이나 결정 경계(Decision Boundary)를 정의하는 모델이다.
분류되지 않은 새로운 데이터를 경계의 어느 클래스에 속하는지 판단해서 클래스를 결정하는 방식으로 비확률적 이진 선형 분류 모델을 이용한다. 서포트 벡터 머신은 초평면(hyperplane)이나 초평면들의 집합으로 구성되어 있다.
분류될 확률이 가장 높은 데이터를 찾아내 우선적으로 분류하는 것이 오류를 적게 낼 수 있으므로 데이터 학습시 학습되는 데이터로부터 가장 먼 거리를 가진 초평면을 우선적으로 찾는다. 일반적으로 초기 분류 학습 단계에서 종종 데이터가 선형적으로 구분되지 않는 문제가 발생한다. 이런 문제를 해결하기 위해 더 높은 차원을 적용하여 데이터 분류를 용이하게 하는 방법이 제안되었는데, 이 과정에서 계산이 증가하지않도록 각 문제에 적합한 커널 함수(kernel function)를 사용한다. 커널 함수를 이용한 서포트 벡터 머신은 초기 문제의 변수를 사용하여 내부 연산을 효과적으로 계산할 수 있도록 설계되었다.
고차원 공간에서 초평면은 데이터 집합과 상수 벡터의 내부 연산에 의해 정의된다. 초평면에 정의된 벡터는 데이터베이스에 존재하는 각 파라미터와 선형적으로 결합하도록 선택되며, 이때 초평면과 초평면에 해당하는 데이터는 다음과 관계를 나타낸다.
Figure 112022108331295-pat00008
xi와 x가 멀어질수록 k(xi, x)가 작아진다면, 각각의 합은 테스트 점 x와 대응 데이터인 xi의 근접성 값을 나타낸다. 이를 이용해서 커널 식의 합은 집합 안의 데이터 점과 테스트 점 간의 상대적인 근접성을 측정할 수 있다.
분류방법으로서 랜덤 포레스트(RF, Random Forest)도 사용될 수 있는데, 랜덤 포레스트는 다수의 결정 트리(decision trees)들을 결합하여 학습하는 앙상블 방법이다.
랜덤 포레스트의 가장 큰 특징은 랜덤성(randomness)으로 학습을 하기 때문에 결정 트리들이 조금씩 다른 특성을 가진다는 것이다. 이 특성은 각 결정 트리의 예측을 비상관화가 되게 만들어 예측 성능을 향상시킨다.
또한 랜덤적인 데이터 학습은 노이즈를 포함한 데이터를 효과적으로 구분 할 수 있게 한다. 각 결정 트리가 랜덤으로 데이터를 학습하는 방식에서 배깅 및 임의 노드 최적화와 같은 앙상블 학습 방법이 자주 사용된다.
이 두 가지 방법을 동시에 사용하면 랜덤 학습의 특성을 더욱 강화할 수 있다. 랜덤 포레스트는 배깅(bagging)이라는 과정을 거치며, 배깅은 부트스트랩(bootsrap)을 통해 조금씩 다른 데이터로 훈련이 된 기초 분류기(base learner)들을 결합(aggregating)하는 방법이다.
부트스트랩이란 훈련 데이터에서 N개의 데이터를 임의로 선택할 때 중복을 허용함으로써 원 데이터 세트와 같은 크기의 데이터 세트를 만드는 과정을 의미한다.
아래 랜덤 포레스트 학습과정 배깅 모식도로서, 배깅을 이용하여 T개의 결정 트리들로 구성된 랜덤 포레스트를 학습하는 과정으로는 전체 학습 데이터 집합을 의미하며
Figure 112022108331295-pat00009
는 t 번째 결정 트리를 위해 배깅을 통해 임의로 선택된 학습 데이터들로
Figure 112022108331295-pat00010
의 부분집합을 나타낸다.
트리는 작은 편향과 큰 분산을 가지기 때문에 학습데이터에 따라 생성되는 모델이 매우 다르므로 결과값이 과적합(overfitting) 되는 경우가 있다. 부트스트랩 과정은 트리들의 편향은 유지하면서, 분산은 감소시키기 때문에 노이즈에 강한 포레스트의 성능을 향상시키는 역할을 한다.
각 트리들이 서로 성관성이 없기 때문에 여러 트리들의 평균으로 인해 노이즈에 대해 강한 성능을 나타낸다. 랜덤 포레스트의 트리들은 독립적으로 훈련 단계를 진행하며, 데이터는 훈련된 모든 트리에 동시로 입력되어 종단 노드에 도달하게 된다. 모든 트리에서 도출된 예측 결과들의 평균이 포레스트의 최종 결과값으로 결정된다.
위성영상의 공간 해상도에 따라 영상 내 복잡성으로 인해 동일한 속성의 개체에 대한 밝기값들이 상이한 특성을 나타낼 수 있기 때문에, 대상화소 주변의 화소들을 복합적으로 고려한 분석기법이 필요하다.
영상 내 공간적·화소별 유사한 특성을 지닌 인접 화소들을 단일의 객체로 분류하는 객체 단위의 영상분석이 효율적인데 이를 영상 분할 기법이라 한다.
분할된 영상 객체는 단일 속성을 가지는 영역으로 나타나야 하며, 영상 분할에 사용된 기법과 대상 지역의 특성에 따라 객체들이 과대 분할이나 과소 분할될 수 있는 단점이 있다.
따라서 영상 분할의 특징을 이해하여 목적에 맞는 영상 분할 기법을 선정하여 활용하는 것이 중요하다. 또한 영상 분할 기법은 영상 외의 다른 정보에 의존하지 않고 영상 내 화소 특징을 이용하여 객체를 추출하기 때문에 기법에 따라 잡음에 강하거나 안정적 결과를 나타낼 수 있다.
본 발명에서는 영상 분할 알고리즘을 적용하기 위하여 오츠(Otsu), 워터쉐드(Watershed), 찬-베세(Chan-Vese) 3종류의 기법을 적용하여 저수지 수체영역의 영상 분할을 수행하였다.
연구대상 지역의 영상은 픽셀값들에 의해 수체영역과 비수체영역의 히스토그램 특징이 나타나기 때문에 이를 이용하면 효과적으로 영상 내 수체영역을 추출할 수 있다. 오츠(Otsu)에 의한 영상 분할방법은 임계치 기법의 일종으로 영상의 히스토그램을 이용하여 영상을 배경과 객체, 두 개의 클래스로 분할 할 수 있는 최적의 경계값을 자동으로 결정하는 기법이다.
경계값을 기준으로 클래스1과 클래스2로 분할 하는 것으로 영상에 따라 경계값이 바뀌는 특징이 있다. 아래 도표는 히스토그램을 이용한 최적의 경계값 추정을 나타낸 것으로서, 오츠 기법은 임계값을 기준으로 영상 내 픽셀들을 두 개의 클래스로 분류했을 때, 두 클래스 간의 분산을 최대로 할 수 있는 값을 최적의 경계값으로 선정하는 기법이다.
Figure 112022108331295-pat00011
워터쉐드(WS, Watershed) 영상 분할 알고리즘은 지형학과 수문학의 일부 이론들을 접목한 컴퓨터 비전 분야 이론으로서, 2차원 영상의 x, y 축을 3차원 지형의 좌표로 가정하고 각 픽셀값을 높이로 가정하여 3차원 지형을 형상화하고 지형의 큰 값을 갖는 픽셀들을 봉우리 또는 워터쉐드 라인으로 표현하고 작은 값을 갖는 픽셀들은 골짜기 또는 국부 최소값으로 표현한다.
3차원 지형의 국부 최소점을 시드(seed) 영역이라 하는데 이 시드 영역에서부터 물이 채워지는 개념으로 각 담수 영역을 확장한다. 담수 지역에서 물이 차올라 다른 지역으로 물이 범람하려 한다면 다른 담수 지역과의 결합을 막기 위해 그 자리에 댐을 건설하고 이러한 방법으로 영역을 확장하여 영역 사이에 건설된 댐이 영역의 경계가 되고 각 담수 지역은 영상의 분할된 영역이 되어 객체를 추출하는 방식이다.
워터쉐드 알고리즘은 확장방식에 따라 침수(immersion) 방식과 강우(rainfall) 2가지 방식으로 나눌 수 있다. 대표적인 침수 방식은 각 지역 최소값에서 물이 차 오르면서 영역을 확장하는 것으로, 최소 기울기 값으로부터 확장을 시작하면서 주변 화소 중 최소의 기울기 값을 찾아서 최소 지역을 시드로 설정하고 레이블을 붙여 다른 지역과 구분하는 방법이다. 이 최소 지역과 같은 기울기 값으로 연결된 화소는 같은 레이블을 정의하고 상대적으로 원거리에 있는 최소 화소들에는 다른 레이블로 정의한다. 그리고 기울기 값을 증가시키면서 영역을 확장하면서 확장 대상이 되는 화소가 기존 지역에 접해 있는 경우에는 기존의 레이블에 포함시킨다.
주변에 해당하는 지역이 없는 새로운 국부 최소 지역일 경우에는 새로운 레이블로 정의한다. 확장 과정이 특정 기울기 값 z와 같거나 z보다 낮은 높이의 모든 담수 영역들이 발견되면 다음 단계로 z+1의 기울기 값을 가지고 있는 화소들을 처리하게 된다. 이 과정을 최대 기울기 값에 이를 때까지 반복적으로 수행하여 모든 화소를 담수 지역으로 병합시킴으로써 영역을 확장해 나가는 방식이다.
확장이 끝나면 각 담수 지역들이 분할된 영역이 되고 담수 지역 사이에 건설된 경계가 영역을 분할하는 선이 되어 이를 기준으로 객체를 분할한다.
Figure 112022108331295-pat00012
위 도표는 침수 방식을 개념적으로 설명한 것으로 워터쉐드 알고리즘의 침수 방식(좌) 및 강우 방식(우)을 나타낸 것이다. 최저 기울기 높이에서부터 위를 향해 물이 차오르고 각 국부 최소점들이 담수 지역이 되는 것이다. 물이 차오르면 점선과 같이 기울기 값이 가장 큰 화소가 경계 위치로 설정된다.
강우(rainfall) 방식은 하늘에서 비가 오는 개념으로 각 화소에서 지역 최소값까지의 경로를 찾아 담수 영역을 확장하는 방식인데, 이 방식은 크게 초기화와 범람의 2가지 과정으로 구현되며 담수 지역인 시드는 마커라 불리기도 하며 초기화 과정에서 이 마커의 초기 위치를 결정하고 범람 과정에서는 마커에 인접한 화소들을 우선순위에 따라 마커를 병합하는데, 이런 범람 과정을 모든 화소들이 마커에 병합될 때까지 지속해서 반복한다.
위 도표의 우측은 강우 방식의 개념을 나타낸 그림으로서, 먼저 확장의 시작이 되는 국부 최소점들을 마커로 추출하고 각 마커로부터 확장을 시작하는데, 이 마커에 물이 떨어져 채워지는 개념으로 영역이 확장되고 이에 따라 각 마커는 유사한 속도로 확장이 진행된다.
또한 찬-베세(CV, Chan-Vese) 모델도 영상 분할방법으로 사용될 수 있는데, 찬-베세 모델은 곡선 내부 및 외부의 분포를 기반으로 객체를 추출하는 방식으로 영상의 강도 균질성과 뚜렷한 대비로 영상에 더 나은 분할 효과를 보이는 방법이다. 찬-베세 모델에서 사용된 에너지 함수 E는 아래 식과 같다.
Figure 112022108331295-pat00013
위 수식에서 U0는 입력 영상을 의미하고 x, y는 영상에서 픽셀 좌표를 의미하며 여기에서 c1과 c2는 아래와 같이 정의된다. 찬-베세 모델은 위의 에너지 함수가 최소가 되는 지점으로 곡선이 변화하게 된다
Figure 112022108331295-pat00014
도 10은 본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법에 대한 전체 흐름도로서,
본 발명은 크게 아래와 같은 3단계로 진행이 된다.
① 해당 저수지 영역의 Sentinel 위성영상 수급 및 전처리 수행
② 6개의 영상분류/분할 알고리즘을 이용한 위성관측 수표면적 산출
③ 산출된 수표면적에 대한 시계열 정보 분석 및 축적
한편, SAR는 Synthetic Aperture Radar의 약어로써 ‘합성개구레이더’ 또는 ‘영상 레이더’로 알려져 있다. 레이더 안테나 자체에서 마이크로파를 관측대상물에 방사하고 그 대상물에 의해 산란된 전자파에너지를 다시 안테나로 수신하는 능동형 센서 (Active Sensor)이다.
SAR는 비행물체에 설치된 레이더 센서를 이용하여 취득된 신호를 영상화하는 기술의 한가지로써 레이더에서 사용하는 전자파의 파장대역을 사용하는 능동형 센서이며, 태양으로부터 방사된 전자파 에너지를 이용하는 수동형 (Passive Sensor) 센서와는 다르다.
따라서 태양을 방사원으로 삼는 수동형 센서와는 달리 기상의 조건이나 주야와 관계없이 관측할 수 있으므로, 구름이나 안개로 둘러싸이기 쉬운 지역이나 1년 중 반이 밤인 북극과 남극, 일조시간이 짧은 고위도 지역에서의 관측이 유리하다.
또한 파장대별로 관측대상물에 대한 후방산란 특성이 다르기 때문에 식생, 눈으로 덮인 표면적, 건조한 토양 내부에 대한 정보까지도 얻을 수 있다. 이처럼 가시광선 파장대역이 아닌 다른 파장대역의 정보를 사용하기 때문에 광학계 센서와는 다른 정보를 가지고 있으므로 SAR 데이터가 내포하고 있는 정보량이 많고 영상처리과정이나 마이크로파와 관측대상과의 상호작용을 기술하는 산란 문제도 복잡하기 때문에 SAR 데이터의 해석에는 전문적인 기술과 식견이 필요하다.
본 발명을 위해서는 기상상태에 관계 없이 저수지 모니터링이 가능하고 위성정보를 정기적으로 수신 가능해야 할 것이므로, 본 발명에서는 SAR 위성으로부터 위성정보를 수신하되, 특히 유럽연합에서 운용하는 Sentinel 위성을 사용하고, 국토, 환경, 수자원, 지질 등 공공분야의 목적에 이용되므로 C 밴드의 주파수 대역을 이용한다.
Sentinel 위성은 주기적으로 균일한 품질로 관측된 영상 데이터가 웹사이트를 통하여 제공되기 때문에 수급성이 뛰어나고 장기간의 데이터가 구축이 되어있기 때문에 시계열 분석에도 큰 장점을 가지는 바, 본 발명에서는 주기적인 관측, 시 계열 분석을 목적으로 Sentinel 위성 영상 데이터를 활용한다.
본 발명에서는 Sentinel 위성 영상 데이터를 활용하되, 저수지 모니터링을 위해 우주에서 위성을 이용하여 지구 표면을 관측 시 발생하는 노이즈를 반드시 제거해주어야한다.
이를 위성영상 전처리(preprocessing)라 부르며 Sentinel 위성의 GRD(Ground Range Detected) 영상 전처리 과정은 도 11에서와 같다.
영상 전처리과정은 상기 Sentinel 영상처리기 내 구비되어진 SAR 영상처리 프로그램에 의해 대규모의 데이터를 일괄적으로 처리하도록 수행되는데, SNAP API를 이용한 파이썬(Python)으로 구현되고, 처리 절차는 발생 가능한 오류를 효율적으로 감소시킬 수 있도록 정밀 궤도 보정, 열 노이즈 제거, 방사보정, 방사지형평탄화, 지형보정, 영상 자르기, 스펙클 필터, 영상 데시벨 변환의 8개 과정으로 이루어진다.
위성영상 취득 시 제공되는 메타정보에 포함된 궤도정보는 정확도가 높지 않아 정확한 영상 보정을 위해서는 정밀한 궤도정보가 필요하다. 정밀한 궤도정보는 위성영상 관측 이후 수일에서 수 주 후에 결정되는데, 정밀 궤도 보정(Apply Orbit File)은 SAR 영상처리 프로그램에 의해 자동적으로 정확한 위성 위치와 속도 정보를 제공하는 정밀 궤도 정보를 다운로드 받아서 적용할 수 있다.
Sentinel-1 영상 강도는 교차편파 채널에 의해 발생하는 추가적인 열 노이즈가 분포되어 있다. 열 노이즈 제거 과정은 전체 Sentinel-1 영상의 후방산란 신호를 정규화하고 다양한 영상 획득 모드에서 발생하는 sub-swaths의 불연속을 감소시켜 inter-sub-swath texture에서 노이즈 영향을 감소시킨다.
방사보정 단계는 영상 내의 디지털 픽셀값을 방사보정된 SAR의 후방산란 값으로 변환하는 과정으로서, 보정 방정식에 필요한 정보는 Sentinel-1 GRD 데이터에 포함되는데, 데이터에 주석으로 포함된 보정 벡터는 영상 강도 값을 시그마 너트 값으로 간단하게 변환할 수 있다. 보정은 Level-1 데이터 생산 시 적용된 환산계수(Scaling Factor)를 반전시키며 절대 방사 상수를 포함하는 상수 오프셋과 영역에 범위 종속 이득을 적용한다.
전치리 과정에서 수평면에서의 방사 보정 SAR 후방산란 값을 생성하기 위하여 시그마 너트 값의 LUT(Look Up Table)이 제안된다. 시그마는 기하학적으로 지구와 만나는 지점에서 반사도의 강도를 나타내는 것으로 1㎡ 면적에서 발생하는 분산된 대상 물체로부터의 레이더 유효 반사 면적을 나타낸다. 시그마 너트는 산란되는 표면의 특징 뿐만 아니라 편파, 파장, 입사각과 같은 중요한 변화 정보를 가지고 있다.
방사지형평탄화(Radiometric Terrain-Flattening)에 대해 설명드리자면,
SAR 영상은 위성에서 신호 수신시 센서와 지형간의 차이에 의해 기하학적 왜곡 현상이 발생하는데 대상 표면의 후방산란신호가 정상적으로 수신되지 않아 영상의 품질을 저하시킬 수 있다. 이런 왜곡 현상을 보정하기 위해서 수치표고모델을 이용하여 정밀한 위성궤도 정보와 각 픽셀의 기하학적 계산을 통해 방사신호를 보정하는 작업을 수행하였다
지형보정(Range Doppler Terrain Correction)에 대해 설명드리자면,
SAR 영상은 일반적으로 0도 이상의 다양한 시야각에서 관측되며, 이로 인해 측면 형상과 관련된 일부 왜곡이 발생하는 현상이 발생한다. 지형보정은 다양한 왜곡 현상을 보정하여, 영상의 기하학적 특성이 실제와 최대한 유사하게 나타나기 위한 과정으로서, Doppler 지형보정은 지형변화에 의해 발생하는 포어쇼트닝(foreshortening), 그림자(shadow) 등과 같은 기하학적 왜곡을 보정하는 것이다.
Range Doppler 지형 보정 방법은 기하학적 레이더 영상에서 좌표가 부여된 SAR 영상을 만들기 위하여 SNAP에 구현된 Range Doppler 정사보정 기법으로 이용가능하다. 위성영상 메타데이터에서 이용할 수 있는 궤도 상태 벡터 정보와 수치표고모델 데이터를 함께 사용하면 정밀한 지리적 위치정보를 유추하고 픽셀값을 경사 거리 값에서 지상 거리 값으로 변환할 수 있다.
영상자르기(Subset)에 대해 설명드리자면,
연구대상 지역의 수체영역을 효과적으로 추출하기 위해서는 목표물 외의 복잡한 지형물체가 없어야 한다. 또한, 영상 크기가 작아질수록 계산시간을 단축시켜 효율적인 컴퓨팅 자원을 운용할 수 있기때문에 연구대상 저수지 지역의 추출이 필요하다. 지형보정된 SAR 위성영상과 같은 좌표계의 벡터 파일을 이용하여 연구대상 지역의 저수지만 추출하는 작업을 수행한다.
스펙클 필터(Speckle Filter)에 대해 설명드리자면,
스펙클 노이즈는 관측대상지역의 많은 산란체로부터 반사되는 전파의 간섭으로 인해 SAR 영상에서 오돌토돌하게 나타나는 노이즈이다. 스펙클 필터링은 스펙클 영향을 감소시켜 SAR영상 품질을 증가시키는 절차이다. 도 11에서와 같이 스펙클 필터링은 상기 전처리 과정 이후, 상기 수표면적 산출, 저장과정에서 영상 자르기와 영상 데시벨 변환과정 사이에 진행된다.
영상 내의 작은 공간 구조나 이미지 질감을 식별하는 데 목적이 있는 경우 스펙클 필터링은 이러한 정보까지 제거할 수 있으므로 권장되지 않는다.
영상 데시벨 변환(Linear Signal to dB)에 대해 설명드리자면, 이는 처리 마지막 단계로서 단위가 없는 영상의 후방산란계수 값을 로그 변환(log transformation)을 이용하여 데시벨(dB)로 치환하는 과정이다.
도 12는 본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법의 개략 흐름도로서, 선정된 연구대상 저수지 43개소를 관측한 Sentinel-1A/B 위성영상을 수급하고 각 위성영상에 방사보정, 정사보정 등의 전처리를 수행한 후 6종의 영상분할/분류 기법을 적용하여 연구대상 저수지의 수표면적을 산출한다.
위성영상에서 연구대상 저수지 추출에 필요한 벡터파일은 저수지 위치에 지정되어 있는 환경부의 토지피복도 세분류 정보를 이용 하였으며, 저수지 영역을 추출을 위하여 벡터파일에 50m 버퍼 처리를 한 영역을 기준을 위성영상과 벡터파일이 교차되는 영역을 추출하였다.
위성영상에서 중·소규모 저수지의 수표면적 추출을 위한 적용된 영상분할/분류 알고리즘은 신경망(이하 NN), 랜덤포레스트(이하 RF), 서포트 벡터 머신(이하 SVM), 오츠(이하 Otsu), 워터쉐드(이하 WS), 찬-베세(이하 CV)의 6종 알고리즘으로 각각 다양한 이론 방법을 이용하여 수표면적을 산출하였다. 결과적으로 SAR 위성 영상과 영상 분할/분류 알고리즘을 적용하여 산출된 중·소규모 저수지 수표면적 결과값은 도 13과 같다. 6종 알고리즘을 43개의 저수지에 적용하여 총 258개의 결과값이 도출되었다.
알고리즘별 산출된 평균을 비교하면 RF와 NN 알고리즘이 각각 6.823과 6.820 (ha)으로 가장 높은 수표면적을 산출하였으며, WS 알고리즘은 5.063으로 가장 낮은 수표면적을 산출하였다. SVM, Otsu, CV 알고리즘도 각각 6.547, 6.312, 6.441 (ha)의 평균 값을 나타내며 WS 알고리즘을 제외하고 약 0.4 (ha)의 차이를 보이는 것을 확인할 수 있었다.
위에서와 같이 산출된 저수지 측정된 수표면적의 정보는 위성으로부터 정기적으로 정보가 수신되므로 도 14와 같이 시계열적인 정보가 축적된다.
Figure 112022108331295-pat00015
소규모 저수지의 시계열 정보 기초통계량을 분석하기 위해서는 시계열로 분석된 저수지의 수표면적 값이 알고리즘별 어떤 특징이 나타나는지 볼 필요가 있다.
가장 기초적인 통계값으로 평균과 표준편차를 분석해야하는데, 평균은 전체적인 수표면적 값의 차이를 볼 수 있으며, 표준편차는 시계열별로 흩어진 정도를 수치화하여 확인할 수 있다.
수표면적의 평균값은 아래식을 이용하여 도출하였다.
Figure 112022108331295-pat00016
(
Figure 112022108331295-pat00017
는 수표면적 평균값, n은 위성영상 개수, xi는 관측날짜의 수표면적)
한편, 알고리즘별 평균을 기준으로 수표면적이 어느 정도 분포되어 있는지를 표준편차를 이용하여 살펴보았다. 수표면적 표준편차는 분산을 제곱한 것으로 아래식으로 나타낼 수 있다.
Figure 112022108331295-pat00018
(
Figure 112022108331295-pat00019
는 표준편차, n은 샘플 개수, xi는 날짜별 수표면적 값,
Figure 112022108331295-pat00020
는 관측된 기간의 전체 수표면적 평균)
알고리즘별로 표준편차를 살펴보면, RF가 5개의 저수지 중 4개의 저수지에서 조견표 수표면적 표준편차보다 작은 표준편차를 보였다. 이는 RF가 다른 알고리즘에 비해 수표면적 산출 값의 흩어짐 정도가 적은 것을 의미한다. NN, SVM, CV는 5개의 저수지 모두 조견표 수표면적 표준편차보다 큰 수치를 보였으며, 이는 조견표 수표면적 표준편차보다 추정된 수표면적의 값 흩어짐 정도가 크다는 것을 의미한다.
본 발명에 따른 위성영상을 이용한 저수지 모니터링 방법에서는,
수표면적을 산출하기 위해 전처리된 위성영상에 대해 영상 분류/분할 알고리즘을 실행하는데, 상기 영상 분류/분할 알고리즘으로는 인공신경망(Neural Network), 서포트 벡터 머신 (Support Vect or Machines), 랜덤 포레스트(Random Forest) 기법과, 오츠(Otsu), 워터쉐드(Watershed), 찬-베세(Chan-Vese) 중에서 선택적으로 사용될 수 있으며,
상기 알고리즘 실행 후 수표면적값이 산출되면 서버에 기타 공간정보 보조자료로서 SRTM DEM에서 제공하는 수치 표고모델에 의해 해당지역에 대한 저수량이 산출되어진다.
이와 같이 산출된 수표면적과 저수량은 위성영상 저장 및 관리서버에 저장되고, 이러한 일련의 과정이 일정기간 반복되면서 시계열 자료가 축적된다.
이와같이 일정기간 시계열 자료가 축적되면, 위성영상 저장 및 관리서버에서 수표면적과 저수량의 평균치를 산출하고 최종적으로는 수표면적과 저수량의 표준편차를 산출함으로써, 중,소 저수지에 대한 가뭄 및 수해 발생 가능성을 비교적 정확하게 분석할 수 있는 것이다.
본 발명의 기술적 사상은 바람직한 실시형태에서 구체적으로 기술되었으나, 상기한 실시형태는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 명백한 것이며, 따라서 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.

Claims (14)

  1. 인공위성에서 수신된 영상정보들과, 지상 관측자료에 의한 수치표고모델(DEM)과, 기타 공간보조자료에 의한 토지피복도가 서버에 제공되면, 상기 서버 내에서 전처리 및 영상 분류/분할 알고리즘이 수행됨으로써 저수지 수표면적을 모니터링하는 방법에 관한 것으로,
    위성영상정보를 Sentinel-2 위성 영상처리기로 수신받는 과정과;
    수신된 위성영상정보는 Sentinel-2 위성 영상처리기 내 구비된 프로그램에 의해 수집 및 전처리가 이뤄지는데, 상기 위성영상정보가 다운로드, 대기보정, RGB 영상 생성, KML 생성이 일괄 처리되는 전처리 과정과;
    전처리가 완료된 위성영상정보는 위성영상 저장 및 관리서버로 보내져서, 영상 분류 알고리즘과, 영상 분할 알고리즘이 순차적으로 실행됨에 따라 수표면적이 산출, 저장되는 과정과;
    상기 알고리즘 실행 후 수표면적이 산출되면 서버에 기타 공간정보 보조자료로서 SRTM DEM에서 제공하는 수치 표고모델에 의해 해당지역에 대한 저수량이 산출되는 과정과;
    위 과정들을 일정기간 반복함으로써 수표면적 및 저수량의 시계열 자료들이 축적되는 과정과;
    상기 축적된 시계열 자료들에 의해 수표면적 및 저수량의 평균치 및 표준편차를 산출하는 과정으로 이루어지며,
    Sentinel-2 위성은 다중 분광장비(Multi-Spectral Instrument, MSI)가 탑재되고, 지표면 변화 탐지, 지구물리 변수 산출을 위한 관측을 수행하며, 기후 변화, 지표 모니터링, 재해 감시에 응용하기 위해, Sentinel-2 수집 및 전처리 자동화 모듈은 영상 다운로드, ACOLITE를 연동한 대기 보정, RGB 영상 및 KML 포맷생성이 일괄 처리되는데, 상기 Sentinel-2 위성 영상처리기 내 데몬 프로그램(S2_ver02_demon.py)이 실행되면 사용자에 의해 설정된 간격에 따라 반복적으로 서브프로그램(S2_ver02_sub .py)이 실행되며,
    상기 Sentinel-2 위성영상의 전처리 작업은 영상처리 서버 내 구비되어진 대기보정 프로그램인 ACOLITE를 연동하여 구현하고, ACOLITE는 단파적외(SWIR) 영역 파장대를 이용하여 대기 보정이 가능한 Dark Spectrum Fitting(DSF) 알고리즘을 기반으로 한 대기보정을 적용하며,
    Sentinel-2 Level-1C(L1C) 영상은 대기보정 처리 전 단계인 Top Of Atmosphere(TOA)의 반사율을 제공하므로, ACOLITE로 TOA에 대한 대기보정 처리를 거치면 지표면 반사율에 해당하는 Bottom Of Atmosphere(BOA) 영상을 산출할 수 있으므로, 이러한 과정을 통해 대기의 산란, 흡수로 감쇄된 복사에너지를 보정하여 지표면 반사도를 산출한 Sentinel-2 영상을 생성하며,
    이와 같이 대기보정이 적용된 Sentinel-2 위성영상은 RGB 합성영상을 형성한 후 히스토그램 스트레칭 기법을 적용하여 KML 포맷이 생성되며,
    상기 수표면적 산출, 저장과정에서는 영상 자르기, 스펙클 필터링, 영상 데시벨 변환이 순차적으로 이루어지는데, 상기 영상 자르기에서는 OTSU에 의한 영상 분할 알고리즘 전에, 일반적인 객체 식별을 위해 객체 종류별 분류를 위한 영상 분류 알고리즘이 선행되며,
    상기 영상 분류 알고리즘은 위성영상의 각 지점을 여러 개의 클래스로 지정하여 화소(pixel)단위의 영상을 클래스(class)로 분류하여 정보를 생산하는 작업으로서, 각 클래스에 속하는 표본 화소들이 주어지는 감독 분류방법과, 클래스에 속하는 화소들이 지정되지 않는 무감독 분류방법이 선택적으로 사용됨을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  2. 제 1항에 있어서,
    상기 수표면적 산출, 저장 과정에서는 영상 분류 알고리즘으로 감독 분류방법이 사용되고, 이는 훈련단계, 분류단계, 출력단계로 진행되는데,
    훈련단계는 영상 내에서 각 클래스를 대표하는 훈련 자료를 추출하는 것으로 훈련자료를 이용하여 분류단계에서 사용할 특징을 추출하고, 분류단계는 훈련자료를 기반으로 분류 알고리즘을 통하여 영상 내의 각 화소와 각 클래스 간의 유사도를 분석하는 단계이며, 출력단계는 가장 유사한 클래스로 화소를 할당하여 주제도를 생성하는 단계임을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  3. 제 2항에 있어서,
    상기 감독 분류방법으로는 인공신경망(Neural Network), 서포트 벡터 머신 (Support Vector Machines), 랜덤 포레스트(Random Forest) 기법이 선택적으로 사용됨을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제 1항에 있어서,
    상기 영상 자르기는, 연구대상 지역의 수체영역을 효과적으로 추출하기 위하여 목표물 외의 복잡한 지형물체가 없어야하고 효율적인 컴퓨팅 자원을 운용하기 위하여 연구대상 저수지 지역의 추출이 필요하므로, 지형보정된 SAR 위성영상과 같은 좌표계의 벡터 파일을 이용하여 연구대상 지역의 저수지만 추출하는 작업을 수행함을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  12. 제 1항에 있어서,
    스펙클 노이즈는 관측대상지역의 산란체로부터 반사되는 전파의 간섭으로 인해 SAR 영상에서 오돌토돌하게 나타나는 노이즈로서,
    스펙클 필터링은 스펙클 영향을 감소시켜 SAR영상 품질을 증가시키는 절차인데, 상기 전처리 과정 이후, 상기 수표면적 산출, 저장과정에서 영상 자르기와 영상 데시벨 변환과정 사이에 진행됨을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  13. 제 1항에 있어서,
    상기 영상 데시벨 변환(Linear Signal to dB)은 단위가 없는 영상의 후방산란계수 값을 로그 변환(log transformation)을 이용하여 데시벨(dB)로 치환하는 과정임을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
  14. 제 1항에 있어서,
    상기 영상 분할 알고리즘으로는 오츠(Otsu) 대신에 워터쉐드(Watershed), 찬-베세(Chan-Vese) 중에서 어느 하나를 사용한 것을 특징으로 하는 위성영상을 이용한 저수지 모니터링 방법.
KR1020220132238A 2022-10-14 2022-10-14 위성영상을 이용한 저수지 모니터링 방법 KR102540762B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220132238A KR102540762B1 (ko) 2022-10-14 2022-10-14 위성영상을 이용한 저수지 모니터링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220132238A KR102540762B1 (ko) 2022-10-14 2022-10-14 위성영상을 이용한 저수지 모니터링 방법

Publications (1)

Publication Number Publication Date
KR102540762B1 true KR102540762B1 (ko) 2023-06-14

Family

ID=86744589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220132238A KR102540762B1 (ko) 2022-10-14 2022-10-14 위성영상을 이용한 저수지 모니터링 방법

Country Status (1)

Country Link
KR (1) KR102540762B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116597013A (zh) * 2023-07-17 2023-08-15 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法
CN116879237A (zh) * 2023-09-04 2023-10-13 自然资源部第二海洋研究所 一种近海浑浊水体的大气校正方法
CN116935238A (zh) * 2023-07-07 2023-10-24 滁州学院 基于深度学习的森林扰动监测方法、系统、设备及介质
CN117575970A (zh) * 2024-01-15 2024-02-20 航天宏图信息技术股份有限公司 基于分类的卫星影像自动处理方法、装置、设备及介质
CN117668497A (zh) * 2024-01-31 2024-03-08 山西卓昇环保科技有限公司 基于深度学习实现环境保护下的碳排放分析方法及系统
CN117726043A (zh) * 2024-02-05 2024-03-19 中科信德建设有限公司 一种水库水情自动测报及预报方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000038273A (ko) 1998-12-04 2000-07-05 위은수 통신망을 이용한 재해감시장치와 구축방법
KR20100011549A (ko) * 2008-07-25 2010-02-03 정용승 인공위성을 이용한 황해 대기오염과 황사의 모니터링 기술
KR20130007220A (ko) 2011-06-30 2013-01-18 한성균 휴대형 위성통신기와 이동 통신망에 사용되는 무선데이타통신용 안테나 및 스마트 모바일 단말기의 앱 프로그램으로 구성되는 위성통신망을 이용한 긴급통신 및 위성방송 송수신 방법
KR20200063682A (ko) * 2018-11-28 2020-06-05 홍익대학교 산학협력단 인공위성 영상을 이용한 하천의 유량추정방법 및 장치
KR20220045375A (ko) * 2020-10-05 2022-04-12 한국항공우주연구원 위성 영상의 지표면 반사도 산출 시스템 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000038273A (ko) 1998-12-04 2000-07-05 위은수 통신망을 이용한 재해감시장치와 구축방법
KR20100011549A (ko) * 2008-07-25 2010-02-03 정용승 인공위성을 이용한 황해 대기오염과 황사의 모니터링 기술
KR20130007220A (ko) 2011-06-30 2013-01-18 한성균 휴대형 위성통신기와 이동 통신망에 사용되는 무선데이타통신용 안테나 및 스마트 모바일 단말기의 앱 프로그램으로 구성되는 위성통신망을 이용한 긴급통신 및 위성방송 송수신 방법
KR20200063682A (ko) * 2018-11-28 2020-06-05 홍익대학교 산학협력단 인공위성 영상을 이용한 하천의 유량추정방법 및 장치
KR20220045375A (ko) * 2020-10-05 2022-04-12 한국항공우주연구원 위성 영상의 지표면 반사도 산출 시스템 및 그 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
이권호 외 2명, "인공위성 원격탐사를 이용한 대기보정 기술 고찰", 대한원격탐사학회, 대한원격탐사학회지 제35권 제6호, 2019년 12월 31일 *
이달근 외 3명, "Sentinel-1 위성영상을 이용한 수표면 면적 추정 알고리즘에 관한 연구", 대한원격탐사학회, 대학원격탐사학회지 제35권 제5호, 2019년 12월 31일* *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935238A (zh) * 2023-07-07 2023-10-24 滁州学院 基于深度学习的森林扰动监测方法、系统、设备及介质
CN116935238B (zh) * 2023-07-07 2024-02-23 滁州学院 基于深度学习的森林扰动监测方法、系统、设备及介质
CN116597013A (zh) * 2023-07-17 2023-08-15 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法
CN116597013B (zh) * 2023-07-17 2023-09-26 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法
CN116879237A (zh) * 2023-09-04 2023-10-13 自然资源部第二海洋研究所 一种近海浑浊水体的大气校正方法
CN116879237B (zh) * 2023-09-04 2023-12-12 自然资源部第二海洋研究所 一种近海浑浊水体的大气校正方法
CN117575970A (zh) * 2024-01-15 2024-02-20 航天宏图信息技术股份有限公司 基于分类的卫星影像自动处理方法、装置、设备及介质
CN117575970B (zh) * 2024-01-15 2024-04-16 航天宏图信息技术股份有限公司 基于分类的卫星影像自动处理方法、装置、设备及介质
CN117668497A (zh) * 2024-01-31 2024-03-08 山西卓昇环保科技有限公司 基于深度学习实现环境保护下的碳排放分析方法及系统
CN117668497B (zh) * 2024-01-31 2024-05-07 山西卓昇环保科技有限公司 基于深度学习实现环境保护下的碳排放分析方法及系统
CN117726043A (zh) * 2024-02-05 2024-03-19 中科信德建设有限公司 一种水库水情自动测报及预报方法
CN117726043B (zh) * 2024-02-05 2024-05-03 中水君信工程勘察设计有限公司 一种水库水情自动测报及预报方法

Similar Documents

Publication Publication Date Title
KR102540762B1 (ko) 위성영상을 이용한 저수지 모니터링 방법
Chughtai et al. A review on change detection method and accuracy assessment for land use land cover
McAllister et al. Multispectral satellite imagery and machine learning for the extraction of shoreline indicators
CN107463901B (zh) 多尺度区域洪涝灾害危险性遥感评估方法和系统
Schumann et al. Microwave remote sensing of flood inundation
Al Najar et al. Satellite derived bathymetry using deep learning
KR102496740B1 (ko) 위성영상 기반 저수지 수표면적 분석 시스템 및 방법
Jo et al. Deep learning applications on multitemporal SAR (Sentinel-1) image classification using confined labeled data: The case of detecting rice paddy in South Korea
Schumann et al. The use of radar imagery in riverine flood inundation studies
Lê et al. Multiscale framework for rapid change analysis from SAR image time series: Case study of flood monitoring in the central coast regions of Vietnam
Zhao et al. Change detection method of high resolution remote sensing image based on DS evidence theory feature fusion
Guo et al. Mozambique flood (2019) caused by tropical cyclone idai monitored from sentinel-1 and sentinel-2 images
Malinowski et al. Do remote sensing mapping practices adequately address localized flooding? A critical overview
Lei et al. A novel algorithm of individual tree crowns segmentation considering three-dimensional canopy attributes using UAV oblique photos
Barkhade et al. Flood extent mapping with unmanned aerial vehicles data using deep convolutional neural network
Tsyganskaya et al. A fuzzy logic-based approach for the detection of flooded vegetation by means of synthetic aperture radar data
Ran et al. The status and influencing factors of surface water dynamics on the Qinghai-Tibet plateau during 2000–2020
Sami et al. Synthetic aperture radar image classification: A survey
Nasiri et al. Integration of radar and optical sentinel images for land use mapping in a complex landscape (case study: Arasbaran Protected Area)
Wang et al. Remote Sensing Satellite Image-Based Monitoring of Agricultural Ecosystem
Storch et al. Detecting Historical Terrain Anomalies With UAV-LiDAR Data Using Spline-Approximation and Support Vector Machines
Amitrano et al. Flood Detection with SAR: A Review of Techniques and Datasets
Hedir et al. Automatic system for radar echoes filtering based on textural features and artificial intelligence
Rana et al. HYBRID TECHNIQUE FOR DETECTION OF WATER USING SATELLITE IMAGES.
Bürgmann Investigating the Separability of Slums in Mumbai based on RADARSAT Images using Object-based Image Analysis Methods

Legal Events

Date Code Title Description
GRNT Written decision to grant