KR20200059521A - 산사태 발생 영역 자동 탐지 장치 및 탐지 방법 - Google Patents

산사태 발생 영역 자동 탐지 장치 및 탐지 방법 Download PDF

Info

Publication number
KR20200059521A
KR20200059521A KR1020180144350A KR20180144350A KR20200059521A KR 20200059521 A KR20200059521 A KR 20200059521A KR 1020180144350 A KR1020180144350 A KR 1020180144350A KR 20180144350 A KR20180144350 A KR 20180144350A KR 20200059521 A KR20200059521 A KR 20200059521A
Authority
KR
South Korea
Prior art keywords
vegetation
image
landslide
area
reference image
Prior art date
Application number
KR1020180144350A
Other languages
English (en)
Other versions
KR102177985B1 (ko
Inventor
우충식
김기대
김동엽
이창우
이종혁
Original Assignee
대한민국(산림청 국립산림과학원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(산림청 국립산림과학원장) filed Critical 대한민국(산림청 국립산림과학원장)
Priority to KR1020180144350A priority Critical patent/KR102177985B1/ko
Publication of KR20200059521A publication Critical patent/KR20200059521A/ko
Application granted granted Critical
Publication of KR102177985B1 publication Critical patent/KR102177985B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • G01C2011/36
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 따르면, 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성하는 판정 영역 생성부 및 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단하는 유효성 판단부를 포함하여 산사태 피해영역 탐지의 정확성을 높이는 산사태 발생 영역 자동 탐지 장치 및 탐지 방법이 개시된다.

Description

산사태 발생 영역 자동 탐지 장치 및 탐지 방법{Apparatus and Method for Automatically Detecting Landslide Area}
본 발명은 무인 비행체를 활용하여 산사태 발생 영역을 탐지하기 위한 산사태 발생 영역 자동 탐지 장치 및 탐지 방법에 관한 것이다.
방재기술은 4차 산업혁명에 따라 무인기와 같은 첨단과학기술과 연계되고 있다.
근래에는 무인기를 이용하여 항공촬영 등을 수행하고, 촬영된 영상을 이용한 특정지역의 산사태 탐지 및 감시 연구가 진행되고 있다.
그러나 산사태 피해영역을 자동으로 탐지함에 있어, 무인기 영상만을 사용하는 경우 기존의 산림이 아니었던 곳도 산사태 피해영역과 유사한 분광학적 특성을 가지는 어려운 점이 있다. 따라서 산사태 발생 이전에, 동일 영역을 촬영한 위성영상과 비교하여 산사태 피해영역을 탐지하는 방식이 필요하다.
본 발명은 산사태 발생 영역 자동 탐지 장치 및 탐지 방법으로 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성하는 판정 영역 생성부 및 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단하는 유효성 판단부를 포함하여 산사태 피해영역 탐지의 정확성을 높이는데 그 목적이 있다.
또한, 무인기(UAV)와의 연결을 통해 빠른 시간에 현장에 투입하여 산사태에 대한 현황파악 및 정보취득을 가능하게 하는데 또 다른 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
상기 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치는, 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성하는 판정 영역 생성부 및 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단하는 유효성 판단부를 포함하며, 상기 식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이다.
또한, 무인 비행체의 촬영 장치로부터 수집한 상기 산사태 발생 영역이 포함된 원 영상(original image)으로부터 상기 정사영상(ortho image)을 생성하는 정사영상 생성부를 더 포함한다.
여기서, 상기 판정 영역 생성부는, 상기 산사태 발생 영역이 포함된 정사영상을 판독하여, 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 상기 공간 정보를 추출하는 공간 정보 추출부, 상기 산사태 발생 영역이 포함된 정사영상을 분광대별로 분류하는 다중 분광 분류부 및 분광대별로 분류된 상기 정사영상에서, 추출된 상기 공간 정보에 해당하는 부분에 영상소를 할당하여 판정 영역 후보를 생성하는 공간 정보 매핑부를 포함한다.
또한, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 위성 영상 처리부를 더 포함한다.
여기서, 상기 위성 영상 처리부는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하는 식생 기준 영상 선정부, 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성하는 영상 크롭핑부, 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장하는 해상도 보정부 및 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 식생 기준 영상 데이터 획득부를 포함한다.
여기서, 상기 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하는 것이다.
여기서, 상기 식생 기준 영상 선정부는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집하는 수집부, 수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류하는 촬영 시점 비교부, 상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류하는 식생 확인 기간 분류부, 상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류하는 영역 비교부를 포함하며, 상기 식생 기준 영상은, 상기 제1 채택 조건 내지 제3 채택 조건을 만족하는 영상이다.
여기서, 상기 유효성 판단부는, 상기 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 식생 지수를 산사태 발생 시점 이전인 상기 식생 기준 영상 데이터 값과 각각 비교하여, 상기 식생 기준 영상 데이터 값이 상기 식생 지수에 비해 높은 곳을 산사태 발생 영역으로 판정한다.
본 발명의 일 실시예에 따른 산불 탐지 파라미터 생성 방법은, 정사영상 생성부가 무인 비행체의 촬영 장치로부터 수집한 산사태 발생 영역이 포함된 원 영상(original image)으로부터 정사영상(ortho image)을 생성하는 단계, 위성 영상 처리부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 단계 및 유효성 판단부가 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜 생성된 판정 영역 후보들의 유효성을 판단하는 단계를 포함하며, 상기 식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이고, 상기 공간 정보는 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함한다.
여기서, 상기 식생 기준 영상 데이터를 얻는 단계는, 식생 기준 영상 선정부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하는 단계, 영상 크롭핑부가 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성하는 단계, 해상도 보정부가 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장하는 단계 및 식생 기준 영상 데이터 획득부가 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 단계를 포함한다.
여기서, 상기 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하는 것이다.
여기서, 상기 식생 기준 영상을 선정하는 단계는, 수집부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집하는 단계, 촬영 시점 비교부가 수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류하는 단계, 식생 확인 기간 분류부가 상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류하는 단계, 영역 비교부가 상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류하는 단계를 포함하며, 상기 식생 기준 영상은, 상기 제1 채택 조건 내지 제3 채택 조건이다.
여기서, 상기 판정 영역 후보들의 유효성을 판단하는 단계는, 상기 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 식생 지수를 산사태 발생 시점 이전인 상기 식생 기준 영상 데이터 값과 각각 비교하여, 상기 식생 기준 영상 데이터 값이 상기 식생 지수에 비해 높은 곳을 산사태 발생 영역으로 판정한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성하는 판정 영역 생성부 및 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단하는 유효성 판단부를 포함하여 산사태 피해영역 탐지의 정확성을 높일 수 있다.
또한, 무인기(UAV)와의 연결을 통해 빠른 시간에 현장에 투입하여 산사태에 대한 현황파악 및 정보취득을 가능하게 할 수 있다.
또한, 무인기 영상과 위성 영상을 사용하여 산사태 피해영역과 유사한 분광학적 특성을 가지는 기존의 산림이 아니었던 영역을 구별할 수 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 판정 영역 생성부를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 위성 영상 처리부를 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 식생 기준 영상 선정부를 나타내는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 유효성 판단부를 나타내는 블록도이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 식생 기준 영상 선정부의 프로세스를 나타내는 흐름도이다.
도 10 내지 도 14는 본 발명의 일 실시예에 따른 탐지 영상을 나타내는 도면이다.
이하, 본 발명에 관련된 산사태 발생 영역 자동 탐지 장치 및 탐지 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명은 산사태 발생 영역 자동 탐지 장치 및 탐지 방법에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치를 나타내는 블록도이다.
도 1을 참조하면, 산사태 발생 영역 자동 탐지 장치(10)는 정사영상 생성부(100), 판정 영역 생성부(200), 위성 영상 처리부(300), 유효성 판단부(400)를 포함한다.
본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치(10)는 무인기 촬영 영상으로부터 산사태 발생 영역을 탐지하는 장치이다.
산사태 피해영역을 자동으로 탐지함에 있어, 무인기 영상만을 사용하는 경우 기존의 산림이 아니었던 곳도 산사태 피해영역과 유사한 분광학적 특성을 가지는 어려운 점이 있다.
산사태 발생 영역 자동 탐지 장치(10)는 산사태 발생 이전에 동일 영역을 촬영한 위성영상과 비교하여 산사태 피해영역을 탐지하는 기술을 이용하여, 산사태 피해영역과 유사한 분광학적 특성을 가지는 기존의 산림이 아니었던 영역을 구별할 수 있다.
또한, 무인기(UAV)와의 연결을 통해 빠른 시간에 현장에 투입하여 산사태에 대한 현황파악 및 정보취득을 가능하게 할 수 있다.
정사영상 생성부(100)는 무인 비행체의 촬영 장치로부터 수집한 상기 산사태 발생 영역이 포함된 원 영상(original image)으로부터 상기 정사영상(ortho image)을 생성한다.
산사태 영역을 무인기의 다중밴드 카메라가 촬영하고, 정사영상 생성부(100)는 정사 모자익 영상을 생성한다. Pix4D 등을 이용하여 정사영상(영상 A)을 제작할 수 있다.
정사영상 생성부(100)는 감지기의 비정사적 기학을 갖고 있어 생기는 높이차나 기울어짐 등 지형으로 생긴 기하학적인 왜곡을 보정하여 지리 좌표계, 즉 정사 좌표계로 변환한다.
판정 영역 생성부(200)는 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성한다.
판정 영역 생성부(200)는 산사태 발생영역을 무인기 촬영 영상으로부터 산사태를 검출하는 과정으로 무인기 촬영 영상을 감독 분류하여 산사태 영역을 1차로 분류한다.
위성 영상 처리부(300)는 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다. 위성 영상들은 Sentinel-2 위성 영상을 사용하는 것이 바람직하다.
유효성 판단부(400)는 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단한다.
식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이다.
유효성 판단부(400)는 정사영상(영상 A)에서 산사태 발생영역으로 분류된 영역 중 과거 식생지수(NDVI)가 특정 값 이상인 영역을 산사태영역으로 판정한다.
판정 영역 생성부(200)에서 감독 분류를 수행하여 산사태 영역이라고 분류된 곳 중에서 산사태 발생 이전에 식생 지수(NDVI)가 높았던 곳, 즉 산사태 이전에는 숲이었던 곳을 산사태 피해지로 규정한다. 예를 들어, 마을이 있는 곳은 감독분류에서 산사태 피해지와 비슷한 분광특성을 보여 산사태 피해지로 잘못 분류될 수 있으나, 이런 곳은 과거 영상에서도 NDVI가 낮게 나오기 때문에 과거에도 산림이 아니었고, 결과적으로 산사태 피해지가 아니게 된다.
이후 산사태 판정 영역에 대하여 다각형을 생성하여 데이터 베이스(500)에 저장한다. 산사태 피해지로 분류된 곳에 대하여 다각형(Polygon)을 생성하고, 향후 다른 작업에서 이를 활용하기 위한 것이다.
도 2는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 판정 영역 생성부를 나타내는 블록도이다.
도 2를 참조하면, 산사태 발생 영역 자동 탐지 장치(10)의 판정 영역 생성부(200)는 공간 정보 추출부(210), 다중 분광 분류부(220), 공간 정보 매핑부(230)를 포함한다.
판정 영역 생성부(200)는 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성한다.
공간 정보 추출부(210)는 상기 산사태 발생 영역이 포함된 정사영상을 판독하여, 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 상기 공간 정보를 추출한다.
구체적으로, 정사 영상(영상 A)에서 산사태 영역에 대한 사용자 관심 영역(Region of Inerest, ROI)을 입력하여 판독한다. 정사 영상(영상 A)에 대하여 판독부가 트레이닝 샘플 관심 영역(ROI)을 공간 정보로 지정한다.
샘플 관심 영역(ROI)을 공간 정보로 지정하는 것은 포인트 기반으로 설정하거나 선 기반으로 설정할 수 있다.
샘플 영역은 영상 내에서 산사태 영역을 판단하고, 해당 영역의 일부분들을 샘플로 ROI(Region of Interest, 관심영역)로 지정한 영역이다.
샘플 영역으로 지정한 영역 내에서 구체적인 산사태 발생 지점을 관심 지점(Point of Interest, PoI)으로 지정할 수 있으며, 샘플 영역의 산사태 발생 정보를 관심 객체 정보(Object of Interest, OoI)등으로 추출하여 분석할 수 있다.
트레이닝 샘플 관심 영역(ROI)을 공간 정보로 지정한 후, 다중 분광 분류부(220)가 감독 분류를 수행할 수 있다.
다중 분광 분류부(220)는 상기 산사태 발생 영역이 포함된 정사영상을 분광대별로 분류한다.
다중 분광 분류부는 여러 종류의 분광 영역 영상을 통해 지구 표면의 특성을 파악할 수 있도록 분광대별로 영상을 분류하는 작업을 수행한다. 분광이란 빛이 파장의 차이에 따라 여러 색으로 나누어지는 현상이다. 한편 분광 영역은 가시 영역, x선 영역, 적외선 영역 등과 같이 전체 전자파 스펙트럼을 편리하게 나눈 파장 영역이며, 분광대(Spectral band)는 0.5∼0.6㎛처럼 전자파의 분광 영역에서 연속적으로 규정된 한 파장 영역이다.
본 발명의 일 실시예에 따른 산사태 탐지 장치는 분광 영역의 특징(Spectral signature)을 이용하여 지구 표면에 있는 한 대상물 혹은 대상물 집단의 파장별 특성이나 자연 경관의 복잡한 파장별 표현 문제를 단순화하는 방법으로 사용하는 것이다.
공간 정보 매핑부(230)는 분광대별로 분류된 상기 정사영상에서, 추출된 상기 공간 정보에 해당하는 부분에 영상소를 할당하여 판정 영역 후보를 생성한다.
다중 분광 분류부(220)와 공간 정보 매핑부(230)는 최대 우도 분류법에 의해 정사 영상(영상 A) 전역의 화소를 분류하게 된다.
최대 우도 분류 기술은 영상 분류 기술로써 이 방법은 우선적으로 수집한 자료들을 이용해서 각 클래스에 대한 분산 및 공분산과 각 분광 영역에 대한 평균값을 계산한 후 결과적으로 얻어진 확률함수를 사용하여 각각의 영상소가 각 클래스에 속하게 될 확률을 계산하는 방법이다. 그 다음으로는 가장 큰 확률을 가지는 클래스에 영상소를 할당하게 된다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 위성 영상 처리부를 나타내는 블록도이다.
도 3을 참조하면, 산사태 발생 영역 자동 탐지 장치(10)의 위성 영상 처리부(300)는 식생 기준 영상 선정부(310), 영상 크롭핑부(320), 해상도 보정부(330), 식생 기준 영상 데이터 획득부(340)를 포함한다.
위성 영상 처리부(300)는 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다.
식생 기준 영상 선정부(310)는 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정한다.
구체적으로, Sentinel-2 위성 영상 중 식생 기준영상을 채택하며, 식생 기준 영상 선정 프로세스에 의해 채택 조건을 만족하는 Sentinel-2 위성 영상을 선택하여 식생 기준 영상(영상 B)로 지정한다.
영상 크롭핑부(320)는 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성한다.
화각은 일정한 화면 내에 촬영 가능한 피사체의 범위를 광학계의 각도로 표시한 것이다. 일반적으로는 화면의 최대 직경으로 표시한다.
영상 크롭핑부(320)는 식생 기준 영상(영상 B)의 영역 중 정사영상(영상 A)에 해당하는 위치 잘라내며, 잘려진 영상은 크롭핑 영상(영상 B1)이다.
일반적으로 위성 영상에 포함된 영역이 무인기 촬영 영역에 비해 훨씬 넓다. 위성 영상은 오직 무인기 영상의 과거 비교자료로만 사용되므로, 위성 영상 중 무인기 촬영 영역 바깥쪽은 사용되지 않는다.
또한, 이후 해상도 일치를 위해 위성영상을 고해상도로 만들 때, 용량이 과도하게 커져서 시스템에 부담이 되지 않도록 무인기에서 촬영한 영상인 정사영상 (영상 A)에 해당하는 지역만 잘라내는 것이다.
해상도 보정부(330)는 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장한다.
해상도 보정부(330)는 크롭핑 영상(영상 B1)의 해상도를 높여 정사영상(영상 A)와 해상도를 일치시킨다. 해상도가 높아진 영상은 보정 식생 기준 영상(영상 B2)이다. 일반적으로 무인기 영상의 해상도는 위성 영상의 해상도보다 높으므로, 잘라낸 위성영상인 크롭핑 영상(영상 B1)의 해상도를 높여 무인기 영상(영상 A)와 같은 해상도로 맞추게 된다.
식생 기준 영상 데이터 획득부(340)는 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다.
식생 기준 영상 데이터 획득부(340)는 보정 식생 기준 영상(영상 B2)에 대해서 식생지수(NDVI)를 계산한다.
식생 기준 영상 데이터는 산사태 발생 이전에도 식생지수가 낮았던 곳 즉, 산사태 피해가 원인이 아닌 원래부터 인공물이었거나 숲이 아니었던 곳을 구분하기 위해 사용된다.
식생 지수는 식생의 활력도와 생육 현황을 나타내는 지표이다. 원격 탐사 자료의 가시 광선과 근적외선 반사율 비율을 이용하여 구한다.
본 발명의 일 실시예에 따른 식생 기준 영상 데이터 획득부(340)의 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하며, 수학식 1로 구현된다.
Figure pat00001
여기서, D는 식생 기준 영상 데이터, NIR은 보정 식생 기준 영상의 근적외선 밴드 값, Red는 보정 식생 기준 영상의 적색광 밴드 값이다.
본 발명의 일 실시예에 따른 식생 기준 영상 데이터를 이용하여 보정 식생 기준 영상에 포함되는 녹색식물의 상대적 분포량과 활동성, 엽면적지수, 엽록소함량, 엽량 및 광합성 흡수복사량(APAR) 등과 관련된 지표를 구할 수 있다.
또한, 공간적 시간적으로 일정한 비교가 가능하도록 태양각도, 촬영각도, 대기상태 등의 외부 효과를 더 고려하여 정규화하거나 모의할 수 있다.
또한, 생체량, 엽면적지수 및 광합성 흡수복사량 등 측정이 가능한 식물의 생물리적 인자들과 연관지어 식생 기준 영상 데이터의 정확성을 높일 수 있다.
도 4를 참조하면, 영상 크롭핑부(320)는 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성한다.
정사영상(영상 A)는 정사영상 생성부(100)에서 산사태 영역을 무인기의 다중밴드 카메라가 촬영한 영상을 이용하여 생성되는 정사 모자익 영상이다.
식생 기준 영상(영상 B)는 식생 기준 영상 선정부(310)가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상을 선정한 영상이다.
영상 크롭핑부(320)는 식생 기준 영상(영상 B)의 영역 중 정사영상(영상 A)에 해당하는 위치 잘라내며, 잘려진 영상은 크롭핑 영상(영상 B1)이다.
일반적으로 위성 영상에 포함된 영역이 무인기 촬영 영역에 비해 훨씬 넓다. 위성 영상은 오직 무인기 영상의 과거 비교자료로만 사용되므로, 위성 영상 중 무인기 촬영 영역 바깥쪽은 사용되지 않는다.
또한, 이후 해상도 일치를 위해 위성영상을 고해상도로 만들 때, 용량이 과도하게 커져서 시스템에 부담이 되지 않도록 무인기에서 촬영한 영상인 정사영상 (영상 A)에 해당하는 지역만 잘라내는 것이다.
해상도 보정부(330)는 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장한다.
해상도 보정부(330)는 크롭핑 영상(영상 B1)의 해상도를 높여 정사영상(영상 A)와 해상도를 일치시킨다. 해상도가 높아진 영상은 보정 식생 기준 영상(영상 B2)이다. 일반적으로 무인기 영상의 해상도는 위성 영상의 해상도보다 높으므로, 잘라낸 위성영상인 크롭핑 영상(영상 B1)의 해상도를 높여 무인기 영상(영상 A)와 같은 해상도로 맞추게 된다.
식생 기준 영상 데이터 획득부(340)는 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다.
식생 기준 영상 데이터 획득부(340)는 보정 식생 기준 영상(영상 B2)에 대해서 식생지수(NDVI)를 계산한다.
식생 지수는 식생의 활력도와 생육 현황을 나타내는 지표이다. 원격 탐사 자료의 가시 광선과 근적외선 반사율 비율을 이용하여 구한다.
본 발명의 일 실시예에 따른 식생 기준 영상 데이터 획득부(340)의 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하며, 상기 수학식 1로 구현된다.
도 5는 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 식생 기준 영상 선정부를 나타내는 블록도이다.
도 5를 참조하면, 식생 기준 영상 선정부(310)는 수집부(311), 촬영 시점 비교부(312), 식생 확인 기간 분류부(313), 영역 비교부(314)를 포함한다.
식생 기준 영상 선정부(310)는 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정한다.
산사태 영역 중 과거영상(위성영상)에서 식생 값이 낮은 영역을 제거하는 과정, 해당과정 내 과거영상으로 사용되는 위성 영상들 중에서, 과거에 촬영되었고, 산사태 발생 영역에 해당하는 영상 중에서 계절적으로 식생이 명확하게 드러나는 늦봄~초가을의 시간 기간 영상을 검색하여, 식생 기준 영상을 선정한다.
수집부(311)는 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집한다.
수집부(311)는 Sentinel-2 영상을 보유하며, 영상 각각에 대하여 최근 영상부터 검토를 실시하게 된다.
촬영 시점 비교부(312)는 수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류한다.
산사태 발생 시점 이전의 위성 영상을 분류하는 것은, 산사태 이전의 상태가 어땠는지 확인하기 위한 것이므로 제1 채택 조건을 만족하는 영상은 위성 촬영 시점이 산사태 이전이어야 하는 조건을 만족하는 것이다.
식생 확인 기간 분류부(313)는 상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류한다.
식생 확인 기간 분류부(313)는 촬영 시점이 식생을 확인하기 용이한 4월~9월 사이인지를 판단한다. 산사태 이전의 상태 중 식생(NDVI)을 확인하고자 하는 것이므로, 4월~9월 사이의 영상으로 선정하는 것이 바람직하다.
영역 비교부(314)는 상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류한다.
영역 비교부(314)는 정사 영상의 촬영 영역을 포함하는지를 판단한다. 본 발명의 일 실시예에 따른 산사태 탐지 장치는 무인기로 촬영한 산사태 영역과 비교를 하기 위함이므로, 위성 영상은 반드시 무인기 영상의 촬영 영역을 포함하는 것이 바람직하다.
식생 기준 영상은, 상기 제1 채택 조건 내지 제3 채택 조건을 만족하는 영상이다.
또한, 산사태 발생 영역에 해당하는 위성 영상 위치가 촬영되었는지 판단하는 매칭 확인부를 더 포함할 수 있다.
매칭 확인부는 무인기 촬영 영역과 비교할 수 있도록, 위성영상에서 무인기 촬영영역에 해당하는 부분은 구름이 없어야 하므로, 구름의 여부를 제4 채택 조건으로 마련하여 영상을 분류한다.
여기서, 구름이 존재하더라도 무인기 촬영영역과 동일한 공간이라면, 시간적 분포는 관계 없다. 식생지수 산출을 위해 식생생육이 활발한 4-9월 사이의 위성영상을 사용한다.
도 6은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 장치의 유효성 판단부를 나타내는 블록도이다.
도 6을 참조하면, 유효성 판단부(400)는 식생 지수 확인부(410), 식생 지수 비교부(420)를 포함한다.
유효성 판단부(400)는 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단한다.
식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이다.
식생 지수 확인부(410)는 정사영상(영상 A)에서 산사태 발생영역으로 분류된 영역 중 과거 식생지수(NDVI) 데이터를 수집한다.
식생 지수는 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 식생 지수이다.
식생 지수 비교부(420)는 식생 기준 영상 데이터와 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 과거 식생 지수를 비교하여, 식생 기준 영상 데이터 값이 식생 지수에 비해 높은 곳을 산사태 발생 영역으로 판정한다.
구체적으로, 판정 영역 생성부(200)에서 감독 분류를 수행하여 산사태 영역이라고 분류된 곳 중에서 산사태 발생 이전에 식생 지수(NDVI)가 높았던 곳, 즉 산사태 이전에는 숲이었던 곳을 산사태 피해지로 규정한다. 예를 들어, 마을이 있는 곳은 감독분류에서 산사태 피해지와 비슷한 분광특성을 보여 산사태 피해지로 잘못 분류될 수 있으나, 이런 곳은 과거 영상에서도 NDVI가 낮게 나오기 때문에 과거에도 산림이 아니었고, 결과적으로 산사태 피해지가 아니게 된다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 방법을 나타내는 흐름도이다.
산사태 발생 영역 자동 탐지 방법은 무인기 촬영 영상으로부터 산사태 발생 영역을 탐지하는 방법이다.
본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 방법은 산사태 발생 이전에 동일 영역을 촬영한 위성영상과 비교하여 산사태 피해영역을 탐지하는 기술을 이용하여, 산사태 피해영역과 유사한 분광학적 특성을 가지는 기존의 산림이 아니었던 영역을 구별할 수 있다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 방법은 정사영상 생성부(100)가 목적 영역에 대하여 이미 촬영된 서로 다른 종류의 트레이닝 산불 영상들을 수집하는 단계(S100)에서 시작한다.
단계 S100에서 산사태 영역을 무인기의 다중밴드 카메라가 촬영하고, 정사영상 생성부(100)는 정사 모자익 영상을 생성한다. Pix4D 등을 이용하여 정사영상(영상 A)을 제작할 수 있다.
단계 S300에서 위성 영상 처리부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다.
단계 S400에서 유효성 판단부가 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜 생성된 판정 영역 후보들의 유효성을 판단한다.
여기서, 식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이고, 상기 공간 정보는 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 정보이다.
도 8을 참조하면, 본 발명의 일 실시예에 따른 산사태 발생 영역 자동 탐지 방법은 정사영상 생성부(100)가 무인기의 다중밴드 카메라가 촬영한 영상을 입력 받는 단계(S110)에서 시작한다.
단계 S120에서 정사영상 생성부(100)는 무인 비행체의 촬영 장치로부터 수집한 상기 산사태 발생 영역이 포함된 원 영상(original image)으로부터 상기 정사영상(ortho image)을 생성한다.
이후 무인기 영상 처리 과정과 과거 위성 영상(Sentinel-2) 처리 과정은 처리 순서에 상관 없이 독자적으로 진행되는 것이 바람직하다.
단계 S210에서 공간 정보 추출부(210)는 상기 산사태 발생 영역이 포함된 정사영상을 판독하여, 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 상기 공간 정보를 추출한다.
구체적으로, 정사 영상(영상 A)에서 산사태 영역에 대한 사용자 관심 영역(Region of Inerest, ROI)을 입력하여 판독한다. 정사 영상(영상 A)에 대하여 판독부가 트레이닝 샘플 관심 영역(ROI)을 공간 정보로 지정한다.
샘플 관심 영역(ROI)을 공간 정보로 지정하는 것은 포인트 기반으로 설정하거나 선 기반으로 설정할 수 있다.
단계 S230에서 공간 정보 매핑부(230)는 분광대별로 분류된 상기 정사영상에서, 추출된 상기 공간 정보에 해당하는 부분에 영상소를 할당하여 판정 영역 후보를 생성한다.
공간 정보 매핑부(230)는 최대 우도 분류법에 의해 정사 영상(영상 A) 전역의 화소를 분류하게 된다.
단계 S310에서 식생 기준 영상 선정부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정한다.
단계 S320에서 영상 크롭핑부가 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성한다.
단계 S330에서 해상도 보정부가 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장한다.
단계 S340에서 식생 기준 영상 데이터 획득부가 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는다.
여기서, 상기 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하는 것이다.
식생 지수는 식생의 활력도와 생육 현황을 나타내는 지표이다. 원격 탐사 자료의 가시 광선과 근적외선 반사율 비율을 이용하여 구한다.
본 발명의 일 실시예에 따른 식생 기준 영상 데이터 획득부(340)의 식생 지수 연산은, 상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하며, 상기 수학식 1로 구현된다.
단계 S410에서 유효성 판단부(400)는 정사영상(영상 A)에서 산사태 발생영역으로 분류된 영역 중 과거 식생지수(NDVI)가 특정 값 이상인 영역을 산사태영역으로 판정한다.
단계 S430에서 산사태 판정 영역에 대하여 다각형을 생성하여 데이터 베이스(500)에 저장한다. 산사태 피해지로 분류된 곳에 대하여 다각형(Polygon)을 생성하고, 향후 다른 작업에서 이를 활용하기 위한 것이다.
도 9는 본 발명의 일 실시예에 따른 식생 기준 영상 선정부의 프로세스를 나타내는 흐름도이다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 식생 기준 영상 선정부(310)의 프로세스는 수집부(311)가 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집하는 단계(S311)에서 시작한다.
단계 S312에서 촬영 시점 비교부가 수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류한다.
단계 S313에서 식생 확인 기간 분류부가 상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류한다.
단계 S314에서 영역 비교부가 상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류한다.
단계 S315에서 매칭 확인부는 무인기 촬영 영역과 비교할 수 있도록, 위성영상에서 무인기 촬영영역에 해당하는 부분은 구름이 없어야 하므로, 구름의 여부를 제4 채택 조건으로 마련하여 영상을 분류한다.
여기서, 구름이 존재하더라도 무인기 촬영영역과 동일한 공간이라면, 시간적 분포는 관계 없다. 식생지수 산출을 위해 식생생육이 활발한 4-9월 사이의 위성영상을 사용한다.
단계 S316에서 제1 채택 조건 내지 제3 채택 조건을 만족하는 영상을 식생 기준 영상으로 채택한다.
단계 S317에서 채택 조건에 맞지 않을 경우, 다음 영상을 검토한다.
도 10 내지 도 14는 본 발명의 일 실시예에 따른 탐지 영상을 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 보정 식생 기준 영상을 나타낸 것이다.
도 10의 (a)는 1m 해상도로 일치된 Sentinel 2호 위성영상인 보정 식생 기준 영상(B)이며, 도 10의 (b)는 무인기 영상인 정사 영상(영상 A)이다.
해상도 보정부(330)는 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장한다.
도 11은 본 발명의 일 실시예에 따른 판정 영역 후보 영상을 나타낸 것이다.
판정 영역 생성부(200)는 산사태 발생 영역이 포함된 정사영상을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성한다.
구체적으로, 정사 영상(영상 A)에서 산사태 영역에 대한 사용자 관심 영역(Region of Inerest, ROI)을 입력하여 판독한다. 정사 영상(영상 A)에 대하여 판독부가 트레이닝 샘플 관심 영역(ROI)을 공간 정보로 지정한다.
샘플 관심 영역(ROI)을 공간 정보로 지정하는 것은 포인트 기반으로 설정하거나 선 기반으로 설정할 수 있다.
공간 정보는 상기 산사태 발생 영역이 포함된 정사영상을 판독하여, 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함한다.
도 12의 (a)는 식생 기준 영상 데이터이고, 도 12의 (b)는 식생 지역을 제외한 영상이다.
식생 기준 영상 데이터 획득부(340)는 보정 식생 기준 영상(영상 B2)에 대해서 식생지수(NDVI)를 계산한다. 식생 기준 영상 데이터는 산사태 발생 이전에도 식생지수가 낮았던 곳 즉, 산사태 피해가 원인이 아닌 원래부터 인공물이었거나 숲이 아니었던 곳을 구분하기 위해 사용된다.
도 13은 판정 영역 후보들의 유효성을 판단한 결과이다.
도 13에서 적색부분은 감독 분류된 산사태 영역인 판정 영역 후보이며, 백색 부분은 식생 기준 영상 데이터이며 중첩되어 있다.
유효성 판단부(400)는 식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단한다.
식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이다.
도 14는 산사태 영역으로 판정한 결과로, 나지지역을 제외한 산사태 영역을 도출한 결과이다.
유효성 판단부(400)는 정사영상(영상 A)에서 산사태 발생영역으로 분류된 영역 중 과거 식생지수(NDVI)가 특정 값 이상인 영역을 산사태영역으로 판정한다.
판정 영역 생성부(200)에서 감독 분류를 수행하여 산사태 영역이라고 분류된 곳 중에서 산사태 발생 이전에 식생 지수(NDVI)가 높았던 곳, 즉 산사태 이전에는 숲이었던 곳을 산사태 피해지로 규정한다. 예를 들어, 마을이 있는 곳은 감독분류에서 산사태 피해지와 비슷한 분광특성을 보여 산사태 피해지로 잘못 분류될 수 있으나, 이런 곳은 과거 영상에서도 NDVI가 낮게 나오기 때문에 과거에도 산림이 아니었고, 결과적으로 산사태 피해지가 아니게 된다.
이후 산사태 판정 영역에 대하여 다각형을 생성하여 데이터 베이스(500)에 저장한다. 산사태 피해지로 분류된 곳에 대하여 다각형(Polygon)을 생성하고, 향후 다른 작업에서 이를 활용하기 위한 것이다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.
10: 산사태 발생 영역 자동 탐지 장치
100: 정사영상 생성부
200: 판정 영역 생성부
300: 위성 영상 처리부
400: 유효성 판단부
210: 공간 정보 추출부
310: 식생 기준 영상 선정부

Claims (13)

  1. 산사태 발생 영역이 포함된 정사영상(ortho image)을 분석하여, 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜, 판정 영역 후보들을 생성하는 판정 영역 생성부; 및
    식생 기준 영상 데이터를 이용하여 상기 판정 영역 생성부에서 생성된 판정 영역 후보들의 유효성을 판단하는 유효성 판단부;를 포함하며,
    상기 식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터인 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  2. 제1항에 있어서,
    무인 비행체의 촬영 장치로부터 수집한 상기 산사태 발생 영역이 포함된 원 영상(original image)으로부터 상기 정사영상(ortho image)을 생성하는 정사영상 생성부;를 더 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  3. 제1항에 있어서,
    상기 판정 영역 생성부는,
    상기 산사태 발생 영역이 포함된 정사영상을 판독하여, 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 상기 공간 정보를 추출하는 공간 정보 추출부;
    상기 산사태 발생 영역이 포함된 정사영상을 분광대별로 분류하는 다중 분광 분류부; 및
    분광대별로 분류된 상기 정사영상에서, 추출된 상기 공간 정보에 해당하는 부분에 영상소를 할당하여 판정 영역 후보를 생성하는 공간 정보 매핑부;를 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  4. 제2항에 있어서,
    상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 위성 영상 처리부;를 더 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  5. 제4항에 있어서,
    상기 위성 영상 처리부는,
    상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하는 식생 기준 영상 선정부;
    상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성하는 영상 크롭핑부;
    상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장하는 해상도 보정부; 및
    상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 식생 기준 영상 데이터 획득부;를 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  6. 제5항에 있어서,
    상기 식생 지수 연산은,
    상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  7. 제5항에 있어서,
    상기 식생 기준 영상 선정부는,
    상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집하는 수집부;
    수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류하는 촬영 시점 비교부;
    상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류하는 식생 확인 기간 분류부;
    상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류하는 영역 비교부;를 포함하며,
    상기 식생 기준 영상은, 상기 제1 채택 조건 내지 제3 채택 조건을 만족하는 영상인 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  8. 제5항에 대하여,
    상기 유효성 판단부는,
    상기 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 식생 지수를 산사태 발생 시점 이전인 상기 식생 기준 영상 데이터의 값과 각각 비교하여,
    상기 식생 기준 영상 데이터의 값이 상기 식생 지수에 비해 높은 곳을 산사태 발생 영역으로 판정하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 장치.
  9. 정사영상 생성부가 무인 비행체의 촬영 장치로부터 수집한 산사태 발생 영역이 포함된 원 영상(original image)으로부터 정사영상(ortho image)을 생성하는 단계;
    위성 영상 처리부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하고, 상기 식생 기준 영상을 보정한 후 식생 지수 연산을 수행하여 식생 기준 영상 데이터를 얻는 단계; 및
    유효성 판단부가 상기 산사태 발생 영역에 대한 공간 정보를 추출하고, 상기 정사영상에 상기 공간 정보를 매핑시켜 생성된 판정 영역 후보들의 유효성을 판단하는 단계;를 포함하며,
    상기 식생 기준 영상 데이터는, 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상을 기반으로 식생 지수 연산을 수행하여 얻는 데이터이고,
    상기 공간 정보는 숲 영역, 산사태 예측 영역, 물 영역 및 인공물(物) 영역을 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 방법.
  10. 제9항에 있어서,
    상기 식생 기준 영상 데이터를 얻는 단계는,
    식생 기준 영상 선정부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들 중, 기 설정된 채택 조건을 만족하는 영상인 식생 기준 영상을 선정하는 단계;
    영상 크롭핑부가 상기 식생 기준 영상의 일부분을 상기 정사영상 생성부에서 생성된 상기 정사영상의 화각에 맞추어 잘라내어 크롭핑 영상을 생성하는 단계;
    해상도 보정부가 상기 크롭핑 영상의 해상도를 상기 정사영상과 상호간에 일치시킨 후, 보정 식생 기준 영상으로 저장하는 단계; 및
    식생 기준 영상 데이터 획득부가 상기 보정 식생 기준 영상에 대하여, 상기 식생 지수 연산을 수행하여 상기 식생 기준 영상 데이터를 얻는 단계;를 포함하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 방법.
  11. 제10항에 있어서,
    상기 식생 지수 연산은,
    상기 보정 식생 기준 영상의 근적외선과 적색광 밴드 사이의 값의 차이를 상기 근적외선과 적색광 밴드를 합한 값으로 나누어서 계산하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 방법.
  12. 제10항에 있어서,
    상기 식생 기준 영상을 선정하는 단계는,
    수집부가 상기 산사태 발생 영역이 포함된 영역을 촬영한 위성 영상들을 수집하는 단계;
    촬영 시점 비교부가 수집한 상기 위성 영상들을 촬영 일시 순으로 배열하여, 상기 위성 영상 각각의 촬영 시점과 제1 채택 조건인 산사태 발생 시점을 비교하여, 상기 산사태 발생 시점 이전의 위성 영상을 분류하는 단계;
    식생 확인 기간 분류부가 상기 위성 영상 각각의 촬영 시점을 월별로 구분하여 제2 채택 조건인 식생 확인 기간에 해당하는 영상을 분류하는 단계;
    영역 비교부가 상기 위성 영상의 촬영 영역과 제3 채택 조건인 상기 산사태 발생 영역이 포함된 정사영상의 영역을 비교하여, 상기 산사태 발생 영역이 포함된 위성영상을 분류하는 단계;를 포함하며,
    상기 식생 기준 영상은, 상기 제1 채택 조건 내지 제3 채택 조건을 만족하는 영상인 것을 특징으로 하는 산사태 발생 영역 자동 탐지 방법.
  13. 제12항에 있어서,
    상기 판정 영역 후보들의 유효성을 판단하는 단계는,
    상기 판정 영역 후보들의 상기 공간 정보에 해당하는 부분에 해당하는 식생 지수를 산사태 발생 시점 이전인 상기 식생 기준 영상 데이터의 값과 각각 비교하여,
    상기 식생 기준 영상 데이터의 값이 상기 식생 지수에 비해 높은 곳을 산사태 발생 영역으로 판정하는 것을 특징으로 하는 산사태 발생 영역 자동 탐지 방법.
KR1020180144350A 2018-11-21 2018-11-21 산사태 발생 영역 자동 탐지 장치 및 탐지 방법 KR102177985B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144350A KR102177985B1 (ko) 2018-11-21 2018-11-21 산사태 발생 영역 자동 탐지 장치 및 탐지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144350A KR102177985B1 (ko) 2018-11-21 2018-11-21 산사태 발생 영역 자동 탐지 장치 및 탐지 방법

Publications (2)

Publication Number Publication Date
KR20200059521A true KR20200059521A (ko) 2020-05-29
KR102177985B1 KR102177985B1 (ko) 2020-11-12

Family

ID=70911457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144350A KR102177985B1 (ko) 2018-11-21 2018-11-21 산사태 발생 영역 자동 탐지 장치 및 탐지 방법

Country Status (1)

Country Link
KR (1) KR102177985B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112344913A (zh) * 2020-11-09 2021-02-09 中国公路工程咨询集团有限公司 一种利用无人机倾斜摄影影像的区域危险系数评估方法
CN112418033A (zh) * 2020-11-11 2021-02-26 广州数鹏通科技有限公司 基于mask rcnn神经网络的滑坡坡面分割识别方法
CN113537018A (zh) * 2021-07-05 2021-10-22 国网安徽省电力有限公司铜陵供电公司 基于多时相卫星遥感和无人机技术的水土保持监测方法
CN114241333A (zh) * 2021-12-18 2022-03-25 哈尔滨工业大学 一种基于多源时序遥感影像精准识别新生滑坡区域的方法
WO2024117588A1 (ko) * 2022-11-29 2024-06-06 윤창원 다중분광 2d정사 이미지 데이터의 진단분석 정확도 향상 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101728137B1 (ko) * 2016-02-04 2017-04-19 (주)한라지리정보 위성 영상과 gis를 사용한 토지피복 항목별 영상분류 방법
KR101762809B1 (ko) * 2016-01-21 2017-07-28 전주비전대학교산학협력단 드론을 사용한 산사태 예측 지형자료 생성 및 산사태 위험지역 선정 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101762809B1 (ko) * 2016-01-21 2017-07-28 전주비전대학교산학협력단 드론을 사용한 산사태 예측 지형자료 생성 및 산사태 위험지역 선정 방법
KR101728137B1 (ko) * 2016-02-04 2017-04-19 (주)한라지리정보 위성 영상과 gis를 사용한 토지피복 항목별 영상분류 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112344913A (zh) * 2020-11-09 2021-02-09 中国公路工程咨询集团有限公司 一种利用无人机倾斜摄影影像的区域危险系数评估方法
CN112344913B (zh) * 2020-11-09 2022-08-02 中国公路工程咨询集团有限公司 一种利用无人机倾斜摄影影像的区域危险系数评估方法
CN112418033A (zh) * 2020-11-11 2021-02-26 广州数鹏通科技有限公司 基于mask rcnn神经网络的滑坡坡面分割识别方法
CN112418033B (zh) * 2020-11-11 2024-05-03 广州数鹏通科技有限公司 基于mask rcnn神经网络的滑坡坡面分割识别方法
CN113537018A (zh) * 2021-07-05 2021-10-22 国网安徽省电力有限公司铜陵供电公司 基于多时相卫星遥感和无人机技术的水土保持监测方法
CN113537018B (zh) * 2021-07-05 2024-03-19 国网安徽省电力有限公司铜陵供电公司 基于多时相卫星遥感和无人机技术的水土保持监测方法
CN114241333A (zh) * 2021-12-18 2022-03-25 哈尔滨工业大学 一种基于多源时序遥感影像精准识别新生滑坡区域的方法
WO2024117588A1 (ko) * 2022-11-29 2024-06-06 윤창원 다중분광 2d정사 이미지 데이터의 진단분석 정확도 향상 시스템 및 방법

Also Published As

Publication number Publication date
KR102177985B1 (ko) 2020-11-12

Similar Documents

Publication Publication Date Title
KR102177985B1 (ko) 산사태 발생 영역 자동 탐지 장치 및 탐지 방법
Zhu et al. Foliar and woody materials discriminated using terrestrial LiDAR in a mixed natural forest
Laliberte et al. Image processing and classification procedures for analysis of sub-decimeter imagery acquired with an unmanned aircraft over arid rangelands
Goodwin et al. Cloud and cloud shadow screening across Queensland, Australia: An automated method for Landsat TM/ETM+ time series
Zhang et al. Estimation of forest leaf area index using height and canopy cover information extracted from unmanned aerial vehicle stereo imagery
US7184890B2 (en) Cloud shadow detection: VNIR-SWIR
CN106915462A (zh) 基于多源影像信息的林业病虫害智能识别系统
Hilker et al. Update of forest inventory data with lidar and high spatial resolution satellite imagery
Hou et al. Use of ALS, Airborne CIR and ALOS AVNIR-2 data for estimating tropical forest attributes in Lao PDR
US6990410B2 (en) Cloud cover assessment: VNIR-SWIR
Sánchez-González et al. Basal area and diameter distribution estimation using stereoscopic hemispherical images
Pascu et al. Estimating forest stand structure attributes from terrestrial laser scans
Berveglieri et al. Successional stages and their evolution in tropical forests using multi-temporal photogrammetric surface models and superpixels
EP2731052A2 (en) Spectral scene simplification through background substraction
Hanapi et al. A review on remote sensing-based method for tree detection and delineation
US7058511B2 (en) Sub-visible cloud cover assessment: VNIR-SWIR
Yilmaz et al. Determination of tree crown diameters with segmentation of a UAS-Based canopy height model
Massetti et al. Detection of Yucca gloriosa in Mediterranean coastal dunes: A comparative analysis of field-based sampling, human interpretation of UAV imagery and deep learning to develop an effective tool for controlling invasive plants
Coops et al. Procedures for predicting habitat and structural attributes in eucalypt forests using high spatial resolution remotely sensed imagery
Anjos et al. Change detection techniques using multisensor data
Toda et al. Determination of species-specific leaf angle distribution and plant area index in a cool-temperate mixed forest from UAV and upward-pointing digital photography
Holopainen et al. Modern data acquisition for forest inventories
Biffi et al. Evaluating the performance of a semi-automatic apple fruit detection in a high-density orchard system using low-cost digital rgb imaging sensor
KR102373278B1 (ko) 지상기반 전천 영상자료를 이용한 야간 전운량 산출방법
Zaki et al. Individual tree crown (ITC) delineation using watershed transformation algorithm for tropical lowland dipterocarp

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right