KR102648844B1 - Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data - Google Patents

Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data Download PDF

Info

Publication number
KR102648844B1
KR102648844B1 KR1020230111476A KR20230111476A KR102648844B1 KR 102648844 B1 KR102648844 B1 KR 102648844B1 KR 1020230111476 A KR1020230111476 A KR 1020230111476A KR 20230111476 A KR20230111476 A KR 20230111476A KR 102648844 B1 KR102648844 B1 KR 102648844B1
Authority
KR
South Korea
Prior art keywords
wetland
components
time
area
component
Prior art date
Application number
KR1020230111476A
Other languages
Korean (ko)
Inventor
정윤재
권민주
Original Assignee
(주) 지오씨엔아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 지오씨엔아이 filed Critical (주) 지오씨엔아이
Priority to KR1020230111476A priority Critical patent/KR102648844B1/en
Application granted granted Critical
Publication of KR102648844B1 publication Critical patent/KR102648844B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Development Economics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법 및 시스템에 관한 것으로서, 본 발명의 실시예에 따른 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법은 임의 지역의 습지수문, 습지식생 및 습지토양을 포함하는 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델을 시계열 위성영상을 구성하는 밴드의 개별 위성영상에 적용하여 위성영상 기반의 토지피복 영상을 제작하는 단계, GIS 데이터를 활용하여 (기)제작한 토지피복 영상에서 습지 구성요소의 영역을 정의하는 단계, 및 정의한 습지 구성요소의 영역을 시계열로 비교하여 습지 구성요소가 변화된 지역을 탐지하는 단계를 포함할 수 있다.The present invention relates to a method and system for detecting wetland component change areas using time-series satellite images and GIS data. The method for detecting wetland component change areas using time-series satellite images and GIS data according to an embodiment of the present invention is optional. An artificial intelligence model that learns learning data related to wetland components, including local wetland hydrology, wetland vegetation, and wetland soil, is applied to individual satellite images of the band that makes up the time-series satellite image to produce a land cover image based on satellite image. a step of defining the area of wetland components in a land cover image (pre-) produced using GIS data, and a step of detecting areas where wetland components have changed by comparing the areas of the defined wetland components in time series. It can be included.

Description

시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법 및 시스템{Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data}{Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data}

본 발명은 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법 및 시스템에 관한 것으로서, 더 상세하게는 가령 계절별 또는 년도별로 촬영된 시계열 위성영상을 활용하여 습지의 구성요소(예: 수문, 식생 및 토양)가 변화된 지역을 탐지하는 자동화 기술이 적용된 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for detecting areas of change in wetland components using time-series satellite images and GIS data. More specifically, the present invention relates to a method and system for detecting wetland component changes using time-series satellite images taken by season or year, for example, to detect wetland components (e.g. hydrology). , vegetation, and soil) is about a method and system for detecting wetland component change areas using time-series satellite images and GIS data with automated technology to detect areas where changes have been made.

가령 연안습지는 주기적인 조석에 의해 해수의 영향을 받으며 식생이 형성된 곳이다. 이러한 연안습지는 육상과 해양으로부터 공급되는 무기 및 유기영양염류가 풍부하여 여러 유형의 생태계 중 생산성이 가장 높은 것이 특징이다. 우리나라 서남해안은 장기간에 걸친 간척사업들로 인해 연안습지가 지속적으로 사라지고 있으나, 최근 생태적 중요성으로 인한 연안습지의 보전이 중요한 가치로 부각되고 있다. 염생 식물 군락은 높은 1차 생산자임과 동시에 다양한 생물의 서식처 그리고 각종 오염물질의 정화 등 중요한 역할을 수행하며, 이러한 염생 식물은 특히 연안습지의 건강성에 대한 지표로 분포양상과 면적에 대한 현황파악과 지속적인 모니터링이 시급하다.For example, a coastal wetland is a place where vegetation is formed under the influence of seawater due to periodic tides. These coastal wetlands are rich in inorganic and organic nutrients supplied from land and the ocean, and are characterized by the highest productivity among various types of ecosystems. On the southwestern coast of Korea, coastal wetlands are continuously disappearing due to long-term land reclamation projects, but conservation of coastal wetlands has recently been highlighted as an important value due to their ecological importance. Halophytic communities are high primary producers and at the same time play an important role as habitats for various organisms and purification of various pollutants. These halophytic plants are especially useful as indicators of the health of coastal wetlands, helping to understand the current status of distribution patterns and areas. Continuous monitoring is urgent.

국내에서 염생 식물과 관련된 연구는 국소지역에 대한 분포 종 조사와 생육환경의 영향 등에 초점이 맞추어져 왔다. 그러나 큰 조석차로 인해 넓은 염습지가 분포하는 서남해안 전체의 염생 식물 분포양상 및 면적에 관한 조사는 본격적으로 이루어지지 않고 있다. 이는 염생 식물이 갯벌(습지)이라는 상대적으로 접근이 어려운 지역에 분포하는 특징을 갖고 있어, 현장조사를 통해 그 분포를 조사하는 데 한계가 있기 때문이다.In Korea, research related to halophytes has focused on investigating species distribution in local areas and the influence of growth environments. However, due to large tidal differences, a full-fledged survey on the distribution pattern and area of halophytes along the entire southwest coast, where large salt marshes are distributed, has not been conducted in earnest. This is because halophytes have the characteristic of being distributed in relatively inaccessible areas such as mudflats (wetlands), which limits the ability to investigate their distribution through field surveys.

물론 기존에는 습지에 존재하는 식생을 모니터링하는 방법으로 드론 등의 비행 플랫폼에 정지 화상 카메라를 탑재하여 영상을 취득하고 촬영 종료 후 지상에서 후처리를 통해 식생 객체를 분류 및 지도화하는 방법이 개시된 바 있다.Of course, the existing method of monitoring vegetation existing in wetlands was to acquire images by mounting a still image camera on a flying platform such as a drone, and to classify and map vegetation objects through post-processing on the ground after the shooting was completed. there is.

그런데, 이는 습지 지역의 미시 기후변화에 따른 신속한 식생의 변화 양상을 관리하는 데 한계가 있다. 또한, 기존 습지의 식생 객체 인식기술은 광역지역의 분류를 목적으로 하고 있어 식생의 종류 및 위치 확인에도 한계가 있다.However, this has limitations in managing rapid vegetation changes due to micro-climate changes in wetland areas. In addition, existing wetland vegetation object recognition technology is aimed at classifying wide areas, so there are limitations in identifying the type and location of vegetation.

한편 기존 방법에서는 현장 답사를 통해 습지의 시기별 구성요소를 파악하고, 구성요소가 변한 지역을 탐지하였으나, 이는 면적이 넓은 대규모 습지를 조사할 때 현장 답사를 위한 시간과 비용이 많이 소모되어 비효율적이다. Meanwhile, the existing method identifies the components of wetlands by period through field visits and detects areas where the components have changed, but this is inefficient because it consumes a lot of time and cost for field visits when investigating large-scale wetlands with a large area. .

또한 종래에는 3차원 공간영상 자료를 활용하여 저수지 탐지를 위한 자동화 방법 및 시스템에 관한 기술이 공지된 바 있다. 시계열 위성영상을 활용하여 습지의 종류인 저수지의 경계 변화를 탐지하는 방법을 개시하고 있기는 하지만, 이는 다양한 습지 구성요소의 지속적인 변화를 탐지하는 업무에 한계가 있다.In addition, technology regarding automated methods and systems for reservoir detection using 3D spatial image data has been previously known. Although a method for detecting boundary changes in reservoirs, a type of wetland, is being developed using time-series satellite images, this method has limitations in detecting continuous changes in various wetland components.

한국등록특허공보 제10-2366267호(2022.02.17)Korean Patent Publication No. 10-2366267 (2022.02.17) 한국등록특허공보 제10-1744662호(2017.06.01)Korean Patent Publication No. 10-1744662 (2017.06.01) 한국등록특허공보 제10-2533928호(2023.05.15)Korean Patent Publication No. 10-2533928 (2023.05.15)

본 발명의 실시예는 가령 계절별 또는 년도별로 촬영된 시계열 위성영상을 활용하여 습지의 구성요소(예: 수문, 식생 및 토양)가 변화된 지역을 탐지하는 자동화 기술을 적용한 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법 및 시스템을 제공함에 그 목적이 있다.Embodiments of the present invention utilize time-series satellite images and GIS data using automated technology to detect areas where wetland components (e.g., hydrology, vegetation, and soil) have changed using time-series satellite images taken by season or year. The purpose is to provide a method and system for detecting areas of wetland component change.

본 발명의 실시예에 따른 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법은, 임의 지역의 습지수문, 습지식생 및 습지토양을 포함하는 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델을 시계열 위성영상에서 지정 시기(예: 일별, 계절별 등)에 수신된 개별 위성영상에 적용하여 상기 습지 구성요소를 포함하는 위성영상 기반의 토지피복 영상을 제작하는 단계, 상기 제작한 토지피복 영상에서 GIS(Geographic Information System) 데이터를 활용하여 상기 습지 구성요소의 영역을 정의하는 단계, 상기 정의한 습지 구성요소의 영역을 시계열(time-series)로 비교하여 습지 구성요소가 변화된 지역을 탐지하는 단계를 포함한다.The method for detecting wetland component change areas using time-series satellite images and GIS data according to an embodiment of the present invention is an artificial artificial intelligence that learns learning data related to wetland components including wetland hydrology, wetland vegetation, and wetland soil in a random area. Applying an intelligent model to individual satellite images received at designated times (e.g. daily, seasonal, etc.) from time series satellite images to produce a land cover image based on the satellite image including the wetland component, the produced land cover Defining the area of the wetland component using GIS (Geographic Information System) data from the image, comparing the area of the defined wetland component in a time-series to detect areas where the wetland component has changed. Includes.

상기 탐지 방법은, 계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않는 습지 구성요소를 픽셀 단위로 선정하는 단계, 및 상기 선정한 픽셀 단위의 습지 구성요소에 대하여 상기 시계열 위성영상의 다중분광 밴드로부터 밝기값 정보를 획득하여 상기 인공지능 모델의 학습 데이터로 이용하는 단계를 더 포함할 수 있다.The detection method includes the steps of selecting wetland components that do not change and are located in a wetland or surrounding area on a pixel basis from time-series satellite images taken by season or year, and selecting the time-series satellite images for the selected wetland components in pixel units. It may further include obtaining brightness value information from the multispectral band and using it as training data for the artificial intelligence model.

상기 토지피복 영상을 제작하는 단계는, 상기 시계열 위성영상에서 상기 습지 구성요소를 포함하는 습지 영역을 추출하여 영상을 제작할 수 있다.In the step of producing the land cover image, the image may be produced by extracting the wetland area including the wetland component from the time series satellite image.

상기 탐지 방법은, 상기 정의한 습지 구성요소의 영역에 대하여 픽셀 단위로 면적을 산출하는 단계를 더 포함하며, 상기 지정 시기의 개별 습지 구성요소의 면적은, 픽셀의 개수 × PSR2(여기서, PSR은 위성영상 픽셀의 공간 해상도)의 관계식을 만족하도록 계산될 수 있다.The detection method further includes the step of calculating the area of the defined wetland component in pixel units, and the area of the individual wetland component at the designated time is the number of pixels × PSR 2 (where PSR is It can be calculated to satisfy the relationship between spatial resolution of satellite image pixels.

상기 탐지하는 단계는, 상기 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 습지 구성요소가 변화된 지역으로 선정할 수 있다.In the detecting step, if wetland components are different in the same area in the pixel unit, an area in which wetland components have changed may be selected.

또한 본 발명의 실시예에 따른 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 시스템은 습지수문, 습지식생 및 습지토양의 습지 구성요소를 포함하는 임의 지역의 시계열 위성영상을 제공하는 외부장치, 및 상기 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델을 시계열 위성영상에서 지정 시기에 수신된 개별 위성영상에 적용하여 상기 습지 구성요소를 포함하는 위성영상 기반의 토지피복 영상을 제작하고, 상기 제작한 토지피복 영상에서 GIS 데이터를 활용하여 상기 습지 구성요소의 영역을 정의하며, 상기 정의한 습지 구성요소의 영역을 시계열로 비교하여 습지 구성요소가 변화된 지역을 탐지하는 습지변화지역 탐지장치를 포함한다.In addition, the wetland component change area detection system using time-series satellite images and GIS data according to an embodiment of the present invention provides external time-series satellite images of any area including wetland hydrology, wetland vegetation, and wetland components of wetland soil. Applying the device and the artificial intelligence model that learned the learning data related to the wetland components to individual satellite images received at a designated time from the time series satellite image to produce a land cover image based on the satellite image including the wetland components; , defines the area of the wetland component using GIS data from the land cover image produced above, and compares the area of the defined wetland component in time series to detect areas where the wetland component has changed. A wetland change area detection device. Includes.

상기 습지변화지역 탐지장치는, 계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않는 습지 구성요소를 픽셀 단위로 선정하고, 상기 선정한 픽셀 단위의 습지 구성요소에 대하여 상기 시계열 위성영상의 다중분광 밴드로부터 밝기값 정보를 획득하여 상기 인공지능 모델의 학습 데이터로 이용할 수 있다.The wetland change area detection device selects wetland components that do not change and are located in wetlands or surrounding areas on a pixel basis from time-series satellite images taken by season or year, and selects wetland components in pixel units selected from the time-series satellite images. Brightness value information can be obtained from the multispectral band of the image and used as training data for the artificial intelligence model.

상기 습지변화지역 탐지장치는, 상기 토지피복 영상을 제작하기 위해 상기 시계열 위성영상에서 상기 습지 구성요소를 포함하는 습지 영역을 추출하여 영상을 제작할 수 있다.The wetland change area detection device may produce an image by extracting a wetland area including the wetland component from the time-series satellite image to produce the land cover image.

상기 습지변화지역 탐지장치는, 상기 정의한 습지 구성요소의 영역에 대하여 픽셀 단위로 면적을 산출하며, 상기 지정 시가의 개별 습지 구성요소의 면적은 픽셀의 개수 × PSR2(여기서, PSR은 위성영상 픽셀의 공간 해상도)의 관계식을 만족하도록 계산할 수 있다.The wetland change area detection device calculates the area of the wetland component area defined above in pixel units, and the area of the individual wetland component in the designated city area is the number of pixels × PSR 2 (where PSR is the satellite image pixel) It can be calculated to satisfy the relational expression of (spatial resolution of).

상기 습지변화지역 탐지장치는, 상기 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 습지 구성요소가 변화된 지역으로 선정할 수 있다.The wetland change area detection device may select an area in which wetland components have changed when wetland components are different in the same pixel area.

본 발명의 실시예는 계절 및 강우 특성, 기후 변화로 인해 지속적으로 변하는 습지의 구성요소 현황을 파악할 수 있어 습지 관리 업무 매우 효과적이다.The embodiment of the present invention is very effective in wetland management work because it can determine the status of wetland components that continuously change due to seasonal and rainfall characteristics and climate change.

또한 우리나라 내륙습지는 총 2,704곳이 있으며, 내륙습지의 총면적은 1,153.4㎢로 국토 면적의 약 1%를 차지하고 있으므로 습지 관리를 위한 면적은 매우 넓다. 따라서 본 발명의 실시예를 통해 현장에 방문하지 않고 대규모 면적의 습지를 구성하고 있는 구성요소의 현황과 시기별/계절별로 발생한 습지 구성요소의 변화 지역을 탐지할 수 있다.In addition, there are a total of 2,704 inland wetlands in Korea, and the total area of inland wetlands is 1,153.4㎢, accounting for about 1% of the country's land area, so the area for wetland management is very large. Therefore, through embodiments of the present invention, it is possible to detect the current status of components that make up a large-scale wetland and areas of change in wetland components that occur by time/season without visiting the site.

도 1은 본 발명의 실시예에 따른 습지 구성요소 변화지역 탐지 시스템을 나타내는 도면,
도 2a 내지 도 2g는 도 1의 습지변화지역 탐지장치의 탐지방법을 설명하기 위한 도면,
도 3은 도 1의 습지변화지역 탐지장치의 세부구성을 예시한 블록다이어그램, 그리고
도 4는 도 1의 습지변화지역 탐지장치의 구동과정을 나타내는 흐름도이다.
1 is a diagram showing a wetland component change area detection system according to an embodiment of the present invention;
Figures 2a to 2g are diagrams for explaining the detection method of the wetland change area detection device of Figure 1;
Figure 3 is a block diagram illustrating the detailed configuration of the wetland change area detection device of Figure 1, and
Figure 4 is a flowchart showing the driving process of the wetland change area detection device of Figure 1.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 습지 구성요소 변화지역 탐지 시스템을 나타내는 도면이다.Figure 1 is a diagram showing a wetland component change area detection system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 습지 구성요소 변화지역 탐지 시스템(90)은 인공위성(100), 통신망(110), 습지변화지역 탐지장치(120) 및 서드파티장치(130)의 일부 또는 전부를 포함한다.As shown in Figure 1, the wetland component change area detection system 90 according to an embodiment of the present invention includes a satellite 100, a communication network 110, a wetland change area detection device 120, and a third-party device 130. ) includes part or all of.

여기서, "일부 또는 전부를 포함한다"는 것은 서드파티장치(130)와 같은 일부 구성요소가 생략되어 습지 구성요소 변화지역 탐지 시스템(90)이 구성되거나, 습지변화지역 탐지장치(120)와 같은 구성요소의 일부 또는 전부가 통신망(110)을 구성하는 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, “including part or all” means that the wetland component change area detection system 90 is configured by omitting some components, such as the third-party device 130, or the wetland component change area detection system 90, such as the wetland change area detection device 120. It means that some or all of the components can be integrated into a network device (e.g., wireless exchange device, etc.) constituting the communication network 110, and it is explained as including all to facilitate a sufficient understanding of the invention. do.

인공위성(100)은 우주공간에서 지구를 관측하는 위성카메라를 탑재한다. 해당 위성카메라는 다중분광 위성영상(landsat imagery)을 획득하기 위한 광학센서로 구성되거나 포함할 수 있다. 본 발명의 실시예에 따른 인공위성(100)은 습지변화지역 탐지장치(120)를 기준으로 볼 때 외부장치라 명명될 수 있다. '위성의 눈'이라 지칭되는 위성카메라는 광학카메라, 적외선카메라, 레이더로 나뉘며 그 중에서도 지상의 물체를 가장 잘 볼 수 있는 물체에 반사되는 햇빛을 이용해 촬영하는 광학카메라(혹은 광학센서)이다. The artificial satellite 100 is equipped with a satellite camera that observes the Earth from outer space. The satellite camera may consist of or include an optical sensor for acquiring multispectral satellite imagery (landsat imagery). The artificial satellite 100 according to an embodiment of the present invention may be called an external device when considering the wetland change area detection device 120. Satellite cameras, referred to as 'eyes of the satellite', are divided into optical cameras, infrared cameras, and radar. Among them, optical cameras (or optical sensors) take pictures using sunlight reflected from objects that can best see objects on the ground.

인공위성(100)은 지구를 관측하기 위한 광학카메라나 다양한 유형의 센서(예: CCD 카메라를 구성하는 R, G, B 센서 등)를 포함할 수 있으며, 이러한 부품의 성능에 따라 촬영되는 위성영상의 특성은 다소 상이할 수 있다. 따라서, 본 발명의 실시예에서는 습지를 구성하는 구성요소 즉 수문, 식생 및 토양의 변화를 탐지하기 위하여 인공위성(100)의 센서 등에 있어 동일한 제품의 사용 여부를 판단할 수 있으며, 물론 이러한 동작은 습지변화지역 탐지장치(120)에서 인공위성(100)의 성능 등과 관련한 스펙(spec.) 정보를 기저장하고 이를 확인함으로써 얼마든지 가능할 수 있다. 무엇보다 본 발명의 실시예에 따른 인공위성(100)은 다중분광 영상을 제공할 수 있다는 것이다.The artificial satellite 100 may include an optical camera or various types of sensors (e.g., R, G, B sensors constituting a CCD camera, etc.) for observing the Earth, and the captured satellite image can be adjusted according to the performance of these components. Characteristics may be somewhat different. Therefore, in the embodiment of the present invention, it is possible to determine whether the same product is used in the sensor of the satellite 100 to detect changes in the components that make up the wetland, that is, hydrology, vegetation, and soil. Of course, this operation is performed in the wetland. This may be possible by previously storing and confirming spec information related to the performance of the satellite 100 in the change area detection device 120. Above all, the satellite 100 according to an embodiment of the present invention can provide multispectral images.

여기서, 다중분광(혹은 다분광) 영상은 전자기 스펙트럼의 특정 파장 범위에 속한 영상 자료를 획득하는 영상이다. 파장은 필터를 사용하거나, 극초단파, 적외선, 자외선, X선 등 가시광선 범위를 벗어나는 주파수로부터의 빛을 포함한 특정 파장에 민감한 기구를 사용하여 분리할 수 있다. 즉, 다중분광 영상은 동일한 장면의 여러 단색 영상을 모아 놓은 것으로, 서로 다른 센서로 찍은 것이다. 여기서 각 단색 영상을 밴드라고 한다. 잘 알려진 다중 스펙트럼(또는 다중대역 영상)은 적색(Red), 녹색(Green) 및 청색(Blue) 영상으로 구성되는 RGB 컬러 영상으로 각기 다른 파장에 민감한 센서로 촬영된다. 이러한 스펙트럼 영상화는 인간의 눈이 적색, 녹색 및 청색에 대한 수용체로 포획하지 못하는 추가 정보의 추출을 허용할 수 있다. 다중분광 영상화는 일반적으로 3 ~ 15개의 스펙트럼 대역(혹은 밴드)에서 빛을 측정한다. 그러나 다중분광 영상에서 수백 또는 수천 개의 밴드를 포함한 더 높은 복사 해상도 및 미세한 스펙트럼을 가지는 영상화는 초다분광(hyperspectral)이라고 한다. 따라서 본 발명의 실시예에서는 어떠한 분광 영상을 하느냐에 특별히 한정하지는 않을 것이다.Here, a multispectral (or multispectral) image is an image that acquires image data belonging to a specific wavelength range of the electromagnetic spectrum. Wavelengths can be separated using filters or instruments sensitive to specific wavelengths, including light from frequencies outside the visible range, such as microwaves, infrared, ultraviolet, and X-rays. In other words, multispectral images are a collection of multiple monochromatic images of the same scene, taken with different sensors. Here, each monochromatic image is called a band. The well-known multispectral (or multiband image) is an RGB color image consisting of red, green, and blue images, each captured by a sensor sensitive to different wavelengths. Such spectral imaging may allow extraction of additional information that the human eye does not capture with its receptors for red, green, and blue. Multispectral imaging typically measures light in 3 to 15 spectral bands (or bands). However, in multispectral imaging, imaging with higher radiometric resolution and finer spectra, including hundreds or thousands of bands, is called hyperspectral. Therefore, in the embodiment of the present invention, there will be no particular limitation on the type of spectroscopic imaging performed.

도 1의 인공위성(100)은 본 발명의 실시예에 따른 위성영상을 취득하기 위한 다양한 유형의 위성장치를 포함할 수 있다. 예를 들어, 본 발명의 실시예에서는 습지를 구성하는 구성요소의 변화를 탐지하기 위한 위성영상을 수집하기 위하여 국가기상위성센터 등의 서버 등에 접속하여 영상을 수집할 수도 있다. 가령, 도 1의 습지변화지역 탐지장치(120)를 국가기상위상센터의 서버에 API(Application Programming Interface) 연동하여 습지변화지역 탐지와 관련한 위성영상을 실시간으로 수신할 수 있다. 물론 인공위성(100)은 국가기상위상센터와 통신을 통해 촬영된 영상을 주기적으로 전송한다. 따라서, 본 발명의 실시예에 따라 습지변화지역 탐지장치(120)는 국가기상위상센터에서 운영하는 서버에 접속하여 인공위성(100)에서 촬영된 다중분광영상을 제공받아 이용할 수 있다.The satellite 100 in FIG. 1 may include various types of satellite devices for acquiring satellite images according to an embodiment of the present invention. For example, in an embodiment of the present invention, in order to collect satellite images to detect changes in the components that make up a wetland, images may be collected by accessing a server such as the National Meteorological Satellite Center. For example, the wetland change area detection device 120 of FIG. 1 can be linked to the server of the National Meteorological Center through API (Application Programming Interface) to receive satellite images related to wetland change area detection in real time. Of course, the satellite 100 periodically transmits captured images through communication with the National Meteorological Center. Therefore, according to an embodiment of the present invention, the wetland change area detection device 120 can access the server operated by the National Meteorological Center to receive and use multi-spectral images captured by the satellite 100.

통신망(110)은 유무선 통신망을 모두 포함한다. 가령 통신망(110)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망이 유선 통신망인 경우 통신망(110) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Transceiver Station), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication network 110 includes both wired and wireless communication networks. For example, a wired or wireless Internet network may be used or linked as the communication network 110. Here, the wired network includes Internet networks such as cable networks and public switched telephone networks (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, EPC (Evolved Packet Core), LTE (Long Term Evolution), and Wibro networks. It means including. Of course, the communication network according to the embodiment of the present invention is not limited to this, and can be used as an access network for a next-generation mobile communication system to be implemented in the future, for example, a cloud computing network in a cloud computing environment, a 5G network, etc. For example, if the communication network is a wired communication network, the access point in the communication network 110 can connect to the telephone company's exchange office, etc., but in the case of a wireless communication network, data is processed by connecting to the SGSN or GGSN (Gateway GPRS Support Node) operated by the communication company, or Data can be processed by connecting to various repeaters such as BTS (Base Transceiver Station), NodeB, and e-NodeB.

통신망(110)은 액세스포인트를 포함할 수 있다. 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 여기서, 펨토 또는 피코 기지국은 소형 기지국의 분류상 습지변화지역 탐지장치(120)나 서드파티장치(130) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 습지변화지역 탐지장치(120)나 서드파티장치(130) 등과 지그비 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신 모듈을 포함한다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선(IrDA), UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 습지변화지역 탐지장치(120) 등으로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.Communication network 110 may include an access point. Access points include small base stations such as femto or pico base stations that are often installed in buildings. Here, femto or pico base stations are classified according to the maximum number of wetland change area detection devices (120) or third-party devices (130) that can be connected, according to the classification of small base stations. Of course, the access point includes a short-distance communication module for performing short-distance communication such as Zigbee and Wi-Fi with the wetland change area detection device 120 or a third-party device 130. Access points can use TCP/IP or RTSP (Real-Time Streaming Protocol) for wireless communication. Here, in addition to Wi-Fi, short-range communication can be performed using various standards such as Bluetooth, Zigbee, infrared (IrDA), RF (Radio Frequency) such as UHF (Ultra High Frequency) and VHF (Very High Frequency), and ultra-wideband communication (UWB). You can. Accordingly, the access point extracts the location of the data packet, specifies the best communication path for the extracted location, and forwards the data packet along the designated communication path to the next device, such as the wetland change area detection device 120. . Access points can share multiple lines in a typical network environment and include, for example, routers, repeaters, and repeaters.

습지변화지역 탐지장치(120)는 계절별 또는 년도별로 촬영된 시계열 위성영상을 활용하여 습지의 구성요소(예: 수문, 식생 및 토양)가 변화된 지역을 탐지하는 자동화 동작을 수행한다. 습지는 매우 복잡한 생태계로서, 습지를 구성하는 요소로는 습지 수문, 습지 토양, 습지 식생 등이 있으며, 습지의 구성 요소는 계절별 특성에 따라 주기적으로 변한다. 본 발명의 실시예에서는 계절별 또는 년도별로 동일한 습지에서 촬영된 시계열 위성영상의 다중분광 밴드에 인공지능 기술을 적용하여 개별 위성영상 즉 시기별(예: 일, 월, 계절 등) 위성영상으로부터 습지의 구성요소를 분류한 시기별 습지 구성요소 지도를 제작한다. 그리고 시기별 습지 구성요소 지도를 비교하여 동일한 지역의 구성요소가 다를 경우 습지 구성요소 변화 발생 지역으로 선정할 수 있다.The wetland change area detection device 120 performs an automated operation to detect areas where wetland components (e.g., hydrology, vegetation, and soil) have changed using time series satellite images captured by season or year. Wetlands are very complex ecosystems. The elements that make up wetlands include wetland hydrology, wetland soil, and wetland vegetation, and the components of wetlands change periodically according to seasonal characteristics. In an embodiment of the present invention, artificial intelligence technology is applied to the multispectral bands of time-series satellite images taken in the same wetland by season or year, and the wetland is analyzed from individual satellite images, that is, satellite images by period (e.g., day, month, season, etc.). Create a map of wetland components by period classifying the components. And by comparing wetland component maps by period, if the components of the same area are different, it can be selected as an area where wetland component changes occur.

이후에 좀더 자세히 다루겠지만, 본 발명의 실시예에 따른 습지변화지역 탐지장치(120)는 시계열 위성영상과 GIS 데이터를 활용해 습지 구성요소의 변화지역을 탐지한다. 이를 위하여 습지변화지역 탐지장치(120)는 계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않는 습지 구성요소를 픽셀 단위로 선정하고, 선정한 개별 구성요소 픽셀의 밝기값(예: 계조(gray)값 등) 정보를 다중분광 밴드로부터 획득한 후, 이를 개별 위성영상 즉 시계열 위성영상에서 가령 일, 월, 계절 등 특정 시기의 위성영상에 적용하여 위성영상 기반 토지피복 영상을 제작한다. 토지피복 영상은 시계열 위성영상의 개별 위성영상에서 인공지능 모델을 적용해 습지 구성요소를 분류한 영상을 의미할 수 있다. 이때 GIS 데이터를 활용하여 습지 지역에 해당되는 토지피복 영상을 추출하고 이를 습지 구성요소 영상으로 정의할 수 있다. 다시 말해 토지피복 영상에서 습지 지역에 해당하는 영역을 GIS 데이터로 표현(혹은 기록)하여 습지 구성요소를 정의할 수 있는 것이다. GIS 데이터는 서드파티장치(130)로부터 제공받을 수 있고, GIS 형상파일(Shapefile)의 형태로 생성될 수 있으며, 형상파일은 점, 선, 면의 위치 및 속성 정보를 저장하는데 사용되는 벡터형의 파일구조를 말한다.As will be discussed in more detail later, the wetland change area detection device 120 according to an embodiment of the present invention detects the change area of wetland components using time series satellite images and GIS data. To this end, the wetland change area detection device 120 selects wetland components that do not change and are located in wetlands or surrounding areas on a pixel basis from time-series satellite images taken by season or year, and determines the brightness value (e.g., brightness value) of the selected individual component pixel. : After obtaining information (gray value, etc.) from multispectral bands, apply this to individual satellite images, that is, time-series satellite images, to satellite images of a specific period such as day, month, or season to produce land cover images based on satellite images. do. Land cover images can refer to images that classify wetland components by applying an artificial intelligence model from individual satellite images of time series satellite images. At this time, GIS data can be used to extract land cover images corresponding to wetland areas and define them as wetland component images. In other words, wetland components can be defined by expressing (or recording) the area corresponding to the wetland area in the land cover image as GIS data. GIS data can be provided from a third-party device 130 and can be generated in the form of a GIS shape file (Shapefile), and the shape file is a vector type used to store the location and attribute information of points, lines, and surfaces. This refers to the file structure.

또한 습지변화지역 탐지장치(120)는 GIS 데이터를 활용해 습지 구성요소 영상(혹은 영역의 영상)을 제작한 후 그 구성요소의 면적을 픽셀 단위로 산출하여 시기별 습지 구성요소의 현황을 파악할 수 있다. 습지변화지역 탐지장치(120)는 개별 위성영상(예: 1년전 봄과 올해 봄 등)으로부터 제작한 습지 구성요소 영상을 시계열로 비교하여 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 이를 습지 구성요소가 변화된 지역으로 선정하고 변화된 지역을 표출할 수 있다. 습지변화지역 탐지장치(120)는 습지 구성요소가 변화된 지역을 세분화하여 습지 구성요소가 변화된 지역을 구체적으로 표출하고 통계를 산출할 수 있다. 물론 표출은 서드파티장치(130)로 제공될 수 있다. 예를 들어, 습지의 첫 번째 습지 구성요소 영상에서 특정 지역이 식생이고 두 번째 습지 구성요소 영상에서 동일한 지역이 토양일 경우, 해당 지역은 ‘식생→토양’ 지역으로 정의하고 이를 고유한 색으로 표출하며, 이에 관한 통계를 픽셀 단위의 면적으로 산출할 수 있는 것이다.In addition, the wetland change area detection device 120 can determine the status of wetland components by period by producing wetland component images (or area images) using GIS data and then calculating the area of the components in pixel units. there is. The wetland change area detection device 120 compares wetland component images produced from individual satellite images (e.g., spring of a year ago and spring of this year, etc.) in time series and configures wetland components when wetland components are different in the same area in pixel units. You can select an area where elements have changed and express the changed area. The wetland change area detection device 120 can segment the area in which wetland components have changed, display the area in which wetland components have changed in detail, and calculate statistics. Of course, the display can be provided by a third-party device 130. For example, if a specific area is vegetation in the first wetland component image of a wetland and the same area is soil in the second wetland component image, the area is defined as a 'vegetation → soil' area and displayed in a unique color. And statistics related to this can be calculated in terms of area in pixel units.

서드파티장치(130)는 국가기상위상센터에서 운영되는 다양한 유형의 장치를 포함하거나, 본 발명의 실시예에 따른 프로그램을 개발하는 프로그램 제작사의 다양한 장치를 포함할 수 있다. 또한 습지변화지역을 탐지하는 관계자의 관리자 장치를 포함할 수도 있다. 예를 들어, 국가기상위상센터의 경우에는 인공위성(100)을 통해 촬영된 위성영상을 제공받아 저장한 후 습지변화지역 탐지장치(120)의 요청시에 실시간으로 제공할 수 있다. 또한, 프로그램 제작사의 경우에는 본 발명의 실시예에 따른 습지 구성요소 변화지역 탐지를 위한 프로그램을 개발하여 습지변화지역 탐지장치(120)에 탑재시킬 수 있다.The third-party device 130 may include various types of devices operated by the National Meteorological Center, or may include various devices from program manufacturers that develop programs according to embodiments of the present invention. It may also include a management device for officials to detect areas of wetland change. For example, in the case of the National Meteorological Center, satellite images captured through the satellite 100 can be provided, stored, and provided in real time upon request by the wetland change area detection device 120. Additionally, in the case of a program manufacturer, a program for detecting wetland component change areas according to an embodiment of the present invention can be developed and mounted on the wetland change area detection device 120.

상기의 구성 결과 계절 및 강우 특성, 기후 변화로 인해 지속적으로 변하는 습지의 구성요소 현황을 파악할 수 있어 습지 관리 업무에 매우 효과적이며, 우리나라 내륙습지는 총 2,704곳이 있으며, 내륙습지의 총면적은 1,153.4㎢로 국토 면적의 약 1%를 차지하고 있으므로 습지 관리를 위한 면적은 매우 넓다. 따라서 본 발명의 실시예를 통해 현장에 방문하지 않고서도 대규모 면적의 습지를 구성하고 있는 구성요소의 현황과 시기별/계절별로 발생한 습지 구성요소의 변화 지역을 탐지할 수 있을 것이다.As a result of the above configuration, it is very effective in wetland management work as it is possible to identify the status of wetland components that continuously change due to seasons, rainfall characteristics, and climate change. There are a total of 2,704 inland wetlands in Korea, and the total area of inland wetlands is 1,153.4㎢. Since it occupies about 1% of the country's area, the area for wetland management is very large. Therefore, through embodiments of the present invention, it will be possible to detect the current status of components that make up a large-scale wetland and areas of change in wetland components that occur by time/season without visiting the site.

도 2a 내지 도 2g는 도 1의 습지변화지역 탐지장치의 탐지방법을 설명하기 위한 도면이다.FIGS. 2A to 2G are diagrams for explaining the detection method of the wetland change area detection device of FIG. 1.

설명의 편의상 도 2a 내지 도 2g를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 습지변화지역 탐지장치(120)는 계절별 또는 년도별로 촬영된 시계열 위성영상을 이용하여 습지 또는 주변 지역에 위치하고 변하지 않은 습지 구성요소 즉 수문, 식생 및 토양에 대한 훈련 샘플 즉 학습 데이터를 생성하여 이를 학습하기 위한 동작을 수행할 수 있다.For convenience of explanation, referring to FIGS. 2A to 2G together with FIG. 1, the wetland change area detection device 120 according to an embodiment of the present invention is located in a wetland or surrounding area using time series satellite images taken by season or year. You can create training samples, or learning data, for unchanged wetland components, such as hydrology, vegetation, and soil, and perform operations to learn them.

도 2a는 계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않은 습지 구성요소를 픽셀 단위로 선정하는 과정을 보여주고 있다. 도 2a의 (a) 및 (b)의 영상에서 볼 때 시계열 영상에서 적, 녹, 청의 사각형 표기 부분이 변화지 않은 습지 구성요소를 보여주고 있다.Figure 2a shows the process of selecting unchanged wetland components located in a wetland or surrounding area on a pixel-by-pixel basis from time-series satellite images captured by season or year. When looking at the images in (a) and (b) of Figure 2A, the red, green, and blue squares in the time series image show unchanged wetland components.

도 1의 습지변화지역 탐지장치(120)는 도 2a에서 픽셀 단위로 선정한 개별 구성요소 픽셀의 밝기값 정보를 다중분광 밴드로부터 획득한 후, 이를 개별 위성영상의 습지 구성요소 훈련 샘플로 정의하고 라벨링한다. 즉 도 2b에서와 같이 습지 수문 및 습지 식생에 대하여 각 밴드 영상으로부터 취득된 픽셀 밝기값 정보를 통해 훈련 샘플 즉 학습 데이터를 생성한 후 이를 인공지능 프로그램 또는 딥러닝 프로그램에 학습시킬 수 있다. 이와 같은 학습 동작에 따라 습지변화지역 탐지장치(120)에 탑재된 인공지능 프로그램은 기입력되어 저장된 또는 이후 입력되는 시계열 위성영상의 각 개별 위성영상에 대하여 기학습된 학습 데이터를 근거로 학습 결과를 출력하게 되는 것이다. 인공지능 프로그램의 경우 지도학습, 비지도학습 및 2개의 학습방식을 병행하는 준지도학습 방식 등 다양한 방식이 사용될 수 있으므로 본 발명의 실시예에서는 어느 하나의 방식에 특별히 한저하지는 않을 것이다.The wetland change area detection device 120 in FIG. 1 acquires the brightness value information of individual component pixels selected in pixel units in FIG. 2A from the multispectral band, defines and labels this as a wetland component training sample of the individual satellite image. do. That is, as shown in Figure 2b, training samples, or learning data, can be generated through pixel brightness value information acquired from each band image for wetland hydrology and wetland vegetation, and then trained on an artificial intelligence program or deep learning program. According to this learning operation, the artificial intelligence program mounted on the wetland change area detection device 120 produces learning results based on the previously learned learning data for each individual satellite image of the time series satellite image that has been input and stored or is input later. It will be printed. In the case of artificial intelligence programs, various methods such as supervised learning, unsupervised learning, and semi-supervised learning methods that combine two learning methods can be used, so embodiments of the present invention will not be particularly limited to any one method.

또한 습지변화지역 탐지장치(120)는 습지 구성요소의 훈련샘플을 인공지능/딥러닝 알고리즘의 학습에 따라 학습된 모델 즉 인공지능 프로그램을 개별 위성영상에 적용하여 다시 말해 일별 또는 계절별 위성영상에 적용하여 위성영상 기반 토지피복 영상을 제작할 수 있다. 개별 위성영상을 이용해 습지 지역이 분류된 영상을 제작하는 것이다. 도 2c는 이의 과정을 보여주고 있다. 도 2a는 시계열 위성영상을 보여준다면, 도 2c는 토지피복 영상을 보여준다고 볼 수 있다. 즉 토지피복 영상은 시계열 위성영상에서 특정 시점의 개별 위성영상을 인공지능 모델의 학습 결과에 따라 습지 지역을 분류하여 생성한 영상이라 볼 수 있다.In addition, the wetland change area detection device 120 applies the learned model, that is, the artificial intelligence program, to individual satellite images by learning the training samples of wetland components through artificial intelligence/deep learning algorithms, that is, to daily or seasonal satellite images. Thus, land cover images based on satellite images can be produced. Using individual satellite images, we produce classified images of wetland areas. Figure 2c shows this process. Figure 2a shows a time series satellite image, while Figure 2c shows a land cover image. In other words, the land cover image can be viewed as an image created by classifying wetland areas from individual satellite images at a specific point in time series satellite images according to the learning results of an artificial intelligence model.

이어 습지변화지역 탐지장치(120)는 GIS 데이터를 활용하여 습지 지역에 해당되는 토지피복 영상을 추출하고 이를 습지 구성요소 영상으로 정의할 수 있다. 즉 토지피복 영상에서 습지 지역에 해당하는 영역을 GIS 데이터로 표현 또는 기록하여 습지 구성요소의 영역을 정의할 수 있으며, 이러한 정의가 이루어지는 영상을 습지 구성요소 영상이 볼 수 있다. 도 2d 및 도 2e는 습지 구성요소 영상을 보여주고 있다. 도 2에서 볼 때 습지 구성요소 영상은 습지 수문, 습지 식생 및 습지 토양을 통합한 형태로 보여주고 있다. 물론 본 발명의 실시예에 따른 습지 구성요소 영상은 변하는 습지 구성요소의 영역에 한하는 그 영역을 정의한 영상이 될 수도 있다.Next, the wetland change area detection device 120 can use GIS data to extract a land cover image corresponding to the wetland area and define it as a wetland component image. In other words, the area corresponding to the wetland area in the land cover image can be expressed or recorded as GIS data to define the area of the wetland component, and the image where this definition is made can be viewed in the wetland component image. Figures 2d and 2e show wetland component images. In Figure 2, the wetland component image shows wetland hydrology, wetland vegetation, and wetland soil in an integrated form. Of course, the wetland component image according to an embodiment of the present invention may be an image defining an area limited to the area of the wetland component that changes.

습지변화지역 탐지장치(120)는 습지 구성요소 영상을 제작하고, 구성요소의 면적을 픽셀 단위로 산출하여 시기별(예: 계절별, 년도별) 습지 구성요소의 현황을 파악할 수 있다. 구성요소의 면적은 <관계식 1>과 같이 표현될 수 있다.The wetland change area detection device 120 can determine the status of wetland components by period (e.g., by season or year) by producing an image of wetland components and calculating the area of the components in pixel units. The area of a component can be expressed as <Relational Equation 1>.

[관계식 1][Relational Expression 1]

개별 습지 구성요소 면적: 픽셀의 개수 × Individual wetland component area: number of pixels ×

(여기서, PSR은 위성영상 픽셀의 공간해상도(예: m, km 단위))(Here, PSR is the spatial resolution of satellite image pixels (e.g. in m, km units))

<관계식 1>에 근거해 볼 때 가령 공간 해상도 즉 공간 분해능이 50㎝라면 가로 및 세로 즉 2500㎝의 면적을 1 픽셀로 탐지한다고 볼 수 있다.Based on <Relational Equation 1>, for example, if the spatial resolution is 50cm, an area of 2500cm horizontally and vertically can be considered to be detected as 1 pixel.

또한 습지변화지역 탐지장치(120)는 개별 위성영상으로부터 제작한 습지 구성요소 영상을 시계열로 비교하여 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 이를 습지 구성요소가 변화된 지역으로 선정하고 변화된 지역을 표출할 수 있다. 도 2f는 습지 구성요소 변화 지역을 보여주는 도면이다.In addition, the wetland change area detection device 120 compares wetland component images produced from individual satellite images in time series, and if wetland components are different in the same area in pixel units, selects this as an area with changed wetland components and selects the changed area. It can be expressed. Figure 2f is a diagram showing areas of wetland component change.

나아가 습지변화지역 탐지장치(120)는 도 2g에서와 같이 습지 구성요소가 변화된 지역을 세분화하여 습지 구성요소가 변화된 지역을 구체적으로 표출하고 통계를 산출할 수 있다. 예를 들어, 습지의 첫 번째 습지 구성요소 영상에서 특정 지역이 식생이고 두 번째 습지 구성요소 영상에서 동일한 지역이 토양일 경우, 해당 지역은 ‘식생→토양’ 지역으로 정의하고 이를 고유한 색으로 표출하며, 이에 관한 통계를 픽셀 단위의 면적으로 산출할 수 있다. 도 2g는 식생에서 토양으로 변화한 습지 구성요소와 수문에서 식생으로 습지 구성요소가 변화한 상태를 각각 보여주고 있다.Furthermore, the wetland change area detection device 120 can subdivide the area in which wetland components have changed, as shown in FIG. 2g, to specifically display the area in which wetland components have changed and calculate statistics. For example, if a specific area is vegetation in the first wetland component image of a wetland and the same area is soil in the second wetland component image, the area is defined as a 'vegetation → soil' area and displayed in a unique color. And statistics related to this can be calculated in terms of area in pixel units. Figure 2g shows the wetland components changed from vegetation to soil and the wetland components changed from hydrology to vegetation, respectively.

상기한 내용 이외에도 도 1의 인공위성(100), 습지변화지역 탐지장치(120) 및 서드파티장치(130)와 관련하여 좀더 다루어질 수 있으며, 기타 자세한 내용은 그 내용들로 대신하고자 한다.In addition to the above, further details may be given regarding the satellite 100, wetland change area detection device 120, and third-party device 130 of FIG. 1, and other detailed information will be replaced by those contents.

도 3은 도 1의 습지변화지역 탐지장치의 세부구성을 예시한 블록다이어그램이다.Figure 3 is a block diagram illustrating the detailed configuration of the wetland change area detection device of Figure 1.

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 도 1의 습지변화지역 탐지장치(120)는 통신 인터페이스부(300), 제어부(310), 습지변화지역 탐지부(320) 및 저장부(330)의 일부 또는 전부를 포함한다.As shown in FIG. 3, the wetland change area detection device 120 of FIG. 1 according to an embodiment of the present invention includes a communication interface unit 300, a control unit 310, a wetland change area detection unit 320, and a storage unit. Includes part or all of (330).

여기서, "일부 또는 전부를 포함한다"는 것은 저장부(330)와 같은 일부 구성요소가 생략되어 도 1의 습지변화지역 탐지장치(120)가 구성되거나 습지변화지역 탐지부(320)가 제어부(310)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, “including part or all” means that the wetland change area detection device 120 of FIG. 1 is configured by omitting some components such as the storage unit 330, or the wetland change area detection unit 320 is configured by the control unit ( 310), it means that it can be integrated and configured with other components such as

통신 인터페이스부(300)는 도 1의 통신망(110)을 경유하여 도 1의 인공위성(100) 및 서드파티장치(130)와 각각 통신한다. 통신 인터페이스부(300)는 통신을 수행하는 과정에서 변/복조, 인코딩/디코딩, 먹싱/디먹싱 등의 동작을 수행할 수 있으며 이는 당업자에게 자명하므로 더 이상의 설명은 생략하도록 한다.The communication interface unit 300 communicates with the satellite 100 and the third-party device 130 of FIG. 1 via the communication network 110 of FIG. 1, respectively. The communication interface unit 300 can perform operations such as modulation/demodulation, encoding/decoding, muxing/demuxing, etc. during communication. This is obvious to those skilled in the art, so further explanation will be omitted.

통신 인터페이스부(300)는 인공위성(100)이나 서드파티장치(130)와 각각 통신하여 계절별 또는 년도별로 촬영된 시계열 위성영상을 제공받아 제어부(310)로 전달할 수 있다. 예를 들어 통신 인터페이스부(300)는 서드파티장치(130)와 API 연동하는 경우에는 습지를 포함하는 임의 지역에 대한 시계열 위성영상을 주기적으로 제공받아 제어부(310)로 전달할 수 있다. 물론 통신 인터페이스부(300)는 습지변화지역 탐지장치(120)에서 온라인 서비스 즉 플랫폼 형태의 서비스를 제공하는 경우 습지와 관련한 관계자나 일반 사용자의 경우에도 필요한 경우 관련 서비스를 제공할 수 있다.The communication interface unit 300 can communicate with the satellite 100 or a third-party device 130 to receive time-series satellite images captured by season or year and transmit them to the control unit 310. For example, when the communication interface unit 300 is interconnected with the third-party device 130 and API, it can periodically receive time-series satellite images of an arbitrary area including a wetland and transmit them to the control unit 310. Of course, when the wetland change area detection device 120 provides an online service, that is, a platform-type service, the communication interface unit 300 can provide related services to wetland-related officials or general users if necessary.

제어부(310)는 도 3의 통신 인터페이스부(300), 습지변화지역 탐지부(320) 및 저장부(330)의 전반적인 제어 동작을 담당한다. 제어부(310)는 통신 인터페이스부(300)를 통해 시계열 위성영상을 제공받아 이를 저장부(330)에 임시 저장한 후 불러내어 영상 분석을 위해 습지변화지역 탐지부(320)에 제공할 수 있다. 또한 제어부(310)는 습지변화지역 탐지부(320)의 요청이 있는 경우 도 2f에서와 같이 습지 구성요소가 변화된 지역을 표출하여 도 1의 서드파티장치(130)로 제공하도록 통신 인터페이스부(300)의 통신을 제어하거나, 도 2g에서와 같이 습지 구성요소가 변화된 지역을 구체적으로 표출하고 통계를 산출하여 도 1의 서드파티장치(130)로 제공하도록 통신 인터페이스부(300)의 통신을 제어할 수 있다.The control unit 310 is responsible for the overall control operation of the communication interface unit 300, wetland change area detection unit 320, and storage unit 330 of FIG. 3. The control unit 310 can receive time-series satellite images through the communication interface unit 300, temporarily store them in the storage unit 330, retrieve them, and provide them to the wetland change area detection unit 320 for image analysis. In addition, when there is a request from the wetland change area detection unit 320, the control unit 310 displays the area where wetland components have changed as shown in FIG. 2f and provides the communication interface unit 300 to the third party device 130 of FIG. 1. ) or to control the communication of the communication interface unit 300 to specifically display the area where wetland components have changed, calculate statistics, and provide the statistics to the third-party device 130 of FIG. 1, as shown in FIG. 2g. You can.

또한 제어부(310)는 통신 인터페이스부(300)를 통해 시계열 위성영상이 제공될 때 이를 도 1의 DB(120a)에 체계적으로 분류하여 저장시킬 수 있으며, 이의 경우 인트라넷 등과 같은 내부 전용망을 통해 데이터를 전송하여 저장시킬 수 있다. 제어부(310)는 습지변화지역 탐지부(320)의 요청시 DB(120a)에 저장되어 있는 시계열 위성영상을 데이터 분석을 위해 가져와 제공할 수 있다. 또한 제어부(310)는 시계열 위성영상의 데이터 분석에 따른 분석 결과를 도 1의 DB(120a)에 저장시킬 수 있다. 물론 도 1의 DB(120a)에는 대규모 면적의 습지를 구성하고 있는 구성요소의 현황과 시기별/계절별로 발생한 습지 구성요소의 변화 지역을 탐지할 수 있도록 데이터가 분류되어 저장될 수 있으며, 해당 데이터는 습지변화지역 탐지부(320)에서 그래픽 처리되어 도 1의 서드파티장치(130)를 구성하는 습지를 관리하는 관계자의 관리자 장치로 제공될 수 있을 것이다.In addition, when time-series satellite images are provided through the communication interface unit 300, the control unit 310 can systematically classify and store them in the DB 120a of FIG. 1. In this case, the data is stored through an internal dedicated network such as an intranet. It can be transmitted and saved. Upon request from the wetland change area detection unit 320, the control unit 310 may retrieve and provide time series satellite images stored in the DB 120a for data analysis. Additionally, the control unit 310 may store analysis results based on data analysis of time-series satellite images in the DB 120a of FIG. 1. Of course, in the DB 120a of FIG. 1, data can be classified and stored to detect the current status of components that make up a large-scale wetland and areas of change in wetland components that occur by time/season, and the corresponding data may be graphically processed by the wetland change area detection unit 320 and provided to the manager device of the person involved in managing the wetland constituting the third-party device 130 of FIG. 1.

습지변화지역 탐지부(320)는 대규모 면적의 습지를 구성하고 있는 습지의 구성요소에 대한 탐지가 쉽게 이루어지도록 동작한다. 이를 위하여 습지변화지역 탐지부(320)는 인공지능 프로그램을 탑재하여 이를 이용해 위성영상 기반의 토지피복 영상을 제작할 수 있다. 다시 말해, 습지변화지역 탐지부(320)는 계절별 또는 년도별로 촬영된 시계열 위성영상, 즉 습지나 그 주변지역의 시계열 위성영상을 획득하여 이를 이용해 습지변화지역을 탐지하기 위한 학습 데이터를 생성할 수 있다. 여기서, 학습 데이터는 훈련 샘플이라 명명될 수 있으며, 시계열 위성영상에서 습지 또는 그 주변 지역에 위치하여 변하지 않은 습지 구성요소가 그 기준이 된다고 볼 수 있다. 변하지 않은 습지 구성요소를 픽셀 단위로 선정하고, 시계열 위성영상의 다중분광 밴드로부터 개별 구성요소 즉 습지 수문이나 습지 식생 픽셀의 밝기값 정보를 획득하여 이를 인공지능 학습 모델의 학습을 위한 훈련 샘플 즉 학습 데이터로 생성할 수 있는 것이다. 습지변화지역 탐지부(320)는 이를 지도학습 방식 등과 같이 라벨링할 수 있다.The wetland change area detection unit 320 operates to easily detect wetland components that make up a large-scale wetland. To this end, the wetland change area detection unit 320 is equipped with an artificial intelligence program and can use it to produce land cover images based on satellite images. In other words, the wetland change area detection unit 320 can acquire time-series satellite images taken by season or year, that is, time-series satellite images of the wetland or its surrounding areas, and use them to generate learning data for detecting wetland change areas. there is. Here, the learning data can be called a training sample, and the unchanging wetland components located in the wetland or the surrounding area in the time series satellite image can be considered as the standard. Unchanged wetland components are selected in pixel units, and brightness information of individual components, such as wetland hydrology or wetland vegetation pixels, is acquired from the multispectral bands of time-series satellite images, and these are used as training samples for learning artificial intelligence learning models. It can be created from data. The wetland change area detection unit 320 can label this, such as a supervised learning method.

습지변화지역 탐지부(320)는 인공지능 학습모델의 학습이 완료되면 그 학습 모델을 개별 위성영상 즉 시계열 위성영상에서 특정 시점(예: 계절별, 년도별 등)의 위성영상에 적용하여 위성영상 기반의 토지피복 영상을 제작한다. 위성영상 기반의 토지피복 영상은 시계열 위성영상에서 습지 지역을 분류하여 생성한 영상으로서 도 2c에서 잘 보여주고 있다. 그리고 습지변화지역 탐지부(320)는 그 위성영상 기반의 토지피복 영상에서 GIS 데이터를 활용해 습지 구성요소가 정의된 영상을 생성할 수 있다. 이는 도 2d에서 잘 보여주고 있다. 토지피복 영상에서 습지 지역을 GIS 데이터로 표현 혹은 기록한 형태의 영상이 습지 구성요소 영상이 될 수 있다.When learning of the artificial intelligence learning model is completed, the wetland change area detection unit 320 applies the learning model to satellite images at a specific point in time (e.g., by season, year, etc.) from individual satellite images, that is, time-series satellite images, and uses the satellite image as the base. Produce land cover video. The satellite image-based land cover image is an image generated by classifying wetland areas from time series satellite images and is clearly shown in Figure 2c. And the wetland change area detection unit 320 can generate an image with defined wetland components using GIS data from the satellite image-based land cover image. This is clearly shown in Figure 2d. In a land cover image, an image in which the wetland area is expressed or recorded as GIS data can be a wetland component image.

습지변화지역 탐지부(320)는 습지 구성요소 영상을 제작하고 구성요소의 면적을 픽셀 단위로 산출하여 시기별 습지 구성요소의 현황을 생성하여 습지 지역 관리자 등이 파악하도록 할 수 있다. 시기별 개별 습지 구성요소의 면적은 위성영상 픽셀의 공간 해상도(PSR)의 제곱과 픽셀 개수의 곱에 의해 계산될 수 있다. 이와 같이 개별 위성영상(예: 작년 봄과 올해 봄 등)으로부터 제작된 습지 구성요소 영상을 시계열로 비교하여 픽셀 단위의 동일 지역에서 습지 구성요소가 다를 경우 습지 구성요소가 변화된 지역을 선정하여 이에 대한 정보를 습지를 관리하는 관리자 등에게 정보를 제공해 줄 수 있다.The wetland change area detection unit 320 can produce an image of wetland components and calculate the area of the components in pixel units to generate the status of wetland components by period so that wetland area managers, etc. can identify them. The area of individual wetland components for each period can be calculated by multiplying the square of the spatial resolution (PSR) of the satellite image pixels and the number of pixels. In this way, wetland component images produced from individual satellite images (e.g., last year's spring and this year's spring, etc.) are compared in time series, and if wetland components are different in the same area at the pixel level, the area where wetland components have changed is selected and Information can be provided to managers who manage wetlands.

저장부(330)는 제어부(310)의 제어하에 처리되는 다양한 유형의 정보나 데이터를 임시 저장할 수 있다. 저장부(330)는 가령 시계열 위성영상의 데이터를 저장한 후 영상 분석을 위해 습지변화지역 탐지부(320)로 제공할 수 있다.The storage unit 330 may temporarily store various types of information or data that are processed under the control of the control unit 310. The storage unit 330 may store data from, for example, time-series satellite images and then provide the data to the wetland change area detection unit 320 for image analysis.

상기한 내용 이외에도 도 3의 통신 인터페이스부(300), 제어부(310), 습지변화지역 탐지부(320) 및 저장부(330)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the communication interface unit 300, control unit 310, wetland change area detection unit 320, and storage unit 330 of FIG. 3 can perform various operations, and other details have been sufficiently explained previously. I would like to replace it with those contents.

본 발명의 실시예에 따른 도 3의 통신 인터페이스부(300), 제어부(310), 습지변화지역 탐지부(320) 및 저장부(330)는 서로 물리적으로 분리된 하드웨어 모듈로 구성되지만, 각 모듈은 내부에 상기의 동작을 수행하기 위한 소프트웨어를 저장하고 이를 실행할 수 있을 것이다. 다만, 해당 소프트웨어는 소프트웨어 모듈의 집합이고, 각 모듈은 하드웨어로 형성되는 것이 얼마든지 가능하므로 소프트웨어니 하드웨어니 하는 구성에 특별히 한정하지 않을 것이다. 예를 들어 저장부(330)는 하드웨어인 스토리지(storage) 또는 메모리(memory)일 수 있다. 하지만, 소프트웨어적으로 정보를 저장(repository)하는 것도 얼마든지 가능하므로 위의 내용에 특별히 한정하지는 않을 것이다.The communication interface unit 300, control unit 310, wetland change area detection unit 320, and storage unit 330 of FIG. 3 according to an embodiment of the present invention are composed of hardware modules that are physically separated from each other, but each module will be able to store software to perform the above operations internally and execute it. However, the software is a set of software modules, and each module can be formed of hardware, so there will be no particular limitation on the configuration of software or hardware. For example, the storage unit 330 may be hardware, such as storage or memory. However, since it is possible to store information through software (repository), the above content will not be specifically limited.

한편, 본 발명의 다른 실시예로서 제어부(310)는 CPU 및 메모리를 포함할 수 있으며, 원칩화하여 형성될 수 있다. CPU는 제어회로, 연산부(ALU), 명령어해석부 및 레지스트리 등을 포함하며, 메모리는 램을 포함할 수 있다. 제어회로는 제어동작을, 그리고 연산부는 2진비트 정보의 연산동작을, 그리고 명령어해석부는 인터프리터나 컴파일러 등을 포함하여 고급언어를 기계어로, 또 기계어를 고급언어로 변환하는 동작을 수행할 수 있으며, 레지스트리는 소프트웨어적인 데이터 저장에 관여할 수 있다. 상기의 구성에 따라, 가령 습지변화지역 탐지장치(120)의 동작 초기에 습지변화지역 탐지부(320)에 저장되어 있는 프로그램을 복사하여 메모리 즉 램(RAM)에 로딩한 후 이를 실행시킴으로써 데이터 연산 처리 속도를 빠르게 증가시킬 수 있다. 딥러닝 모델 같은 경우 램(RAM)이 아닌 GPU 메모리에 올라가 GPU를 이용하여 수행 속도를 가속화하여 실행될 수도 있다.Meanwhile, as another embodiment of the present invention, the control unit 310 may include a CPU and memory, and may be formed as a single chip. The CPU includes a control circuit, an arithmetic unit (ALU), an instruction interpretation unit, and a registry, and the memory may include RAM. The control circuit performs control operations, the operation unit performs operations on binary bit information, and the command interpretation unit includes an interpreter or compiler, which can convert high-level language into machine language and machine language into high-level language. , the registry may be involved in software data storage. According to the above configuration, for example, at the beginning of the operation of the wetland change area detection device 120, the program stored in the wetland change area detection unit 320 is copied, loaded into memory, that is, RAM, and then executed to perform data operation. Processing speed can be quickly increased. In the case of deep learning models, they can be loaded into GPU memory rather than RAM and executed by accelerating the execution speed using GPU.

도 4는 본 발명의 실시예에 따른 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법을 나타내는 흐름도이다.Figure 4 is a flowchart showing a method for detecting wetland component change areas using time-series satellite images and GIS data according to an embodiment of the present invention.

설명의 편의상 도 4를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 습지변화지역 탐지장치(120)는 임의 지역의 습지수문, 습지식생 및 습지토양의 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델 즉 인공지능 프로그램을 시계열 위성영상에서 지정 시기의 개별 위성영상에 적용하여 습지 구성요소를 분류하는 위성영상 기반의 토지피복 영상을 제작한다(S400). 여기서, 시계열 위성영상은 도 2a에서와 같이 습지나 그 주변 지역에 대한 위성영상을 의미할 수 있으며, 토지피복 영상은 습지 지역으로 한정하는 영상이 될 수 있다.For convenience of explanation, referring to FIG. 4 together with FIG. 1, the wetland change area detection device 120 according to an embodiment of the present invention learns learning data related to wetland hydrology, wetland vegetation, and wetland components of wetland soil in a random area. An artificial intelligence model, that is, an artificial intelligence program, is applied to individual satellite images at a designated time from time series satellite images to produce a land cover image based on satellite images that classifies wetland components (S400). Here, the time series satellite image may refer to a satellite image of a wetland or its surrounding area, as shown in Figure 2a, and the land cover image may be an image limited to the wetland area.

또한 습지변화지역 탐지장치(120)는 GIS 데이터를 활용하여 기제작한 토지피복 영상에서 습지 구성요소의 영역을 정의할 수 있다(S410). 예를 들어 기제작된 토지 피복 영상은 변하는 습지 구성요소의 영역과 변하지 않는 습지 구성요소의 영역을 포함할 수도 있다. 가령 본 발명의 실시예에서는 변하는 습지 구성요소의 영역에 관심이 있으므로, 이에 대한 영역을 따라 GIS 데이터를 지정할 수 있다.Additionally, the wetland change area detection device 120 can define the area of wetland components in a land cover image already produced using GIS data (S410). For example, a pre-produced land cover image may include areas of wetland components that change and areas of wetland components that do not change. For example, in an embodiment of the present invention, since we are interested in the area of changing wetland components, GIS data can be specified along the area.

나아가 습지변화지역 탐지장치(120)는 정의한 습지 구성요소의 영역을 시계열로 비교하여 습지 구성요소가 변화된 지역을 탐지한다(S420). 예를 들어 습지 구성요소 영역은 다시 말해 가령 계절별 또는 년도별로 정의되는 습지 구성요소의 영역을 GIS 데이터를 통해 영역이 정의될 수 있고, 또 해당 정의된 영역은 픽셀 단위로 면적이 계산될 수 있다. 이와 같이 계절별 또는 년도별로 습지 구성요소의 현황을 파악 즉 분석하여 어떠한 구성요소가 어떠한 구성요소로 변화되었는지를 탐지할 수 있게 된다. 예를 들어 식생은 토양으로 변화할 수 있고, 또 수문은 식생으로 변화될 수 있으며, 이러한 변화를 탐지한다고 볼 수 있다.Furthermore, the wetland change area detection device 120 detects areas where wetland components have changed by comparing the areas of the defined wetland components in time series (S420). For example, the wetland component area may be defined through GIS data, that is, the area of the wetland component defined by season or year, and the area of the defined area may be calculated in pixel units. In this way, by identifying or analyzing the current status of wetland components by season or year, it is possible to detect which components have changed into which components. For example, vegetation can change into soil, and hydrology can change into vegetation, and it can be said that these changes are detected.

상기한 내용 이외에도 도 1의 습지변화지역 탐지장치(120)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the wetland change area detection device 120 of FIG. 1 can perform various operations, and other details have been sufficiently explained previously, so these will be replaced.

한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.Meanwhile, even though all the components constituting the embodiment of the present invention are described as being combined or operating in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the combined functions in one or more pieces of hardware. It may also be implemented as a computer program having. The codes and code segments that make up the computer program can be easily deduced by a person skilled in the art of the present invention. Such computer programs can be stored in non-transitory computer readable media and read and executed by a computer, thereby implementing embodiments of the present invention.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, a non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. . Specifically, the above-described programs may be stored and provided on non-transitory readable recording media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In the above, preferred embodiments of the present invention have been shown and described, but the present invention is not limited to the specific embodiments described above, and may be used in the technical field to which the invention pertains without departing from the gist of the invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

100: 인공위성 110: 통신망
120: 습지변화지역 탐지장치 130: 서드파티장치
300: 통신 인터페이스부 310: 제어부
320: 습지변화지역 탐지부 330: 저장부
100: satellite 110: communication network
120: Wetland change area detection device 130: Third-party device
300: communication interface unit 310: control unit
320: wetland change area detection unit 330: storage unit

Claims (10)

임의 지역의 습지수문, 습지식생 및 습지토양을 포함하는 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델을 시계열 위성영상에서 지정 시기에 수신된 개별 위성영상에 적용하여 상기 습지 구성요소를 포함하는 위성영상 기반의 토지피복 영상을 제작하는 단계;
상기 제작한 토지피복 영상에서 GIS(Geographic Information System) 데이터를 활용하여 상기 습지 구성요소의 영역을 정의하는 단계;
상기 정의한 습지 구성요소의 영역을 시계열(time-series)로 비교하여 습지 구성요소가 변화된 지역을 탐지하는 단계;를 포함하되,
상기 정의한 습지 구성요소의 영역에 대하여 픽셀 단위로 면적을 산출하는 단계;를 더 포함하며,
상기 지정 시기의 개별 습지 구성요소의 면적은, 픽셀의 개수 × PSR2(여기서, PSR은 위성영상 픽셀의 공간 해상도)의 관계식을 만족하도록 계산되는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법.
An artificial intelligence model that learns learning data related to wetland components, including wetland hydrology, wetland vegetation, and wetland soil in a random area, is applied to individual satellite images received at a specified time from time-series satellite images to generate wetland components containing the wetland components. Producing a land cover image based on satellite imagery;
defining an area of the wetland component using GIS (Geographic Information System) data from the produced land cover image;
Comprising the areas of the wetland components defined above in a time-series to detect areas where wetland components have changed,
It further includes calculating the area in pixel units for the area of the wetland component defined above,
The area of individual wetland components at the above designated time is calculated to satisfy the relationship of number of pixels × PSR 2 (where PSR is the spatial resolution of satellite image pixels). Wetland components using time series satellite images and GIS data. Change area detection method.
제1항에 있어서,
계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않는 습지 구성요소를 픽셀 단위로 선정하는 단계; 및
상기 선정한 픽셀 단위의 습지 구성요소에 대하여 상기 시계열 위성영상의 다중분광 밴드로부터 밝기값 정보를 획득하여 상기 인공지능 모델의 학습 데이터로 이용하는 단계;를
더 포함하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법.
According to paragraph 1,
Selecting, on a pixel basis, wetland components that do not change and are located in wetlands or surrounding areas from time-series satellite images captured by season or year; and
Obtaining brightness value information from the multi-spectral band of the time-series satellite image for the selected wetland component in pixel units and using it as training data for the artificial intelligence model;
Additionally, a method for detecting wetland component change areas using time series satellite images and GIS data.
제2항에 있어서,
상기 토지피복 영상을 제작하는 단계는,
상기 시계열 위성영상에서 상기 습지 구성요소를 포함하는 습지 영역을 추출하여 영상을 제작하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법.
According to paragraph 2,
The step of producing the land cover image is,
A method for detecting wetland component change areas using time-series satellite images and GIS data, which produces images by extracting wetland areas containing the wetland components from the time-series satellite images.
삭제delete 제1항에 있어서,
상기 탐지하는 단계는,
상기 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 습지 구성요소가 변화된 지역으로 선정하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 방법.
According to paragraph 1,
The detection step is,
A method for detecting wetland component change areas using time-series satellite images and GIS data to select an area with changed wetland components when wetland components are different in the same pixel-level area.
습지수문, 습지식생 및 습지토양의 습지 구성요소를 포함하는 임의 지역의 시계열 위성영상을 제공하는 외부장치; 및
상기 습지 구성요소와 관련한 학습 데이터를 학습한 인공지능 모델을 시계열 위성영상에서 지정 시기에 수신된 개별 위성영상에 적용하여 상기 습지 구성요소를 포함하는 위성영상 기반의 토지피복 영상을 제작하고, 상기 제작한 토지피복 영상에서 GIS 데이터를 활용하여 상기 습지 구성요소의 영역을 정의하며, 상기 정의한 습지 구성요소의 영역을 시계열로 비교하여 습지 구성요소가 변화된 지역을 탐지하는 습지변화지역 탐지장치;를 포함하되,
상기 습지변화지역 탐지장치는, 상기 정의한 습지 구성요소의 영역에 대하여 픽셀 단위로 면적을 산출하며, 상기 지정 시가의 개별 습지 구성요소의 면적은 픽셀의 개수 × PSR2(여기서, PSR은 위성영상 픽셀의 공간 해상도)의 관계식을 만족하도록 계산하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 시스템.
An external device that provides time-series satellite images of an arbitrary area, including wetland hydrology, wetland vegetation, and wetland soil components; and
An artificial intelligence model that has learned learning data related to the wetland components is applied to individual satellite images received at a designated time from the time series satellite image to produce a land cover image based on the satellite image including the wetland component, and the production of the above It includes a wetland change area detection device that uses GIS data from a land cover image to define the area of the wetland component, and compares the area of the defined wetland component in time series to detect areas where the wetland component has changed. ,
The wetland change area detection device calculates the area of the wetland component area defined above in pixel units, and the area of the individual wetland component in the designated city area is the number of pixels × PSR 2 (where PSR is the satellite image pixel) A wetland component change area detection system using time-series satellite images and GIS data, which is calculated to satisfy the relational expression of (spatial resolution of).
제6항에 있어서,
상기 습지변화지역 탐지장치는, 계절별 또는 년도별로 촬영된 시계열 위성영상에서 습지 또는 주변 지역에 위치하여 변하지 않는 습지 구성요소를 픽셀 단위로 선정하고, 상기 선정한 픽셀 단위의 습지 구성요소에 대하여 상기 시계열 위성영상의 다중분광 밴드로부터 밝기값 정보를 획득하여 상기 인공지능 모델의 학습 데이터로 이용하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 시스템.
According to clause 6,
The wetland change area detection device selects wetland components that do not change and are located in wetlands or surrounding areas on a pixel basis from time-series satellite images taken by season or year, and selects wetland components in pixel units selected from the time-series satellite images. A wetland component change area detection system using time-series satellite images and GIS data, which acquires brightness value information from the multispectral bands of the image and uses it as learning data for the artificial intelligence model.
제7항에 있어서,
상기 습지변화지역 탐지장치는, 상기 토지피복 영상을 제작하기 위해 상기 시계열 위성영상에서 상기 습지 구성요소를 포함하는 습지 영역을 추출하여 영상을 제작하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 시스템.
In clause 7,
The wetland change area detection device extracts a wetland area including the wetland component from the time-series satellite image to produce an image of the wetland component using time-series satellite image and GIS data to produce the land cover image. Change area detection system.
삭제delete 제6항에 있어서,
상기 습지변화지역 탐지장치는, 상기 픽셀 단위의 동일한 지역에서 습지 구성요소가 다를 경우 습지 구성요소가 변화된 지역으로 선정하는, 시계열 위성영상과 GIS 데이터를 활용한 습지 구성요소 변화 지역 탐지 시스템.
According to clause 6,
The wetland change area detection device is a wetland component change area detection system using time-series satellite images and GIS data that selects an area where wetland components have changed when wetland components are different in the same area in the pixel unit.
KR1020230111476A 2023-08-24 2023-08-24 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data KR102648844B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230111476A KR102648844B1 (en) 2023-08-24 2023-08-24 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230111476A KR102648844B1 (en) 2023-08-24 2023-08-24 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data

Publications (1)

Publication Number Publication Date
KR102648844B1 true KR102648844B1 (en) 2024-03-18

Family

ID=90474021

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230111476A KR102648844B1 (en) 2023-08-24 2023-08-24 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data

Country Status (1)

Country Link
KR (1) KR102648844B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001614A (en) * 2007-05-03 2009-01-09 대한민국(산림청 국립수목원장) Method for searching wet land position based on gis
KR101744662B1 (en) 2016-11-30 2017-06-09 주식회사 지오스토리 System for classifying halophytes using hyper-spectral imaging
KR101809656B1 (en) * 2016-10-06 2017-12-18 (주)지오씨엔아이 System and method for detecting aquaculture farm facility based satellite image
KR102366267B1 (en) 2019-11-20 2022-02-21 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof
KR102526638B1 (en) * 2022-04-21 2023-04-28 (주) 지오씨엔아이 Time-series shoreline detection device using multi-time satellite image and artificial intelligence and driving method of the device
KR102533928B1 (en) 2022-11-01 2023-05-19 (주) 지오씨엔아이 Method and System for Automatically Detecting Reservoirs Using the 3D Spatial Imagery Datasets

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001614A (en) * 2007-05-03 2009-01-09 대한민국(산림청 국립수목원장) Method for searching wet land position based on gis
KR101809656B1 (en) * 2016-10-06 2017-12-18 (주)지오씨엔아이 System and method for detecting aquaculture farm facility based satellite image
KR101744662B1 (en) 2016-11-30 2017-06-09 주식회사 지오스토리 System for classifying halophytes using hyper-spectral imaging
KR102366267B1 (en) 2019-11-20 2022-02-21 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof
KR102526638B1 (en) * 2022-04-21 2023-04-28 (주) 지오씨엔아이 Time-series shoreline detection device using multi-time satellite image and artificial intelligence and driving method of the device
KR102533928B1 (en) 2022-11-01 2023-05-19 (주) 지오씨엔아이 Method and System for Automatically Detecting Reservoirs Using the 3D Spatial Imagery Datasets

Similar Documents

Publication Publication Date Title
Vivekananda et al. Multi-temporal image analysis for LULC classification and change detection
Nichol et al. Satellite remote sensing for detailed landslide inventories using change detection and image fusion
Knoth et al. Unmanned aerial vehicles as innovative remote sensing platforms for high‐resolution infrared imagery to support restoration monitoring in cut‐over bogs
Im et al. A change detection model based on neighborhood correlation image analysis and decision tree classification
Milas et al. Different colours of shadows: Classification of UAV images
Rogan et al. A comparison of methods for monitoring multitemporal vegetation change using Thematic Mapper imagery
Zhang et al. Object-oriented method for urban vegetation mapping using IKONOS imagery
Anderson et al. Characterizing relationships between population density and nighttime imagery for Denver, Colorado: Issues of scale and representation
CN108369635A (en) The method with analysis is obtained for aerial image
Leon et al. Improving the synoptic mapping of coral reef geomorphology using object-based image analysis
Costa et al. Combining per-pixel and object-based classifications for mapping land cover over large areas
Alleaume et al. A generic remote sensing approach to derive operational essential biodiversity variables (EBVs) for conservation planning
Koch Remote sensing supporting national forest inventories NFA
Ivits et al. Landscape structure assessment with image grey‐values and object‐based classification at three spatial resolutions
KR102526638B1 (en) Time-series shoreline detection device using multi-time satellite image and artificial intelligence and driving method of the device
Blanco et al. Ecological site classification of semiarid rangelands: Synergistic use of Landsat and Hyperion imagery
Acito et al. CWV-Net: A deep neural network for atmospheric column water vapor retrieval from hyperspectral VNIR data
Rumora et al. Spatial video remote sensing for urban vegetation mapping using vegetation indices
Hooda IoT and remote sensing
Fryskowska et al. Some aspects of satellite imagery integration from Eros B and Landsat 8
KR102648844B1 (en) Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data
Soltani et al. Transfer learning from citizen science photographs enables plant species identification in UAV imagery
KR102533928B1 (en) Method and System for Automatically Detecting Reservoirs Using the 3D Spatial Imagery Datasets
Yadav et al. Supervised learning based greenery region detection using unnamed aerial vehicle for smart city application
Schiewe Status and future perspectives of the application potential of digital airborne sensor systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant