KR102316598B1 - Fabricating system and method of Landcover map, and Program recording media - Google Patents

Fabricating system and method of Landcover map, and Program recording media Download PDF

Info

Publication number
KR102316598B1
KR102316598B1 KR1020200124645A KR20200124645A KR102316598B1 KR 102316598 B1 KR102316598 B1 KR 102316598B1 KR 1020200124645 A KR1020200124645 A KR 1020200124645A KR 20200124645 A KR20200124645 A KR 20200124645A KR 102316598 B1 KR102316598 B1 KR 102316598B1
Authority
KR
South Korea
Prior art keywords
data
target area
land cover
map
cover map
Prior art date
Application number
KR1020200124645A
Other languages
Korean (ko)
Inventor
류영렬
위린
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020200124645A priority Critical patent/KR102316598B1/en
Application granted granted Critical
Publication of KR102316598B1 publication Critical patent/KR102316598B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for generating a landcover map and a manufacturing system for performing the method. A large amount of real-time data is formed through machine learning using a published street view image. Time-series data for each pixel of this large-scale real-time data and multi-channel spectral reflectivity data provided from a satellite are combined through machine learning. So, it is possible to manufacture a landcover map on a wide-area scale in an economical and reliable way.

Description

토지피복지도의 제작방법 및 제작시스템, 그 방법을 수행하는 프로그램이 수록된 기록매체{Fabricating system and method of Landcover map, and Program recording media}A recording medium containing a method for producing a land cover map, a production system, and a program for performing the method {Fabricating system and method of Landcover map, and Program recording media}

본 발명은 토지피복지도를 생성하는 방법과 그 방법을 수행하는 제작시스템에 대한 것이다.The present invention relates to a method for generating a land cover map and a manufacturing system for performing the method.

토지피복지도는 주제도의 일종으로, 지구표면 지형 지물의 형태를 일정한 과학적 기준에 따라 분류하여 동질의 특성을 지닌 구역을 컬러 인덱싱(Color Indexing)한 후 지도의 형태로 표현한 공간정보DB(Database)를 말하며, 이는 지표면의 현상을 가장 잘 반영하고 있기 때문에 지표면의 투수율에 의한 비점오염원 부하량 산정, 비오톱 지도 작성에 의한 도시계획, 댐 수문 방류 시 하류지역 수몰피해 시뮬레이션, 기후대기 예측 모델링, 환경영향평가 등에 폭넓게 활용될 수 있고, 현재 중앙정부 및 지방정부의 환경정책수립의 과학적 근거 및 관련 학계의 다양한 연구 자료로 활용되고 있다.The land cover map is a kind of thematic map, and it is a spatial information DB (Database) that is expressed in the form of a map after color indexing the areas with homogeneous characteristics by classifying the shapes of the topographical features on the earth's surface according to certain scientific standards. Because it best reflects the phenomena of the ground surface, calculation of the load of nonpoint pollution sources based on the permeability of the ground surface, urban planning based on biotope map preparation, simulation of submergence damage in the downstream area at the time of discharge from the dam sluice, climate and atmospheric prediction modeling, environmental impact assessment It can be widely used, and is currently being used as a scientific basis for the establishment of environmental policies by the central and local governments and as various research data in related academia.

토지피복지도는 공간해상도에 따라 대분류(해상도 30M급), 중분류(해상도 5M급), 세분류(해상도 1M급)의 세 가지 위계를 갖고 있으며, 대분류는 우리나라의 대표적인 7가지 토지피복 지목(시가화/건조지역, 농업지역, 산림지역, 초지, 습지, 나지, 수역)으로 정의되어 있고, 중분류는 총 22개 지목(주거지역, 공업지역, 상업지역, 문화/체육/휴양지역, 교통지역, 공공시설지역, 논, 밭, 시설재배지, 과수원, 기타재배지, 활엽수림, 침엽수림, 혼효림, 자연초지, 인공초지, 내륙습지, 연안습지, 자연 나지, 기타 나지, 내륙수, 해양수)으로, 세분류는 총 41개 지목(단독주거시설, 공동주거시설, 공업시설, 상업/업무시설, 혼합지역, 문화/체육/휴양시설, 공항, 항만, 철도, 도로, 기타 교통/통신시설, 환경기초시설, 교육/행정시설, 기타 공공시설, 경지정리가 된 논, 경지정리가 안 된 논, 경지정리가 된 밭, 경지정리가 안 된 밭, 시설재배지, 과수원, 목장/양식장, 기타재배지, 활엽수림, 침엽수림, 혼효림, 자연초지, 골프장, 묘지, 기타 초지, 내륙습지, 갯벌, 염전, 해변, 강기슭, 암벽/바위, 채광지역, 운동장, 기타 나지, 하천, 호소, 해양수)으로 보다 세분화되어 있으며, 중앙정부 부처인 환경부에 의해서 전국 단위 구축 및 갱신이 이루어지고 있다.The land cover map has three hierarchies according to spatial resolution: large classification (resolution 30M class), medium classification (resolution 5M class), and subclassification (resolution 1M class). It is defined as arid area, agricultural area, forest area, grassland, wetland, bare area, and water area), and the middle classification is a total of 22 areas (residential area, industrial area, commercial area, cultural/sports/recreation area, transportation area, public facility) Area, paddy field, field, facility cultivation area, orchard, other cultivated land, broadleaf forest, coniferous forest, mixed forest, natural grassland, artificial grassland, inland wetland, coastal wetland, natural bare area, other open land, inland water, marine water) 41 areas (detached residential facilities, shared residential facilities, industrial facilities, commercial/business facilities, mixed areas, cultural/sports/recreational facilities, airports, ports, railways, roads, other transportation/communication facilities, environmental basic facilities, education/ Administrative facilities, other public facilities, cultivated rice fields, cultivated rice fields, cultivated fields, cultivated fields, orchards, ranches/farms, other cultivated fields, broadleaf forests, coniferous forests, It is further subdivided into mixed forests, natural grasslands, golf courses, graveyards, other grasslands, inland wetlands, tidal flats, salt fields, beaches, riverbanks, rocks/rocks, mining areas, playgrounds, other open fields, rivers, lakes, and ocean water), and the central government Construction and renewal are being carried out on a national level by the Ministry of Environment, a ministry.

다양한 위성영상 및 항공영상을 이용하여 1998년 전국 단위의 대분류 토지피복지도가 최초 구축된 이래, 2010년까지 전국 단위 중분류 토지피복지도의 구축이 완료되었고, 2010년부터는 한강 및 낙동강 유역 일부 지역을 대상으로 세분류 토지피복지도가 제작되고 있다.Since the first national large-class land cover map was constructed in 1998 using various satellite and aerial images, the construction of a nationwide mid-class land cover map was completed by 2010. Subdivision land cover maps are being produced.

다만, 이러한 토지피복지도의 제작과 갱신은 한정된 지역 단위에 대한 영상분석을 기준으로 구현되는 특성상 광범위한 영역 단위(국가단위)의 제작이 어려우며, 항공영상을 사용하는 경우에도 이에 대한 검증과 보정을 위해 광범위한 지표기준점 자료를 필요로 하여 시간과 비용의 소요가 크게 증가하는 문제를 초래하고 있다. 또한, 특정 지역 단위의 정보 갱신에도 많은 비용이 소요되어, 보다 효율적인 제작방법의 필요성과 지역적인 범위 제한을 넘어서는 피복지도의 생성 방법의 필요성이 커지고 있다.However, it is difficult to produce a wide area unit (country unit) due to the nature of the production and update of this land cover map based on image analysis for a limited area unit. It requires a wide range of reference point data, causing a problem in that time and cost are greatly increased. In addition, since it takes a lot of cost to update information on a specific regional basis, the need for a more efficient production method and a method for generating a cover map that goes beyond regional limits are growing.

한국등록특허 제10-2009573호Korean Patent Registration No. 10-2009573 한국등록특허 제10-1724801호Korean Patent Registration No. 10-1724801

본 발명은 상술한 필요성을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 스트리트뷰 이미지를 이용하여 기계학습을 통해 대용량의 실사데이터를 형성하고, 이 대용량의 실사데이터와 인공위성에서 제공되는 다중채널 분광 반사도 자료의 픽셀 별 시계열 자료를 기계학습을 통해 결합하여, 경제적이면서도 신뢰성 있는 방법으로 광역규모에서 토지피복지도를 제작할 수 있는 방법 및 시스템을 제공하는 데 있다.The present invention has been devised to solve the above needs, and an object of the present invention is to form a large-capacity live-action data through machine learning using a street view image, and multi-channel spectroscopy provided by this large-capacity live-action data and satellites The purpose of this study is to provide a method and system that can produce land cover maps on a wide-area scale in an economical and reliable way by combining time series data for each pixel of reflectivity data through machine learning.

상술한 과제를 해결하기 위한 수단으로서, 본 발명의 실시예에서는, (A) 경위도 정보가 포함되는 이미지 제공 서버들로부터, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하는 단계; (B) 상기 대상지역의 경위도 정보에 대응되는 스트리트뷰이미지를 취득하여, 기계학습을 통해 대용량 실사 데이터(massive ground truth; 제1데이터)를 형성하는 단계; (C) 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 상기 대상지역에 대한 시계열 스펙트럼 반사율과 식생지수 데이터를 도출하여 제2데이터를 형성하는 단계; 및 (D) 상기 제1데이터 및 제2데이터를 결합한 결과를 입력값으로 합성곱신경망(CNN; Convolutional neural network)을 이용하여, 대상지역의 토양의 피복지도를 형성하는 단계;를 포함하는, 토지피복지도의 제작방법을 제공할 수 있도록 한다.As a means for solving the above-mentioned problem, in an embodiment of the present invention, (A) obtaining a street view image corresponding to the longitude and latitude information of the target area from image providing servers including the longitude and latitude information; (B) obtaining a street view image corresponding to the longitude and latitude information of the target area, and forming a massive ground truth (first data) through machine learning; (C) obtaining the spectral reflectivity data of the artificial satellite for the target area, and forming second data by deriving the time series spectral reflectance and vegetation index data for the target area; and (D) using the result of combining the first data and the second data as an input value to form a cover map of the soil of the target area using a convolutional neural network (CNN). To provide a method for making a cover map.

또한, 본 발명의 다른 실시예에서는, 상술한 토지피복지도의 제작방법을 구현하기 위한 시스템으로서, 경위도 정보를 포함하는 이미지를 제공하는 스트리트뷰 이미지제공서버; 상기 이미지제공서버들에서 대상지역의 경위도 정보에 대응되는 스트리트뷰이미지를 취득하여, 기계학습을 통해 대용량 실사 데이터(massive ground truth; 제1데이터)를 형성하는 지상참조데이터산출모듈(100); 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성하는 시계열데이터산출모듈(200) 및 상기 제1데이터 및 제2데이터를 입력값으로, 합성곱신경망(CNN)을 이용하여, 대상지역의 토양의 피복지도를 형성하는 토지피복지도형성모듈(300)을 포함하는, 토지피복지도 제작시스템을 제공할 수 있도록 한다.In addition, in another embodiment of the present invention, as a system for implementing the above-described method for producing a land cover map, a street view image providing server that provides an image including longitude and latitude information; a ground reference data calculation module 100 for obtaining a street view image corresponding to the longitude and latitude information of the target area from the image providing servers, and forming massive ground truth (first data) through machine learning; A time series data calculation module 200 that acquires spectral reflectance data of artificial satellites for a target area, derives time series spectral reflectance data to form second data, and a convolutional neural network ( CNN) to provide a land cover map production system, including a land cover map formation module 300 that forms a cover map of the soil of the target area.

또한, 본 발명의 다른 실시예로서, 토지피복지도의 제작방법을 수행하는 프로그램이 수록된 기록매체를 제공할 수 있도록 한다.In addition, as another embodiment of the present invention, it is possible to provide a recording medium in which a program for performing a method of manufacturing a land cover map is recorded.

본 발명의 실시예에 따르면, 공개된 스트리트뷰 이미지를 이용하여 기계학습을 통해 대용량의 실사데이터를 형성하고, 이 대용량의 실사데이터와 인공위성에서 제공되는 다중채널 분광 반사도 자료의 픽셀별 시계열 자료를 기계학습을 통해 결합하여, 경제적이면서도 신뢰성 있는 방법으로 광역규모에서 토지피복지도를 제작할 수 있는 장점이 구현된다.According to an embodiment of the present invention, a large-capacity actual data is formed through machine learning using a public street view image, and the time-series data for each pixel of the large-capacity actual data and multi-channel spectral reflectivity data provided from the satellite are machined. By combining through learning, the advantage of being able to produce land cover maps on a wide-area scale in an economical and reliable way is realized.

또한, 본 발명에 따르면, 농작물, 수목, 건물, 암반 등 다양한 토지피복의 유형을 분류하고 이에 대한 기계학습을 통한 신뢰도 높은 토지피복지도를 생성할 수 있게 하여, 토지의 이용이나 피복의 변경, 토지커버면적의 추정, 농작물 생산모니터링 등의 다양한 응용 산업에 적용할 수 있다.In addition, according to the present invention, it is possible to classify various types of land cover, such as crops, trees, buildings, and bedrock, and create a land cover map with high reliability through machine learning for this, so that land use or change of cover, land It can be applied to various application industries such as estimation of cover area and monitoring of crop production.

도 1은 본 발명의 실시예에 따른 토지피복지도의 제작방법을 수행하는 순서도를 도시한 것이다.
도 2는 도 1의 과정을 수행하는 본 발명의 다른 실시예에 따른 토지피복지도의 제작 시스템 구성블록도를 도시한 것이다.
도 3 내지 도 15는 본 발명의 실시예에 따른 토지피복지도 생성방법을 적용한 실시예를 예시한 도면이다.
1 is a flowchart illustrating a method of manufacturing a land cover map according to an embodiment of the present invention.
FIG. 2 is a block diagram of a system for manufacturing a land cover map according to another embodiment of the present invention performing the process of FIG. 1 .
3 to 15 are diagrams illustrating an embodiment to which a method for generating a land cover map according to an embodiment of the present invention is applied.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Advantages and features of the present invention, and methods for achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed subject matter may be thorough and complete, and that the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1은 본 발명의 실시예에 따른 토지피복지도의 제작방법(이하, '본 발명'이라 한다.)을 수행하는 순서도를 도시한 것이다. 또한, 도 2는 도 1의 과정을 수행하는 본 발명의 다른 실시예에 따른 토지피복지도의 제작 시스템 구성블록도를 도시한 것이다.1 is a flowchart illustrating a method of manufacturing a land cover map (hereinafter referred to as 'the present invention') according to an embodiment of the present invention. In addition, FIG. 2 shows a block diagram of a manufacturing system of a land cover map according to another embodiment of the present invention for performing the process of FIG. 1 .

도 1 및 도 2를 참조하면, 본 발명은 (A) 경위도 정보가 포함되는 이미지 제공서버들로부터, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하는 단계와, (B) 상기 스트리트뷰 이미지를 토지피복 유형별로 분류하여 기계학습을 통해 대상지역에 대한 실사이미지데이터(massive ground truth ;제1데이터)를 형성하는 단계, (C) 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성하는 단계 및 (D) 상기 제1데이터 및 제2데이터를 결합한 결과를 입력 값으로 CNN(합성곱신경망 : Convolution Neural Network) 을 이용하여, 대상지역의 토양의 피복지도를 형성하는 단계를 포함하는 과정으로 수행될 수 있다. 이 경우, (A)단계와 (B)단계는 순차적으로 구현되거나, 동시에 구현할 수도 있어 그 순서의 순위에 제한을 두지 않는다.1 and 2, the present invention comprises the steps of: (A) acquiring a Street View image corresponding to longitude and latitude information of a target area from image providing servers including longitude and latitude information; (B) the Street View image classifying by land cover type to form massive ground truth (first data) for the target area through machine learning, (C) acquiring the spectral reflectivity data of the satellite for the target area, and time series spectrum Forming second data by deriving reflectance data and (D) using a CNN (Convolution Neural Network) as an input value for the result of combining the first data and the second data of the soil of the target area It may be carried out as a process including the step of forming a cover map. In this case, steps (A) and (B) may be implemented sequentially or may be implemented simultaneously, so there is no restriction on the order of the steps.

1. 지상 참조 데이터 산출과정1. Ground Reference Data Calculation Process

본 발명의 상기 (A)단계는, 경위도 정보가 포함되는 이미지 제공서버들로부터, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득한다. 따라서, 본 단계에서 적용되는 데이터는 토지피복지도를 형성할 대상지역의 경위도 정보를 바탕으로 대상지역을 특정하고, 특정된 대상지역에 대응되는 스트리트뷰 이미지를 추출하여 취득할 수 있도록 한다.In the step (A) of the present invention, a street view image corresponding to the longitude and latitude information of the target area is acquired from the image providing servers including the longitude and latitude information. Therefore, the data applied in this step specifies the target area based on the longitude and latitude information of the target area to form the land cover map, and extracts and acquires a street view image corresponding to the specified target area.

여기에서, 상기 이미지제공서버는 상용화된 포털사이트나 웹사이트의 서버로, 일예로, 구글에서 제공하는 실사 웹지도 서비스인 구글 스트리트 뷰(Google Street View)나, 한국의 네이버(naver)나 다음(daum)과 같은 포털에서 제공하는 스트릿뷰, 중국의 바이두와 같은 포털에서 제공하는 스트릿뷰와 같이, 특정 지역에 대한 경도 및 위도 정보가 병행하여 형성된 이미지뷰를 제공하는 서버를 통칭한다. 따라서, 본 발명에 적용되는 스트리트뷰 이미지는 다양한 웹지도 서비스의 이미지를 사용할 수 있으며, 이는 공개된 오픈소스에 해당하여 그 활용성의 제한이 없으며, 실제 이미지의 정보를 포함하며 해당 지역의 경도와 위도의 정보를 포함하는 것이면 본 발명에 사용할 수 있다. Here, the image providing server is a server of a commercialized portal site or website, for example, Google Street View, a live-action web map service provided by Google, or Korea's Naver or Daum ( daum), a server that provides an image view that is formed in parallel with longitude and latitude information for a specific area, such as Street View provided by portals such as Baidu in China and Street View provided by portals such as Baidu in China. Therefore, the Street View image applied to the present invention can use images from various web map services, which are open source and have no limitation in their usability. It can be used in the present invention as long as it contains information of

이러한 일예로, 본 발명에서는, 구글 스트리트 뷰(Google Street View;GSV)에서 제공하는 이미지 데이터를 이용할 수 있는 것을 예로 들어 설명하기로 한다. 구글 스트리트 뷰는 상세한 지리좌표와 시간정보를 포함하는 방대한 양의 파노라마 이미지를 글로벌 규모로 제공하며, 본 발명의 실시예에서는 이미지 데이터를 이용하여 기계학습을 통해, 대량의 지상 참조 데이터(massive ground truth)를 산출할 수 있도록 한다. 본 과정에 적용되는 기계학습 방법의 경우, random forest, CNN(합성곱신경망 : Convolution Neural Network) 등의 다양한 기계학습 방법이 적용될 수 있으며, 본 발명의 실시예에서는, CNN(합성곱신경망 : Convolution Neural Network)을 적용하여 구현할 수 있도록 한다.As such an example, in the present invention, an example in which image data provided by Google Street View (GSV) can be used will be described as an example. Google Street View provides a large amount of panoramic images including detailed geographic coordinates and time information on a global scale, and in an embodiment of the present invention, a large amount of ground truth data (massive ground truth) is performed through machine learning using image data. ) to be calculated. In the case of the machine learning method applied to this process, various machine learning methods such as random forest and CNN (Convolution Neural Network) can be applied, and in the embodiment of the present invention, CNN (Convolution Neural Network) Network) to make it possible to implement.

다음으로, 상기 (B)단계는, 상기 (A)단계에서 취득한 스트리트뷰 이미지를 토지피복 유형별로 분류하여 기계학습을 통해 대상지역에 대한 실사 이미지데이터(이하, '제1데이터'라 한다.)를 형성하는 과정이다.Next, in step (B), the street view image acquired in step (A) is classified by land cover type, and actual image data for the target area through machine learning (hereinafter referred to as 'first data'). is the process of forming

즉, 본 발명에서 기계학습을 통한 훈련과 검증을 위해서는 광범위한 참조 데이터(Ground reference)가 필요하게 되며, 이러한 참조 데이터는 일반적으로 파일조사, 인구조사 데이터, 원격감지제품의 시각적 해석이 포함되나, 기존의 참조데이터의 산출방식은 시간이 많이 걸리고, 노동집약적이며, 비용이 많이 소요되는바, 매우 제한된 참조 데이터를 구축하는 한계가 있었다. 본 발명은 이러한 참조 데이터를 형성함에 있어, 스트리트 뷰 이미지를 취득하고 가공하여 활용하도록 하여, 시간과 비용, 그리고 범위의 제약을 일소할 수 있도록 한다. 참조데이터의 형성과정(labelling)의 경우, 취득된 데이터를 훈련(training)과 검증(validation)에 적용될 데이터로 구분하여 적용할 수 있도록 하는 데이터 세트를 구현할 수 있도록 한다.That is, in the present invention, extensive reference data (ground reference) is required for training and verification through machine learning, and these reference data generally include file surveys, census data, and visual interpretation of remote sensing products, but The method of calculating the reference data of . The present invention makes it possible to obtain, process, and utilize a street view image in forming such reference data, thereby eliminating time, cost, and limitation of scope. In the case of labeling of reference data, it is possible to implement a data set that can be applied by dividing the acquired data into data to be applied to training and validation.

이를 위해, 본 발명의 (B)단계는, (b1) 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현하고, (b2) 합성곱신경망(CNN)을 이용하여 취득된 훈련(training) 데이터세트의 정보를 학습하여, (b3) 대용량 실사 데이터(massive ground truth; 제1데이터)를 형성하는 과정을 통해, 참조 데이터를 형성할 수 있도록 한다. 동시에, 상술한 참조데이터 세트에 검증 데이터 세트를 적용하여 검증(validation) 과정을 진행할 수 있도록 한다.To this end, in step (B) of the present invention, (b1) processing the acquired street view image, classifying it by land cover type, and implementing it as a patterned training dataset, (b2) using a convolutional neural network (CNN) By learning the information of the acquired training dataset, (b3) it is possible to form reference data through the process of forming massive ground truth (first data). At the same time, a validation process can be performed by applying the validation data set to the aforementioned reference data set.

2. 픽셀기반 시계열 데이터 산출과정2. Pixel-based time series data calculation process

다음으로, 본 발명의 (C)단계는, 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율과 식생지수 데이터를 도출하여 제2데이터를 형성하는 과정으로 구현된다. 본 단계에서 취득되는 인공위성의 데이터의 경우, 위성영상을 기본으로 하고 있는바, 시계열 정보와 공간계열 정보를 동시에 구비하고 있으며, 본 발명의 대상지역에 대한 일정 시간 간격의 시계열데이터를 도출하는 경우, 특정 대상지역에 대한 공간 시계열 자료를 취득할 수 있다.(이를 테면, 한반도 전체에 대하여, 30m 해상도로 2주 간격의 시계열 위성자료를 취득하고, 이에 대한 분광반사도자료 및 식생지수 데이터 산출)Next, step (C) of the present invention is implemented as a process of obtaining the spectral reflectance data of the artificial satellite for the target area, and forming the second data by deriving the time series spectral reflectance and vegetation index data. In the case of the artificial satellite data acquired in this step, since it is based on satellite images, it has time series information and spatial series information at the same time. It is possible to acquire spatial time series data for a specific target area. (For example, for the entire Korean Peninsula, time series satellite data at 30m resolution are acquired at 2-week intervals, and spectral reflectivity data and vegetation index data are calculated.)

상기 대상지역에 대한 대용량 실사 데이터(massive ground truth; 제1데이터)를 참조데이터로 산출하고, 이와는 별개로 동일 대상지역에 대한 인공위성의 분광반사도 데이터를 취득하여 가공할 수 있도록 한다.The massive ground truth (first data) for the target area is calculated as reference data, and the spectral reflectivity data of the artificial satellite for the same target area can be obtained and processed separately from this.

이를 위해, 상기 (C)단계는, (c1) 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, (c2) 취득한 분광반사도 자료에서, Fmask 알고리즘을 적용하여 부적합 데이터를 제거하기 위해 필터링하고, (c3) 필터링한 데이터에서 시계열 스펙트럼 반사율 데이터 도출하는 단계를 포함하여 구성될 수 있다.To this end, the step (C) is, (c1) acquiring the spectral reflectivity data of the artificial satellite for the target area, (c2) filtering the obtained spectral reflectivity data to remove inappropriate data by applying the Fmask algorithm, ( c3) may be configured including the step of deriving time series spectral reflectance data from the filtered data.

일예로, 상기 인공위성의 분광반사도 자료는, 미국 지질조사국 데이터베이스(https://earthexplorer.usgs.gov/))에서 사용할 수 있는 Landsat 7 또는 8 Collection 1 Level-2에서 반사도 자료(surface reflectance)를 취득하여 사용할 수 있다. 물론, 인공위성의 자료 취득의 소스가 이에 한정되는 것은 아니다.For example, for the spectral reflectance data of the satellite, surface reflectance is acquired from Landsat 7 or 8 Collection 1 Level-2, which can be used in the US Geological Survey database (https://earthexplorer.usgs.gov/). can be used by Of course, the source of the satellite data acquisition is not limited thereto.

또한, (c2)과정의 경우, 분광반사도 데이터의 필터링하는 과정으로, 본 발명의 일예로, QGIS3 소프트웨어를 이용하여 취득한 반사도 자료(surface reflectance) 자료에서, 구름, 구름 그림자, 눈에 오염된 데이터를 제거하기 위해 Fmask 알고리즘을 적용하여 필터링할 수 있다.In addition, in the case of process (c2), it is a process of filtering spectral reflectance data. As an example of the present invention, in the surface reflectance data acquired using QGIS3 software, data polluted by clouds, cloud shadows, and snow In order to remove it, it can be filtered by applying the Fmask algorithm.

이렇게, 필터링을 수행한 데이터로 부터, 대상지역에 대한 시계열 스펙트럼 반사율 및 식생지수 데이터(이하, '제2데이터'라 한다.)를 도출한다.In this way, from the filtered data, time series spectral reflectance and vegetation index data for the target area (hereinafter referred to as 'second data') are derived.

이러한 제2데이터는 후술하는 제2기계학습(CNN)에서 제1데이터와 결합하여 입력되는 입력변수로 적용될 수 있도록 한다. 이는, 대상지역에 대한 원격 감지 표면 반사율 데이터는 시간 및 스펙트럼 특성을 고려하여, 토양의 피복지도를 구현할 수 있는바, CNN 모델에 대한 입력으로 시계열 스펙트럼 반사율 데이터(blue, green, red, SWIR1, 그리고 SWIR2)를 적용할 수 있도록 한다. 나아가, 작물이나 수목 등의 식생의 경우, 유사한 스펙트럼 정보를 가진 다른 수목이나 작물 유형의 분류를 방해할 수 있는바, 필요에 따라 식생지수를 제2데이터에 결합하여 입력값으로 할 수 있다. 이 경우, 적용되는 식생지수는, 필터링한 데이터를 기준으로, NDVI(정규 식생 지수), EVI(향상된 식물 지수), ENDVI(표준화된 정규식생 지수), LSWI(지표 수분 지수) 중 적어도 하나 이상을 포함할 수 있다.This second data is combined with the first data in second machine learning (CNN) to be described later so that it can be applied as an input variable. This is because the remote sensing surface reflectance data for the target area can implement a soil cover map in consideration of time and spectral characteristics. As an input to the CNN model, time series spectral reflectance data (blue, green, red, SWIR1, and SWIR2) can be applied. Furthermore, in the case of vegetation such as crops or trees, the classification of other trees or crop types with similar spectral information may be hindered. If necessary, the vegetation index may be combined with the second data to be an input value. In this case, the applied vegetation index is based on the filtered data, at least one or more of NDVI (Normal Vegetation Index), EVI (Enhanced Plant Index), ENDVI (Standardized Regular Vegetation Index), and LSWI (Land Water Index). may include

3. 토지피복지도 형성 과정3. Land Coverage Map Formation Process

다음으로, 본 발명에서는, 상술한 상기 제1데이터 및 제2데이터를 결합한 결과를 입력값으로 합성곱신경망(CNN)을 이용하여, 대상지역의 토양의 피복지도를 형성하는 (D)단계가 수행될 수 있다.Next, in the present invention, the step (D) of forming a soil cover map of the target area is performed by using a convolutional neural network (CNN) as an input value of the result of combining the above-described first data and second data. can be

즉, 상기 (D)단계는, 후술하는 시스템의 제2기계학습부를 통해, CNN모델의 입력으로, 제1데이터(대용량의 실사 데이터) 및 제2데이터(시계열 스펙트럼 반사율 데이터) 및 식생지수(VI)를 결합하여 학습을 수행하여, 토지피복지도를 형성할 수 있게 한다.That is, the step (D) is, as an input of the CNN model, through the second machine learning unit of the system to be described later, the first data (a large amount of actual data) and the second data (time-series spectral reflectance data) and the vegetation index (VI) ) to perform learning by combining them to form a land cover map.

이상의 상술한 본 발명에 따르면, 공개된 스트리트뷰 이미지를 이용하여 기계학습을 통해 대용량의 실사데이터를 형성하고, 이 대용량의 실사데이터(massive ground truth; 제1데이터)와 인공위성에서 제공되는 다중채널 분광 반사도 자료의 픽셀별 시계열 자료를 기계학습을 통해 결합하여, 경제적이면서도 신뢰성있는 방법으로 광역규모에서 토지피복지도를 제작할 수 있게 된다.According to the above-described present invention, a large-capacity actual data is formed through machine learning using a public street view image, and multi-channel spectroscopy provided from this large-capacity ground truth (first data) and an artificial satellite. By combining the time series data for each pixel of the reflectivity data through machine learning, it is possible to produce a land cover map on a wide scale in an economical and reliable way.

4. 토지피복지도 제작시스템4. Land cover map production system

이하에서는, 상술한 본 발명의 토지피복지도 제작방법을 구현하는 장치 및 프로그램을 내장하는 모듈이 결합한 토지피복지도 시스템의 구성을 설명하기로 한다.Hereinafter, a configuration of a land cover map system in which a module for embedding an apparatus and a program for implementing the method for producing a land cover map of the present invention described above will be described.

도 2에 도시된 것과 같이, 상술한 본 발명에 따른 토지피복지도를 제작하는 방법을 구현하는 시스템(이하, '본 시스템'이라 한다.)은, 경위도 정보를 포함하는 이미지를 제공하는 스트리트뷰 이미지제공서버(10)와, 상기 이미지제공서버들(10)에서 대상지역의 경위도 정보에 대응되는 스트리트뷰이미지를 취득하여, 기계학습을 통해 대용량 실사 데이터(massive ground truth; 제1데이터)를 형성하는 지상참조데이터산출모듈(100), 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성하는 시계열데이터산출모듈(200) 및 상기 제1데이터 및 제2데이터를 입력값으로, 합성곱신경망(CNN)을 이용하여, 대상지역의 토양의 피복지도를 형성하는 토지피복지도형성모듈(300)을 포함하여 구성될 수 있다.As shown in FIG. 2, the system (hereinafter referred to as 'the present system') for implementing the method for producing the land cover map according to the present invention described above is a street view image that provides an image including longitude and latitude information. The providing server 10 and the image providing servers 10 obtain a street view image corresponding to the longitude and latitude information of the target area, and form a massive ground truth (first data) through machine learning. The ground reference data calculation module 100, the time series data calculation module 200 which acquires the spectral reflectance data of the artificial satellite for the target area, and forms the second data by deriving the time series spectral reflectance data, and the first data and the second data may be configured to include a land cover map formation module 300 that forms a cover map of the soil of the target area using a convolutional neural network (CNN) as an input value.

상기 스트리트뷰 이미지제공서버(10)는 상술한 것과 같이, 본 발명의 (A)단계의 과정을 수행하는 것으로, 상용화된 포털사이트나 웹사이트의 서버로, 구글에서 제공하는 실사 웹지도 서비스인 구글 스트리트 뷰(Google Street View)와 같은 서버를 이용할 수 있음은 상술한바와 같다.As described above, the street view image providing server 10 performs the process of step (A) of the present invention, and is a server of a commercialized portal site or website, and Google is a live-action web map service provided by Google. As described above, a server such as Google Street View may be used.

또한, 상기 지상 참조데이터 산출모듈(100)은 상기 이미지제공서버들(10)에서 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하여, 기계학습을 통해 대용량 실사 데이터(massive ground truth; 제1데이터)를 형성하는 기능을 수행하며, 상술한 도 1에서 (B)단계의 과정을 수행할 수 있도록 한다.In addition, the ground reference data calculation module 100 acquires a street view image corresponding to the longitude and latitude information of the target area from the image providing servers 10, and performs massive ground truth (first truth) data through machine learning. data), and the process of step (B) in FIG. 1 described above can be performed.

이를 위해, 본 시스템에서의 상기 지상 참조데이터 산출모듈(100)은, 상기 대상지역의 경위도 정보를 참조하여, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하는 데이터취득부(110), 기계학습을 위해 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현하는 데이터가공부(120), 합성곱신경망(CNN)을 이용하여 취득된 훈련 데이터세트의 정보를 토지피복 유형별로 분류하고, 학습하여, 제1데이터를 형성하는 제1기계학습부(130), 상기 제1데이터의 정확도를 검증하고 보정하여 저장하는 데이터검증보정부(140)를 포함하여 구성될 수 있도록 한다.To this end, the ground reference data calculation module 100 in the system includes a data acquisition unit 110 that acquires a street view image corresponding to the longitude and latitude information of the target area by referring to the longitude and latitude information of the target area, a machine The information of the training dataset acquired using the data processing unit 120 and convolutional neural network (CNN), which processes the street view image acquired for learning, classifies it by land cover type and implements it as a patterned training dataset. A first machine learning unit 130 that classifies by land cover type, learns, and forms first data, and a data verification correction unit 140 that verifies, corrects, and stores the accuracy of the first data. make it possible

또한, 상기 시계열데이터산출모듈(200)은 상술한 (C)단계의 과정을 수행하는 것으로, 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성할 수 있도록 한다. 이를 위해, 상기 시계열데이터산출모듈(200)은, 상기 대상지역에 대한 인공위성의 분광반사도 자료를 입력받는 반사도자료취득부(210), 취득한 분광반사도 자료에서, Fmask 알고리즘을 적용하여 부적합 데이터를 제거하기 위해 필터링하고, 시계열 스펙트럼 반사율 데이터 도출하는 반사도데이터산출부(220), 필터링한 데이터를 기준으로, 상기 대상지역의 식생지수를 산출하는 식생지수산출부(230)를 포함하여 구성될 수 있다.In addition, the time series data calculation module 200 is to perform the process of step (C) described above, acquires the spectral reflectance data of the artificial satellite for the target area, derives the time series spectral reflectance data to form the second data let it be To this end, the time series data calculation module 200, the reflectivity data acquisition unit 210 that receives the spectral reflectivity data of the artificial satellite for the target area, from the acquired spectral reflectivity data, removes inappropriate data by applying the Fmask algorithm. It may be configured to include a reflectivity data calculation unit 220 for filtering and deriving time series spectral reflectance data, and a vegetation index calculation unit 230 for calculating the vegetation index of the target area based on the filtered data.

또한, 본 시스템에서의 상기 토지피복지도형성모듈(300)은, 상술한 (D)단계의 과정을 수행하는 것으로, 이를 위해, 합성곱신경망(CNN)모델의 입력으로, 제1데이터(대용량의 실사 데이터) 및 제2데이터(시계열 스펙트럼 반사율 데이터) 및 식생지수(VI)를 결합하여 학습하는 제2기계학습부(310)와 상기 제2기계학습부(320)의 결과를 이용하여 토지피복지도를 형성하는 토지피복지도형성부(320)를 포함하여 구성될 수 있다.In addition, the land cover map formation module 300 in the present system performs the process of step (D) described above. For this purpose, as an input of a convolutional neural network (CNN) model, the first data (large land cover map using the results of the second machine learning unit 310 and the second machine learning unit 320 learning by combining the actual data) and the second data (time series spectral reflectance data) and the vegetation index (VI) It may be configured to include a land cover map forming unit 320 to form a.

즉, 본 시스템은 도 1의 실시예에서 상술한 본 발명의 (A)~(D)단계의 토지피복지도의 제작방법을 구현하기 위한 시스템으로 구성될 수 있다. 이에 본 발명은 토지피복지도의 제작방법을 구현하기 위한 시스템을 제공할 수 있다. 나아가, 이러한 본 발명에서의 토지피복지도의 제작방법을 실행하는 시스템에 적용되는 기능 구성 및 수행동작은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다.That is, the present system may be configured as a system for implementing the method of manufacturing the land cover map of the steps (A) to (D) of the present invention described above in the embodiment of FIG. 1 . Accordingly, the present invention can provide a system for implementing a method of manufacturing a land cover map. Furthermore, the functional configuration and execution operation applied to the system executing the method of manufacturing the land cover map in the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, the present invention provides integrated circuit configurations, such as memory, processing, logic, look-up table, etc., capable of executing various functions by means of the control of one or more microprocessors or other control devices. can be hired

본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, 파이썬(Python), C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “~모듈”, “~부”, "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Similar to how components of the present invention may be implemented as software programming or software elements, the present invention includes various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including Python (Python). ), C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. Further, the present invention may employ prior art techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “module”, “part”, “mechanism”, “element”, “means”, and “configuration” may be used broadly and are not limited to mechanical and physical components. The term may include the meaning of a series of routines of software in association with a processor or the like.

본 발명에 따르면, 농작물, 수목, 건물, 암반 등 다양한 토지피복의 유형을 분류하고 이에 대한 기계학습을 통한 신뢰도 높은 토지피복지도를 생성할 수 있게 하여, 토지의 이용이나 피복의 변경, 토지커버면적의 추정, 농작물 생산모니터링 등의 다양한 응용 산업에 적용할 수 있다. 이하에서는, 도 1 및 도 2에서 상술한 본 발명에 따른 토지피복지도 제작방법을 구현함에 있어, 농작물의 피복의 유형을 분류하여 지도로 구현하는 피복지도를 형성하는 방법을 일실시예로 하여 설명하기로 한다.According to the present invention, it is possible to classify various types of land cover, such as crops, trees, buildings, and bedrock, and generate a highly reliable land cover map through machine learning for this, so that land use or change of cover, land cover area It can be applied to various application industries such as estimation of crop production and monitoring of crop production. Hereinafter, in implementing the method for producing a land cover map according to the present invention described above in FIGS. 1 and 2, a method of forming a cover map implemented as a map by classifying the types of cover of crops will be described as an embodiment. decide to do

[실시예: 도 2 시스템 적용][Example: Fig. 2 system applied]

(1) 대상지역의 특정(1) Designation of target area

본 실시예에서의 대상지역으로 특정한 지역은, 도 3에 도시된 것과 같이, 2개의 지역을 대상지역으로 설정하였다. 이는, 대상지역 I(119° 26" - 119° 17" W, 35° 26" - 35° 34" N)은 미국 남부 캘리포니아에 위치한다(도 3(a)). As shown in FIG. 3 , two areas are set as target areas as target areas in the present embodiment. This means that area I (119° 26" - 119° 17" W, 35° 26" - 35° 34" N) is located in Southern California, USA (FIG. 3(a)).

도 3(a)에 게시된 직사각형 면적(총면적 18,088 ha)은 13.6 km Х 13.3 km 로 동일하다. 미국 농무부(USDA)가 매년 출시하는 CDL(cropland data layer) 데이터에 따르면, 이 지역은 알팔파, 아몬드, 옥수수, 면화, 포도, 피스타치오, 밀 등 다양한 작물 종류를 포함하는 매우 이질적인 경관구조를 지니고 있다. The rectangular area (total area 18,088 ha) posted in Fig. 3(a) is equal to 13.6 km Х 13.3 km. According to cropland data layer (CDL) data released annually by the U.S. Department of Agriculture (USDA), the region has a very heterogeneous landscape structure that includes a variety of crop types including alfalfa, almonds, corn, cotton, grapes, pistachios, and wheat.

대상지역 II(89° 47" - 89° 24" W, 40° 08" - 40° 18" N)는 미국 일리노이 주(도 3(b)) 내부에 위치한다. 도 3(b)에 도시된 직사각형 면적(총면적 62,748 ha)은 33.2km Х 18.9km와 동일하다. 이 지역은 미국 옥수수 벨트의 일부로 간주된다. 주요 농작물은 콩과 옥수수다.Area II (89° 47" - 89° 24" W, 40° 08" - 40° 18" N) is located inside the state of Illinois (FIG. 3(b)), USA. The rectangular area (total area 62,748 ha) shown in Fig. 3(b) is equal to 33.2 km Х 18.9 km. This area is considered part of the US corn belt. The main crops are soybeans and corn.

(2) 이미지데이터의 취득(2) Acquisition of image data

위 특정된 대상지역에 대응되는 이미지 데이터는 도 2의 구성에서 상술한 스트리트뷰 이미지제공서버로 구글 스트리트 뷰(Google Street View(이하, 'GSV'))에서 취득하였다. GSV 이미지는 GSV API를 사용한 HTTP URL 요청과 Python 스크립트를 사용하여 Google 지도에서 자동으로 다운로드되었으며, 이는 도 2에서 상술한 지상참조데이터산출모듈(100)로 저장되어 가공될 수 있도록 하였다.Image data corresponding to the specified target area was acquired from Google Street View (hereinafter, 'GSV') as the Street View image providing server described above in the configuration of FIG. 2 . The GSV image was automatically downloaded from Google Maps using an HTTP URL request using the GSV API and a Python script, which was stored and processed by the ground reference data calculation module 100 described above in FIG. 2 .

(3) 참조데이터의 산출(3) Calculation of reference data

데이터취득부(110)에서 취득된 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지는 기계학습을 위해 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현한다(데이터가공부:120).The street view image corresponding to the longitude and latitude information of the target area acquired by the data acquisition unit 110 is implemented as a patterned training dataset by processing the street view image acquired for machine learning and classifying it by land cover type (data processing part: 120).

본 실시예에서, 수집된 모든 GSV 영상을 일리노이 주의 3개 클래스(옥수수, 콩 등), 캘리포니아 주의 7개 클래스(알팔파, 아몬드, 옥수수, 면화, 포도, 피스타치오 등)로 분류하기 위해 CNN 모델을 적용했다. 이러한 CNN 모델의 주요 구조는 도 4에 도시되어 있다. 제1기계학습부(130)에서 기계학습을 위해 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현한다.In this example, a CNN model is applied to classify all collected GSV images into 3 classes in Illinois (corn, soybean, etc.) and 7 classes in California (alfalfa, almond, corn, cotton, grape, pistachio, etc.) did. The main structure of such a CNN model is shown in FIG. 4 . The first machine learning unit 130 processes the street view image acquired for machine learning, classifies it by land cover type, and implements it as a patterned training dataset.

CNN 모델을 훈련(training)시키기 위해 대상지역 밖에서 촬영한 약 5,540개의 GSV 이미지를 수집했다. 특히 연간 작물의 경우 가능한 경우 다양한 농작물 생물계절 단계의 이미지를 포함시켰다.To train the CNN model, about 5,540 GSV images taken outside the target area were collected. In particular, for annual crops, images of various crop bioseasonal stages were included where possible.

이후 훈련(training;매개변수 피팅), 검증(validation; 하이퍼-매개변수 튜닝), 시험(성능평가)을 위해 영상을 무작위로 3개 그룹(60%, 20%, 20%)으로 분리했다. CNN 모델에 대한 훈련 데이터세트를 준비하기 위해 GSV 이미지를 캘리포니아 7개 클래스와 일리노이 3개 클래스로 분류했다(도 5). 도 5는, (a) 옥수수, (b) 콩, (c) 아몬드, (d) 면, (e) 알팔파, (f) 포도, (g) 피스타치오, (h&i) 기타의 경우, CNN 분류 모델을 훈련하는 데 사용되는 GSV 이미지 샘플을 도시한 것이다. Afterwards, images were randomly divided into three groups (60%, 20%, and 20%) for training (parameter fitting), validation (hyper-parameter tuning), and testing (performance evaluation). To prepare the training dataset for the CNN model, the GSV images were classified into 7 classes in California and 3 classes in Illinois (Fig. 5). Figure 5, (a) corn, (b) soybean, (c) almond, (d) cotton, (e) alfalfa, (f) grape, (g) pistachio, (h&i) other cases, CNN classification model A sample of GSV images used for training is shown.

이후, CNN 모델에 의해 잘못 분류된 영상을 제거하기 위해 데이터검증보정부(140)을 통해 검증 및 보정을 수행한다. Thereafter, verification and correction are performed through the data verification and correction unit 140 in order to remove the image incorrectly classified by the CNN model.

도 6에 도시된 것을 참조하면, 이미지의 좌표는 GSV 차량의 위치를 나타내며, 관심 농작물 구획과 동일하지 않다. 따라서 경험적 계수 x, y를 사용하여 GSV 차량에서 촬영된 관심 구획으로 좌표를 이동시켰다. Referring to what is shown in FIG. 6 , the coordinates of the image represent the position of the GSV vehicle and are not identical to the crop compartment of interest. Therefore, empirical coefficients x and y were used to move the coordinates from the GSV vehicle to the imaged compartment of interest.

나아가, 도로와 농경지 사이의 완충지역을 피하고 농경지의 위치 정보를 추출하기 위해랜샛 위성영상 (Landsat) 픽셀의 공간해상도인 30 m 정보를 활용했다. 대상 GSV 영상의 좌표는 차량으로부터 0.5y 떨어진 곳, 소포 가장자리에서 x 전후로 이동되었다(도 6). x와 y는 픽셀의 가로와 세로 길이로, Landsat의 경우 x와 y 모두 30 m이다. 다른 위성영상 사용시 상응하는 픽셀 해상도를 사용하면 된다 (예를 들어 Sentinel은 10 X 10 m). Furthermore, in order to avoid the buffer zone between the road and the farmland and to extract the location information of the farmland, the spatial resolution of the Landsat pixel of 30 m information was used. The coordinates of the target GSV image were shifted back and forth by x at the edge of the parcel, 0.5y away from the vehicle (FIG. 6). x and y are the width and height in pixels, for Landsat, both x and y are 30 m. When using other satellite images, use the corresponding pixel resolution (eg 10 X 10 m for Sentinel).

특정 작물 유형에 대한 기준점이 부족할 경우 좌표를 도로에서 농경지를 바라본 같은 방향으로 30 m의 추가 거리만큼 이동시켰다. 인접한 기준점 사이의 30 m의 고정 경험계수(empirical coefficient;x, y) 값은 매핑에 사용되는 Landsat 7과 8 표면 반사율 제품의 공간 분해능과 관련이 있다. 나아가, 절차를 간소화하기 위해 북, 남, 동, 서의 네 가지 절대 추기경 방향에서 캡처한 영상만을 고려했다.If the reference point for a particular crop type was insufficient, the coordinates were shifted by an additional distance of 30 m from the road in the same direction as the cropland. A fixed empirical coefficient (x, y) value of 30 m between adjacent reference points is related to the spatial resolution of the Landsat 7 and 8 surface reflectance products used for mapping. Furthermore, to simplify the procedure, only images captured from four absolute cardinal directions: North, South, East and West were considered.

(5) 픽셀기반 시계열 데이터의 산출과 토지피복지도 형성(5) Calculation of pixel-based time series data and formation of land cover map

이후, 대상지역에 대한 일리노이주와 캘리포니아주에 대한 픽셀 기반 작물 분류 작업을 수행한다. 이는, 인공위성의 분광반사도 자료 취득: 미국 지질조사국 데이터베이스(https://earthexplorer.usgs.gov/))에서 사용할 수 있는 Landsat 7 또는 8 Collection 1 Level-2 에서 반사도 자료(surface reflectance)를 취득하였다. Then, pixel-based crop classification is performed for the state of Illinois and California for the target area. It acquired surface reflectance data from Landsat 7 or 8 Collection 1 Level-2, which is available in Satellite Acquisition of Spectral Reflectance Data: US Geological Survey database (https://earthexplorer.usgs.gov/).

이후, 취득된 반사도 자료를 가공하여 반사도 데이터를 필터링하였다. 이는 QGIS3 소프트웨어를 이용하여 취득한 반사도 자료(surface reflectance) 자료에서, 구름, 구름 그림자, 눈에 오염된 데이터를 제거하기 위해 Fmask 알고리즘을 적용하여 필터링하여, 시계열 스펙트럼 반사율 데이터 도출하였다.Thereafter, the reflectance data was filtered by processing the acquired reflectivity data. This is a time series spectral reflectance data derived from surface reflectance data acquired using QGIS3 software by applying Fmask algorithm to remove data polluted by clouds, cloud shadows, and snow.

또한, 식생 지수를 계산했다. NDVI(정규식생 지수), EVI(향상된 식생 지수); ENDVI(표준화된 정규 식생 지수); LSWI(지표 수분지수) 등식에 따라 식생지수산출부의 연산을 통해 구현하였다.In addition, the vegetation index was calculated. NDVI (Normal Vegetation Index), EVI (Enhanced Vegetation Index); ENDVI (Normalized Normal Vegetation Index); It was implemented through the calculation of the vegetation index calculation unit according to the LSWI (Land Water Index) equation.

[수식][formula]

Figure 112020102338733-pat00001
Figure 112020102338733-pat00001

이후, 토지피복지도형성모듈(300)의 제2기계학습부를 통해 토지피복지도를 형성할 수 있도록 하였다.Thereafter, the land cover map can be formed through the second machine learning unit of the land cover map formation module 300 .

이는, 도 4에서 상술한 CNN모델을 사용하였으며, 탈퇴율(0.1, 0.2, 0.3, 0.5)과 입력값을 변경하여 농작물 분류를 실시했다. 원격 감지 표면 반사율 제품의 시간 및 스펙트럼 특성은 일반적으로 작물 유형을 지도화하는 데 사용된다. 그러나 유사한 스펙트럼 정보를 가진 다른 작물 유형은 분류를 방해할 수 있다. 따라서 CNN 모델에 대한 입력으로 시계열 스펙트럼 반사율 데이터(blue, green, red, NIR, SWIR1 및 SWIR2)와 식생 지수(VI)(NDVI, EVI, ENDVI, LSWI)를 결합했다. This was done using the CNN model described above in FIG. 4, and crop classification was performed by changing the withdrawal rates (0.1, 0.2, 0.3, 0.5) and input values. The temporal and spectral properties of remote sensing surface reflectance products are commonly used to map crop types. However, other crop types with similar spectral information may interfere with classification. Therefore, we combined the time series spectral reflectance data (blue, green, red, NIR, SWIR1, and SWIR2) with the vegetation index (VI) (NDVI, EVI, ENDVI, LSWI) as inputs to the CNN model.

CNN 모델을 훈련시키기 위해,훈련의 80퍼센트와 평가의 20%로 나누었다. 매핑 결과는 CDL 제품을 사용하여 평가되었다. CDL 제품의 지도 제작 정확도는 주요 작물 종류에서 85~95%로 보고된다. To train the CNN model, we divided it into 80% of training and 20% of evaluation. Mapping results were evaluated using CDL products. The mapping accuracy of CDL products is reported to be 85-95% for major crop types.

도 7은 본 시스템의 이미지데이터취득부에서 구글스트리트뷰이미지를 다운로드하여 취득하는 구동과정을 예시한 이미지이다. 도 8은 본 시스템의 데이터가공부에서 지상참조데이터를 산출하기 위한 훈련 데이터세트를 구현하기 위한 이미지이다. 도 9는 본 시스템의 제1기계학습부에서, 훈련 데이터세트를 통해 학습을 수행하는 이미지이다. 도 10은 지상 참조데이터의 생성결과를 도시한 이미지이다. 도 11은 Lansat 식생지수를 산출하기 위한 구동과정을 예시한 이미지이다. 도 12는 토지피복지도 형성모듈에서 기계학습을 수행하여 지도를 형성하는 과정을 도시한 이미지이다.7 is an image illustrating a driving process of downloading and acquiring a Google Street View image from the image data acquisition unit of the present system. 8 is an image for implementing a training dataset for calculating ground reference data in the data processing unit of the present system. 9 is an image of learning through a training dataset in the first machine learning unit of the present system. 10 is an image showing a result of generation of ground reference data. 11 is an image illustrating a driving process for calculating the Lansat vegetation index. 12 is an image illustrating a process of forming a map by performing machine learning in the land cover map formation module.

도 13은, 상술한 과정을 거쳐서 도출된 결과로서, USDA CDL 및 CNN 기반 작물 유형 분류를 사용하는 (a) 캘리포니아 (b) 일리노이 주의 각 토지 피복 유형의 면적 수를 나타낸다.이 수치는 CNN 모델을 이용한 지도 제작 결과를 나타낸다.Figure 13 shows the number of areas of each land cover type in (a) California (b) Illinois using USDA CDL and CNN-based crop type classification as a result derived through the above-described process. Shows the results of map making.

도 14는, 2013년 (a) USDA CDL 데이터 계층 제품과 (b) 2013년 CNN 및 GSV 이미지를 사용한 일리노이 주의 작물 유형 지도를 비교한 결과를 도시한 것이다.14 shows the results of comparing crop type maps of Illinois using (a) USDA CDL data layer products in 2013 and (b) 2013 CNN and GSV images.

도 15는, 2012년 (a) USDA CDL 데이터 계층 제품과 (b) 2012년CNN 및 GSV 이미지를 사용한 캘리포니아의 작물 유형 지도를비교한 결과를 도시한 것이다.15 shows the results of comparing crop type maps of California using (a) USDA CDL data layer products in 2012 and (b) 2012 CNN and GSV images.

상술한 결과를 토대로 살펴보면, 본 발명에 적용된 CNN 모델은 GSV 8,514개 이미지에서 2,645개의 작물구분에 적합한 이미지를 선별했다. 이 이미지들은 알팔파, 아몬드, 옥수수, 면화, 포도, 콩, 피스타치오를 포함한 작물 종류로 잘 분류되었다. 특히, 전체 GSV 이미지 분류 정확도는 캘리포니아에서 93%, 일리노이에서 97%에 달했다. 그런 다음 고정된 경험적 계수를 사용하여 이미지 지리적 좌표를 이동시켜 일리노이 주 1,764개 및 캘리포니아 주 6,409개 등 8,173개의 작물 기준점을 생성했다. CDL 제품을 사용한 이러한 새로운 기준점에 대한 평가는 94~97%의 일치율을 나타냈다. 본 발명에 따른 기계학습(CNN)에 기반한 지도 제작은 또한 농작물 유형 분포의 일반적인 패턴을 포착하였으며, CDL 제품과 본 발명의 지도제작 결과 사이의 전반적인 차이는 캘리포니아에서는 4%, 일리노이에서는 5%로 나타났다. 따라서 본 발명에 따른 토지피복지도 시스템은 비용 효율적인 대체 방법으로 작용할 수 있음을 반증하고 있다.Looking at the above results, the CNN model applied to the present invention selected 2,645 images suitable for classification of crops from 8,514 GSV images. These images were well categorized by crop types including alfalfa, almonds, corn, cotton, grapes, soybeans, and pistachios. Notably, the overall GSV image classification accuracy reached 93% in California and 97% in Illinois. Then, using fixed empirical coefficients, the image geographic coordinates were shifted to generate 8,173 crop control points, including 1,764 in Illinois and 6,409 in California. Evaluation of these new baselines using CDL products resulted in concordance rates of 94-97%. Machine learning (CNN) based cartography according to the present invention also captured a general pattern of crop type distribution, and the overall difference between CDL products and our cartographic results was 4% in California and 5% in Illinois. . Therefore, it is disproved that the land cover map system according to the present invention can act as a cost-effective alternative method.

이상에서와 같이 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 바람직한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아니다. 이처럼 이 기술 분야의 통상의 전문가라면 본 발명의 기술 사상의 범위 내에서 본 발명의 실시예의 결합을 통해 다양한 실시예들이 가능함을 이해할 수 있을 것이다.As described above, the technical idea of the present invention has been specifically described in the preferred embodiment, but the preferred embodiment is for the purpose of explanation and not for limitation. As such, those of ordinary skill in the art will be able to understand that various embodiments are possible through combination of embodiments of the present invention within the scope of the technical spirit of the present invention.

10: 스트리트뷰 이미지 제공서버
100: 지상 참조데이터 산출모듈
200: 시계열 데이터 산출모듈
300: 토양피복지도 산출모듈
10: Street View image providing server
100: ground reference data calculation module
200: time series data calculation module
300: Soil coverage map calculation module

Claims (10)

(A) 경위도 정보가 포함되는 이미지제공서버들로부터, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하는 단계;
(B) 상기 스트리트뷰 이미지를 토지피복 유형별로 분류하여 패턴화한 훈련데이터세트로 구현하고 합성곱신경망을 이용하여 취득된 훈련데이터세트의 정보를 학습하여 대상지역에 대한 대용량 실사 데이터를 제1데이터로 형성하는 단계;
(C) 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성하는 단계; 및
(D) 상기 제1데이터 및 제2데이터 및 식생지수(VI)를 결합한 결과를 합성곱신경망모델의 입력값으로하여, 대상지역의 토양의 피복지도를 형성하는 단계;를 포함하는,
토지피복지도의 제작방법.
(A) acquiring a street view image corresponding to longitude and latitude information of a target area from image providing servers including longitude and latitude information;
(B) The street view image is classified by land cover type and implemented as a patterned training dataset, and the information of the training dataset acquired using a convolutional neural network is learned to convert large-scale due diligence data for the target area to the first data. forming with;
(C) forming second data by obtaining spectral reflectance data of artificial satellites for the target area and deriving time-series spectral reflectance data; and
(D) using the result of combining the first and second data and the vegetation index (VI) as an input value of the convolutional neural network model to form a soil cover map of the target area;
A method of making a land cover map.
삭제delete 청구항 1에 있어서,
상기 (C) 단계는,
(c1) 상기 대상지역에 대한 인공위성의 분광반사도 자료 취득하고,
(c2) 취득한 분광반사도 자료에서, Fmask 알고리즘을 적용하여 부적합 데이터를 제거하기 위해 필터링하고,
(c3) 필터링한 데이터에서 시계열 스펙트럼 반사율 데이터 도출하는 단계;를 포함하는,
토지피복지도의 제작방법.
The method according to claim 1,
The step (C) is,
(c1) Acquiring the spectral reflectance data of the artificial satellite for the target area,
(c2) From the acquired spectral reflectivity data, filter to remove nonconforming data by applying Fmask algorithm,
(c3) deriving time series spectral reflectance data from the filtered data; including,
A method of making a land cover map.
청구항 3에 있어서,
상기 (C) 단계는,
필터링한 데이터를 기준으로,
NDVI(정규 식생 지수), EVI(향상된 식생 지수), ENDVI(표준화된 정규식생 지수), LSWI(지표 수분지수) 중 적어도 하나 이상을 포함하는 식생지수를 도출하는 단계;를 더 포함하는,
토지피복지도의 제작방법.
4. The method according to claim 3,
The step (C) is,
Based on the filtered data,
Deriving a vegetation index comprising at least one of NDVI (regular vegetation index), EVI (enhanced vegetation index), ENDVI (standardized regular vegetation index), LSWI (surface moisture index); further comprising,
A method of making a land cover map.
삭제delete 경위도 정보를 포함하는 이미지를 제공하는 스트리트뷰 이미지제공서버(10);
상기 이미지제공서버들(10)에서 대상지역의 경위도 정보에 대응되는 스트리트뷰이미지를 취득하여 패턴화한 훈련데이터세트로 구현하고 합성곱신경망을 이용하여 취득된 훈련데이터세트의 정보를 학습하여, 기계학습을 통해 대상지역에 대한 대용량 실사 데이터인 제1데이터를 형성하는 지상참조데이터산출모듈(100);
대상지역에 대한 인공위성의 분광반사도 자료 취득하고, 시계열 스펙트럼 반사율 데이터를 도출하여 제2데이터를 형성하는 시계열데이터산출모듈(200); 및
상기 제1데이터 및 제2데이터 및 식생지수(VI)를 결합한 결과를 합성곱신경망모델의 입력값으로하여, 대상지역의 토양의 피복지도를 형성하는 토지피복지도형성모듈(300);을 포함하는,
토지피복지도 제작시스템.
a street view image providing server 10 that provides an image including longitude and latitude information;
By acquiring the street view image corresponding to the longitude and latitude information of the target area from the image providing servers 10 and implementing it as a patterned training dataset, by learning the information of the acquired training dataset using a convolutional neural network, the machine a ground reference data calculation module 100 for forming first data that is a large-capacity actual data for a target area through learning;
a time series data calculation module 200 for obtaining spectral reflectance data of artificial satellites for a target area, and deriving time series spectral reflectance data to form second data; and
A land cover map forming module 300 that forms a soil cover map of the target area by using the result of combining the first and second data and the vegetation index (VI) as an input value of the convolutional neural network model; ,
Land cover map production system.
청구항 6에 있어서,
상기 지상참조데이터산출모듈(100)은,
상기 대상지역의 경위도 정보를 참조하여, 대상지역의 경위도 정보에 대응되는 스트리트뷰 이미지를 취득하는 데이터취득부(110);
기계학습을 위해 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현하는 데이터가공부(120)
기계학습을 위해 취득된 스트리트뷰 이미지를 가공하여 토지피복 유형별로 분류하여 패턴화한 훈련 데이터세트로 구현하는하는 제1기계학습부(130)
상기 제1데이터의 정확도를 검증하고 보정하여 저장하는 데이터검증보정부(140);를 포함하는,
토지피복지도 제작시스템.
7. The method of claim 6,
The ground reference data calculation module 100,
a data acquisition unit 110 for obtaining a street view image corresponding to the longitude and latitude information of the target area with reference to the longitude and latitude information of the target area;
The data processing unit 120 that processes the street view image acquired for machine learning, classifies it by land cover type and implements it as a patterned training dataset
The first machine learning unit 130 that processes the street view image acquired for machine learning, classifies it by land cover type, and implements it as a patterned training dataset.
A data verification correction unit 140 that verifies, corrects, and stores the accuracy of the first data;
Land cover map production system.
청구항 7에 있어서,
상기 시계열데이터산출모듈(200)은,
상기 대상지역에 대한 인공위성의 분광반사도 자료를 입력받는 반사도자료취득부(210);
취득한 분광반사도 자료에서, Fmask 알고리즘을 적용하여 부적합 데이터를 제거하기 위해 필터링하고, 시계열 스펙트럼 반사율 데이터 도출하는 반사도데이터산출부(220)
필터링한 데이터를 기준으로, 상기 대상지역의 식생지수를 산출하는 식생지수산출부(230);를 포함하는,
토지피복지도 제작시스템.
8. The method of claim 7,
The time series data calculation module 200,
a reflectivity data acquisition unit 210 that receives the spectral reflectivity data of the artificial satellite for the target area;
The reflectance data calculation unit 220 that filters the acquired spectral reflectance data to remove non-conforming data by applying the Fmask algorithm, and derives time series spectral reflectance data
Based on the filtered data, the vegetation index calculation unit 230 for calculating the vegetation index of the target area; including;
Land cover map production system.
청구항 8에 있어서,
상기 토지피복지도형성모듈(300)은,
합성곱신경망(CNN)모델의 입력으로, 상기 제1데이터 및 제2데이터 및 식생지수(VI)를 결합하여 학습하는 제2기계학습부(310);
상기 제2기계학습부(310)의 결과를 이용하여 토지피복지도를 형성하는 토지피복지도형성부(320);를 포함하는,
토지피복지도 제작시스템.
9. The method of claim 8,
The land cover map formation module 300,
As an input of a convolutional neural network (CNN) model, a second machine learning unit 310 for learning by combining the first data and the second data and the vegetation index (VI);
Containing;;
Land cover map production system.
청구항 1에 따른 토지피복지도의 제작방법을 수행하는 프로그램이 수록된 기록매체.A recording medium in which a program for performing the method of manufacturing a land cover map according to claim 1 is recorded.
KR1020200124645A 2020-09-25 2020-09-25 Fabricating system and method of Landcover map, and Program recording media KR102316598B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200124645A KR102316598B1 (en) 2020-09-25 2020-09-25 Fabricating system and method of Landcover map, and Program recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200124645A KR102316598B1 (en) 2020-09-25 2020-09-25 Fabricating system and method of Landcover map, and Program recording media

Publications (1)

Publication Number Publication Date
KR102316598B1 true KR102316598B1 (en) 2021-10-21

Family

ID=78268744

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200124645A KR102316598B1 (en) 2020-09-25 2020-09-25 Fabricating system and method of Landcover map, and Program recording media

Country Status (1)

Country Link
KR (1) KR102316598B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116992294A (en) * 2023-09-26 2023-11-03 成都国恒空间技术工程股份有限公司 Satellite measurement and control training evaluation method, device, equipment and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101556201B1 (en) * 2015-03-02 2015-10-13 주식회사 지오스토리 Hyperspectral image viewer device capable of simultaneous implementation webmap
JP2015207235A (en) * 2014-04-23 2015-11-19 日本電気株式会社 Data fusion device, land coverage classification system, method and program
KR101724801B1 (en) 2014-10-23 2017-04-10 인하대학교 산학협력단 A gis-based thematic mapping method to use in estimating the annual amount of non-point source pollutants using partially updated land-cover map
KR101941468B1 (en) * 2017-11-21 2019-01-30 대한민국 Automatic damage detection method using low-resolution satellite images
KR102009573B1 (en) 2017-11-30 2019-10-23 인하대학교 산학협력단 Method and Apparatus for partial renewal of sub-divided landcover map and automated searching of artificial grassland in apartment complex utilizing near-infrared aerial photograph
KR102053582B1 (en) * 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning
KR102136893B1 (en) * 2019-12-16 2020-07-22 대한민국 Apparatus for analyzing heat distribution change of downtown according to appeasement policy of urban heat island effect and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207235A (en) * 2014-04-23 2015-11-19 日本電気株式会社 Data fusion device, land coverage classification system, method and program
KR101724801B1 (en) 2014-10-23 2017-04-10 인하대학교 산학협력단 A gis-based thematic mapping method to use in estimating the annual amount of non-point source pollutants using partially updated land-cover map
KR101556201B1 (en) * 2015-03-02 2015-10-13 주식회사 지오스토리 Hyperspectral image viewer device capable of simultaneous implementation webmap
KR101941468B1 (en) * 2017-11-21 2019-01-30 대한민국 Automatic damage detection method using low-resolution satellite images
KR102009573B1 (en) 2017-11-30 2019-10-23 인하대학교 산학협력단 Method and Apparatus for partial renewal of sub-divided landcover map and automated searching of artificial grassland in apartment complex utilizing near-infrared aerial photograph
KR102053582B1 (en) * 2019-05-28 2019-12-06 (주) 지오아이티 Method of ground coverage classification by using image pattern learning based on deep learning
KR102136893B1 (en) * 2019-12-16 2020-07-22 대한민국 Apparatus for analyzing heat distribution change of downtown according to appeasement policy of urban heat island effect and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116992294A (en) * 2023-09-26 2023-11-03 成都国恒空间技术工程股份有限公司 Satellite measurement and control training evaluation method, device, equipment and storage medium
CN116992294B (en) * 2023-09-26 2023-12-19 成都国恒空间技术工程股份有限公司 Satellite measurement and control training evaluation method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
Mui et al. An object-based approach to delineate wetlands across landscapes of varied disturbance with high spatial resolution satellite imagery
Kamal et al. Assessment of multi-resolution image data for mangrove leaf area index mapping
Omran Detection of land-use and surface temperature change at different resolutions
Zhang et al. Remote sensing research issues of the national land use change program of China
Zhou et al. Monitoring the change of urban wetland using high spatial resolution remote sensing data
Richard Allen et al. Coastal wetland mapping combining multi-date SAR and LiDAR
CN115187866A (en) Ecological pattern spot extraction method based on high-resolution image
Huan Accuracy assessment of land use land cover LULC 2020 (ESRI) data in Con Dao island, Ba Ria–Vung Tau province, Vietnam
Hemati et al. Iranian wetland inventory map at a spatial resolution of 10 m using Sentinel-1 and Sentinel-2 data on the Google Earth Engine cloud computing platform
KR102316598B1 (en) Fabricating system and method of Landcover map, and Program recording media
Kolli et al. Assessment of change in the extent of mangrove ecosystems using different spectral indices in Google Earth Engine based on random forest model
Zhang et al. Mapping functional vegetation abundance in a coastal dune environment using a combination of LSMA and MLC: a case study at Kenfig NNR, Wales
Afifi et al. Urban sprawl of greater Cairo and its impact on the agricultural land using remote sensing and digital soil map
Mohamed et al. Land use/land cover changes monitoring and analysis of Dubai Emirate, UAE using multi-temporal remote sensing data
Faid et al. Monitoring land-use change-associated land development using multitemporal Landsat data and geoinformatics in Kom Ombo area, South Egypt
Figorito et al. An object-based method for mapping ephemeral river areas from WorldView-2 satellite data
Subramani et al. Land use and land cover change detection and urban sprawl analysis of Panamarathupatti Lake, Salem
Allen et al. Coastal wetland mapping using time series SAR imagery and lidar: Alligator River National Wildlife Refuge, North Carolina
Herkt Modelling habitat suitability to predict the potential distribution of Erhard's wall lizard Podarcis Erhardii on Crete
Alzamili et al. Monitoring urban growth and land use change detection with GIS and remote sensing techniques in Al-Nasiriyah city in Iraq
Afrasinei Study of land degradation and desertification dynamics in North Africa areas using remote sensing techniques
Kaplan Semi-automatic multi-segmentation classification for land cover change dynamics in North Macedonia from 1988 to 2014
Bagan et al. Land-cover classification using ASTER multi-band combinations based on wavelet fusion and SOM neural network
Wang et al. Assessing the effectiveness of a central flux tower in representing the spatial variations in gross primary productivity in a semi-arid pine forest
Abualgasim et al. Analyzing dynamic of changes in Land Use and Land Cover in Semi-arid of Eastern Sudan, Using Remote Sensing and GIS

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant