KR102532732B1 - Apparatus and method for generating a vegetation index - Google Patents

Apparatus and method for generating a vegetation index Download PDF

Info

Publication number
KR102532732B1
KR102532732B1 KR1020220074889A KR20220074889A KR102532732B1 KR 102532732 B1 KR102532732 B1 KR 102532732B1 KR 1020220074889 A KR1020220074889 A KR 1020220074889A KR 20220074889 A KR20220074889 A KR 20220074889A KR 102532732 B1 KR102532732 B1 KR 102532732B1
Authority
KR
South Korea
Prior art keywords
data
feature
wavelength
image
vegetation
Prior art date
Application number
KR1020220074889A
Other languages
Korean (ko)
Inventor
김동영
박현선
사공용협
최찬희
Original Assignee
메이사플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메이사플래닛 주식회사 filed Critical 메이사플래닛 주식회사
Priority to KR1020220074889A priority Critical patent/KR102532732B1/en
Application granted granted Critical
Publication of KR102532732B1 publication Critical patent/KR102532732B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/314Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry with comparison of measurements at specific and non-specific wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • G01N21/359Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8466Investigation of vegetal material, e.g. leaves, plants, fruits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

본 발명은 식생지수 생성 장치 방법에 관한 것이다. 몇몇 실시예에 따른 식생지수 생성 장치는, 위성영상 데이터를 수집하는 데이터 수집모듈, 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징, 가시 밴드(band)의 파장 특징 및 근적외 밴드의 광합성 특징을 추출하는 특징 추출 모듈 및 추출된 제1 이미지 특징, 파장 특징, 광합성 특징을 기초로 식생지수를 생성하는 결정 모듈을 포함하되, 파장 특징은, 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출될 수 있다.The present invention relates to a method for generating a vegetation index. An apparatus for generating a vegetation index according to some embodiments extracts a data collection module for collecting satellite image data, a first image feature associated with vegetation, a wavelength feature of a visible band, and a photosynthesis feature of a near-infrared band from the satellite image data. It includes a feature extraction module and a determination module for generating a vegetation index based on the extracted first image feature, wavelength feature, and photosynthesis feature, wherein the wavelength feature includes first wavelength data for a first wavelength among visible band data and , may be calculated based on second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength.

Description

식생지수 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING A VEGETATION INDEX}Vegetation index generating device and method {APPARATUS AND METHOD FOR GENERATING A VEGETATION INDEX}

본 발명은 식생지수 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a vegetation index.

현재 지구상공에서는 기상, 통신, 방송, 농업, 우주개발, 군사 등의 목적으로 전세계 수백여대의 인공위성이 고유의 업무를 수행하고 있다. Currently, hundreds of artificial satellites around the world are performing their own tasks in the earth's air for the purposes of meteorology, communication, broadcasting, agriculture, space development, and military.

인공위성을 통해 인간이 직접 탐사하기 힘든 위치, 예컨대 산림 영역등을 관측할 수 있지만, 현재의 인공위성의 영상처리 기술은 정확한 산림 영역의 면적을 탐지하기는 힘들고 또한 연산과정이 복잡한 상황이다.Although artificial satellites can observe locations that are difficult for humans to directly explore, such as forest areas, the current image processing technology of artificial satellites is difficult to accurately detect the area of forest areas, and the calculation process is complicated.

본 발명의 해결하고자 하는 과제는 식생지수 생성 장치를 제공하는 것이다.An object to be solved by the present invention is to provide a vegetation index generating device.

본 발명이 해결하고자 하는 다른 과제는 식생지수 생성 방법을 제공하는 것이다.Another problem to be solved by the present invention is to provide a method for generating a vegetation index.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

몇몇 실시예에 따른 식생지수 생성 장치는, 위성영상 데이터를 수집하는 데이터 수집모듈, 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징, 가시 밴드(band)의 파장 특징 및 근적외 밴드의 광합성 특징을 추출하는 특징 추출 모듈 및 추출된 제1 이미지 특징, 파장 특징, 광합성 특징을 기초로 식생지수를 생성하는 결정 모듈을 포함하되, 파장 특징은, 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출될 수 있다.An apparatus for generating a vegetation index according to some embodiments extracts a data collection module for collecting satellite image data, a first image feature associated with vegetation, a wavelength feature of a visible band, and a photosynthesis feature of a near-infrared band from the satellite image data. It includes a feature extraction module and a determination module for generating a vegetation index based on the extracted first image feature, wavelength feature, and photosynthesis feature, wherein the wavelength feature includes first wavelength data for a first wavelength among visible band data and , may be calculated based on second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength.

한편, 데이터 수집모듈은, 기타 데이터로서 풍속 데이터를 더 수집하고, 특징 추출 모듈은, 수집된 풍속 데이터가 소정 속도 이상일 때, 추출된 제1 이미지 특징의 초(second)단위의 변화에 기초하여, 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는지 여부를 검증할 수 있다.On the other hand, the data collection module further collects wind speed data as other data, and the feature extraction module, based on the change in seconds of the extracted first image feature when the collected wind speed data is equal to or greater than a predetermined speed, It may be verified whether the extracted first image feature corresponds to the first image feature associated with vegetation.

한편, 데이터 수집모듈은, 기타 데이터로서 계절 데이터를 더 수집할 수 있다.Meanwhile, the data collection module may further collect seasonal data as other data.

한편, 특징 추출 모듈은, 계절 데이터의 변화에 따른 추출된 제1 이미지 특징의 형태 변화에 기초하여, 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는지 여부를 검증할 수 있다.Meanwhile, the feature extraction module may verify whether the extracted first image feature corresponds to a first image feature associated with vegetation, based on a shape change of the extracted first image feature according to a change in seasonal data.

한편, 특징 추출 모듈은, 계절 데이터의 변화에 따른 추출된 파장 특징 및 광합성 특징의 변화에 기초하여 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는지 여부를 검증할 수 있다.Meanwhile, the feature extraction module may verify whether the extracted first image feature corresponds to the first image feature associated with vegetation based on the extracted wavelength feature and the photosynthetic feature change according to the seasonal data change.

한편, 데이터 수집모듈은, 기타 데이터로서 식생 영역 데이터를 더 수집하고, 특징 추출 모듈은, 식생 영역 데이터를 기초로 관심 영역(Area of Interest, AoI)을 결정하고, 결정된 관심 영역에서, 제1 이미지 특징의 점유 면적을 판단할 수 있다.Meanwhile, the data collection module further collects vegetation area data as other data, and the feature extraction module determines an Area of Interest (AoI) based on the vegetation area data, and in the determined area of interest, the first image The occupied area of the feature can be determined.

한편, 특징 추출 모듈은, 식생 영역 데이터의 좌표에 상응하는 위성영상 데이터로부터 복수의 제1 이미지 특징을 추출하고, 추출된 제1 이미지 특징의 집합의 윤곽선을 도출하고, 도출된 윤곽선을 기초로 관심 영역을 결정할 수 있다.Meanwhile, the feature extraction module extracts a plurality of first image features from the satellite image data corresponding to the coordinates of the vegetation area data, derives an outline of a set of extracted first image features, and derives an outline of interest based on the derived outline. area can be determined.

한편, 특징 추출 모듈은, 위성영상 데이터로부터 노이즈와 연관된 제2 이미지 특징을 추출하고, 결정된 관심 영역의 면적에서, 제2 이미지 특징의 점유 면적을 차감하여 제1 이미지 특징의 점유 면적을 판단할 수 있다.Meanwhile, the feature extraction module extracts a second image feature associated with noise from the satellite image data, subtracts the area occupied by the second image feature from the area of the determined region of interest, and determines the area occupied by the first image feature. there is.

한편, 제1 이미지 특징, 파장 특징 및 광합성 특징 중 적어도 하나를 포함하는 훈련 데이터를 이용하여 딥러닝 모델을 학습시키는 학습 모듈을 더 포함하고, 결정 모듈은, 제1 이미지 특징, 파장 특징 및 광합성 특징 중 적어도 하나를 딥러닝 모델에 입력하여 식생지수를 생성할 수 있다.Meanwhile, a learning module for learning a deep learning model using training data including at least one of a first image feature, a wavelength feature, and a photosynthesis feature, wherein the determination module includes the first image feature, the wavelength feature, and the photosynthesis feature. At least one of them may be input to a deep learning model to generate a vegetation index.

몇몇 실시예에 따른 식생지수 생성 방법은, 위성영상 데이터를 수집하는 단계, 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징, 가시 밴드의 파장 특징 및 근적외 밴드의 광합성 특징을 추출하는 특징 추출 단계 및 추출된 제1 이미지 특징, 파장 특징, 광합성 특징을 기초로 식생지수를 생성하는 단계를 포함하되, 파장 특징은, 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출될 수 있다.A vegetation index generation method according to some embodiments includes the step of collecting satellite image data, the feature extraction step of extracting a first image feature associated with vegetation, a wavelength feature of a visible band, and a photosynthetic feature of a near-infrared band from the satellite image data, and Generating a vegetation index based on the extracted first image feature, wavelength feature, and photosynthesis feature, wherein the wavelength feature is relative to first wavelength data for a first wavelength among visible band data and relative to the first wavelength It can be calculated based on the second wavelength data for the second wavelength having a short wavelength.

이미지 특징, 파장 특징, 광합성 특징을 추출하여 함께 이용함으로써 식생지수를 더욱 정확하게 결정할 수 있다. By extracting image features, wavelength features, and photosynthesis features and using them together, the vegetation index can be determined more accurately.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above description, specific effects of the present invention will be described together while explaining specific details for carrying out the present invention.

도 1은 몇몇 실시예에 따른 식생지수 생성 시스템을 도시한 것이다.
도 2는 몇몇 실시예에 따른 식생지수 생성 장치의 블록도이다.
도 3은 몇몇 실시예에 따른 특징 추출 모듈의 블록도이다.
도 4a는 몇몇 실시예에 따른 제1 이미지 특징의 검증 과정을 설명하기 위한 도면이다.
도 4b는 다른 몇몇 실시예에 따른 제1 이미지 특징의 검증 과정을 설명하기 위한 도면이다.
도 5a는 몇몇 실시예에 따른 관심 영역을 결정하는 과정을 설명하기 위한 도면이다.
도 5b는 몇몇 실시예에 따른 관심 영역 결정 과정 및 제1 이미지 특징의 점유 면적을 판단하는 과정을 설명하기 위한 도면이다.
도 6은 몇몇 실시예에 따른 식생지수 생성 방법의 흐름도이다.
도 7은 다른 몇몇 실시예에 따른 식생지수 생성 방법의 흐름도이다.
1 illustrates a vegetation index generating system according to some embodiments.
2 is a block diagram of an apparatus for generating a vegetation index according to some embodiments.
3 is a block diagram of a feature extraction module in accordance with some embodiments.
4A is a diagram for explaining a process of verifying a first image feature according to some embodiments.
4B is a diagram for explaining a process of verifying a first image feature according to some other embodiments.
5A is a diagram for explaining a process of determining a region of interest according to some embodiments.
5B is a diagram for describing a process of determining a region of interest and a process of determining an area occupied by a first image feature, according to some embodiments.
6 is a flowchart of a method for generating a vegetation index according to some embodiments.
7 is a flowchart of a method for generating a vegetation index according to some other embodiments.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. According to the principle that an inventor may define a term or a concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical spirit of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all of the technical spirit of the present invention, so they can be replaced at the time of the present application. It should be understood that there may be many equivalents and variations and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 연관된 기재된 항목들의 조합 또는 복수의 연관된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in this specification and claims may be used to describe various components, but the components should not be limited by the terms. Terms are only used to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. It should be understood that terms such as "include" or "having" in this application do not exclude in advance the possibility of existence or addition of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not contradict each other technically.

또한, 명세서에서 사용되는 "모듈"이라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "모듈"은 어떤 역할들을 수행한다. 그렇지만 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "모듈"들로 결합되거나 추가적인 구성요소들과 "모듈"들로 더 분리될 수 있다.Also, the term "module" used in the specification means a software or hardware component, and a "module" performs certain roles. However, "module" is not meant to be limited to software or hardware. A "module" may be configured to reside on an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functionality provided within components and “modules” may be combined into fewer components and “modules” or further separated into additional components and “modules”.

이하에서는, 도 1 내지 도 8을 참조하여, 본 발명의 몇몇 실시예에 따른 식생지수 생성 장치 및 방법에 대하여 설명한다.Hereinafter, referring to FIGS. 1 to 8 , an apparatus and method for generating a vegetation index according to some embodiments of the present invention will be described.

도 1은 몇몇 실시예에 따른 식생지수 생성 시스템(1)을 도시한 것이다.1 illustrates a vegetation index generating system 1 according to some embodiments.

식생지수 생성 시스템(1)은 위성영상 촬영장치(110), 외부 데이터 서버(115) 및 식생지수 생성 장치(120)를 포함할 수 있다. The vegetation index generating system 1 may include a satellite image capture device 110 , an external data server 115 and a vegetation index generating device 120 .

위성영상 촬영장치(110)는 위성영상 데이터를 촬영하는 장치로서, 예컨대 지구상공에 위치하는 인공위성을 포함할 수 있다. 위성영상 촬영장치(110)의 궤도, 이동방식 등은 다양할 수 있으며, 몇몇 예로 위성영상 촬영장치(110)는 저궤도 위성, 극궤도 위성, 정지궤도 위성 등을 포함할 수 있다.The satellite image capture device 110 is a device for capturing satellite image data, and may include, for example, an artificial satellite located on the earth's surface. The orbit and movement method of the satellite image capture device 110 may vary, and for some examples, the satellite image capture device 110 may include a low-orbit satellite, a polar-orbit satellite, and a geostationary orbit satellite.

위성영상 촬영장치(110)는 지구의 물체가, 태양 에너지를 반사하거나 흡수한 뒤 재방출하는 에너지를 관측하는 패시브(passive) 센서 및/또는 인공위성에서 직접 신호를 송신하고 지구의 물체에 반사되어 돌아오는 신호를 측정하는 액티브(active) 센서 등을 포함할 수 있다.The satellite image capture device 110 transmits a signal directly from a passive sensor and/or satellite that observes energy re-radiated after reflecting or absorbing solar energy by an object on the earth and a signal reflected back by an object on the earth. It may include an active sensor or the like that measures .

몇몇 예로, 위성영상 촬영장치(110)는 광학센서, 다분광 센서, 근적외선 센서, 적외선 센서, 레이더 센서(Radar Sensor)등을 포함할 수 있다. 위성영상 촬영장치(110)가 촬영하는 위성영상 데이터는 광학 신호, 다분광 신호, 근적외선 신호, 적외선 신호, 레이더 영상 등을 포함할 수 있다. 이때 몇몇 예로, 레이더 영상은 합성개구 레이더 영상, 즉 SAR(Synthetic Aperture Radar) 영상을 포함할 수 있으나, 이에 제한되는 것은 아니다.For some examples, the satellite image capture device 110 may include an optical sensor, a multi-spectral sensor, a near-infrared sensor, an infrared sensor, a radar sensor, and the like. Satellite image data captured by the satellite image capture device 110 may include an optical signal, a multi-spectral signal, a near-infrared signal, an infrared signal, a radar image, and the like. In this case, as some examples, the radar image may include a synthetic aperture radar image, that is, a synthetic aperture radar (SAR) image, but is not limited thereto.

위성영상 촬영장치(110)가 촬영하는 위성영상 데이터는 다양한 파장대역(밴드, band)의 데이터를 포함할 수 있다. 몇몇 예로, 위성영상 데이터는 자외(UV) 밴드의 데이터, 가시광(Visible) 밴드의 데이터, 근적외(Near Infrared) 밴드의 데이터, 적외(Infrared) 밴드의 데이터 등을 포함할 수 있다.Satellite image data photographed by the satellite image capture device 110 may include data of various wavelength bands (bands). For some examples, the satellite image data may include ultraviolet (UV) band data, visible band data, near infrared band data, infrared band data, and the like.

위성영상 촬영장치(110)는 지구상공의 소정 위치에서 지구의 모습이 담긴 위성영상 데이터를 촬영할 수 있고, 촬영된 위성영상 데이터는 식생지수 생성 장치(120)로 전송될 수 있다. 이때 식생지수 생성 시스템(1)은 위성영상 촬영장치(110)와 식생지수 생성 장치(120) 간의 위성 통신을 위한 별도의 네트워크 및/또는 통신망을 포함할 수 있다.The satellite image capture device 110 may capture satellite image data containing the image of the earth at a predetermined location on the earth's surface, and the captured satellite image data may be transmitted to the vegetation index generating device 120 . At this time, the vegetation index generating system 1 may include a separate network and/or communication network for satellite communication between the satellite image capture device 110 and the vegetation index generating device 120.

외부 데이터 서버(115)는 기타 데이터를 저장하고 있는 하나 이상의 서버일 수 있다.The external data server 115 may be one or more servers that store other data.

기타 데이터는, 몇몇 예로 기상 데이터(예: 기후 데이터, 날씨 데이터, 강수 데이터), 풍속 데이터, 구름의 현황 데이터, 태풍 데이터, 해일 데이터, 화재 데이터, 계절 데이터, 계절에 따른 식생의 현황 데이터, 식생 영역 데이터 등을 포함할 수 있다. 식생 영역 데이터는, 몇몇 예로, 산림지역이 소정 범위 이상 형성된 좌표 등을 포함할 수 있다.Other data include, for example, meteorological data (e.g. climate data, weather data, precipitation data), wind speed data, cloud status data, typhoon data, tidal wave data, fire data, seasonal data, seasonal vegetation status data, vegetation area data and the like. Vegetation area data may include, for example, coordinates in which a forest area is formed over a predetermined range.

식생지수 생성 장치(120)는 위성영상 촬영장치(110) 및 외부 데이터 서버(115)로부터 데이터 들을 수신하고, 수신된 데이터 들을 저장, 관리 및/또는 분석할 수 있다. The vegetation index generator 120 may receive data from the satellite image capture device 110 and the external data server 115, and store, manage, and/or analyze the received data.

몇몇 예로, 식생지수 생성 장치(120)는 수신된 위성영상 데이터, 기타 데이터를 기초로 식생과 연관된 분석 데이터를 생성할 수 있다.For some examples, the vegetation index generator 120 may generate analysis data associated with vegetation based on received satellite image data and other data.

식생지수 생성 장치(120)의 구체적인 구성 및 동작방법에 대하여 도 2를 통해 자세히 설명한다.The detailed configuration and operating method of the vegetation index generator 120 will be described in detail with reference to FIG. 2 .

도 2는 몇몇 실시예에 따른 식생지수 생성 장치(120)의 블록도이다.2 is a block diagram of a vegetation index generating device 120 according to some embodiments.

도 2를 참조하면, 식생지수 생성 장치(120)는 데이터 수집모듈(210), 특징 추출 모듈(220), 결정 모듈(230) 및 학습 모듈(240)을 포함할 수 있다.Referring to FIG. 2 , the vegetation index generator 120 may include a data collection module 210 , a feature extraction module 220 , a determination module 230 and a learning module 240 .

데이터 수집모듈(210)은 식생과 연관된 분석 데이터를 생성하기 위한 데이터들을 수집할 수 있다. The data collection module 210 may collect data for generating analysis data associated with vegetation.

몇몇 예로, 데이터 수집모듈(210)은 위성영상 데이터, 기타 데이터 등을 수집할 수 있다. 이때 전술한 바와 같이 위성영상 데이터는 위성영상 촬영장치(110)에 의해 촬영될 수 있고, 기타 데이터는 외부 데이터 서버(115)에서 저장 및 관리되고 있는 데이터일 수 있다. For some examples, the data collection module 210 may collect satellite image data and other data. At this time, as described above, the satellite image data may be captured by the satellite image capture device 110, and other data may be data stored and managed by the external data server 115.

전술한 바와 같이 위성영상 데이터는 다양한 파장대역(밴드, band)의 데이터를 포함할 수 있다. 몇몇 예로, 위성영상 데이터는 자외(UV) 밴드의 데이터, 가시광(Visible) 밴드의 데이터, 근적외(Near Infrared) 밴드의 데이터, 적외(Infrared) 밴드의 데이터 등을 포함할 수 있고, 기타 데이터는, 기상 데이터(예: 기후 데이터, 날씨 데이터, 강수 데이터), 풍속 데이터, 계절 데이터, 계절에 따른 식생의 현황 데이터, 식생 영역 데이터 등을 포함할 수 있다. As described above, satellite image data may include data of various wavelength bands (bands). As some examples, the satellite image data may include ultraviolet (UV) band data, visible band data, near infrared band data, infrared band data, etc., and other data may include , meteorological data (eg, climate data, weather data, precipitation data), wind speed data, seasonal data, seasonal vegetation status data, vegetation area data, and the like.

특징 추출 모듈(220)은 위성영상 데이터 및/또는 기타 데이터로부터 식생과 연관된 특징들을 추출할 수 있다. The feature extraction module 220 may extract features associated with vegetation from satellite image data and/or other data.

몇몇 예로, 식생과 연관된 특징들은 식생과 연관된 이미지 특징, 이미지 특징의 점유면적, 온도 특징, 파장 특징, 광합성 특징 등을 포함할 수 있으나, 이에 제한되는 것은 아니다. 특징 추출 모듈의 세부 구성에 대하여는 도 3 내지 도 5를 통해 후술하기로 한다.As some examples, features associated with vegetation may include image features associated with vegetation, areas occupied by image features, temperature characteristics, wavelength characteristics, photosynthesis characteristics, etc., but are not limited thereto. A detailed configuration of the feature extraction module will be described later with reference to FIGS. 3 to 5 .

결정 모듈(230)은 추출된 특징들을 기초로 식생과 연관된 분석 데이터를 생성할 수 있다.The determination module 230 may generate analysis data associated with vegetation based on the extracted features.

몇몇 예로, 결정 모듈(230)은, 추출된 특징 및/또는 수집된 기타 데이터와, 식생지수와의 관계에 대하여 미리 정해진 수학식 등을 이용하여 식생지수와 연관된 분석 데이터를 생성할 수 있다.For some examples, the determination module 230 may generate analysis data associated with the vegetation index by using a predetermined mathematical formula for the relationship between the extracted features and/or collected other data and the vegetation index.

예컨대, 결정 모듈(230)은 학습 모듈(240)로부터 수신되는 딥 러닝 모델에, 식생과 연관된 제1 이미지 특징, 제1 이미지 특징의 점유 면적, 파장 특징, 광합성 특징, 수집된 기타 데이터 등을 입력하여 식생과 연관된 분석 데이터를 생성할 수 있다. 딥러닝 모델에 관하여는 학습 모듈(240)에서 자세히 후술한다.For example, the determination module 230 inputs a first image feature associated with vegetation, an area occupied by the first image feature, a wavelength feature, a photosynthesis feature, and other collected data into the deep learning model received from the learning module 240. Thus, analysis data related to vegetation can be generated. The deep learning model will be described later in the learning module 240.

식생과 연관된 분석 데이터(이하 "식생 지수"라 한다)는, 몇몇 예로 소정 구역에서의 산림 영역의 비율, 산림 영역의 면적, 산림 영역의 작물 분포 정보, 특정 영역에서 살아있는 수목과 죽은 나무의 비율 등을 포함할 수 있으나, 이에 제한되는 것은 아니다. Analysis data related to vegetation (hereinafter referred to as “vegetation index”) includes, for example, the ratio of forest area in a certain area, the area of forest area, crop distribution information in forest area, the ratio of living trees and dead trees in a specific area, etc. It may include, but is not limited thereto.

몇몇 예로, 결정 모듈(230)은 추출된 제1 이미지 특징, 제1 이미지 특징의 점유 면적, 파장 특징 및 광합성 특징 중 적어도 하나가 소정 기준에 미달하는 경우, 식생지수를 결정하지 않고 데이터 수집모듈(210)을 제어하여 위성영상을 다시 수집하게 하거나 및/또는 특징 추출 모듈(220)을 제어하여 위성영상으로부터 특징을 다시 추출하도록 할 수 있다. For some examples, the determination module 230 does not determine the vegetation index, and the data collection module ( 210) to collect satellite images again, and/or to control feature extraction module 220 to extract features from satellite images again.

다른 몇몇 예로, 결정 모듈(230)은 추출된 제1 이미지 특징, 제1 이미지 특징의 점유 면적, 파장 특징 및 광합성 특징 중 적어도 하나가 소정 기준에 미달하는 경우, 딥러닝 모델에서 기준에 미달한 특징에 상응하는 항목의 가중치를 낮게 부여할 수 있다. 다만 전술한 예에 제한되지 않는다.In some other examples, the determination module 230 determines that the feature that does not meet the standard in the deep learning model when at least one of the extracted first image feature, the area occupied by the first image feature, the wavelength feature, and the photosynthesis feature does not meet the predetermined criterion. It is possible to assign a low weight to the corresponding item. However, it is not limited to the above example.

학습 모듈(240)은 식생지수를 생성하기 위한 훈련 데이터들을 이용하여 학습을 수행할 수 있다.The learning module 240 may perform learning using training data for generating a vegetation index.

몇몇 예로, 학습 모듈(240)은 식생지수를 생성하는 딥러닝 모델을 학습시킬 수 있다.For some examples, the learning module 240 may train a deep learning model that generates a vegetation index.

예컨대, 학습 모듈(240)은 수집된 위성영상 데이터, 기타 데이터 및/또는 식생과 연관된 특징 등을 포함하는 훈련 데이터를 이용하여 딥러닝 모델을 학습시킬 수 있다. 식생과 연관된 특징은, 전술한 바와 같이 제1 이미지 특징, 제1 이미지 특징의 점유 면적, 파장 특징, 광합성 특징 등을 포함할 수 있다.For example, the learning module 240 may train a deep learning model using training data including collected satellite image data, other data, and/or features associated with vegetation. As described above, the feature associated with vegetation may include a first image feature, an area occupied by the first image feature, a wavelength feature, a photosynthesis feature, and the like.

이때 학습된 딥러닝 모델은 머신 러닝(machine learning)을 기반으로, 위성영상 데이터, 기타 데이터 및/또는 식생과 연관된 특징을 입력 데이터로 하여, 식생 지수를 출력 데이터로서 출력하는 동작을 수행할 수 있다.At this time, the learned deep learning model may perform an operation of outputting a vegetation index as output data by using satellite image data, other data, and/or vegetation-related features as input data based on machine learning. .

머신 러닝(Machine Learning)의 일종인 딥러닝(Deep Learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다. 즉, 딥러닝은, 단계를 높여가면서 복수의 데이터들 로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낸다.Deep learning technology, a type of machine learning, learns by going down to a multi-level deep level based on data. That is, deep learning represents a set of machine learning algorithms that extract core data from a plurality of data while stepping up.

딥러닝 모델은 공지된 다양한 딥러닝 구조를 이용할 수 있다. 예를 들어, 딥러닝 모델은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network), GNN(Graph Neural Network) 등의 구조를 이용할 수 있다.The deep learning model may use various known deep learning structures. For example, the deep learning model may use a structure such as a convolutional neural network (CNN), a recurrent neural network (RNN), a deep belief network (DBN), or a graph neural network (GNN).

구체적으로, CNN(Convolutional Neural Network)은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다.Specifically, CNN (Convolutional Neural Network) extracts the basic features of an object when a person recognizes an object, and then performs complex calculations in the brain to recognize the object based on the result. It is a simulated model.

RNN(Recurrent Neural Network)은 자연어 처리 등에 많이 이용되며, 시간의 흐름에 따라 변하는 시계열 데이터(Time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아올려 인공신경망 구조를 구성할 수 있다.RNN (Recurrent Neural Network) is widely used in natural language processing, etc., and is an effective structure for processing time-series data that changes over time.

DBN(Deep Belief Network)은 딥러닝 기법인 RBM(Restricted Boltzman Machine)을 다층으로 쌓아 구성되는 딥러닝 구조이다. RBM(Restricted Boltzman Machine) 학습을 반복하여 일정 수의 레이어가 되면, 해당 개수의 레이어를 가지는 DBN(Deep Belief Network)이 구성될 수 있다.DBN (Deep Belief Network) is a deep learning structure composed of multiple layers of RBM (Restricted Boltzman Machine), a deep learning technique. When a certain number of layers is obtained by repeating RBM (Restricted Boltzman Machine) learning, a DBN (Deep Belief Network) having a corresponding number of layers may be configured.

GNN(Graphic Neural Network, 그래픽 인공신경망, 이하, GNN)는 특정 파라미터 간 매핑된 데이터를 기초로 모델링된 모델링 데이터를 이용하여, 모델링 데이터 간의 유사도와 특징점을 도출하는 방식으로 구현된 인공신경망 구조를 나타낸다.GNN (Graphic Neural Network, hereinafter, GNN) represents an artificial neural network structure implemented in a way to derive similarities and feature points between modeling data using modeling data modeled on the basis of data mapped between specific parameters. .

한편, 딥러닝 모델의 인공신경망 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.On the other hand, learning of the artificial neural network of the deep learning model can be performed by adjusting the weight of the connection line between nodes (and adjusting the bias value if necessary) so that a desired output is produced for a given input. In addition, the artificial neural network may continuously update a weight value by learning. In addition, a method such as back propagation may be used to learn the artificial neural network.

이때, 인공신경망의 머신 러닝 방법으로는 자율학습(unsupervised learning), 준지도학습(semi-supervised learning), 지도학습(supervised learning)등이 사용될 수 있다. 또한, 딥러닝 모델은 설정에 따라 학습 후 분석 데이터를 출력하기 위한 인공신경망 구조를 자동 업데이트하도록 제어될 수 있다.In this case, unsupervised learning, semi-supervised learning, supervised learning, and the like may be used as the machine learning method of the artificial neural network. In addition, the deep learning model can be controlled to automatically update the artificial neural network structure for outputting analysis data after learning according to settings.

학습 모듈(240)에서 학습된 딥러닝 모델은, 결정 모듈(230)에 전달되어 별도 저장되거나 또는 기존 모델을 업데이트 할 수 있다.The deep learning model learned in the learning module 240 may be delivered to the decision module 230 and stored separately or an existing model may be updated.

다른 몇몇 예로, 학습 모듈(240)은 수집된 위성영상 데이터, 기타 데이터 등의 훈련 데이터를 이용하여 파장 특징의 기초가 되는 제1 파장과 제2 파장의 밴드를 결정할 수 있다.As another example, the learning module 240 may determine the band of the first wavelength and the second wavelength, which are the basis of the wavelength feature, using training data such as collected satellite image data and other data.

일반적으로, 식물들은 가시 밴드(파장 영역대) 중에서 일부를 반사시키고, 일부는 흡수할 수 있다. 몇몇 예로, 식물들은 제1 파장은 반사시키고, 제2 파장은 흡수할 수 있다. 이때, 식생지수가 발생하면, 화재로 인해 식생지수가 발생한 지역에 존재하는 식물이 연소될 수 있다. 식물이 연소되는 경우, 식생지수가 발생하기 전에 비하여 해당 지역에서 제1 파장과 제2 파장의 반사도 및/또는 흡수도는 상이해질 것으로 예측할 수 있다. In general, plants can reflect part of the visible band (wavelength range) and absorb part. In some instances, plants may reflect a first wavelength and absorb a second wavelength. At this time, when a vegetation index is generated, plants existing in an area where a vegetation index is generated may be burned due to a fire. When the vegetation is burned, it can be predicted that reflectance and/or absorption of the first wavelength and the second wavelength will be different in the corresponding area compared to before the vegetation index is generated.

이러한 원리를 이용하여, 학습 모듈(240)은 식생지수 발생 전과 발생 후의 데이터를 비교함으로써 소정 좌표의 반사도 및/또는 흡수도의 차이를 발생시키는 제1 파장과 제2 파장의 밴드를 결정할 수 있다.Using this principle, the learning module 240 compares data before and after the occurrence of the vegetation index to determine a band of the first wavelength and the second wavelength that causes a difference in reflectance and/or absorbance of predetermined coordinates.

이렇듯, 가시 밴드의 데이터를 이용하여 추출된 파장 특징을 이용함으로써 가시 밴드의 데이터 만을 이용하여서도 식생과 연관된 특징을 추출하거나 및/또는 식생지수를 생성할 수 있다는 현저한 효과를 가질 수 있다.As such, by using the wavelength features extracted using visible band data, it is possible to have a remarkable effect of extracting features related to vegetation and/or generating a vegetation index using only visible band data.

도 3은 몇몇 실시예에 따른 특징 추출 모듈(220)의 블록도이다.3 is a block diagram of a feature extraction module 220 in accordance with some embodiments.

도 3을 참조하면, 특징 추출 모듈(220)은 이미지 특징 추출부(310), 파장 특징 추출부(320), 광합성 특징 추출부(330)를 포함할 수 있다. Referring to FIG. 3 , the feature extraction module 220 may include an image feature extractor 310 , a wavelength feature extractor 320 , and a photosynthetic feature extractor 330 .

이미지 특징 추출부(310)는 제1 이미지 특징 추출부(311), 제2 이미지 특징 추출부(312), 검증부(313) 및 면적 판단부(314)를 포함할 수 있다. 이때 제1 이미지 특징은 식생과 연관된 이미지 특징이고, 제2 이미지 특징은 노이즈와 연관된 이미지 특징을 의미할 수 있다. 몇몇 예로, 노이즈와 연관된 이미지 특징은 도로, 수로, 암석 등과 같이 식생에 포함되지 않는 물체에 관한 이미지 특징을 의미할 수 있다.The image feature extraction unit 310 may include a first image feature extraction unit 311 , a second image feature extraction unit 312 , a verification unit 313 and an area determination unit 314 . In this case, the first image feature may be an image feature related to vegetation, and the second image feature may mean an image feature related to noise. For some examples, image features associated with noise may refer to image features of objects not included in vegetation, such as roads, waterways, rocks, and the like.

제1 이미지 특징 추출부(311)는, 수집된 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징을 추출할 수 있다. The first image feature extractor 311 may extract first image features associated with vegetation from the collected satellite image data.

몇몇 예로, 식생과 연관된 제1 이미지 특징은 객체의 윤곽선 등을 포함할 수 있다. 이때 객체는 수목, 초원, 숲, 산림 등을 포함할 수 있으나 이에 제한되는 것은 아니다. 이하 설명의 편의를 위해 식생과 연관된 제1 이미지 특징은 수목 이미지 특징인 것으로 서술한다.For some examples, the first image feature associated with vegetation may include an outline of an object or the like. In this case, the object may include trees, meadows, forests, forests, etc., but is not limited thereto. For convenience of explanation, the first image feature associated with vegetation will be described as a tree image feature.

몇몇 예로, 제1 이미지 특징 추출부(311)는 학습 모듈(240)에 의해 학습되는 이미지로부터 객체를 인식하는 딥 러닝 모델을 이용하여 위성영상 데이터로부터 수목 이미지 특징을 추출할 수 있다.For some examples, the first image feature extractor 311 may extract tree image features from satellite image data using a deep learning model that recognizes an object from an image learned by the learning module 240 .

다른 몇몇 예로, 제1 이미지 특징 추출부(311)는 이미지로부터 객체를 인식하는 알고리즘을 포함하는 미리 정해진 객체 인식 모델을 이용하여 위성영상 데이터로부터 수목 이미지 특징을 추출할 수 있다. 객체 인식 모델은, 몇몇 예로, FCN, Mask R-CNN, U-Net, 이미지 윤곽선 분석모델 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.As another example, the first image feature extractor 311 may extract tree image features from satellite image data using a predetermined object recognition model including an algorithm for recognizing an object from an image. The object recognition model may include, for example, FCN, Mask R-CNN, U-Net, image contour analysis model, etc., but is not limited thereto.

제2 이미지 특징 추출부(312)는, 수집된 위성영상 데이터로부터 노이즈와 연관된 제2 이미지 특징을 추출할 수 있다. The second image feature extractor 312 may extract second image features associated with noise from the collected satellite image data.

제2 이미지 특징은 노이즈와 연관된 이미지 특징을 의미할 수 있다. 몇몇 예로, 노이즈와 연관된 이미지 특징은 도로, 수로, 암석 등과 같이 식생에 포함되지 않는 물체에 관한 이미지 특징을 의미할 수 있다.The second image feature may refer to an image feature associated with noise. For some examples, image features associated with noise may refer to image features of objects not included in vegetation, such as roads, waterways, rocks, and the like.

몇몇 예로, 제2 이미지 특징 추출부(312)는 학습 모듈(240)에 의해 학습되는 이미지로부터 객체를 인식하는 딥 러닝 모델을 이용하여 위성영상 데이터로부터 노이즈와 연관된 이미지 특징을 추출할 수 있다.For some examples, the second image feature extractor 312 may extract image features associated with noise from satellite image data using a deep learning model that recognizes an object from an image learned by the learning module 240 .

다른 몇몇 예로, 제2 이미지 특징 추출부(312)는 이미지로부터 객체를 인식하는 알고리즘을 포함하는 미리 정해진 객체 인식 모델을 이용하여 위성영상 데이터로부터 노이즈와 연관된 이미지 특징을 추출할 수 있다. 객체 인식 모델은, 몇몇 예로, FCN, Mask R-CNN, U-Net, 이미지 윤곽선 분석모델 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.As another example, the second image feature extractor 312 may extract image features associated with noise from satellite image data using a predetermined object recognition model including an algorithm for recognizing an object from an image. The object recognition model may include, for example, FCN, Mask R-CNN, U-Net, image contour analysis model, etc., but is not limited thereto.

검증부(313)는 제1 이미지 특징 추출부(311)에 의해 추출된 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다.The verifier 313 may verify whether the image feature extracted by the first image feature extractor 311 corresponds to the tree image feature.

위성영상을 통해서는, 공간 해상도의 한계로 인해 식생(예: 수목)을 명백하게 검출하지 못할 수 있고, 또한 화재가 발생했거나 수목이 일부 벌채되거나 수명을 다해서 시들어 버린 경우를 명백히 구별하지 못할 수 있다. 따라서 추출된 제1 이미지 특징이 식생(예: 수목)에 연관된 이미지 특징에 해당하는 지 여부를 검증하는 과정이 필요할 수 있다. 본 발명은 아래와 같은 몇몇 실시예에 따른 방법을 통해 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는 지 여부를 검증함으로써, 식생지수를 더욱 생성할 수 있다는 현저한 효과를 가진다.With satellite images, vegetation (e.g., trees) may not be clearly detected due to limitations in spatial resolution, and it may not be possible to clearly distinguish cases where fires occur, trees are partially cut down, or withered at the end of their lifespan. Accordingly, a process of verifying whether the extracted first image feature corresponds to an image feature related to vegetation (eg, a tree) may be required. The present invention has a remarkable effect that a vegetation index can be further generated by verifying whether or not the first image feature extracted through the method according to some exemplary embodiments corresponds to the tree image feature.

몇몇 예로, 검증부(313)는 추출된 제1 이미지 특징의 초(second)단위의 변화에 기초하여, 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다. 도 4a를 통해 자세히 설명한다.For some examples, the verifier 313 may verify whether the extracted first image feature corresponds to a tree image feature based on a second-unit change of the extracted first image feature. This will be described in detail with reference to FIG. 4A.

도 4a는 몇몇 실시예에 따른 제1 이미지 특징의 검증 과정을 설명하기 위한 도면이다. 도 4a의 (1)과 (2)는 추출된 제1 이미지 특징의 몇몇 예를 도시한 것이다.4A is a diagram for explaining a process of verifying a first image feature according to some embodiments. (1) and (2) of FIG. 4A show some examples of extracted first image features.

일반적인 수목의 경우, 풍속이 일정 속도 이상일 때 잎과 가지들은 바람에 의해 흔들릴 수 있고 그에 따라 추출되는 제1 이미지 특징은 일부 상이해질 수 있다. 도 4a의 (1)에는 특정 시점에서 추출된 제1 이미지 특징이 도시되어 있고, 도 4a의 (2)에는 수목에서, 강한 풍속에 의해 흔들릴 수 있는 비교적 가벼운 객체(예: 나뭇잎)의 이미지 특징이 초 단위로 다르게 추출될 수 있음이 점선으로 도시되어 있다. In the case of a general tree, when the wind speed is higher than a certain speed, the leaves and branches may be shaken by the wind, and accordingly, the extracted first image features may be partially different. In (1) of FIG. 4A, a first image feature extracted at a specific time point is shown, and in (2) of FIG. Different extractions in seconds are shown with dotted lines.

즉, 검증부(313)는 수집된 기타 데이터 중, 풍속 데이터가 소정 속도 이상일 때, 추출된 제1 이미지 특징의 초(second)단위의 변화가 존재하는 경우, 추출된 제1 이미지 특징이 수목 이미지 특징인 것으로 확인할 수 있다.That is, the verification unit 313 determines that, among other collected data, when the wind speed data is equal to or greater than a predetermined speed and there is a change in units of seconds in the extracted first image feature, the extracted first image feature is a tree image. It can be identified as a feature.

추출된 제1 이미지 특징의 초(second)단위의 변화를 통한 검증과정으로 인해, 살아있지 않은 수목 등을 구별해 낼 수 있고, 그에 따라 더욱 정확한 식생지수를 생성할 수 있게 된다는 현저한 효과를 가진다. Due to the verification process through the change in seconds of the extracted first image feature, it has a remarkable effect that non-living trees can be distinguished and, accordingly, a more accurate vegetation index can be generated.

다른 몇몇 예로, 검증부(313)는 계절 데이터의 변화에 따른 특징들의 변화에 기초하여, 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다. As another example, the verifier 313 may verify whether the extracted first image feature corresponds to a tree image feature based on a change in features according to a change in seasonal data.

몇몇 예로, 검증부(313)는 계절 데이터의 변화에 따른 제1 이미지 특징의 형태 변화에 기초하여, 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다. 도 4b를 통해 자세히 설명한다.For some examples, the verification unit 313 may verify whether the extracted first image feature corresponds to a tree image feature based on a shape change of the first image feature according to a change in seasonal data. It is explained in detail with reference to FIG. 4B.

도 4b는 다른 몇몇 실시예에 따른 제1 이미지 특징의 검증 과정을 설명하기 위한 도면이다.4B is a diagram for explaining a process of verifying a first image feature according to some other embodiments.

수목의 경우, 죽은 나무와 달리 계절의 변화에 따라 그 형태가 일부 상이할 수 있다. 몇몇 예로, 수목은 봄과 여름 시기에는 잎이 무성한 반면, 가을과 겨울 시기에는 상대적으로 잎의 개수가 감소할 수 있다. 도 4b의 (1)에는 봄, 여름 시기에 잎이 무성할 때 추출된 제1 이미지 특징이 도시되어 있고, 도 4b의 (2)에는 가을, 겨울 시기에 상대적으로 잎의 개수가 감소하였을 때 추출된 제1 이미지 특징이 도시되어 있다.In the case of trees, unlike dead trees, their shapes may be partially different depending on the change of season. For some examples, trees may have luxuriant leaves in spring and summer, but relatively reduce the number of leaves in autumn and winter. In (1) of FIG. 4B, a first image feature extracted when leaves are lush in spring and summer is shown, and in (2) of FIG. 4B, extracted when the number of leaves is relatively reduced in autumn and winter. A first image feature is shown.

즉, 검증부(313)는 수집된 기타 데이터 중, 계절 데이터가 변화할 때, 추출된 제1 이미지 특징의 변화, 예컨대 제1 이미지 특징의 윤곽선의 개수의 변화가 존재하는 경우, 추출된 제1 이미지 특징이 수목 이미지 특징인 것으로 확인할 수 있다.That is, the verification unit 313 may perform a change in the extracted first image feature, for example, a change in the number of outlines of the first image feature, when the seasonal data among the collected other data exists. It can be confirmed that the image feature is a tree image feature.

추출된 제1 이미지 특징의 계절 단위의 변화를 통한 검증과정으로 인해, 살아있지 않은 수목 등을 구별해 낼 수 있고, 그에 따라 더욱 정확한 식생지수를 생성할 수 있게 된다는 현저한 효과를 가진다. Due to the verification process through the seasonal change of the extracted first image feature, it has a remarkable effect that it is possible to distinguish non-living trees and the like, thereby generating a more accurate vegetation index.

다시 도 3을 참조하면, 다른 몇몇 예로, 검증부(313)는 계절 데이터의 변화에 따른 파장 특징 및 광합성 특징의 변화에 기초하여 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다.Referring back to FIG. 3 , as another example, the verifier 313 verifies whether the extracted first image feature corresponds to the tree image feature based on the change in wavelength feature and photosynthesis feature according to the change in seasonal data. can

일반적인 수목의 경우, 죽은 나무와 달리 계절의 변화에 따라 색이 달라지거나 및/또는 광합성 량이 일부 상이해질 수 있다. 몇몇 예로, 수목의 잎은 봄과 여름 시기에는 초록색을 띄며 광합성 량이 더 많은 반면, 가을과 겨울 시기에는 상대적으로 갈색을 띄며 광합성 량이 상대적으로 감소할 수 있다. In the case of general trees, unlike dead trees, the color and/or the amount of photosynthesis may be partially different depending on the change of season. In some instances, the leaves of trees may be green and photosynthetic with a higher amount during spring and summer, while they may be relatively brown and photosynthetic with a relatively reduced amount during autumn and winter.

이때, 검증부(313)는 수집된 기타 데이터 중, 계절 데이터가 변화할 때, 파장 특징(예: 반사도가 최대인 밴드의 파장 영역대) 및/또는 광합성 특징(근적외 밴드에서의 측정 값)이 변화하는 경우, 추출된 제1 이미지 특징이 수목 이미지 특징인 것으로 확인할 수 있다.At this time, the verification unit 313, among other data collected, when the seasonal data changes, the wavelength characteristics (eg, the wavelength range of the band with the maximum reflectivity) and / or the photosynthetic characteristics (measured values in the near-infrared band) When this changes, it can be confirmed that the extracted first image feature is a tree image feature.

파장 특징 및/또는 광합성 특징의 변화를 통한 추출된 제1 이미지 특징을 검증함으로써, 복합적인 특징 정보를 이용하여 제1 이미지 특징을 검증할 수 있고, 그에 따라 더욱 정확한 식생지수를 생성할 수 있게 된다는 현저한 효과를 가진다. By verifying the extracted first image feature through a change in wavelength feature and / or photosynthetic feature, it is possible to verify the first image feature using complex feature information, thereby generating a more accurate vegetation index. have a remarkable effect.

면적 판단부(314)는 식생 영역 데이터를 기초로 제1 이미지 특징의 점유 면적을 판단할 수 있다.The area determiner 314 may determine the area occupied by the first image feature based on the vegetation area data.

몇몇 예로, 면적 판단부(314)는 식생 영역 데이터를 기초로 관심 영역(Area of Interest, AoI)을 결정하고, 결정된 관심 영역에서 제1 이미지 특징의 점유 면적을 판단할 수 있다. 도 5a를 통해 자세히 설명한다.For some examples, the area determiner 314 may determine an area of interest (AoI) based on the vegetation area data, and determine an area occupied by the first image feature in the determined area of interest. This will be described in detail with reference to FIG. 5A.

도 5a는 몇몇 실시예에 따른 A지역에 대한 관심 영역을 결정하는 과정을 설명하기 위한 도면이다.5A is a diagram for explaining a process of determining a region of interest for region A according to some embodiments.

도 5a에는 식생 영역 데이터에 포함된 A지역에 대해 결정된 관심 영역(501 내지 510)들이 도시되어 있다.5A shows regions of interest 501 to 510 determined for region A included in vegetation region data.

면적 판단부(314)는 식생 영역 데이터의 좌표에 상응하는 위성영상 데이터로부터 복수의 제1 이미지 특징을 추출하고, 추출된 제1 이미지 특징의 집합의 윤곽선을 도출함으로써 관심 영역(501 내지 510)을 결정할 수 있다. 즉, 면적 판단부(314)는 인접한 제1 이미지 특징들이 동일한 내부 영역으로 포함되도록 복수의 윤곽선을 도출하고, 도출된 복수의 윤곽선의 내부 영역을 관심 영역(501 내지 510)으로 결정함으로써 A구역을 세부적으로 구획할 수 있다.The area determining unit 314 extracts a plurality of first image features from the satellite image data corresponding to the coordinates of the vegetation area data, and derives a contour line of a set of extracted first image features to determine the region of interest 501 to 510. can decide That is, the area determining unit 314 derives a plurality of contours so that adjacent first image features are included in the same inner region, and determines the inner regions of the plurality of derived contours as the regions of interest 501 to 510, thereby determining region A. can be subdivided in detail.

이러한 관심 영역 결정과정을 통해, 더욱 세부적인 좌표(관심 영역)에 대한 식생지수를 생성할 수 있고, 그에 따라 더욱 정확한 식생 지수 생성이 가능하다는 현저한 효과를 가진다.Through this process of determining the region of interest, it is possible to generate a vegetation index for more detailed coordinates (region of interest), and thus has a remarkable effect that a more accurate vegetation index can be generated.

몇몇 예로, 면적 판단부(314)는 제1 이미지 특징들의 집합의 윤곽선 사이의 간격이 소정 거리 이하인 경우, 두 윤곽선 내부의 영역을 모두 포함하도록 관심영역을 결정할 수 있다. 도 5b를 통해 자세히 설명한다.For some examples, the area determiner 314 may determine the ROI to include all areas inside the two contour lines when the distance between the contour lines of the set of first image features is equal to or less than a predetermined distance. This will be described in detail with reference to FIG. 5B.

도 5b는 몇몇 실시예에 따른 관심 영역 결정 과정 및 제1 이미지 특징의 점유 면적을 판단하는 과정을 설명하기 위한 도면이다. 도 5b에는 도 5a의 관심영역(508, 509)을 확대한 결과가 도시되어 있다. 5B is a diagram for describing a process of determining a region of interest and a process of determining an area occupied by a first image feature, according to some embodiments. FIG. 5B shows a result of enlarging the regions of interest 508 and 509 of FIG. 5A.

도 5b를 참조하면, 관심영역(508)과 관심영역(509) 사이의 간격은 다소 가까운 것을 알 수 있다. 몇몇 예로, 면적 판단부(314)는 제1 이미지 특징들의 집합의 윤곽선 사이의 간격이 소정 거리 이하인 경우, 두 윤곽선 내부의 영역을 모두 포함하도록 관심영역을 결정할 수 있다.Referring to FIG. 5B , it can be seen that the distance between the region of interest 508 and the region of interest 509 is rather close. For some examples, the area determiner 314 may determine the ROI to include all areas inside the two contour lines when the distance between the contour lines of the set of first image features is equal to or less than a predetermined distance.

몇몇 예로, 도 5b에 도시된 바와 같이 관심영역(508)의 윤곽선(L1)의 임의의 지점(P)으로부터 소정 거리(r) 안에, 다른 관심영역(509)의 윤곽선(L2)의 일부가 포함되는 경우, 면적 판단부(314)는 두 윤곽선(L1, L2)의 내부영역을 모두 포함하도록, 영역(508)과 영역(509)을 통합하여 하나의 관심영역으로 결정할 수 있다. 이때, 면적 판단부(314)는 두 윤곽선(L1, L2)의 임의의 지점 사이를 연결하는 가상의 선(VL1, VL2)을 생성하여 두 관심영역(508, 509)을 연결함으로써 두 관심영역(508, 509)을 통합할 수 있다.As some examples, as shown in FIG. 5B , a part of the contour L2 of another region of interest 509 is included within a predetermined distance r from an arbitrary point P of the contour L1 of the region of interest 508. In this case, the area determining unit 314 may integrate the area 508 and the area 509 so as to include both inner areas of the two contour lines L1 and L2 and determine one area of interest. At this time, the area determination unit 314 connects the two regions of interest 508 and 509 by generating virtual lines VL1 and VL2 connecting arbitrary points of the two contour lines L1 and L2 to determine the two regions of interest ( 508, 509) can be incorporated.

관심 영역이 결정되면, 면적 판단부(314)는 관심 영역에서 제1 이미지 특징이 점유하고 있는 점유 면적을 판단할 수 있다. When the ROI is determined, the area determining unit 314 may determine an area occupied by the first image feature in the ROI.

산림 영역에는 노이즈(예: 도로, 수로, 암석 등)가 포함된 경우가 많고, 또한 전술한 바와 같이 두 영역(508, 509)을 통합하여 하나의 관심 영역으로 결정하는 과정으로 인해, 관심영역에는 각 윤곽선(L1, L2) 내부 영역의 노이즈 및/또는 두 윤곽선(L1, L2)사이의 노이즈가 일부 포함될 수 있다. 이러한 노이즈는 식생 지수 생성과정에서 배제될 필요가 있다. Forest areas often contain noise (eg, roads, waterways, rocks, etc.) and, as described above, due to the process of integrating the two areas 508 and 509 to determine one area of interest, the area of interest Noise in the inner region of each contour line L1 or L2 and/or noise between the two contour lines L1 or L2 may be partially included. Such noise needs to be excluded in the vegetation index generation process.

이하 설명의 편의를 위해, 두 영역(508, 509)을 통합하여 하나의 관심영역으로 결정하는 과정에서 두 윤곽선(L1, L2)사이의 노이즈가 포함된 경우를 가정하여 설명한다. 도 5b에는 몇몇 예로, 두 윤곽선(L1, L2)사이의 노이즈인 수로에 관한 이미지 특징(W)이 도시되어 있다. For convenience of explanation, a case in which noise between the two contour lines L1 and L2 is included in the process of integrating the two regions 508 and 509 and determining one region of interest will be described. FIG. 5B shows some examples of image features W for a noise channel between two contours L1 and L2.

면적 판단부(314)는 관심영역(508과 509가 통합된 관심영역)의 면적에서, 관심영역 내에서 노이즈에 연관된 이미지 특징(W)이 점유하고 있는 면적을 차감하여, 관심영역 내 제1 이미지 특징의 점유 면적을 판단할 수 있다. 이때 노이즈에 연관된 이미지 특징은 전술한 바와 같이, 제2 이미지 특징 추출부(312)에 의해 추출될 수 있다.The area determiner 314 subtracts the area occupied by the image feature (W) associated with the noise within the ROI from the area of the ROI (the ROI in which 508 and 509 are integrated), and then subtracts the first image within the ROI. The occupied area of the feature can be determined. At this time, the image feature related to the noise may be extracted by the second image feature extractor 312 as described above.

위성영상의 경우 공간 해상도의 한계로 인해, 수목이 존재하는 지역의 경계를 명확히 파악하지 못할 수 있다. 이때 도 5b에 도시된 바와 같이, 수목이 존재하는 지역의 경계를 설정하기 모호한 경우, 두 관심영역을 통합하여 하나의 관심영역으로 결정한 뒤, 노이즈에 해당하는 이미지 특징을 검출하여 차감하는 방식을 통해 데이터 연산의 효율성 및 정확도가 향상될 수 있다는 현저한 효과를 갖는다. In the case of satellite images, due to limitations in spatial resolution, it may not be possible to clearly grasp the boundaries of the area where trees exist. At this time, as shown in FIG. 5B, when it is ambiguous to set the boundary of the area where the tree exists, after integrating the two regions of interest and determining one region of interest, image features corresponding to noise are detected and subtracted through a method. It has a remarkable effect that the efficiency and accuracy of data calculation can be improved.

다시 도 3을 참조하면, 파장 특징 추출부(320)는 수집된 위성영상 데이터 중 가시 밴드의 데이터로부터 식생과 연관된 파장 특징을 추출할 수 있다. Referring back to FIG. 3 , the wavelength feature extractor 320 may extract wavelength features associated with vegetation from visible band data among collected satellite image data.

몇몇 예로, 파장 특징은, 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출될 수 있다. For some examples, the wavelength characteristics may be calculated based on first wavelength data for a first wavelength among visible band data and second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength.

예컨대, 파장 특징 추출부(330)는 아래의 수학식 1과 같은 수식을 이용하여 파장 특징을 산출할 수 있다. For example, the wavelength feature extractor 330 may calculate the wavelength feature using a formula such as Equation 1 below.

<수학식 1><Equation 1>

Figure 112022064129707-pat00001
Figure 112022064129707-pat00001

여기서, WF는 식생과 연관된 파장 특징을 의미하고, Q1과 Q2는 각각 가시 밴드의 데이터들 중에서, 제1 파장에 대한 데이터와 제2 파장에 대한 데이터, 즉 제1 파장과 제2 파장의 측정 반사도를 의미할 수 있다.Here, WF means a wavelength characteristic associated with vegetation, and Q1 and Q2 are data for a first wavelength and data for a second wavelength, respectively, among visible band data, that is, measured reflectivity of the first and second wavelengths can mean

몇몇 예로, 제1 파장과 제2 파장의 밴드(파장 영역대)는, 가시광의 밴드 중에서 미리 결정될 수 있다. 몇몇 예로, 제1 파장과 제2 파장의 밴드는 학습 모듈(도 2, 240)의 학습과정에 의해 미리 설정될 수 있다. For some examples, bands (wavelength ranges) of the first wavelength and the second wavelength may be previously determined among visible light bands. For some examples, the bands of the first wavelength and the second wavelength may be set in advance by a learning process of the learning module (FIG. 2, 240).

일반적으로, 식물들은 가시 밴드(파장 영역대) 중에서 일부를 반사시키고, 일부는 흡수할 수 있다. 몇몇 예로, 식물들은 제1 파장은 반사시키고, 제2 파장은 흡수할 수 있다. 이때, 식생지수가 발생하면, 화재로 인해 식생지수가 발생한 지역에 존재하는 식물이 연소될 수 있다. 식물이 연소되는 경우, 식생지수가 발생하기 전에 비하여 해당 지역에서 제1 파장과 제2 파장의 반사도 및/또는 흡수도는 상이해질 것으로 예측할 수 있다. In general, plants can reflect part of the visible band (wavelength range) and absorb part. In some instances, plants may reflect a first wavelength and absorb a second wavelength. At this time, when a vegetation index is generated, plants existing in an area where a vegetation index is generated may be burned due to a fire. When the vegetation is burned, it can be predicted that reflectance and/or absorption of the first wavelength and the second wavelength will be different in the corresponding area compared to before the vegetation index is generated.

이러한 원리를 이용하여, 학습 모듈(240)은 식생지수 발생 전과 발생 후의 데이터를 비교함으로써 소정 좌표의 반사도 및/또는 흡수도의 차이를 발생시키는 제1 파장과 제2 파장의 밴드를 결정할 수 있다.Using this principle, the learning module 240 compares data before and after the occurrence of the vegetation index to determine a band of the first wavelength and the second wavelength that causes a difference in reflectance and/or absorbance of predetermined coordinates.

이렇듯, 가시 밴드의 데이터를 이용하여 추출된 파장 특징을 이용함으로써 가시 밴드의 데이터 만을 이용하여서도 식생과 연관된 특징을 추출하거나 및/또는 식생지수를 생성할 수 있다는 현저한 효과를 가질 수 있다.As such, by using the wavelength features extracted using visible band data, it is possible to have a remarkable effect of extracting features related to vegetation and/or generating a vegetation index using only visible band data.

광합성 특징 추출부(330)는 수집된 위성영상 데이터 중 근적외 밴드의 데이터로부터 식생과 연관된 광합성 특징을 추출할 수 있다.The photosynthetic feature extractor 330 may extract photosynthetic features associated with vegetation from near-infrared band data among collected satellite image data.

식생이 광합성을 하면, 광합성을 하지 않는 경우에 비하여 근적외 밴드에서의 반사율이 높다. 광합성 특징 추출부(330)는 이러한 성질을 이용하는 미리 정해진 모델 및/또는 학습된 모델을 기초로 근적외 밴드의 데이터로부터 광합성 수치/정도 등을 포함하는 광합성 특징을 추출할 수 있다.When vegetation photosynthesizes, the reflectance in the near-infrared band is higher than when photosynthesis does not occur. The photosynthetic feature extractor 330 may extract photosynthetic features including the number/degree of photosynthesis from NIR band data based on a predetermined model and/or a learned model using these properties.

도 6은 몇몇 실시예에 따른 식생지수 생성 방법의 흐름도이다. 도 6의 각 단계는 도 1 및 도 2의 식생지수 생성 장치(120)에 의해 수행될 수 있다. 이하 중복되는 내용은 생략하고 간단히 서술한다.6 is a flowchart of a method for generating a vegetation index according to some embodiments. Each step of FIG. 6 may be performed by the vegetation index generator 120 of FIGS. 1 and 2 . Hereinafter, redundant contents are omitted and briefly described.

먼저, 위성영상 데이터를 수집할 수 있다(S110).First, satellite image data may be collected (S110).

이때 위성영상 데이터는 전술한 바와 같이 다양한 파장대역(밴드, band)의 데이터를 포함할 수 있다. 몇몇 예로, 위성영상 데이터는 자외(UV) 밴드의 데이터, 가시광(Visible) 밴드의 데이터, 근적외(Near Infrared) 밴드의 데이터, 적외(Infrared) 밴드의 데이터, 특정 성분(예: 이산화탄소, 일산화탄소 등)에 민감한 밴드의 데이터 등을 포함할 수 있다.In this case, the satellite image data may include data of various wavelength bands (bands) as described above. For example, satellite image data includes ultraviolet (UV) band data, visible band data, near infrared band data, infrared band data, specific components (eg, carbon dioxide, carbon monoxide, etc.) ) may include data of a band sensitive to .

이어서, 수집된 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징을 추출하고(S120), 수집된 위성영상 데이터 중 가시 밴드의 데이터로부터 식생과 연관된 파장 특징을 추출하고(S130), 수집된 위성영상 데이터 중 근적외 밴드의 데이터로부터 식생지수와 연관된 광합성 특징을 추출(S140)할 수 있다.Subsequently, first image features associated with vegetation are extracted from the collected satellite image data (S120), wavelength features associated with vegetation are extracted from visible band data among the collected satellite image data (S130), and collected satellite image data Photosynthetic characteristics associated with the vegetation index may be extracted from the data of the mid-near infrared band (S140).

몇몇 예로, 이미지로부터 객체를 인식하는 알고리즘을 포함하는 객체 인식 모델을 이용하여 위성영상 데이터로부터 식생과 연관된 이미지 특징들을 추출할 수 있다. 자세한 설명은 생략한다.For some examples, image features associated with vegetation may be extracted from satellite image data using an object recognition model including an algorithm for recognizing an object from an image. A detailed explanation is omitted.

몇몇 예로, 파장 특징은, 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출될 수 있다. 자세한 설명은 생략한다.For some examples, the wavelength characteristics may be calculated based on first wavelength data for a first wavelength among visible band data and second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength. A detailed explanation is omitted.

이어서, 추출된 제1 이미지 특징, 온도 특징 및 파장 특징을 기초로 식생지수를 생성할 수 있다(S150).Subsequently, a vegetation index may be generated based on the extracted first image feature, temperature feature, and wavelength feature (S150).

몇몇 예로, 학습되는 딥 러닝 모델에 제1 이미지 특징, 제1 이미지 특징의 점유 면적, 파장 특징 및 광합성 특징 등을 입력하여 식생지수를 생성할 수 있다. 자세한 설명은 생략한다.For some examples, a vegetation index may be generated by inputting a first image feature, an area occupied by the first image feature, a wavelength feature, a photosynthetic feature, and the like into a deep learning model to be learned. A detailed explanation is omitted.

도 7은 다른 몇몇 실시예에 따른 식생지수 생성 방법의 흐름도이다. 도 7의 각 단계는 도 1 및 도 2의 식생지수 생성 장치(120)에 의해 수행될 수 있다.7 is a flowchart of a method for generating a vegetation index according to some other embodiments. Each step of FIG. 7 may be performed by the vegetation index generator 120 of FIGS. 1 and 2 .

먼저, 위성영상 데이터를 수집할 수 있다(S110). 단계(S110)에 대하여는 도 6에서 전술한 바, 여기서는 생략한다.First, satellite image data may be collected (S110). Step S110 has been described above with reference to FIG. 6, and is omitted here.

이어서, 기타 데이터를 수집할 수 있다(S111). 기타 데이터는, 몇몇 예로 기상 데이터(예: 기후 데이터, 날씨 데이터, 강수 데이터), 풍속 데이터, 구름의 현황 데이터, 태풍 데이터, 해일 데이터, 화재 데이터, 계절 데이터, 계절에 따른 식생의 현황 데이터, 식생 영역 데이터 등을 포함할 수 있다. 식생 영역 데이터는, 몇몇 예로, 산림지역이 소정 범위 이상 형성된 좌표 등을 포함할 수 있다. 자세한 설명은 생략한다.Subsequently, other data may be collected (S111). Other data include, for example, meteorological data (e.g. climate data, weather data, precipitation data), wind speed data, cloud status data, typhoon data, tidal wave data, fire data, seasonal data, seasonal vegetation status data, vegetation area data and the like. Vegetation area data may include, for example, coordinates in which a forest area is formed over a predetermined range. A detailed explanation is omitted.

이어서, 수집된 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징을 추출하고(S120), 수집된 위성영상 데이터 중 가시 밴드의 데이터로부터 식생과 연관된 파장 특징을 추출하고(S130), 수집된 위성영상 데이터 중 근적외 밴드의 데이터로부터 식생지수와 연관된 광합성 특징을 추출(S140)할 수 있다.Subsequently, first image features associated with vegetation are extracted from the collected satellite image data (S120), wavelength features associated with vegetation are extracted from visible band data among the collected satellite image data (S130), and collected satellite image data Photosynthetic characteristics associated with the vegetation index may be extracted from the data of the mid-near infrared band (S140).

단계(S120) 내지 단계(S140)에 대하여는 도 6에서 전술한 바 여기서는 생략한다.Steps S120 to S140 have been described above with reference to FIG. 6 and will be omitted here.

이어서, 추출된 제1 이미지 특징이 식생과 연관된 이미지 특징에 해당하는지 여부를 검증할 수 있다(S121).Subsequently, it may be verified whether the extracted first image feature corresponds to an image feature associated with vegetation (S121).

몇몇 예로, 풍속이 소정 속도 이상일 때, 추출된 제1 이미지 특징의 초(second)단위의 변화에 기초하여, 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다. 자세한 설명은 생략한다For some examples, when the wind speed is equal to or greater than a predetermined speed, whether the extracted first image feature corresponds to the tree image feature may be verified based on the second-unit change of the extracted first image feature. Skip the detailed explanation.

다른 몇몇 예로, 계절 데이터의 변화에 따른 특징들의 변화에 기초하여, 추출된 제1 이미지 특징이 수목 이미지 특징에 해당하는지 여부를 검증할 수 있다. 자세한 설명은 생략한다.As another example, it may be verified whether the extracted first image feature corresponds to a tree image feature based on a change in features according to a change in seasonal data. A detailed explanation is omitted.

이어서, 추출된 제1 이미지 특징, 온도 특징 및 파장 특징을 기초로 식생지수를 생성할 수 있다(S150). 단계(S150)에 대하여는 도 6에서 전술한 바, 여기서는 생략한다.Subsequently, a vegetation index may be generated based on the extracted first image feature, temperature feature, and wavelength feature (S150). Step S150 has been described above with reference to FIG. 6, and is omitted here.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present embodiment, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be construed according to the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of this embodiment.

Claims (10)

위성영상 데이터를 수집하는 데이터 수집모듈;
상기 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징, 가시 밴드(band)의 파장 특징 및 근적외 밴드의 광합성 특징을 추출하는 특징 추출 모듈; 및
상기 추출된 제1 이미지 특징, 파장 특징, 광합성 특징을 기초로 식생지수를 생성하는 결정 모듈을 포함하되,
상기 파장 특징은, 상기 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 상기 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출되고,
상기 데이터 수집모듈은, 기타 데이터로서 풍속 데이터를 더 수집하고,
상기 특징 추출 모듈은,
상기 수집된 풍속 데이터가 미리 정해진 소정 속도 이상인지 여부를 판단하고,
상기 수집된 풍속 데이터가 미리 정해진 소정 속도 이상인 경우, 상기 추출된 제1 이미지 특징의 초(second) 단위의 변화가 있는지 여부를 확인하고,
상기 추출된 제1 이미지 특징의 초 단위의 변화가 존재하는 경우, 상기 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는 것으로 검증하는 식생지수 생성 장치.
A data collection module for collecting satellite image data;
a feature extraction module for extracting a first image feature related to vegetation, a wavelength feature of a visible band, and a photosynthesis feature of a near infrared band from the satellite image data; and
A determination module for generating a vegetation index based on the extracted first image feature, wavelength feature, and photosynthesis feature,
The wavelength characteristic is calculated based on first wavelength data for a first wavelength among data of the visible band and second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength,
The data collection module further collects wind speed data as other data;
The feature extraction module,
determining whether the collected wind speed data is equal to or greater than a predetermined speed;
When the collected wind speed data is equal to or greater than a predetermined speed, determining whether there is a change in the second unit of the extracted first image feature;
Vegetation index generation device for verifying that the extracted first image feature corresponds to a first image feature associated with vegetation when a change in seconds of the extracted first image feature exists.
삭제delete 제1항에 있어서,
상기 데이터 수집모듈은,
상기 기타 데이터로서 계절 데이터를 더 수집하는 식생지수 생성 장치.
According to claim 1,
The data collection module,
Vegetation index generator for further collecting seasonal data as the other data.
제3항에 있어서,
상기 특징 추출 모듈은,
상기 계절 데이터의 변화에 따른 상기 추출된 제1 이미지 특징의 형태 변화에 기초하여, 상기 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는지 여부를 검증하는 식생지수 생성 장치.
According to claim 3,
The feature extraction module,
Vegetation index generator for verifying whether the extracted first image feature corresponds to a first image feature associated with vegetation, based on a shape change of the extracted first image feature according to a change in the seasonal data.
제3항에 있어서,
상기 특징 추출 모듈은,
상기 계절 데이터의 변화에 따른 상기 추출된 파장 특징 및 광합성 특징의 변화에 기초하여 상기 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는지 여부를 검증하는 식생지수 생성 장치.
According to claim 3,
The feature extraction module,
Vegetation index generating device for verifying whether the extracted first image feature corresponds to a first image feature associated with vegetation based on a change in the extracted wavelength feature and photosynthesis feature according to a change in the seasonal data.
제1항에 있어서,
상기 데이터 수집모듈은,
상기 기타 데이터로서 식생 영역 데이터를 더 수집하고,
상기 특징 추출 모듈은,
상기 식생 영역 데이터를 기초로 관심 영역(Area of Interest, AoI)을 결정하고,
상기 결정된 관심 영역에서, 상기 제1 이미지 특징의 점유 면적을 판단하는 식생지수 생성 장치.
According to claim 1,
The data collection module,
Further collecting vegetation area data as the other data,
The feature extraction module,
Determining an area of interest (AoI) based on the vegetation area data;
Vegetation index generator for determining an area occupied by the first image feature in the determined region of interest.
제6항에 있어서,
상기 특징 추출 모듈은,
상기 식생 영역 데이터의 좌표에 상응하는 위성영상 데이터로부터 복수의 상기 제1 이미지 특징을 추출하고,
상기 추출된 제1 이미지 특징의 집합의 윤곽선을 도출하고,
상기 도출된 윤곽선을 기초로 상기 관심 영역을 결정하는 식생지수 생성 장치.
According to claim 6,
The feature extraction module,
Extracting a plurality of first image features from satellite image data corresponding to the coordinates of the vegetation area data;
Derive an outline of the set of extracted first image features;
Vegetation index generating device for determining the region of interest based on the derived contour.
제6항에 있어서,
상기 특징 추출 모듈은,
상기 위성영상 데이터로부터 노이즈와 연관된 제2 이미지 특징을 추출하고,
상기 결정된 관심 영역의 면적에서, 상기 제2 이미지 특징의 점유 면적을 차감하여 상기 제1 이미지 특징의 점유 면적을 판단하는 식생지수 생성 장치.
According to claim 6,
The feature extraction module,
Extracting a second image feature associated with noise from the satellite image data;
Vegetation index generator for determining the area occupied by the first image feature by subtracting the area occupied by the second image feature from the determined area of the region of interest.
제1항에 있어서,
상기 제1 이미지 특징, 상기 파장 특징 및 상기 광합성 특징 중 적어도 하나를 포함하는 훈련 데이터를 이용하여 딥러닝 모델을 학습시키는 학습 모듈을 더 포함하고,
상기 결정 모듈은,
상기 제1 이미지 특징, 파장 특징 및 광합성 특징 중 적어도 하나를 상기 딥러닝 모델에 입력하여 상기 식생지수를 생성하는 식생지수 생성 장치.
According to claim 1,
Further comprising a learning module for learning a deep learning model using training data including at least one of the first image feature, the wavelength feature, and the photosynthesis feature,
The decision module,
Vegetation index generating device for generating the vegetation index by inputting at least one of the first image feature, wavelength feature, and photosynthesis feature to the deep learning model.
위성영상 데이터를 수집하는 단계;
상기 위성영상 데이터로부터 식생과 연관된 제1 이미지 특징, 가시 밴드의 파장 특징 및 근적외 밴드의 광합성 특징을 추출하는 특징 추출 단계; 및
상기 추출된 제1 이미지 특징, 파장 특징, 광합성 특징을 기초로 식생지수를 생성하는 단계를 포함하되,
상기 파장 특징은, 상기 가시 밴드의 데이터 중 제1 파장에 대한 제1 파장 데이터와, 상기 제1 파장 보다 상대적으로 단파장인 제2 파장에 대한 제2 파장 데이터를 기초로 산출되고,
상기 위성영상 데이터를 수집하는 단계는, 기타 데이터로서 풍속 데이터를 더 수집하고,
상기 특징 추출 단계는,
상기 수집된 풍속 데이터가 미리 정해진 소정 속도 이상인지 여부를 판단하는 단계와,
상기 수집된 풍속 데이터가 미리 정해진 소정 속도 이상인 경우, 상기 추출된 제1 이미지 특징의 초(second) 단위의 변화가 있는지 여부를 확인하는 단계와,
상기 추출된 제1 이미지 특징의 초 단위의 변화가 존재하는 경우, 상기 추출된 제1 이미지 특징이 식생과 연관된 제1 이미지 특징에 해당하는 것으로 검증하는 단계를 포함하는 식생지수 생성 방법.
Collecting satellite image data;
a feature extraction step of extracting a first image feature related to vegetation, a wavelength feature of a visible band, and a photosynthesis feature of a near infrared band from the satellite image data; and
Generating a vegetation index based on the extracted first image feature, wavelength feature, and photosynthesis feature,
The wavelength characteristic is calculated based on first wavelength data for a first wavelength among data of the visible band and second wavelength data for a second wavelength having a relatively shorter wavelength than the first wavelength,
Collecting the satellite image data further collects wind speed data as other data,
In the feature extraction step,
determining whether the collected wind speed data is equal to or greater than a predetermined speed;
When the collected wind speed data is equal to or greater than a predetermined speed, checking whether there is a change in the second unit of the extracted first image feature;
and verifying that the extracted first image feature corresponds to a first image feature associated with vegetation when there is a change in seconds of the extracted first image feature.
KR1020220074889A 2022-06-20 2022-06-20 Apparatus and method for generating a vegetation index KR102532732B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220074889A KR102532732B1 (en) 2022-06-20 2022-06-20 Apparatus and method for generating a vegetation index

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220074889A KR102532732B1 (en) 2022-06-20 2022-06-20 Apparatus and method for generating a vegetation index

Publications (1)

Publication Number Publication Date
KR102532732B1 true KR102532732B1 (en) 2023-05-16

Family

ID=86545727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220074889A KR102532732B1 (en) 2022-06-20 2022-06-20 Apparatus and method for generating a vegetation index

Country Status (1)

Country Link
KR (1) KR102532732B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016029940A (en) * 2014-07-30 2016-03-07 カシオ計算機株式会社 Plant cultivation condition determination apparatus, plant cultivation condition determination method, and program
WO2020070852A1 (en) * 2018-10-04 2020-04-09 日本電気株式会社 Learning device, image processing device, learning method, image processing method, learning program, and image processing program
KR102106112B1 (en) * 2018-06-12 2020-04-29 주식회사 팜에어 Apparatus for discriminating crops using drone image
KR102183559B1 (en) * 2018-11-21 2020-11-26 대한민국 Apparatus and method for detecting damaged tree
KR102366267B1 (en) * 2019-11-20 2022-02-21 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016029940A (en) * 2014-07-30 2016-03-07 カシオ計算機株式会社 Plant cultivation condition determination apparatus, plant cultivation condition determination method, and program
KR102106112B1 (en) * 2018-06-12 2020-04-29 주식회사 팜에어 Apparatus for discriminating crops using drone image
WO2020070852A1 (en) * 2018-10-04 2020-04-09 日本電気株式会社 Learning device, image processing device, learning method, image processing method, learning program, and image processing program
KR102183559B1 (en) * 2018-11-21 2020-11-26 대한민국 Apparatus and method for detecting damaged tree
KR102366267B1 (en) * 2019-11-20 2022-02-21 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof

Similar Documents

Publication Publication Date Title
Kamilaris et al. Deep learning in agriculture: A survey
Adarme et al. Evaluation of Deep Learning Techniques for Deforestation Detection in the Brazilian Amazon and Cerrado Biomes From Remote Sensing Imagery.
CN113591766B (en) Multi-source remote sensing tree species identification method for unmanned aerial vehicle
Di Noia et al. Use of neural networks in ground-based aerosol retrievals from multi-angle spectropolarimetric observations
Sánchez-Azofeifa et al. Can terrestrial laser scanners (TLSs) and hemispherical photographs predict tropical dry forest succession with liana abundance?
Benedetti et al. Sentinel-1 and Sentinel-2 data fusion for urban change detection
Garcia-Gutierrez et al. Evolutionary feature selection to estimate forest stand variables using LiDAR
Wayman Landsat TM-based forest area estimation using iterative guided spectral class rejection
Windrim et al. Forest tree detection and segmentation using high resolution airborne LiDAR
Zorzi et al. Full-waveform airborne LiDAR data classification using convolutional neural networks
CN114450715A (en) Predicting and correcting vegetation status
Wang et al. Study on the method of transmission line foreign body detection based on deep learning
CN112163458A (en) Ground feature classification method based on integration of CASI hyperspectrum and airborne LiDAR
Pratiwi et al. Early detection of deforestation through satellite land geospatial images based on CNN architecture
MohanRajan et al. A novel fuzzy Harris hawks optimization-based supervised vegetation and bare soil prediction system for Javadi Hills, India
Ahmadi et al. Individual tree detection from unmanned aerial vehicle (UAV) derived point cloud data in a mixed broadleaf forest using hierarchical graph approach
KR102532732B1 (en) Apparatus and method for generating a vegetation index
Saleh et al. Forest fire surveillance systems: A review of deep learning methods
CN109829583A (en) Mountain fire Risk Forecast Method based on probability programming technique
KR102532738B1 (en) Apparatus and method for detecting a possibility of wildfire
Arevalo-Ramirez et al. Assessment of multispectral vegetation features for digital terrain modeling in forested regions
Huang et al. Tree crown detection and delineation using optical satellite imagery
Marin et al. Individual Olive Tree Detection in RGB Images
Morchhale Deep convolutional neural networks for classification of fused hyperspectral and LiDAR data
CN116824462B (en) Forest intelligent fireproof method based on video satellite

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant