KR102300799B1 - Crop state judgment apparatus and crop cultivation information service platform including the same - Google Patents
Crop state judgment apparatus and crop cultivation information service platform including the same Download PDFInfo
- Publication number
- KR102300799B1 KR102300799B1 KR1020200124869A KR20200124869A KR102300799B1 KR 102300799 B1 KR102300799 B1 KR 102300799B1 KR 1020200124869 A KR1020200124869 A KR 1020200124869A KR 20200124869 A KR20200124869 A KR 20200124869A KR 102300799 B1 KR102300799 B1 KR 102300799B1
- Authority
- KR
- South Korea
- Prior art keywords
- crop
- image
- information
- unmanned aerial
- aerial vehicle
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/10—Propulsion
- B64U50/19—Propulsion using electrically powered motors
-
- B64C2201/042—
-
- B64C2201/127—
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Abstract
Description
본 발명은 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼에 관한 것으로서, 특히 드론을 통해 획득한 영상을 이용하여 작물의 재배 면적 별 작물의 종류를 작물 상태 판단 장치를 통해 판단하고, 작물을 표시한 작물 지도를 생성하기 위한 작물 재배 정보 서비스 플랫폼에 관한 것이다.The present invention relates to a crop condition determination device and a crop cultivation information service platform including the same, and in particular, by using an image obtained through a drone, the type of crop for each cultivation area of a crop is determined through the crop condition determination device, and the crop is selected. It relates to a crop cultivation information service platform for generating a displayed crop map.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.
지구 온난화에 따른 기상 이변, 경작지 용도 변경, 작목 갱신, 농법의 변화 및 경작의 규모화에 따른 작물 수급의 변동성이 커지면서 정밀한 농업 관측이 필요해지고 있다. 농업용지, 임업용지에서의 실제로 존재하는 작물, 수목의 현황을 파악하는 통계는 농산물, 임산물 등의 수급을 예상하고, 미래의 수급 계획을 수립하는데 기본적인 정보이다. 하지만, 기존의 방법들은 건축 기술 내지는 측량 기술 기반으로 공간 정보를 구축하는 방법에 국한되어 있어, 실제 현장에서의 식생을 파악하기 위한 자료로는 불충한 한계가 있다. 즉, 기존의 방식에 따를 때 현재의 식생 파악에 대한 정확한 정보를 제공하지 못하기 때문에, 이후의 수요 예측 역시 부정확하다는 한계가 있다.Precise agricultural observations are needed as variability in crop supply and demand increases due to extreme weather, changes in cultivated land use, crop renewal, changes in farming methods, and scale-up of cultivation due to global warming. Statistics to determine the current status of crops and trees in agricultural and forestry land are basic information for predicting the supply and demand of agricultural products and forest products and establishing future supply and demand plans. However, the existing methods are limited to the method of constructing spatial information based on building technology or survey technology, and there is an insufficient limit as data for understanding the vegetation in the actual field. That is, there is a limit in that future demand forecasts are also inaccurate because accurate information on current vegetation identification cannot be provided according to the existing method.
종래에는 농촌경제연구원, 통계청 등의 기관에서, 농지, 산지의 식생에 대한 정보를 제공하였지만, 상술한 이유로 예측이 부정확한 이유가 있어, 특정 농작물의 공급이 너무 많아, 가격이 폭락하는 등 다양한 문제가 있었으며, 이는 수요예측의 베이스가 되는 토지 재배지 기본면적 자체가 잘못되었기 때문이다.In the past, institutions such as the Rural Economic Research Institute and the National Statistical Office provided information on vegetation in farmland and mountainous areas. This is because the basic area of the land grown on the basis of demand forecasting itself was wrong.
본 발명의 실시예들은 상기한 문제점을 해결하기 위해 안출된 것으로서, 무인 비행체를 통해 획득한 영상을 분석하여 작물 지도에 면적 별 작물의 종류를 표시하여 재배 면적 출하 변동 상황 및 기상 이변에 대한 빠르고 신속한 상황파악으로 수급 예측력을 강화시키는데 발명의 주된 목적이 있다.Embodiments of the present invention have been devised to solve the above problems, and by analyzing images acquired through an unmanned aerial vehicle, the types of crops by area are displayed on the crop map to quickly and quickly respond to changes in the shipment of cultivated areas and unusual weather conditions. The main purpose of the invention is to strengthen the predictive power of supply and demand by understanding the situation.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.
본 실시예의 일 측면에 의하면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서, 상기 프로세서는, 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고, 상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며, 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 상기 재배 면적 별 수확 현황 및 재해 현황이 표시되는 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼을 제안한다.According to one aspect of this embodiment, the present invention is a crop cultivation information service platform comprising a processor and a memory for storing a program executed by the processor, the processor, the preset topographic information and take-off point and landing point Creates a flight path of the unmanned aerial vehicle according to the land formed in consideration of the above, receives and analyzes the crop image obtained by the unmanned aerial vehicle to obtain crop information according to the flight path, and includes the type of crop and the state of the crop We propose a crop cultivation information service platform, characterized in that the crop map is generated in which the harvest status and disaster status for each cultivation area according to the flight path are displayed in consideration of the crop information.
본 발명의 또 다른 실시예에 따르면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 상태 판단 장치에 있어서, 상기 프로세서는 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하는 것을 특징으로 작물 상태 판단 장치를 제안한다.According to another embodiment of the present invention, the present invention provides a crop status determination apparatus including a processor and a memory for storing a program executed by the processor, wherein the processor includes a plurality of classification models according to the type of crop and the It learns a plurality of state models according to the state of crops, receives crop images acquired by an unmanned aerial vehicle moving along a flight path, and analyzes them through a convolutional neural network (CNN) to classify crops by crop type. And it proposes a crop status determination device characterized in that the acquisition of the crop information including the status of the crop.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 인공신경망을 통해 이렇게 획득된 작물 영상에 대한 객체 인식이 가능하므로, 필지 별 작물의 현황을 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, since the present invention enables object recognition of the crop image thus obtained through an artificial neural network, the effect of more accurately grasping the status of crops by lot compared to the existing technology is effective. have.
또한. 본 발명의 실시예들에 의하면, 본 발명은 작물 영상에 따라 작물 종류를 판단하고, 작물 종류에 따른 작물의 상태를 판단하여 면적 별 작물 종류에 따른 작물의 상태를 표시한 작물 지도를 생성하여 제공함에 따라 작물의 현황을 자세히 파악할 수 있는 효과가 있다.In addition. According to the embodiments of the present invention, the present invention determines the crop type according to the crop image, determines the crop status according to the crop type, and generates and provides a crop map displaying the crop status according to the crop type for each area. Accordingly, it is effective to understand the current status of crops in detail.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as if they were described in the specification of the present invention.
도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.
도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.
도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.
도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.
도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다.
도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.
도 10은 도 9를 통해 결정된 생성자를 통해 이미지 분류를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.1 is an exemplary diagram illustrating a crop cultivation information service using a crop cultivation information service platform according to an embodiment of the present invention.
2 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.
3 is a view sequentially illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.
4 is a diagram of extracting a representative point of lots according to an embodiment of the present invention, and generating a flight trajectory according to the extracted representative point of a lot.
5 is a diagram illustrating a concept of performing image learning through AI and recognizing a type of crop through this according to an embodiment of the present invention.
6 is a view showing the state of a crop using an image obtained through a drone flight according to an embodiment of the present invention.
7 is a flowchart illustrating a process for producing a subject map in a control center according to an embodiment of the present invention.
8 is a flowchart illustrating a process performed by the AI server in step S730 of FIG. 7 according to an embodiment of the present invention.
9 is a block diagram for explaining a learning concept for crop analysis performed in the AI server according to an embodiment of the present invention.
FIG. 10 is a conceptual diagram illustrating a method of generating an input image for image classification through a generator determined through FIG. 9 .
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including an ordinal number such as second, first, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
본 발명은 작물 재배 정보 서비스 플랫폼에 관한 것이다.The present invention relates to a crop cultivation information service platform.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 활용하여 영상 정보를 전달 받아 빠르고 정확한 재배 면적 파악이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 빠르고, 정확한 관측이 가능하며, 경제적 효과를 가져올 수 있으며, 관측의 양과 질을 높일 수 있다. 이에 따라 농민의 소득을 보장할 수 있으며, 소비자 가격이 안정될 수 있으며, 농업 관측 정확도를 제고하고 수급 예측력을 강화할 수 있다.The crop cultivation
여기서, 빠른 관측은 작목 전환 또는 수급 대비를 위한 빠른 결과물을 도출할 수 있으며, 정확한 관측은 부정확한 관측 데이터의 고도화와 현대화가 가능하고, 경제적 관측은 관측 소요 비용과 관측 오차로 인한 경제 피해가 감소하는 효과가 있다. 또한, 관측의 양과 질은 기상재해, 병해충, 식생지수 등의 다양한 정보를 제공할 수 있는 효과가 있다.Here, fast observation can lead to quick results for crop conversion or supply and demand preparation, accurate observation enables the advancement and modernization of inaccurate observation data, and economic observation reduces the cost of observation and economic damage caused by observation errors. has the effect of In addition, the quantity and quality of observations have the effect of providing various information such as meteorological disasters, pests, and vegetation index.
무인 비행체(20)는 고랭지 작물에 대해 조사할 수 있으며, 영상을 획득하여 신속하고 정확한 작물 재배 면적 및 생육을 관측할 수 있으며, 해발 850m 이상의 지역으로 지형이 험준하며 일교차가 심한 지역에서도 관측할 수 있다.The unmanned
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 이용한 촬영을 통해 고랭지 배추 재배 면적의 시기별, 순차적 변화 양상을 파악하여 표출할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 드론을 활용하여 획득한 이미지의 빠르고 정확한 처리와 지리정보시스템(GIS, Geographic Information System) 기반의 시계열 변화관리를 통해 관측업무의 효율성을 향상시키고 농업 관측업무 전반에 드론 영상 데이터를 효과적으로 활용할 수 있다. 여기서, 작물을 나타내는 고랭지 배추는 일 예로서, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation
지리정보시스템(GIS, Geographic Information System)은 지리정보 즉 공간적으로 분포하는 정보를 처리, 관리하는 정보시스템의 일종이다. 여기서 공간적으로 분포하는 정보 즉 지리정보는 보통 지도의 형태로 나타나며, 지리정보시스템은 이러한 지리정보를 입력, 저장, 처리, 분석, 관리, 출력 등을 할 수 있는 정보시스템을 의미한다. GIS는 농가 지도(Farm Map) 기반의 필지 구분 및 면적 도출할 수 있다. 여기서, Farm Map은 필지 별 경계선을 추출할 때 이용될 수 있다.Geographic Information System (GIS) is a kind of information system that processes and manages geographic information, that is, spatially distributed information. Here, spatially distributed information, that is, geographic information is usually presented in the form of a map, and a geographic information system means an information system that can input, store, process, analyze, manage, and output such geographic information. The GIS can classify lots and derive the area based on a farm map. Here, the Farm Map may be used when extracting a boundary line for each lot.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 재배 면적의 시계열적 변화를 관측할 수 있으며, 드론을 통한 재배 면적, 출하 변동 관측의 경제성 및 효용성을 확인할 수 있고, 실시간 영상 파악으로 변동성 파악이 가능하며, 노지 작물을 효과적으로 관측하고, 고도화를 위한 병해충, 기상 피해 상황 파악 등 생육 판단의 기초 데이터를 선제적으로 확보할 수 있다.Therefore, the crop cultivation
도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.1 is an exemplary diagram illustrating a crop cultivation information service using a crop cultivation information service platform according to an embodiment of the present invention.
도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)와 정보를 주고 받을 수 있으며, 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함하여 정보를 주고 받을 수 있다.Referring to FIG. 1 , the crop cultivation
도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 작물 상태 판단 장치(12) 및 모니터링부(14)를 포함할 수 있다. 여기서, 작물 상태 판단 장치(12)는 작물 재배 정보 서비스 플랫폼(10)에 포함되어 구현될 수 있지만, 별도의 장치로 구현될 수도 있다.Referring to FIG. 1 , the crop cultivation
작물 상태 판단 장치(12)는 무인 비행체(20)에서 획득한 작물 영상을 전달받아 작물의 종류 및 작물의 상태를 판단하는 장치이다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 비행한 비행 경로와 작물 상태 판단 장치(12)에서 판단된 작물의 종류 및 작물의 상태를 이용하여 작물 지도를 생성할 수 있다.The crop
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 비행을 실행하여 생산된 영상 정보를 활용할 수 있다. 무인 비행체(20)는 이미지, 열 영상, 초분광 영상 등을 획득하여 작물 재배 정보 서비스 플랫폼(10)에 전송할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행경로를 생성하고 실증하고, 무인 비행체(20)에서 생산된 정보를 취합하며, 빅데이터를 가공하여 AI 작물 분류, 재배, 수확 현황 도출, 시각화, GIS 기반 분석 표출 등을 수행하고, 공간 정보를 활용하여 비행 경로, 수집방법 개발(DSM 3D 지형 입력, Farm Map 입력) 및 조사 영역, 전송 데이터 송수신 등을 조사원이 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 경로 제공, 수집, 저장, 분석 등을 무인 비행체(20)를 관리하는 어플, 공공기관, 연구 기관, 기업, 학계, 타산업군 등에 제공할 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation
무인 비행체(20)는 비행 경로를 따라 비행을 수행하며 환경 정보 또는 작물 영상을 획득한다. 여기서, 비행 경로는 무인 비행체(20)가 비행을 수행하며 환경 정보 또는 작물 영상을 획득하기 위해 비행하는 경로로서, 이륙 지점과 착륙 지점을 고려하여 비행하는 경로를 생성할 수 있다.The unmanned
제1 단말기(30) 및 제2 단말기(32)는 작물 재배 정보 서비스 플랫폼(10)과 무인 비행체(20)가 처리하는데 필요한 데이터를 전송하고, 처리된 데이터를 수신하는 전자 장치이다. 제1 단말기(30) 및 제2 단말기(32)는 컴퓨팅 디바이스로 구현될 수 있으며, 스마트폰(Smart Phone), 개인용 컴퓨터(Personal Computer, PC), 태블릿 PC(Tablet PC), 휴대용 개인정보 단말기(Personal Digital Assistant, PDA), 랩톱(Laptop) 등이 있을 수 있으나 이에 한정되는 것은 아니다.The
작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 통신망으로 연결되어 있다. 통신망은 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32) 간의 통신을 가능케 할 목적으로 연결해 놓은 통신설비의 집합을 의미한다. 통신망은 노드(Node), 회선, 간선, 및 위성 등을 포함하고 이들은 서로 연결 및 접속되어 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 유무선통신이 가능하다. 예컨대, 무선통신에는 근거리 무선통신, 원거리 무선통신, 이동통신, 및 무선랜 통신 등 다양한 통신 프로토콜이 사용될 수 있다. 무선통신 프로토콜을 예로 들면, 근거리 무선통신(Near Field Communication, NFC), 지그비(ZigBee), 블루투스(Bluetooth), 와이파이(Wi-Fi), 와이맥스(WiMAX), GSM(Global System For Mobile Communication), 3G(Third Generation) 이동통신, LTE(Long Term Evolution), 4G, 5G 등이 있으나, 이에 한정되는 것은 아니다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 데이터베이스를 포함한다. 데이터베이스는 데이터의 검색, 추출, 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터의 저장형태를 의미한다. 데이터베이스는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), 관계형 데이터베이스 관리시스템(Relational Data Base Management System, RDBMS), 겜스톤(Gemston), 오리온(Orion), 객체 지향형 데이타베이스 관리 시스템(Object Oriented Database Management System, OODBMS) 분산 데이터베이스, 클라우드 등을 이용하여 본 실시예의 목적에 맞게 구현될 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 프로세서 및 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함한다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 작물 재배 정보 서비스 서버로 구현될 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 프로세서에 의해 후술하는 과정들이 수행될 수 있으며, 과정에 따른 데이터가 메모리에 저장될 수 있으며, 반드시 이에 한정되는 것은 아니다.The crop cultivation
본 발명의 일 실시예에 따르면, 프로세서는 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)가 서로 정보를 주고 받는 행위에 의한 행동 이력을 생성하고 저장할 수 있다. 예를 들어, 행동 이력은 작물 재배 정보 서비스 플랫폼(10)이 제1 단말기(30) 및 제2 단말기(32)에 제공하는 작물 지도, 무인 비행체(20)에 제공하는 비행 경로 등을 포함할 수 있으며, 이를 통해 지역 별 작물 지도 제공 상황, 일정 기간 동안 무인 비행체(20)가 비행한 이력 등을 확인할 수 있다.According to an embodiment of the present invention, the processor is a crop cultivation
본 발명의 일 실시예에 따르면, 무인 비행체(20)와 작물 재배 정보 서비스 플랫폼(10)은 실시간으로 데이터를 주고 받으며, 4G, 5G 무선망 및 Wifi를 활용하여 이미지 즉시 전송이 가능하고, 데이터 삭제 전송기능을 수행할 수 있다.According to an embodiment of the present invention, the unmanned
무인 비행체(20)는 획득한 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)에 전송하고, 위도, 경도, 상태 정보, 짐벌 상태 정보 등을 추가적으로 전송할 수 있다.The unmanned
제1 단말기(30)는 무인 비행체(20)를 확인하는 사용자가 사용하는 단말기로서, 실시간 앱을 통해 영상 정보 및 비행 정보를 실시간으로 확인할 수 있으며, 무인 비행체(20)와 OcuSync, Lightbridge2, WiFi 등을 통해 통신을 수행할 수 있다.The
제2 단말기(32)는 재배면적, 수확현황, 생육, 병해충, 재해 정보를 시각화한 작물 지도를 모니터링할 수 있는 단말기로, 정보를 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에서 사용되는 단말기일 수 있으며 반드시 이에 한정되는 것은 아니다.The
작물 재배 정보 서비스 플랫폼(10)은 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체(20)의 비행 경로를 생성할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 획득한 작물 영상을 전달받아 분석하여 비행 경로에 따른 작물 정보를 획득하며, 비행 경로 및 작물 정보를 기반으로 재배 면적 별 수확 현황 및 재해 현황에 따른 작물 지도를 생성할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 포함하는 기 설정된 지형 정보를 기반으로 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 추출된 대표점에 따라 비행 궤적을 고려하여 비행 경로를 생성할 수 있다. The crop cultivation
필지 정보는 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함할 수 있다.The lot information may include division boundary information between parcels and altitude information of areas included in the lot.
작물 재배 정보 서비스 플랫폼(10)은 비행 경로 생성 시 무인 비행체(20)의 이착륙 지점을 설정할 수 있다. 여기서, 이착륙 지점은 이륙과 착륙이 모두 가능한 지점이다. 이착륙 지점은 접근성이 용이한 곳으로, 전신주, 교목 등이 없고 시야 확보가 용이한 곳으로 설정할 수 있다. 또한, 주민차량 통행에 방해가 되지 않는 곳에 이착륙 지점이 설정될 수 있다.The crop cultivation
본 발명의 일 실시예에 따르면, 이착륙 지점은 이륙 지점과 착륙 지점을 포함하는 2곳으로 설정될 수 있으나 반드시 이에 한정되는 것은 아니며, 적어도 하나 이상의 이착륙 지점을 설정할 수 있다. 적어도 하나 이상의 이착륙 지점을 통해 무인 비행체(20)는 이륙과 착륙을 안전하게 수행할 수 있다.According to an embodiment of the present invention, two take-off and landing points may be set including a take-off point and a landing point, but the present invention is not limited thereto, and at least one take-off and landing point may be set. The unmanned
이착륙 지점은 작물 재배 정보 서비스 플랫폼(10)에서 설정될 수 있으며, 무인 비행체(20)로 이착륙 지점의 좌표를 송신할 수 있다.The take-off and landing points may be set in the crop cultivation
또한, 무인 비행체(20)는 복수의 서브 영역을 비행하며 작물 영상을 획득할 수 있다. 이때, 서브 영역은 면적, 고도차 등을 기준으로 적어도 두 영역으로 작물 재배 정보 서비스 플랫폼(10)에서 분할되어 설정될 수 있다.In addition, the unmanned
작물 재배 정보 서비스 플랫폼(10)은 비행 경로를 제외하고 재설정한 재설정 경로를 무인 비행체(20)로 전송할 수 있다.The crop cultivation
재설정 경로는 비행 경로에 따라 획득한 작물 영상을 통해 작물 정보를 인식하지 못한 경우, 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함할 수 있다. 구체적으로, 재설정 경로는 비행 경로를 따라서 무인 비행체(20)가 이동하면서 주변 환경 정보를 획득하고, 획득한 환경 정보를 기반으로 최적의 비행 경로를 재설정하여 생성될 수 있다. 여기서, 환경 정보는 장애물의 개수, 장애물의 크기, 날씨 등과 같이 무인 비행체(20)가 비행하며 작물 영상을 촬영하는데 있어 방해되는 요소를 포함할 수 있다.The reset path may further include a path for re-photographing the crop image when crop information is not recognized through the crop image obtained according to the flight path. Specifically, the reset path may be generated by acquiring surrounding environment information while the unmanned
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행 경로에 따른 이동을 실시간으로 관찰하고, 무인 비행체(20)가 비행 경로를 이탈하는 경우, 무인 비행체(20)의 점검 신호를 생성할 수 있고, 점검 신호에 의해 무인 비행체(20)의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받을 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 상태 점검 시 이상이 있는 경우 이상 신호를 수신하여 무인 비행체(20)가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 정상 신호를 수신하여 무인 비행체(20)로 비행 경로를 재전송하여 비행 경로에 따른 이동을 재관찰할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고, 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 무인 비행체(20)의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고, 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 제1 작물 영상 및 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 생성된 합성 영상을 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행할 수 있다.The crop cultivation
3차 작물 인식은 제1 작물 영상 또는 제2 작물 영상과 제1 작물 영상 또는 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 합성 영상을 분석하여 수행될 수 있다. 레이블 정보는 제1 작물 영상 또는 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함할 수 있다.Tertiary crop recognition analyzes the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image through the generator as input. can be performed. The label information may include time information, location information, and color information at which the first crop image or the second crop image was obtained.
작물 재배 정보 서비스 플랫폼(10)은 상기 작물 영상에 합성곱 신경망을 1차적으로 사용하여 작물의 종류에 따른 복수의 분류 모델 및 정상, 결핍, 고온 피해, 병을 포함하는 작물의 상태에 따른 복수의 상태 모델을 학습할 수 있으며, 학습된 복수의 분류 모델을 적용하여 작물 영상에서 추출된 특징을 분석하여 작물의 종류를 판단하며, 판단된 작물의 종류에 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 복수의 상태 모델을 적용하여 작물의 상태에 따른 상태 특징값을 추출하고, 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있으며, 상태 모델에 적용된 시간값을 적용하여 시간값 별 상기 기 설정된 기준 특징값이 변화할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 고려하여 비행 경로에 따른 위치에 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 비행 경로에 따른 총 면적 중 작물 정보에 따른 재배 면적을 산출하여 작물 정보의 좌표를 추출하여 비행 경로, 작물 정보, 재배 면적 및 좌표를 이용하여 작물 지도를 생성할 수 있다.The crop cultivation
상술한 작물 재배 정보 서비스 플랫폼(10)이 작물의 종류 및 작물 상태를 판단하는 과정은 작물 상태 판단 장치(12)를 통해 수행될 수 있다. 따라서, 작물 상태 판단 장치(12)는 작물의 종류에 따른 복수의 분류 모델 및 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체(20)가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.The process in which the above-described crop cultivation
작물 지도는 무인 비행체(20)가 작물 영상을 획득함과 동시에 작물 정보를 획득하여 생성될 수 있다.The crop map may be generated by acquiring crop information while the unmanned
본 실시예의 무인 비행체(20)는 드론, 소형 헬리콥터, 비행기 등으로 구현될 수 있으며, 구체적으로, 사람이 탑승하여 조종하지 않고, 주로 원격 조종으로 움직이는 비행체로 구현될 수 있다.The unmanned
본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 통해 주, 월, 년도 별로 작물 데이터를 관리할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 매년 매달 작물 상황을 비교할 수 있으며, 년도 별 재배 선호 작물, 재배 면적 변화, 재해에 따른 작물 변화 등을 확인할 수 있으며, 이를 기반으로 앞으로의 상황을 예측하여 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에 제공할 수 있다.According to an embodiment of the present invention, the crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류와 작물의 상태를 포함하는 작물 지도를 제공함에 따라 시장에 유통될 작물의 종류 별 수확량을 예측할 수 있으며, 이를 통해 시장가를 예측할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 별 수확량을 예측하고, 수확량에서 작물의 상태에 따라 폐기되는 양을 예측하여 전체 수확량 중 유통 가능한 작물 비율을 예측할 수 있다.As the crop cultivation
또한, 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 이용하여 작물 별 목표 수확량을 수확하기 위해 작물을 재배해야 될 양을 설정하여 제공할 수도 있다. 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 기반으로 추가 재배가 필요한 작물의 종류 또는 재배가 더 이상 필요하지 않은 작물의 종류를 제공하여 작물의 재배량을 관리하고 작물 재배 종류를 제안하며, 이에 따라 시장가를 안정적으로 관리할 수 있다.In addition, the crop cultivation
도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.2 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components other than those described below.
도시된 컴퓨팅 환경은 작물 재배 정보 서비스 플랫폼(10)을 포함한다. 일 실시예에서 작물 재배 정보 서비스 플랫폼(10)은 타 단말기와 신호를 송수신하는 모든 형태의 컴퓨팅 기기일 수 있다. The illustrated computing environment includes a crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 적어도 하나의 프로세서(110), 컴퓨터 판독 가능한 저장매체(120) 및 통신 버스(160)를 포함한다. 프로세서(110)는 작물 재배 정보 서비스 플랫폼(10)으로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(110)는 컴퓨터 판독 가능한 저장 매체(120)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(110)에 의해 실행되는 경우 작물 재배 정보 서비스 플랫폼(10)으로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The crop cultivation
컴퓨터 판독 가능한 저장 매체(120)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능한 저장 매체(120)에 저장된 프로그램(130)은 프로세서(110)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독한 가능 저장 매체(120)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 기기들, 광학 디스크 저장 기기들, 플래시 메모리 기기들, 그 밖에 작물 재배 정보 서비스 플랫폼(10)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 120 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The
통신 버스(160)는 프로세서(110), 컴퓨터 판독 가능한 저장 매체(120)를 포함하여 작물 재배 정보 서비스 플랫폼(10)의 다른 다양한 컴포넌트들을 상호 연결한다.
작물 재배 정보 서비스 플랫폼(10)은 또한 하나 이상의 입출력 장치(미도시)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(140) 및 하나 이상의 통신 인터페이스(150)를 포함할 수 있다. 입출력 인터페이스(140) 및 통신 인터페이스(150)는 통신 버스(160)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(140)를 통해 작물 재배 정보 서비스 플랫폼(10)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(미도시)는 작물 재배 정보 서비스 플랫폼(10)을 구성하는 일 컴포넌트로서 작물 재배 정보 서비스 플랫폼(10)의 내부에 포함될 수도 있고, 작물 재배 정보 서비스 플랫폼(10)과는 구별되는 별개의 장치로 컴퓨팅 기기와 연결될 수도 있다.The crop cultivation
도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.3 is a view sequentially illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.
도 3의 (a)는 작물 재배 정보 서비스 플랫폼(10)에서 비행 경로를 생성하는 과정이다. 이때, 생성된 비행 경로는 무인 비행체(20)로 전달된다. 예를 들어, 풍력 발전소가 위치하는 지역에서는 자기장 영향권을 벗어나도록 경로를 벗어나도록 설계하여 비행 경로를 설정할 수 있다. 이와 같이 비행 경로는 무인 비행체(20)의 비행에 방해가 될 수 있는 요소를 모두 고려하여 설정된다. 비행경로는 목적지의 평면좌표를 추출하고 고도변화값을 반영하여 3차원적인 비행경로가 자동으로 생성될 수 있다.Figure 3 (a) is a process of generating a flight path in the crop cultivation information service platform (10). At this time, the generated flight path is transmitted to the unmanned
도 3의 (b)는 무인 비행체(20)가 비행하며 작물 영상을 획득하는 과정이다. 이때, 비행은 도 3의 (a)에서 획득된 비행 경로를 따라 이동한다.Figure 3 (b) is a process of acquiring a crop image while the unmanned
무인 비행체(20)는 비행 경로를 따라 이동하며 작물 영상을 획득하고, 획득된 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)으로 전송한다.The unmanned
도 3의 (c)는 작물 영상을 전달 받은 작물 재배 정보 서비스 플랫폼(10)에서 작물을 판독하고, 작물의 좌표를 추출하는 과정이다. 이때, 작물 판독은 인공 지능(AI, Artificial Intelligence)을 통해 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 판독을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 수행할 수 있으며, 이는 도 5에서 자세히 설명한다.3 (c) is a process of reading a crop from the crop cultivation
도 3의 (d)는 작물 재배 정보 서비스 플랫폼(10)에서 정사 지도와 주제도를 제작하는 과정으로, 작물 지도를 생성할 수 있다.FIG. 3( d ) is a process of producing an orthodox map and a subject map in the crop cultivation
정사 지도는 지표면의 비고에 의해 발생하는 작물 영상 상의 각 점의 왜곡을 보정하여 동일 축척이 되도록 만든 지도이다. 구체적으로, 정사 지도는 무인 비행체(20)에서 획득한 작물 영상의 지형 기복에 의한 기하학적 왜곡을 보정하고 모든 물체를 수직으로 내려다보았을 때의 모습으로 변환한 도면이며, 좌표와 주기 포함한다.The orthographic map is a map made to the same scale by correcting the distortion of each point on the crop image caused by the remark of the ground surface. Specifically, the orthographic map is a diagram in which the geometric distortion of the crop image obtained from the unmanned
주제도는 특정한 주제를 표현할 것을 목적으로 작성된 지도이다. 본 발명의 일 실시예에 따르면, 주제도는 필지에 따라 작물이 구분되어 표시되는 지도일 수 있으며, 반드시 이에 한정되는 것은 아니다.Thematic map is a map created for the purpose of expressing a specific topic. According to an embodiment of the present invention, the subject map may be a map in which crops are divided and displayed according to parcels, but is not necessarily limited thereto.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영과 동시에 작물의 종류를 판독하고, 지도상에 표시하고 재배 면적을 도출할 수 있다. 이때, 작물 재배 정보 서비스 플랫폼(10)은 실시간 재배 면적 제공으로 촬영과 결과 생성이 동시간대에 완성될 수 있으며, 시계열적 작물 재배 변동 상황 확인이 가능한 효과가 있다.The crop cultivation
무인 비행체(20)는 현장 조사, 이착륙 포인트가 설정된 비행 경로를 작물 재배 정보 서비스 플랫폼(10)으로부터 수신하고, 정사와 고도를 촬영하여 획득한 데이터들을 송신할 수 있다.The unmanned
작물 재배 정보 서비스 플랫폼(10)은 GIS 데이터를 세팅하고, 무인 비행체(20)의 최적의 비행 경로를 생성하여 비행 경로를 전송하고, 데이터를 수신하고 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 분석하여 작물을 구분하고, 재배 면적을 산출하고, 주제도 지도 GUI, AI 학습 데이터를 확보하고, GIS 공간정보를 입력하고, 데이터 서버를 관리할 수 있다.The crop cultivation
여기서, GUI는 사용자가 컴퓨터와 정보를 교환할 때, 그래픽을 통해 작업할 수 있는 환경을 말한다.Here, the GUI refers to an environment in which a user can work through graphics when exchanging information with a computer.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 산지 지형 조사의 특성을 반영하여 3D 지형비행을 통하여 작물 재배 현황과 생육 상태를 파악한다. 무인 비행체(20)에서 보내온 실시간 이미지 데이터는 영상분석을 통하여 촬영 당일 주제 현황도를 생성할 수 있으며, 이는 농업관측의 목표와 부합하는 기술이며 실시간 영상전송 및 작물 분석 기술을 통해 관측업무의 적시성과 정확성을 확보할 수 있다.Therefore, the crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 정사영상을 작성하고, 작물 영상을 통해 작물을 분류하며, 작물 별, 필지 별 재배 지도를 제작하고, 배추 재배 필지를 분리하며, 배추 재배 필지 변화를 표시하고 시계열화할 수 있다. 여기서, 웹 기반의 실시간 시계열화값 그림은 작물 재배 현황, 출하 면적, 정식시기 분포도, 수확 시기 분포도 등을 모두 그림과 값으로 표기할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)로부터 획득한 작물 영상을 기반으로 정사 영상을 생성할 수 있으며, 작물 영상을 통해 작물의 분류는 도 5의 AI 서버를 통해 작물을 분류할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 통해 분류된 작물을 서로 다른 색으로 표시하여 각각의 필지에 따른 작물을 표시하여 작물 지도를 제작할 수 있으며, 획득한 작물 지도에서 배추만 추출할 수 있다. 단계 S1440은 일 실시예로 도시한 것으로 배추가 아닌 다른 작물 재배 필지로 분리할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 기존에 확인된 배추 재배 필지와 현재 무인 비행체(20)를 통해 확인한 배추 재배 필지를 비교하여 변화를 표시할 수 있다. 구체적으로, 배추 재배 필지가 늘었을 경우, 기존과 다른 영역을 다른 색으로 표시하여 추가된 필지를 확인하도록 할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 배추 재배 필지의 변화가 표시된 영역을 정사 지도에 표시하여 형성할 수 있다. 구체적으로, 시계열화는 관측 결과를 일정한 기준에 따라 계열로 정리한 것이다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 판단할 때 시간값을 추가로 고려하여 작물의 상태를 더 자세히 관찰할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 계절 별로 작물의 색상이 차이가 날 수 있으며, 계절 별 작물의 색상에 따라 정상 상태 또는 비정상 상태로 나뉠 수 있으므로 시간값을 더 고려하여 작물의 상태를 더 확실하게 알 수 있다.The crop cultivation
웹 기반의 실시간 시계열화값 그림은 GIS 기술과 데이터 분석 영상 구현 기술을 활용하여 실시간으로 재배지 면적의 변화 상을 시계열화한 것이다.The web-based real-time time-series value diagram is a time-series of changes in cultivated area in real time using GIS technology and data analysis image implementation technology.
작물 재배 정보 서비스 플랫폼(10)은 작물 품목별. 필지 별 재배 면적, 저식 면적, 출하 면적 등을 이미지와 값으로 산출하고, 데이터베이스 분석툴을 활용하여 작물구분도, 정식시기 분포도, 수확시기 분포도 등을 구현할 수 있다. 이때, 각 필지에는 현장의 저고도 사진이 배치되어 클릭으로 현장 사진을 오픈 할 수 있다.Crop cultivation
도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.4 is a diagram of extracting a representative point of lots according to an embodiment of the present invention, and generating a flight trajectory according to the extracted representative point of a lot.
작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 농지정보 데이터베이스(GIS)로부터 획득할 수 있다. 필지 정보는, 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함한다. 본 실시예에서 필지 대표점은 각 필지의 중심점, 내지는 필지의 특성을 잘 나타내는 특징점일 수 있다.The crop cultivation
도 4를 참조하면, 각 필지의 중심점을 필지 대표점으로 표시하여 필지의 대표점을 이은 경로를 나타낼 수 있다. 도 4의 대표점을 이은 경로는 무인 비행체(20)의 실제 주행 경로일 수 있으며, 반드시 이에 한정되는 것은 아니다.Referring to FIG. 4 , the central point of each lot may be displayed as a representative point of the lot to indicate a path connecting the representative points of the lot. The path connecting the representative points of FIG. 4 may be the actual driving path of the unmanned
좌측의 비행 영역은 총 비행 거리가 3.83Km이며, 예상 비행 시간은 12분 23초이고, 총 포인트는 73개일 수 있다. 우측의 비행 영역은 총 비행 거리가 6.21Km이며, 예상 비행 시간은 17분 12초이고, 총 포인트는 94개일 수 있다. 여기서, 좌측 및 우측의 비행 영역에서의 드론은 비행 고도가 20m로 동일하다.The flight zone on the left has a total flight distance of 3.83Km, an estimated flight time of 12 minutes and 23 seconds, and a total number of points can be 73. The flight area on the right has a total flight distance of 6.21Km, an estimated flight time of 17 minutes and 12 seconds, and a total number of points can be 94. Here, the drones in the left and right flight areas have the same flight altitude of 20 m.
따라서, 무인 비행체(20)의 주행 경로는 필지 대표점들을 연결하는 연결 거리의 총합을 최소로 하도록 결정될 수 있다. 주행 경로는 작물 재배 정보 서비스 플랫폼(10)에서 미리 결정한 비행 경로일 수 있으며, 주행 중 경로를 변경할 수도 있다.Accordingly, the driving path of the unmanned
본 발명의 다른 실시예에 따르면, 무인 비행체(20)는 카메라를 통해 획득한 영상을 외부의 작물 재배 정보 서비스 플랫폼(10)으로 실시간 전송이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 획득된 영상에 대한 영상 처리를 통해 신속하게, 또는 실시간으로 작물의 종류와 분포를 분석할 수 있다.According to another embodiment of the present invention, the unmanned
무인 비행체(20)는 기존의 작물 정보를 고려하여 비행이 수정될 수 있다. 예를 들어, 양파같은 경우는 수직 영상만으로는 구별이 안되며, 측면 45도에서 영상을 촬영하는 것이 필요하다. 따라서, 무인 비행체(20)의 경로 결정에 있어서, 작물의 히스토리 정보를 활용하여, 양파경작의 히스토리가 있는 필지의 경우, 20미터보다 낮은 높이 예를 들어 10~15미터 구간에서 비스듬한 각도로 영상을 획득하는 것이 바람직하다. 이 경우, 무인 비행체(20)의 위치는 필지의 대표점이 아니라, 무인 비행체(20)의 카메라가 주시하는 지점이 필지의 대표점인 것이 바람직하다.The flight of the unmanned
도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.5 is a diagram illustrating a concept of performing image learning through AI and recognizing a type of crop through this according to an embodiment of the present invention.
인공신경망은 학습 단계와 적용 단계의 구별된 동작을 수행할 수 있다. 학습 단계에서, 인공신경망은 트레이닝 데이터를 입력 받고, 미리 결정된 가중치값에 따른 특징값을 생성하고, 생성된 특징값을 이용하여 작물의 종류를 구분하는 동작이 이루어진다.The artificial neural network can perform distinct operations of the learning phase and the application phase. In the learning step, the artificial neural network receives training data, generates a feature value according to a predetermined weight value, and classifies the type of crop using the generated feature value.
인공신경망은 프로세서에서 수행되는 소프트웨어의 형태로 구현될 수 있다. 트레이닝 데이터는 다양한 작물들을 커버할 수 있도록, 또한 계절별 다양한 영상들로 구비되는 것이 바람직하다. 트레이닝 데이터는 이미 작물에 대한 정보(작물의 종류, 계절 정보, 작물 단계 정보 등)을 포함할 수 있고, 이러한 정보를 이용한 지도 학습이 가능하다.The artificial neural network may be implemented in the form of software executed in a processor. It is preferable that the training data be provided with various images for each season so as to cover various crops. The training data may already include information about crops (type of crops, season information, crop stage information, etc.), and supervised learning using this information is possible.
트레이닝 데이터를 통한 학습을 통해, 인공신경망에 포함되는 가중치 값은, 작물 인식의 오류를 최소화하는 범위에서 결정될 수 있다. 인공 신경망은, 예를 들어 컨볼루션 신경망일 수 있는데, 컨볼루션 신경망의 경우 영상 처리, 객체 인식에 유리하다.Through learning through training data, a weight value included in the artificial neural network may be determined within a range that minimizes errors in crop recognition. The artificial neural network may be, for example, a convolutional neural network, which is advantageous for image processing and object recognition.
작물 재배 정보 서비스 플랫폼(10)은 비행을 통해 유묘 시기부터 작물 구분이 가능하고, 재배 작물 확인 과정이 더 빠르고 정확할 수 있다. 또한, 모아진 성장 데이터는 작물판독과 생육, 병해충 피해 데이터 등 AI 학습 데이터로 축적이 가능할 수 있다.The crop cultivation
구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망(CNN, Convolutional Neural Network)의 분류 모델을 통해 작물을 분류할 수 있다. Specifically, the crop cultivation
합성곱 신경망(CNN, Convolutional Neural Network)은 작물 영상의 특징을 추출하여 특징들의 패턴을 파악하는 구조이다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 입력되면 특징 추출을 수행한다. 특징 추출은 컨볼루션 연산과 같은 연산을 통하여 특징을 추출하고, 활성화 함수를 통해 비선형 공간으로 확장하고, 풀링을 통해 압축하는 과정을 의미할 수 있다. 이를 통해 고차원의 비선형 공간에서 물체의 특징에 따른 분류가 가능하다.Convolutional Neural Network (CNN) is a structure that extracts features of crop images and identifies patterns of features. Specifically, the crop cultivation
분류 모델은 컨볼루션(Convolution) 연산을 통해 특징을 추출한다. 활성화 함수(Activation Function)를 통해 비선형 공간으로 확장하고, 풀링(Pooling) 연산을 통해 특징을 압축한다. 분류 모델은 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함할 수 있다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 제1 작물 영역을 학습하는 제1 분류 모델과 제2 작물 영역을 학습하는 제2 분류 모델을 상호 독립적으로 학습할 수 있다.A classification model extracts features through a convolution operation. It expands into a non-linear space through an activation function, and compresses features through a pooling operation. The classification model may include a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop. Here, the crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 학습된 분류 모델을 통해 무인 비행체(20)를 통해 입력된 작물 영상을 분석하여 작물을 종류에 따라 1차적으로 분류할 수 있다. 구체적으로, 분류 모델은 배추, 무, 오이, 당근 등과 같은 재배 작물의 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영한 작물 영상이 입력되면, 작물 영상에 분류 모델을 적용하여 작물 영상의 시간값을 입력으로 하여 작물의 특징을 추출하여 작물의 종류를 판단할 수 있다.The crop cultivation
작물 재배 정보 서비스 플랫폼(10)은 2차적으로 판단된 작물의 종류에 따라 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있다. 구체적으로, 상태 모델은 재배 작물 별 정상, 결핍, 고온 피해, 병 등과 같은 상태 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해 작물 재배 정보 서비스 플랫폼(10)은 1차적으로 작물의 종류가 판단되면, 판단된 작물의 종류에 따라 시간값을 입력으로 하여 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.The crop cultivation
또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상에 계절 필터를 적용하여, 영상에서 계절에 따른 색상의 변화가 제거된 영상을 획득할 수 있다. 여기서, 계절 필터는 계절별 색상, 예를 들어 배추의 경우, 계절 별 메인 색상인 봄(노랑), 여름(연두), 가을(초록)의 필터를 계절 필터로 정의할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 획득된 시간(계절)을 고려하여 계절에 따른 색상이 제거된 잔여 영상을 획득할 수 있다. 예를 들어, 여름에 획득된 영상이라면 연두색이 메인 색상이므로, 무인 비행체(20)를 통해 획득한 작물 영상에 연두색 필터를 적용하여 연두색이 제거된 잔여 영상을 획득할 수 있다. 이렇게 필터링된 잔여 영상에 미리 학습된 CNN 신경망을 적용함으로써, 현재의 작물에 이상 징후가 있는지 여부를 색상을 통해서 확인할 수 있다. 구체적으로, 연두색 필터가 제거된 잔여 영상은 배추의 하얀색, 노란색, 고동색, 검은 반점 등을 확인할 수 있으며, 높은 온도에 의해 배추가 시든 정도, 배추가 자란 정도, 배추병의 유무 등을 확인할 수 있다. 이를 통해 배추의 상황을 판단하고 대비할 수 있다.In addition, the crop cultivation
상술한 바와 같이 분류 모델 및 상태 모델을 통해 작물의 종류와 상태를 판단하면 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 생성할 수 있다. 작물 지도는 무인 비행체(20)의 비행 경로를 기반으로 생성되며, 재배 면적 별로 작물의 종류에 따른 작물의 상태를 표시하여 작물 지도를 생성할 수 있다.As described above, when the type and state of the crop is determined through the classification model and the state model, the crop cultivation
도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.6 is a view showing the state of a crop using an image obtained through a drone flight according to an embodiment of the present invention.
도 6의 (a)는 수확 진행 정도를 나타내는 도면이고, 도 5의 (b)는 배추 무름병을 나타내는 도면이고, 도 5의 (c)는 정상 생육을 나타내는 도면이고, 도 5의 (d)는 석회 결핍을 나타내는 도면이고, 도 5의 (e)는 고온 피해를 나타내는 도면이다.Fig. 6 (a) is a view showing the progress of harvest, Fig. 5 (b) is a view showing cabbage rot, Fig. 5 (c) is a view showing normal growth, Fig. 5 (d) is It is a view showing a lack of lime, and Figure 5 (e) is a view showing damage to high temperature.
작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행을 통해 획득한 작물 영상을 통해 수확 진행 정도, 각종 병충해의 상황을 진단할 수 있다.The crop cultivation
작물 재배 정보는 작물의 종류, 작물의 상태 등을 포함할 수 있다. 작물의 상태는 작물의 성상, 크기, 색깔 등을 포함하며, 이에 대한 영상 분석을 통해 작물의 재배단계, 병충해 가능성 여부를 판단할 수 있다. 또한, 영상 분석을 통해 작물들의 수확 진행 정보도 추가적으로 확인할 수 있다.Crop cultivation information may include a type of crop, a state of a crop, and the like. The state of a crop includes the characteristics, size, and color of the crop, and through image analysis, it is possible to determine the cultivation stage of the crop and the possibility of pests. In addition, information on the harvest progress of crops can be additionally confirmed through image analysis.
본 발명의 일 실시예에 따르면 배추에 따른 작물의 상태는 배추 무름병, 석회 결핍, 고온 피해 등을 통해 상태가 좋지 않음을 판단할 수 있으며, 이에 따른 원인을 분석하여 예방할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 획득한 작물 영상을 통해 작물의 종류와 작물의 상태를 판단할 수 있다.According to an embodiment of the present invention, the state of the crop according to the Chinese cabbage can be determined to be in poor condition through cabbage rot, lime deficiency, high temperature damage, etc., and can be prevented by analyzing the cause thereof. Specifically, the crop cultivation
축적한 성장 데이터는 작물판독과 생육, 병해충 피해 등을 판독할 AI 학습 데이터로 축적할 수 있다.The accumulated growth data can be accumulated as AI learning data to read crops, growth, and damage by pests.
본 발명의 다른 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 식생지수를 구하기 위한 분광 촬영을 실시하고, 생육시기의 ½ 시기에 생체 중량을 ¼을 수확하여 측정 수확 후 측정 항목은 초장, 생체중으로 하고, 생육을 마치고 최종 수확물의 초장과 생체중을 측정하고, 촬영으로 취득한 NDVI와 실제 작물 생육 데이터와 비교하여 생육 데이터와의 식생지수와 상관 분석을 수행할 수 있다.According to another embodiment of the present invention, the crop cultivation
식생지수는 식물체의 질소량과 직접적인 비례관계에 있는 엽록소의 분광반사 특성이 주로 적색(Red), 청색(Blue) 파장은 흡수하는 반면 근적외선(NIR, Near InfraRed) 파장은 반사하는 현상을 바탕으로 이들 파장을 조합하여 녹색 식물의 상대적 분포량과 활동성을 평가하는 지표이다. 적색 파장과 근적외선 파장의 반사율을 이용하여 계산하는 정규화식생지수(NDVI, Normalized Difference Vegetation Index)를 산정할 수 있다. RED-edge 및 Sequoir 촬영 시 진동 및 속도로 인한 Blur현상이 발생할 수 있으므로 조도가 확보된 시간에 촬영이 진행될 수 있도록 작업 계획을 잡으며 카메라 감도는 iso 400이상으로 설정하며 셔터스피드 1/250이상을 확보할 수 있다. 직광으로 인한 반사율 왜곡을 피할 수 있도록 밝고 흐린날 촬영이 바람직할 수 있다.The vegetation index is based on the phenomenon that the spectral reflection characteristics of chlorophyll, which are directly proportional to the nitrogen content of plants, mainly absorb red and blue wavelengths while reflecting NIR (Near InfraRed) wavelengths. It is an index to evaluate the relative distribution and activity of green plants by combining Normalized Difference Vegetation Index (NDVI), which is calculated using reflectance of red and near-infrared wavelengths, can be calculated. When shooting RED-edge and Sequoir, blur caused by vibration and speed may occur, so make a work plan so that the shooting can proceed at a time when the illumination is secured. can do. It may be desirable to shoot on a bright, overcast day to avoid reflectance distortion due to direct light.
도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다. 주제도 제작을 위한 수행 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.7 is a flowchart illustrating a process for producing a subject map in a control center according to an embodiment of the present invention. The process for producing the theme map is performed by the crop cultivation information service platform, and detailed descriptions and overlapping descriptions of the operations performed by the crop cultivation information service platform will be omitted.
작물 재배 정보 서비스 플랫폼(10)에서의 주제도 제작은 저고도 무인 비행체에서 획득한 저고도 작물 영상을 전송 받아 수행될 수 있다(S710).The subject map production in the crop cultivation
저고도 작물 영상은 NAS 서버를 거쳐(S720) 데이터 서버에 전달될 수 있다(S722). 여기서, NAS 서버는 컴퓨터 네트워크에 연결된 파일 수준의 컴퓨터 기억장치를 나타낸다.The low-altitude crop image may be transmitted to the data server via the NAS server (S720) (S722). Here, the NAS server represents a file-level computer storage device connected to a computer network.
저고도 작물 영상은 AI 서버로 전달되어 작물 판독을 수행할 수 있다(S730). 또한, 저고도 작물 영상은 영상 판독원에 추가로 전달되어 작물 판독을 수행할 수 있다(S732).The low-altitude crop image may be transmitted to the AI server to perform crop reading (S730). In addition, the low-altitude crop image may be further transmitted to an image reading source to perform crop reading (S732).
단계 S730은 농촌경제연구원이나 농촌진흥청 등의 공공 홈페이지 관측 작물 사진 취합, 농경지 드론 이미지 취득, 해제면 경작 시 실사 등의 이미지 소스를 크롤링(Crawling)할 수 있다. 크롤링(Crawling)은 무수히 많은 컴퓨터에 분산 저장되어 있는 문서를 수집하여 검색 대상의 색인으로 포함시키는 기술로서, 어느 부류의 기술을 얼마나 빨리 검색 대상에 포함시키냐 하는 것이 우위를 결정하는 요소이다.Step S730 may crawl image sources such as collecting photos of crops observed on public homepages such as the Rural Economic Research Institute or the Rural Development Administration, acquiring drone images of agricultural land, and due diligence when cultivating cleared surfaces. Crawling is a technology that collects documents distributed and stored in countless computers and includes them as an index of a search target. What type of technology is included in the search target and how quickly is a factor that determines the superiority.
단계 S730은 이미지 소스를 크롤링하여 판독 알고리즘을 통해 작물을 판독할 수 있다. 판독 알고리즘은 Vggnet, Alexnet, Squeeznet, Resnet, Densenet 등을 사용할 수 있다.In step S730, the crop may be read through a reading algorithm by crawling the image source. The reading algorithm may use Vggnet, Alexnet, Squeeznet, Resnet, Densenet, and the like.
이때, 단계 S730 및 단계 S732에서 수행한 작물 판독에 따라 판독된 작물의 교차 검증을 통해 정확도를 향상시킬 수 있다.In this case, the accuracy may be improved through cross-validation of the crops read according to the crop readings performed in steps S730 and S732.
단계 S730 및 단계 S732에서 판독된 작물들은 이미지 분류를 통해 동일한 이미지들을 분류할 수 있다(S740).The crops read in steps S730 and S732 may classify the same images through image classification (S740).
또한, 단계 S750에서 저고도 작물 영상은 정사 보정과정을 생략할 수 있다.In addition, in step S750, the low-altitude crop image may omit the orthogonal correction process.
이미지 분류(S740)와 정사 보정(S750)이 완료되면 주제도를 제작할 수 있다(S760). 제작된 주제도는 데이터 서버에 저장된다(S770).When the image classification (S740) and orthographic correction (S750) are completed, a subject map can be produced (S760). The produced subject map is stored in the data server (S770).
도 7에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 7에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.Although it is interposed as sequentially executing each process in FIG. 7, this is merely illustrative, and those skilled in the art change the order described in FIG. 7 within the range that does not depart from the essential characteristics of the embodiment of the present invention. Alternatively, various modifications and variations may be applied by executing one or more processes in parallel or adding other processes.
도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다. AI 서버가 수행하는 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.8 is a flowchart illustrating a process performed by the AI server in step S730 of FIG. 7 according to an embodiment of the present invention. The process performed by the AI server is performed by the crop cultivation information service platform, and detailed descriptions and overlapping descriptions of the crop cultivation information service platform will be omitted.
AI 서버는 이미지를 획득할 수 있다(S810). 여기서, 이미지는 저고도 무인 비행체에서 획득한 저고도 작물 영상이다.The AI server may acquire an image (S810). Here, the image is a low-altitude crop image obtained from a low-altitude unmanned aerial vehicle.
AI 서버는 이미지를 획득하면 이미지를 추출할 수 있다(S820). 단계 S820의 이미지 추출은 도 8의 도면과 같이 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 기 설정된 영역만큼 추출한다. 예를 들어, 이미지 추출은 획득한 이미지의 중간 영역에 위치하는 이미지로, 직사각형 형태의 영역으로 추출할 수 있다.When the AI server acquires the image, the AI server may extract the image (S820). In the image extraction of step S820, as shown in the drawing of FIG. 8 , the crop image is extracted as much as a preset area from the low-altitude crop image obtained from each lot. For example, image extraction is an image located in the middle region of the acquired image, and may be extracted as a rectangular region.
단계 S830에서, AI 서버는 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 추출하면 인공지능을 통해 작물을 구분할 수 있다. 인공지능을 통한 작물 구분은 도 5를 통해 확인할 수 있으며, 각각의 작물을 종류에 따라 구분할 수 있다.In step S830, the AI server can classify crops through artificial intelligence by extracting crop images from low-altitude crop images obtained from each lot. The classification of crops through artificial intelligence can be confirmed through FIG. 5 , and each crop can be classified according to type.
단계 S830에서, 작물 구분이 되지 않으며, 이미지를 획득하는 단계(S810)로 다시 돌아가고, 작물 구분이 완료되면 단계 S840에서 이미지의 좌표를 추출할 수 있다.In step S830, crop classification is not performed, and the process returns to step S810 of obtaining an image, and when crop classification is completed, coordinates of the image may be extracted in step S840.
단계 S840에서, 이미지 좌표 추출은 획득한 저고도 작물 영상을 통해 각각의 필지에 따른 좌표를 GIS를 통해 좌표를 추출할 수 있으며, 또는 저고도 무인 비행체에 부착된 GPS를 통해 각각의 필지에서 저고도 작물 영상 촬영된 경우의 무인 비행체의 위치를 통해 좌표를 추출할 수 있다.In step S840, image coordinate extraction may extract coordinates according to each lot through GIS through the obtained low-altitude crop image, or low-altitude crop image shooting in each lot through GPS attached to the low-altitude unmanned aerial vehicle Coordinates can be extracted through the location of the unmanned aerial vehicle in the case of
좌표 추출이 완료되면 단계 S850에서, 각각의 영역을 계산할 수 있다. 영역은 작물 지도를 생성하기 위해 계산되며, 각각의 필지를 기준으로 GIS를 통해 확인할 수 있다.When the coordinate extraction is completed, each region may be calculated in step S850. The area is calculated to create a crop map and can be checked through GIS based on each lot.
본 발명의 일 실시예에 따르면, AI 학습을 위한 생육단계별 데이터는 유묘기, 초기신장기, 성숙기, 수확기 등을 확인할 수 있으며, 데이터 누적 시 생육, 병충해 등을 추가로 판독이 가능하다.According to an embodiment of the present invention, data for each growth stage for AI learning can check seedling, early growth, maturity, harvest, etc.
도 8에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.Although it is interposed as sequentially executing each process in FIG. 8, it is only illustratively described, and those skilled in the art change the order described in FIG. Alternatively, various modifications and variations may be applied by executing one or more processes in parallel or adding other processes.
따라서, 작물 재배 정보 서비스 플랫폼(10)은 드론 촬영 농작물 이미지 전송, 드론 촬영한 영상의 서버의 특정 폴더에 전송, 인공지능 딥러닝 판독모델을 생성, 판독모델은 가동시키고 각각의 결과값을 비교해서 작물을 판독하는 파이썬 코드, 판독된 값은 데이터베이스에 저장하고 관리하는 모듈, 데이터베이스에 저장된 판독결과를 지도에 표시하는 모듈, 지도상의 위치를 선택했을 때 해당 작물의 사진과 판독된 결과를 보여주는 모듈 등으로 구성되어 상술한 과정들을 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다.Therefore, the crop cultivation
도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.9 is a block diagram for explaining a learning concept for crop analysis performed in the AI server according to an embodiment of the present invention.
적대적 생성 신경망(Generative model, GAN)은 생성모델과 판별모델이 경쟁하면서 실제와 가까운 이미지를 자동으로 만들어 내는 기계학습이다.A generative neural network (GAN) is a machine learning that automatically generates images close to the real thing while a generative model and a discriminant model compete.
도 9는 적대적 신경망의 일종으로서 AI서버의 프로세서에서 수행되는 학습 개념을 나타낸 것이다. 도 9에 도시된 적대적 신경망에 의하여 수행되는 프로세스들은 적대적 신경망을 수행하기 위한 일련의 프로그램들로서 AI 서버의 메모리에 저장되며, AI 서버의 프로세서에서 수행되는 하기의 동작들을 포함한다.9 shows a learning concept performed in a processor of an AI server as a type of adversarial neural network. The processes performed by the adversarial neural network shown in FIG. 9 are stored in the memory of the AI server as a series of programs for performing the adversarial neural network, and include the following operations performed by the processor of the AI server.
우선, 적대적 신경망의 학습을 위한 입력 정보(910)는 해당 필지에서 획득된 다수의 트레이닝 영상을 포함한다. 추가적인 입력 정보(910)로서, 해당 영상이 획득되었을 때의 시간 정보(기후 정보, 촬영시각), 위치 정보(GPS 상의 위치 정보, 해당 필지의 식별 정보 등), 색상 정보(해당 필지에서 획득된 영상에서의 주 색상 정보)를 레이블 정보(역시 트레이닝 데이터임)로서 더 포함한다. First, the
도 9에 도시된 바와 같이, 생성자(930)는 레이블 정보(910)와 랜덤 노이즈(920)를 입력으로 하여 페이크 영상을 생성한다. 분별자(940)는 다수의 컨볼루션 필터와 활성화층 및 풀링층으로 구성되며, 최종적인 특징값을 이용하여 Real/Fake에 대한 판단을 한다.As shown in FIG. 9 , a
분별자(940)와 생성자(930)의 필터계수에 대한 업데이트는 생성자(930)를 통해 생성된 페이크 영상과, 리얼 샘플인 트레이닝 영상(950)에 대한 분별 결과(Real/Fake 응답)에 대한 피드백을 통해, 보다 정확한 분별 결과를 얻을 수 있는 방향으로 필터 계수가 업데이트된다. 이러한 학습 과정을 통해 생성자(930)의 필터 계수는 결정될 수 있다. 물리적인 관점에서, 분별자(940), 생성자(930)는 실질적으로 프로세서에 해당하며, 프로세서가 수행하는 세부적인 동작을 나타내는 용어로 이해될 수 있다. The update of the filter coefficients of the
도 10은 도 9를 통해 결정된 생성자(930)를 통해 이미지 분류(S740)를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.FIG. 10 is a conceptual diagram illustrating a method of generating an input image for image classification ( S740 ) through the
현재 드론을 통해 획득된 영상이 충분한 신뢰 수준으로 이미지 분류가 가능하다면, 본 과정을 수행할 필요성은 적다. 하지만, 현재 획득된 영상만으로 작물의 종류를 특정하기 어려울 때에는, 적대적 신경망을 통해 생성되는 합성 영상을 이용하여 작물의 종류를 결정하는 것이 바람직하다.If the image acquired through the current drone can be classified with a sufficient confidence level, there is little need to perform this process. However, when it is difficult to specify the type of crop only with the currently acquired image, it is preferable to determine the type of crop using a synthetic image generated through an adversarial neural network.
도 10에서 생성자(930)는 도 9를 통해 학습이 완료된 생성자(930)를 의미한다. 여기서 입력은 현재의 획득 영상(1010)과, 해당 획득 영상(1010)에 대한 레이블(910)이다. 레이블에 포함되는 정보(910)는 영상을 촬영한 시점의 시간 정보, 위치 정보, 색상 정보를 포함할 수 있다. 이미지 분류(S740)를 위한 입력은, 레이블 정보(910)를 입력으로 하여 생성자(930)를 통해 합성된 합성 영상(960)과, 현재의 획득 영상(1010)이다. 합성 영상(960)을 통해 추출된 특징값과, 획득 영상(1010)을 통해 추출된 특징값을 미리 결정된 가중치에 따라 합산한 후, 합산 특징값을 이용하여 이미지 분류를 수행한다면, 획득 영상만으로 이미지 분류를 수행한 경우와 대비할 때, 분류의 신뢰도를 더욱 높일 수 있다.In FIG. 10 , a
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even if all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
10: 작물 재배 정보 서비스 플랫폼
12: 작물 상태 판단 장치
14: 모니터링부
20: 무인 비행체
30: 제1 단말기
32: 제2 단말기10: Crop Cultivation Information Service Platform
12: Crop condition judgment device
14: monitoring unit
20: unmanned aerial vehicle
30: first terminal
32: second terminal
Claims (15)
상기 프로세서는,
기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고,
상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며,
작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성하고,
상기 프로세서는, 상기 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하여 상기 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하며,
상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고, 상기 비행 경로를 기반으로 재배 면적 별로 상기 작물의 종류에 따른 상기 작물의 상태를 표시하여 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.In the crop cultivation information service platform comprising a processor and a memory for storing a program executed by the processor,
The processor is
Creates the flight path of the unmanned aerial vehicle according to the land formed in consideration of the preset topographic information and the take-off point and landing point,
It receives and analyzes the crop image acquired by the unmanned aerial vehicle to obtain crop information according to the flight path,
In consideration of the crop information including the type of crop and the state of the crop, a crop map is generated in which the harvest status and disaster status by cultivation area according to the flight path are displayed,
The processor learns a plurality of classification models according to the type of crop and a plurality of state models according to the state of the crop, and analyzes the crop image through a convolutional neural network (CNN) to classify each crop. Obtaining the crop information including the type of crop and the state of the crop,
The processor includes a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop primarily By applying a model, inputting the time value of the crop image as an input, analyzing the extracted characteristics to determine the type of crop, and secondarily, by inputting the time value according to the determined type of crop, the plurality of learned To generate the crop map by applying a state model to determine the state of the crop, including normal, deficiency, and high temperature damage, and displaying the state of the crop according to the type of crop for each cultivation area based on the flight path Crop cultivation information service platform, characterized in that.
상기 프로세서는,
필지에 대한 필지 정보를 포함하는 상기 기 설정된 지형 정보를 기반으로 상기 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 상기 추출된 대표점에 따라 비행 궤적을 고려하여 상기 비행 경로를 생성하고,
상기 필지 정보는 필지간 구분 경계 정보 및 필지에 포함되는 영역들의 고도 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.According to claim 1,
The processor is
Extracting a representative point of the lot indicating the center point of the lot based on the preset topographic information including lot information about the lot, and generating the flight path in consideration of the flight trajectory according to the extracted representative point,
The lot information is a crop cultivation information service platform, characterized in that it includes information on the boundary between parcels and altitude information of areas included in the lot.
상기 프로세서는,
상기 비행 경로를 제외하고 재설정한 무인 비행체의 재설정 경로를 생성하고,
상기 재설정 경로는 상기 비행 경로에 따라 획득한 상기 작물 영상을 통해 상기 작물 정보를 인식하지 못한 경우, 상기 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.3. The method of claim 2,
The processor is
Create a reset route of the unmanned aerial vehicle that has been reset except for the flight route,
The reset path, if the crop information is not recognized through the crop image acquired according to the flight path, crop cultivation information service platform, characterized in that it further comprises a path for re-photographing the crop image.
상기 프로세서는,
상기 무인 비행체의 상기 비행 경로에 따른 이동을 실시간으로 관찰하고, 상기 무인 비행체가 상기 비행 경로를 이탈하는 경우, 상기 무인 비행체의 점검 신호를 생성하고,
상기 점검 신호에 의해 상기 무인 비행체의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.According to claim 1,
The processor is
Observing the movement of the unmanned aerial vehicle along the flight path in real time, and generating a check signal of the unmanned aerial vehicle when the unmanned aerial vehicle deviates from the flight path,
A crop cultivation information service platform, characterized in that it receives an abnormal signal or a normal signal generated by checking the status of a GPS and lidar sensor that confirms the position and movement direction of the unmanned aerial vehicle by the inspection signal.
상기 프로세서는,
상기 무인 비행체의 상태 점검 시 이상이 있는 경우 상기 이상 신호를 수신하여 상기 무인 비행체가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 상기 정상 신호를 수신하여 상기 비행 경로를 상기 무인 비행체로 재전송하여 상기 비행 경로에 따른 이동을 재관찰하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.5. The method of claim 4,
The processor is
When there is an abnormality in the state check of the unmanned aerial vehicle, the abnormal signal is received to generate a return signal for the unmanned aerial vehicle to return, and if there is no abnormality, the normal signal is received and the flight path is retransmitted to the unmanned aerial vehicle. Crop cultivation information service platform, characterized in that re-observing the movement along the flight path.
상기 프로세서는,
상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.According to claim 1,
The processor is
First crop recognition is performed by analyzing the first crop image through the convolutional neural network,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the position or shooting angle of the unmanned aerial vehicle is analyzed through the convolutional neural network to perform secondary crop recognition,
When crop information is not obtained through the secondary crop recognition, a synthesized image is generated by synthesizing the first crop image and the second crop image through an adversarial generating neural network (GAN), and the generated synthesized image is used in the A crop cultivation information service platform, characterized in that it performs tertiary crop recognition by analyzing it through a convolutional neural network.
상기 3차 작물 인식은,
상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.9. The method of claim 8,
The tertiary crop recognition is
Analyze the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image as inputs through a generator is performed by
The label information is a crop cultivation information service platform, characterized in that it includes time information, location information, and color information at which the first crop image or the second crop image was obtained.
상기 프로세서는,
상기 비행 경로에 따른 총 면적 중 상기 작물 정보에 따른 재배 면적을 산출하여 상기 작물 정보의 좌표를 추출하여 상기 비행 경로, 상기 작물 정보, 상기 재배 면적 및 상기 좌표를 이용하여 상기 무인 비행체가 작물 영상을 획득함과 동시에 상기 작물 정보를 획득하여 생성되는 상기 작물 지도를 생성하고,
상기 프로세서는,
작물의 종류 및 작물의 상태가 표시된 상기 작물 지도를 이용하여 시장에 유통되는 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 예측하고,
상기 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 이용하여 유통 가능한 작물 비율을 예측하고, 상기 유통 가능한 작물 비율을 이용하여 시장가를 예측하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.According to claim 1,
The processor is
The unmanned aerial vehicle uses the flight path, the crop information, the cultivation area, and the coordinates to extract the crop information by calculating the cultivation area according to the crop information among the total area along the flight path. generating the crop map generated by acquiring the crop information at the same time as acquiring,
The processor is
Predicting the yield for each type of crop distributed in the market and the amount to be discarded according to the condition of the crop by using the crop map in which the type of crop and the condition of the crop are displayed,
A crop cultivation information service platform, characterized in that predicting a circulating crop ratio using the yield for each type of crop and an amount discarded according to the state of the crop, and predicting a market price using the circulating crop ratio.
상기 프로세서는,
작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고,
비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득하며,
상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단하는 것을 특징으로 하는 작물 상태 판단 장치.In the crop status determination apparatus comprising a processor and a memory for storing a program executed by the processor,
The processor is
Learning a plurality of classification models according to the type of crop and a plurality of state models according to the state of the crop,
It receives crop images acquired by an unmanned aerial vehicle moving along the flight path and analyzes it through a convolutional neural network (CNN) to classify each crop to obtain crop information including the type of crop and the state of the crop.
The processor includes a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop primarily By applying a model, inputting the time value of the crop image as an input, analyzing the extracted characteristics to determine the type of crop, and secondarily, by inputting the time value according to the determined type of crop, the plurality of learned Crop condition determination device, characterized in that by applying the condition model to determine the condition of the crop including normal, deficiency, high temperature damage, and disease.
상기 프로세서는,
상기 복수의 상태 모델을 적용하여 상기 작물의 상태에 따른 상태 특징값을 추출하고, 상기 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고,
상기 시간값을 적용하여 상기 시간값 별 상기 기 설정된 기준 특징값이 변화하는 것을 특징으로 하는 작물 상태 판단 장치.12. The method of claim 11,
The processor is
By applying the plurality of state models to extract a state feature value according to the state of the crop, and comparing the state feature value with a preset reference feature value to determine the state of the crop including normal, deficiency and high temperature damage, ,
Crop condition determination apparatus, characterized in that by applying the time value, the preset reference characteristic value is changed for each time value.
상기 프로세서는,
상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 상태 판단 장치.12. The method of claim 11,
The processor is
First crop recognition is performed by analyzing the first crop image through the convolutional neural network,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the position or shooting angle of the unmanned aerial vehicle is analyzed through the convolutional neural network to perform secondary crop recognition,
When crop information is not obtained through the secondary crop recognition, a synthesized image is generated by synthesizing the first crop image and the second crop image through an adversarial generating neural network (GAN), and the generated synthesized image is used in the Crop condition determination device, characterized in that the tertiary crop recognition is performed by analysis through a convolutional neural network.
상기 3차 작물 인식은,
상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 상태 판단 장치.15. The method of claim 14,
The tertiary crop recognition is
Analyzes the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image as inputs through a generator is performed by
The label information is a crop condition determination device, characterized in that it includes time information, location information, and color information at which the first crop image or the second crop image was obtained.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200084502 | 2020-07-09 | ||
KR20200084502 | 2020-07-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102300799B1 true KR102300799B1 (en) | 2021-09-10 |
Family
ID=73791132
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200105327A KR102187654B1 (en) | 2020-07-09 | 2020-08-21 | Low altitude drone and Crop Cultivating Information Acquisition System including the same |
KR1020200124869A KR102300799B1 (en) | 2020-07-09 | 2020-09-25 | Crop state judgment apparatus and crop cultivation information service platform including the same |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200105327A KR102187654B1 (en) | 2020-07-09 | 2020-08-21 | Low altitude drone and Crop Cultivating Information Acquisition System including the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102187654B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102467855B1 (en) * | 2021-09-17 | 2022-11-16 | 경남도립거창대학산학협력단 | A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same |
KR20230040765A (en) * | 2021-09-16 | 2023-03-23 | 한국항공우주연구원 | Crop yield prediction method and apparatus using the same |
KR20230081690A (en) | 2021-11-30 | 2023-06-07 | (주)레이원 | Composite cultivation management decision-making monitoring system |
WO2023101146A1 (en) * | 2021-12-03 | 2023-06-08 | 한국전자기술연구원 | Device and method for automatic bakanae disease identification based on image information |
WO2023106558A1 (en) * | 2021-12-07 | 2023-06-15 | 한국전자기술연구원 | Image information-based automatic reading device and method for rice lodging |
KR102579689B1 (en) * | 2022-11-10 | 2023-09-18 | 주식회사 이지에프앤씨 | Customization-based smart farm service provision system |
NO20220416A1 (en) * | 2022-04-05 | 2023-10-06 | Digifarm As | Methods and systems for estimating crop yield from vegetation index data |
KR102597426B1 (en) * | 2022-11-09 | 2023-11-02 | 시스템 엔지니어링 코리아 ㈜ | System for wirelessly measuring impact of agricultural product |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021216379A2 (en) * | 2020-04-21 | 2021-10-28 | Pyka Inc. | Unmanned aerial vehicle aerial spraying control |
KR102273655B1 (en) * | 2020-12-24 | 2021-07-06 | 국방기술품질원 | Method for creating hyperspectral high speed camera image using generative adversarial network algorithm |
KR102384334B1 (en) * | 2021-02-26 | 2022-04-08 | 주식회사 이노드 | Apparatus and method for providing crop information of cultivation area |
KR102514706B1 (en) * | 2021-09-07 | 2023-03-29 | 경상국립대학교산학협력단 | Apparatus and method for automatically generating flight path mission files of unmanned aerial vehicles |
KR102447678B1 (en) * | 2022-05-16 | 2022-09-26 | 이대권 | Drone for measuring atmosphere environment |
KR20240005607A (en) | 2022-07-05 | 2024-01-12 | 주식회사 이노드 | Image matching method of image taken by unmanned aerial vehicle and device therefor |
CN116733472A (en) * | 2023-06-05 | 2023-09-12 | 江西华丽丰科技有限公司 | Metal ore mining and selecting control system based on intelligent algorithm |
CN116543309B (en) * | 2023-06-28 | 2023-10-27 | 华南农业大学 | Crop abnormal information acquisition method, system, electronic equipment and medium |
CN117612047B (en) * | 2024-01-23 | 2024-04-12 | 国网湖北省电力有限公司信息通信公司 | Unmanned aerial vehicle inspection image recognition method for power grid based on AI large model |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014160589A1 (en) * | 2013-03-24 | 2014-10-02 | Bee Robotics Corporation | Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs |
WO2016183000A1 (en) * | 2015-05-12 | 2016-11-17 | BioSensing Systems, LLC | Apparatuses and methods for bio-sensing using unmanned aerial vehicles |
KR20170047036A (en) * | 2015-10-22 | 2017-05-04 | 농업회사법인 주식회사 호그린 | System for supplying unmanned pesticide |
WO2017077543A1 (en) * | 2015-11-08 | 2017-05-11 | Agrowing Ltd | A method for aerial imagery acquisition and analysis |
KR20170058526A (en) * | 2015-11-19 | 2017-05-29 | 하태훈 | Disk shaped drone |
KR101801746B1 (en) * | 2017-01-03 | 2017-11-27 | (주)세이프어스드론 | Smart Drone for disaster prevention, System and Method using the same |
JP2018537335A (en) * | 2015-12-09 | 2018-12-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method and system for controlling the flight of an unmanned aerial vehicle |
KR101948635B1 (en) * | 2017-12-20 | 2019-02-18 | 계양전기 주식회사 | Agricultural drone and operating method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9070101B2 (en) * | 2007-01-12 | 2015-06-30 | Fatdoor, Inc. | Peer-to-peer neighborhood delivery multi-copter and method |
KR101642828B1 (en) * | 2014-05-26 | 2016-07-28 | 서울대학교산학협력단 | Obstacle avoidance system and method based on multiple images |
-
2020
- 2020-08-21 KR KR1020200105327A patent/KR102187654B1/en active IP Right Grant
- 2020-09-25 KR KR1020200124869A patent/KR102300799B1/en active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014160589A1 (en) * | 2013-03-24 | 2014-10-02 | Bee Robotics Corporation | Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs |
US20140303814A1 (en) * | 2013-03-24 | 2014-10-09 | Bee Robotics Corporation | Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs |
WO2016183000A1 (en) * | 2015-05-12 | 2016-11-17 | BioSensing Systems, LLC | Apparatuses and methods for bio-sensing using unmanned aerial vehicles |
KR20170047036A (en) * | 2015-10-22 | 2017-05-04 | 농업회사법인 주식회사 호그린 | System for supplying unmanned pesticide |
WO2017077543A1 (en) * | 2015-11-08 | 2017-05-11 | Agrowing Ltd | A method for aerial imagery acquisition and analysis |
KR20170058526A (en) * | 2015-11-19 | 2017-05-29 | 하태훈 | Disk shaped drone |
JP2018537335A (en) * | 2015-12-09 | 2018-12-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method and system for controlling the flight of an unmanned aerial vehicle |
KR101801746B1 (en) * | 2017-01-03 | 2017-11-27 | (주)세이프어스드론 | Smart Drone for disaster prevention, System and Method using the same |
KR101948635B1 (en) * | 2017-12-20 | 2019-02-18 | 계양전기 주식회사 | Agricultural drone and operating method thereof |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230040765A (en) * | 2021-09-16 | 2023-03-23 | 한국항공우주연구원 | Crop yield prediction method and apparatus using the same |
KR102653356B1 (en) * | 2021-09-16 | 2024-04-02 | 한국항공우주연구원 | Crop yield prediction method and apparatus using the same |
KR102467855B1 (en) * | 2021-09-17 | 2022-11-16 | 경남도립거창대학산학협력단 | A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same |
KR20230081690A (en) | 2021-11-30 | 2023-06-07 | (주)레이원 | Composite cultivation management decision-making monitoring system |
WO2023101146A1 (en) * | 2021-12-03 | 2023-06-08 | 한국전자기술연구원 | Device and method for automatic bakanae disease identification based on image information |
WO2023106558A1 (en) * | 2021-12-07 | 2023-06-15 | 한국전자기술연구원 | Image information-based automatic reading device and method for rice lodging |
NO20220416A1 (en) * | 2022-04-05 | 2023-10-06 | Digifarm As | Methods and systems for estimating crop yield from vegetation index data |
KR102597426B1 (en) * | 2022-11-09 | 2023-11-02 | 시스템 엔지니어링 코리아 ㈜ | System for wirelessly measuring impact of agricultural product |
KR102579689B1 (en) * | 2022-11-10 | 2023-09-18 | 주식회사 이지에프앤씨 | Customization-based smart farm service provision system |
Also Published As
Publication number | Publication date |
---|---|
KR102187654B1 (en) | 2020-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102300799B1 (en) | Crop state judgment apparatus and crop cultivation information service platform including the same | |
Torres-Sánchez et al. | Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis | |
Hamylton et al. | Evaluating techniques for mapping island vegetation from unmanned aerial vehicle (UAV) images: Pixel classification, visual interpretation and machine learning approaches | |
Zhang et al. | Orchard management with small unmanned aerial vehicles: A survey of sensing and analysis approaches | |
Pádua et al. | UAS, sensors, and data processing in agroforestry: A review towards practical applications | |
CN106407880B (en) | Use the storage of image procossing, growth and risk profile | |
US20170372137A1 (en) | Systems, devices, and methods for robotic remote sensing for precision agriculture | |
Honrado et al. | UAV imaging with low-cost multispectral imaging system for precision agriculture applications | |
GB2598012A (en) | System and method for crop monitoring | |
Marín et al. | Urban lawn monitoring in smart city environments | |
Meivel et al. | Remote sensing analysis of agricultural drone | |
Kakamoukas et al. | A multi-collective, IoT-enabled, adaptive smart farming architecture | |
Xue et al. | Assessment of canopy vigor information from kiwifruit plants based on a digital surface model from unmanned aerial vehicle imagery | |
Liu et al. | An efficient approach based on UAV orthographic imagery to map paddy with support of field-level canopy height from point cloud data | |
Khuzaimah et al. | Application and potential of drone technology in oil palm plantation: Potential and limitations | |
Phang et al. | From Satellite to UAV-based Remote Sensing: A Review on Precision Agriculture | |
Livanos et al. | Extraction of reflectance maps for smart farming applications using unmanned aerial vehicles | |
KR102408373B1 (en) | Method and Apparatus for Automated Management of an Agricultural Land Information | |
Duman et al. | Design of a smart vertical farming system using image processing | |
Wijesingha | Geometric quality assessment of multi-rotor unmanned aerial vehicle borne remote sensing products for precision agriculture | |
Sadiq et al. | A review on the imaging approaches in agriculture with crop and soil sensing methodologies | |
Poudel et al. | Assessing Red Pine Seedlings Using Uav Point Clouds and Field-Verified Data | |
Izere | Plant Height Estimation Using RTK-GNSS Enabled Unmanned Aerial Vehicle (UAV) Photogrammetry | |
Gadepally et al. | A Deep Transfer Learning based approach for forecasting spatio-temporal features to maximize yield in cotton crops | |
Phade et al. | IoT‐Enabled Unmanned Aerial Vehicle: An Emerging Trend in Precision Farming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |