KR102300799B1 - Crop state judgment apparatus and crop cultivation information service platform including the same - Google Patents

Crop state judgment apparatus and crop cultivation information service platform including the same Download PDF

Info

Publication number
KR102300799B1
KR102300799B1 KR1020200124869A KR20200124869A KR102300799B1 KR 102300799 B1 KR102300799 B1 KR 102300799B1 KR 1020200124869 A KR1020200124869 A KR 1020200124869A KR 20200124869 A KR20200124869 A KR 20200124869A KR 102300799 B1 KR102300799 B1 KR 102300799B1
Authority
KR
South Korea
Prior art keywords
crop
image
information
unmanned aerial
aerial vehicle
Prior art date
Application number
KR1020200124869A
Other languages
Korean (ko)
Inventor
정호
김대성
정철훈
정형균
김정선
박병배
박주원
Original Assignee
주식회사 이노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노드 filed Critical 주식회사 이노드
Application granted granted Critical
Publication of KR102300799B1 publication Critical patent/KR102300799B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • B64C2201/042
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Abstract

Embodiments of the present invention relates to a crop cultivation information service platform comprising a processor and a memory for storing a program executed by the processor, wherein the processor creates a flight path of an unmanned aerial vehicle according to a lot formed in consideration of preset topographic information and take-off and landing points, receives and analyzes crop images acquired by unmanned aerial vehicles to obtain crop information according to the flight path, and in consideration of crop information including the type of crop and the condition of the crop, generates a crop map that displays the harvest status and disaster status for each cultivation area according to the flight path. A main purpose of the present invention is to strengthen the predictive power of supply and demand by analyzing the images acquired through the unmanned aerial vehicle and displaying the types of crops by area on the crop map to quickly and rapidly grasp the situation of shipment fluctuations in the cultivation area and unusual weather conditions.

Description

작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼{Crop state judgment apparatus and crop cultivation information service platform including the same}Crop state judgment apparatus and crop cultivation information service platform including the same

본 발명은 작물 상태 판단 장치 및 이를 포함하는 작물 재배 정보 서비스 플랫폼에 관한 것으로서, 특히 드론을 통해 획득한 영상을 이용하여 작물의 재배 면적 별 작물의 종류를 작물 상태 판단 장치를 통해 판단하고, 작물을 표시한 작물 지도를 생성하기 위한 작물 재배 정보 서비스 플랫폼에 관한 것이다.The present invention relates to a crop condition determination device and a crop cultivation information service platform including the same, and in particular, by using an image obtained through a drone, the type of crop for each cultivation area of a crop is determined through the crop condition determination device, and the crop is selected. It relates to a crop cultivation information service platform for generating a displayed crop map.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

지구 온난화에 따른 기상 이변, 경작지 용도 변경, 작목 갱신, 농법의 변화 및 경작의 규모화에 따른 작물 수급의 변동성이 커지면서 정밀한 농업 관측이 필요해지고 있다. 농업용지, 임업용지에서의 실제로 존재하는 작물, 수목의 현황을 파악하는 통계는 농산물, 임산물 등의 수급을 예상하고, 미래의 수급 계획을 수립하는데 기본적인 정보이다. 하지만, 기존의 방법들은 건축 기술 내지는 측량 기술 기반으로 공간 정보를 구축하는 방법에 국한되어 있어, 실제 현장에서의 식생을 파악하기 위한 자료로는 불충한 한계가 있다. 즉, 기존의 방식에 따를 때 현재의 식생 파악에 대한 정확한 정보를 제공하지 못하기 때문에, 이후의 수요 예측 역시 부정확하다는 한계가 있다.Precise agricultural observations are needed as variability in crop supply and demand increases due to extreme weather, changes in cultivated land use, crop renewal, changes in farming methods, and scale-up of cultivation due to global warming. Statistics to determine the current status of crops and trees in agricultural and forestry land are basic information for predicting the supply and demand of agricultural products and forest products and establishing future supply and demand plans. However, the existing methods are limited to the method of constructing spatial information based on building technology or survey technology, and there is an insufficient limit as data for understanding the vegetation in the actual field. That is, there is a limit in that future demand forecasts are also inaccurate because accurate information on current vegetation identification cannot be provided according to the existing method.

종래에는 농촌경제연구원, 통계청 등의 기관에서, 농지, 산지의 식생에 대한 정보를 제공하였지만, 상술한 이유로 예측이 부정확한 이유가 있어, 특정 농작물의 공급이 너무 많아, 가격이 폭락하는 등 다양한 문제가 있었으며, 이는 수요예측의 베이스가 되는 토지 재배지 기본면적 자체가 잘못되었기 때문이다.In the past, institutions such as the Rural Economic Research Institute and the National Statistical Office provided information on vegetation in farmland and mountainous areas. This is because the basic area of the land grown on the basis of demand forecasting itself was wrong.

본 발명의 실시예들은 상기한 문제점을 해결하기 위해 안출된 것으로서, 무인 비행체를 통해 획득한 영상을 분석하여 작물 지도에 면적 별 작물의 종류를 표시하여 재배 면적 출하 변동 상황 및 기상 이변에 대한 빠르고 신속한 상황파악으로 수급 예측력을 강화시키는데 발명의 주된 목적이 있다.Embodiments of the present invention have been devised to solve the above problems, and by analyzing images acquired through an unmanned aerial vehicle, the types of crops by area are displayed on the crop map to quickly and quickly respond to changes in the shipment of cultivated areas and unusual weather conditions. The main purpose of the invention is to strengthen the predictive power of supply and demand by understanding the situation.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

본 실시예의 일 측면에 의하면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서, 상기 프로세서는, 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고, 상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며, 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 상기 재배 면적 별 수확 현황 및 재해 현황이 표시되는 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼을 제안한다.According to one aspect of this embodiment, the present invention is a crop cultivation information service platform comprising a processor and a memory for storing a program executed by the processor, the processor, the preset topographic information and take-off point and landing point Creates a flight path of the unmanned aerial vehicle according to the land formed in consideration of the above, receives and analyzes the crop image obtained by the unmanned aerial vehicle to obtain crop information according to the flight path, and includes the type of crop and the state of the crop We propose a crop cultivation information service platform, characterized in that the crop map is generated in which the harvest status and disaster status for each cultivation area according to the flight path are displayed in consideration of the crop information.

본 발명의 또 다른 실시예에 따르면, 본 발명은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 상태 판단 장치에 있어서, 상기 프로세서는 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하는 것을 특징으로 작물 상태 판단 장치를 제안한다.According to another embodiment of the present invention, the present invention provides a crop status determination apparatus including a processor and a memory for storing a program executed by the processor, wherein the processor includes a plurality of classification models according to the type of crop and the It learns a plurality of state models according to the state of crops, receives crop images acquired by an unmanned aerial vehicle moving along a flight path, and analyzes them through a convolutional neural network (CNN) to classify crops by crop type. And it proposes a crop status determination device characterized in that the acquisition of the crop information including the status of the crop.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 인공신경망을 통해 이렇게 획득된 작물 영상에 대한 객체 인식이 가능하므로, 필지 별 작물의 현황을 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, since the present invention enables object recognition of the crop image thus obtained through an artificial neural network, the effect of more accurately grasping the status of crops by lot compared to the existing technology is effective. have.

또한. 본 발명의 실시예들에 의하면, 본 발명은 작물 영상에 따라 작물 종류를 판단하고, 작물 종류에 따른 작물의 상태를 판단하여 면적 별 작물 종류에 따른 작물의 상태를 표시한 작물 지도를 생성하여 제공함에 따라 작물의 현황을 자세히 파악할 수 있는 효과가 있다.In addition. According to the embodiments of the present invention, the present invention determines the crop type according to the crop image, determines the crop status according to the crop type, and generates and provides a crop map displaying the crop status according to the crop type for each area. Accordingly, it is effective to understand the current status of crops in detail.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as if they were described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.
도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.
도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.
도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.
도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다.
도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.
도 10은 도 9를 통해 결정된 생성자를 통해 이미지 분류를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.
1 is an exemplary diagram illustrating a crop cultivation information service using a crop cultivation information service platform according to an embodiment of the present invention.
2 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.
3 is a view sequentially illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.
4 is a diagram of extracting a representative point of lots according to an embodiment of the present invention, and generating a flight trajectory according to the extracted representative point of a lot.
5 is a diagram illustrating a concept of performing image learning through AI and recognizing a type of crop through this according to an embodiment of the present invention.
6 is a view showing the state of a crop using an image obtained through a drone flight according to an embodiment of the present invention.
7 is a flowchart illustrating a process for producing a subject map in a control center according to an embodiment of the present invention.
8 is a flowchart illustrating a process performed by the AI server in step S730 of FIG. 7 according to an embodiment of the present invention.
9 is a block diagram for explaining a learning concept for crop analysis performed in the AI server according to an embodiment of the present invention.
FIG. 10 is a conceptual diagram illustrating a method of generating an input image for image classification through a generator determined through FIG. 9 .

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including an ordinal number such as second, first, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 발명은 작물 재배 정보 서비스 플랫폼에 관한 것이다.The present invention relates to a crop cultivation information service platform.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 활용하여 영상 정보를 전달 받아 빠르고 정확한 재배 면적 파악이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 빠르고, 정확한 관측이 가능하며, 경제적 효과를 가져올 수 있으며, 관측의 양과 질을 높일 수 있다. 이에 따라 농민의 소득을 보장할 수 있으며, 소비자 가격이 안정될 수 있으며, 농업 관측 정확도를 제고하고 수급 예측력을 강화할 수 있다.The crop cultivation information service platform 10 utilizes the unmanned aerial vehicle 20 to receive image information so that it is possible to quickly and accurately identify the cultivation area. The crop cultivation information service platform 10 enables fast and accurate observation, can bring economic effects, and increase the quantity and quality of observation. Accordingly, the income of farmers can be guaranteed, the consumer price can be stabilized, the accuracy of agricultural observation can be improved, and the predictive power of supply and demand can be strengthened.

여기서, 빠른 관측은 작목 전환 또는 수급 대비를 위한 빠른 결과물을 도출할 수 있으며, 정확한 관측은 부정확한 관측 데이터의 고도화와 현대화가 가능하고, 경제적 관측은 관측 소요 비용과 관측 오차로 인한 경제 피해가 감소하는 효과가 있다. 또한, 관측의 양과 질은 기상재해, 병해충, 식생지수 등의 다양한 정보를 제공할 수 있는 효과가 있다.Here, fast observation can lead to quick results for crop conversion or supply and demand preparation, accurate observation enables the advancement and modernization of inaccurate observation data, and economic observation reduces the cost of observation and economic damage caused by observation errors. has the effect of In addition, the quantity and quality of observations have the effect of providing various information such as meteorological disasters, pests, and vegetation index.

무인 비행체(20)는 고랭지 작물에 대해 조사할 수 있으며, 영상을 획득하여 신속하고 정확한 작물 재배 면적 및 생육을 관측할 수 있으며, 해발 850m 이상의 지역으로 지형이 험준하며 일교차가 심한 지역에서도 관측할 수 있다.The unmanned aerial vehicle 20 can investigate crops in high altitudes, acquire images to quickly and accurately observe crop cultivation area and growth, and can observe even in areas with steep terrain and severe diurnal temperature differences in areas above 850 m above sea level. have.

본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 이용한 촬영을 통해 고랭지 배추 재배 면적의 시기별, 순차적 변화 양상을 파악하여 표출할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 드론을 활용하여 획득한 이미지의 빠르고 정확한 처리와 지리정보시스템(GIS, Geographic Information System) 기반의 시계열 변화관리를 통해 관측업무의 효율성을 향상시키고 농업 관측업무 전반에 드론 영상 데이터를 효과적으로 활용할 수 있다. 여기서, 작물을 나타내는 고랭지 배추는 일 예로서, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation information service platform 10 may identify and express the seasonal and sequential changes in the cultivation area of Chinese cabbage in high altitudes through photographing using the unmanned aerial vehicle 20 . The crop cultivation information service platform 10 improves the efficiency of observation tasks through fast and accurate processing of images acquired using drones and time series change management based on GIS (Geographic Information System), Drone image data can be effectively utilized. Here, high-altitude cabbage representing a crop is an example, and is not necessarily limited thereto.

지리정보시스템(GIS, Geographic Information System)은 지리정보 즉 공간적으로 분포하는 정보를 처리, 관리하는 정보시스템의 일종이다. 여기서 공간적으로 분포하는 정보 즉 지리정보는 보통 지도의 형태로 나타나며, 지리정보시스템은 이러한 지리정보를 입력, 저장, 처리, 분석, 관리, 출력 등을 할 수 있는 정보시스템을 의미한다. GIS는 농가 지도(Farm Map) 기반의 필지 구분 및 면적 도출할 수 있다. 여기서, Farm Map은 필지 별 경계선을 추출할 때 이용될 수 있다.Geographic Information System (GIS) is a kind of information system that processes and manages geographic information, that is, spatially distributed information. Here, spatially distributed information, that is, geographic information is usually presented in the form of a map, and a geographic information system means an information system that can input, store, process, analyze, manage, and output such geographic information. The GIS can classify lots and derive the area based on a farm map. Here, the Farm Map may be used when extracting a boundary line for each lot.

따라서, 작물 재배 정보 서비스 플랫폼(10)은 재배 면적의 시계열적 변화를 관측할 수 있으며, 드론을 통한 재배 면적, 출하 변동 관측의 경제성 및 효용성을 확인할 수 있고, 실시간 영상 파악으로 변동성 파악이 가능하며, 노지 작물을 효과적으로 관측하고, 고도화를 위한 병해충, 기상 피해 상황 파악 등 생육 판단의 기초 데이터를 선제적으로 확보할 수 있다.Therefore, the crop cultivation information service platform 10 can observe time-series changes of the cultivation area, can check the economic feasibility and utility of observing the cultivation area and shipment changes through drones, and it is possible to grasp the variability by grasping real-time images, , it is possible to effectively observe crops in the open field, and to preemptively secure basic data for growth judgment, such as identifying diseases, pests, and weather damage for sophistication.

도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 서비스 플랫폼을 이용한 작물 재배 정보 서비스를 나타내는 예시도이다.1 is an exemplary diagram illustrating a crop cultivation information service using a crop cultivation information service platform according to an embodiment of the present invention.

도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)와 정보를 주고 받을 수 있으며, 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함하여 정보를 주고 받을 수 있다.Referring to FIG. 1 , the crop cultivation information service platform 10 may exchange information with the unmanned aerial vehicle 20 , the first terminal 30 , and the second terminal 32 , as illustrated in FIG. 1 . Among various components, information may be exchanged by omitting some components or by additionally including other components.

도 1을 참조하면, 작물 재배 정보 서비스 플랫폼(10)은 작물 상태 판단 장치(12) 및 모니터링부(14)를 포함할 수 있다. 여기서, 작물 상태 판단 장치(12)는 작물 재배 정보 서비스 플랫폼(10)에 포함되어 구현될 수 있지만, 별도의 장치로 구현될 수도 있다.Referring to FIG. 1 , the crop cultivation information service platform 10 may include a crop condition determination device 12 and a monitoring unit 14 . Here, the crop status determination device 12 may be implemented by being included in the crop cultivation information service platform 10 , but may also be implemented as a separate device.

작물 상태 판단 장치(12)는 무인 비행체(20)에서 획득한 작물 영상을 전달받아 작물의 종류 및 작물의 상태를 판단하는 장치이다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 비행한 비행 경로와 작물 상태 판단 장치(12)에서 판단된 작물의 종류 및 작물의 상태를 이용하여 작물 지도를 생성할 수 있다.The crop status determination device 12 is a device that receives the crop image obtained from the unmanned aerial vehicle 20 and determines the type of crop and the status of the crop. The crop cultivation information service platform 10 may generate a crop map by using the flight path the unmanned aerial vehicle 20 flew, the type of crop determined by the crop state determination device 12 and the state of the crop.

본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 비행을 실행하여 생산된 영상 정보를 활용할 수 있다. 무인 비행체(20)는 이미지, 열 영상, 초분광 영상 등을 획득하여 작물 재배 정보 서비스 플랫폼(10)에 전송할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행경로를 생성하고 실증하고, 무인 비행체(20)에서 생산된 정보를 취합하며, 빅데이터를 가공하여 AI 작물 분류, 재배, 수확 현황 도출, 시각화, GIS 기반 분석 표출 등을 수행하고, 공간 정보를 활용하여 비행 경로, 수집방법 개발(DSM 3D 지형 입력, Farm Map 입력) 및 조사 영역, 전송 데이터 송수신 등을 조사원이 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 경로 제공, 수집, 저장, 분석 등을 무인 비행체(20)를 관리하는 어플, 공공기관, 연구 기관, 기업, 학계, 타산업군 등에 제공할 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation information service platform 10 may utilize the image information produced by executing the flight through the unmanned aerial vehicle 20 . The unmanned aerial vehicle 20 may acquire an image, a thermal image, a hyperspectral image, and the like and transmit it to the crop cultivation information service platform 10 . The crop cultivation information service platform 10 creates and demonstrates the flight path of the unmanned aerial vehicle 20, collects the information produced by the unmanned aerial vehicle 20, and processes big data to derive AI crop classification, cultivation, and harvest status , visualization, GIS-based analysis expression, etc., and using spatial information, the researcher can manage flight routes, collection method development (DSM 3D terrain input, Farm Map input), survey area, transmission data transmission and reception, etc. In addition, the crop cultivation information service platform 10 provides the path of the unmanned aerial vehicle 20, collection, storage, analysis, etc., to an application, public institution, research institution, company, academia, other industries, etc. that manage the unmanned aerial vehicle 20 may be provided, but is not necessarily limited thereto.

무인 비행체(20)는 비행 경로를 따라 비행을 수행하며 환경 정보 또는 작물 영상을 획득한다. 여기서, 비행 경로는 무인 비행체(20)가 비행을 수행하며 환경 정보 또는 작물 영상을 획득하기 위해 비행하는 경로로서, 이륙 지점과 착륙 지점을 고려하여 비행하는 경로를 생성할 수 있다.The unmanned aerial vehicle 20 performs a flight along a flight path and acquires environmental information or crop images. Here, the flight path is a path through which the unmanned aerial vehicle 20 performs flight and flies to obtain environmental information or crop images, and a flight path may be generated in consideration of a take-off point and a landing point.

제1 단말기(30) 및 제2 단말기(32)는 작물 재배 정보 서비스 플랫폼(10)과 무인 비행체(20)가 처리하는데 필요한 데이터를 전송하고, 처리된 데이터를 수신하는 전자 장치이다. 제1 단말기(30) 및 제2 단말기(32)는 컴퓨팅 디바이스로 구현될 수 있으며, 스마트폰(Smart Phone), 개인용 컴퓨터(Personal Computer, PC), 태블릿 PC(Tablet PC), 휴대용 개인정보 단말기(Personal Digital Assistant, PDA), 랩톱(Laptop) 등이 있을 수 있으나 이에 한정되는 것은 아니다.The first terminal 30 and the second terminal 32 are electronic devices that transmit data required for processing by the crop cultivation information service platform 10 and the unmanned aerial vehicle 20 and receive the processed data. The first terminal 30 and the second terminal 32 may be implemented as a computing device, and a smart phone, a personal computer, a tablet PC, a portable personal information terminal ( Personal Digital Assistant (PDA), laptop (Laptop), etc. may be there, but is not limited thereto.

작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 통신망으로 연결되어 있다. 통신망은 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32) 간의 통신을 가능케 할 목적으로 연결해 놓은 통신설비의 집합을 의미한다. 통신망은 노드(Node), 회선, 간선, 및 위성 등을 포함하고 이들은 서로 연결 및 접속되어 있다.The crop cultivation information service platform 10 , the unmanned aerial vehicle 20 , the first terminal 30 , and the second terminal 32 are connected through a communication network. The communication network means a set of communication facilities connected for the purpose of enabling communication between the crop cultivation information service platform 10 , the unmanned aerial vehicle 20 , the first terminal 30 , and the second terminal 32 . The communication network includes nodes, lines, trunk lines, and satellites, and these are connected and connected to each other.

작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)는 유무선통신이 가능하다. 예컨대, 무선통신에는 근거리 무선통신, 원거리 무선통신, 이동통신, 및 무선랜 통신 등 다양한 통신 프로토콜이 사용될 수 있다. 무선통신 프로토콜을 예로 들면, 근거리 무선통신(Near Field Communication, NFC), 지그비(ZigBee), 블루투스(Bluetooth), 와이파이(Wi-Fi), 와이맥스(WiMAX), GSM(Global System For Mobile Communication), 3G(Third Generation) 이동통신, LTE(Long Term Evolution), 4G, 5G 등이 있으나, 이에 한정되는 것은 아니다.The crop cultivation information service platform 10 , the unmanned aerial vehicle 20 , the first terminal 30 and the second terminal 32 are capable of wired and wireless communication. For example, various communication protocols such as short-range wireless communication, long-distance wireless communication, mobile communication, and wireless LAN communication may be used for wireless communication. Examples of wireless communication protocols include Near Field Communication (NFC), ZigBee, Bluetooth, Wi-Fi, WiMAX, Global System For Mobile Communication (GSM), 3G (Third Generation) There are mobile communication, Long Term Evolution (LTE), 4G, 5G, etc., but is not limited thereto.

작물 재배 정보 서비스 플랫폼(10)은 데이터베이스를 포함한다. 데이터베이스는 데이터의 검색, 추출, 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터의 저장형태를 의미한다. 데이터베이스는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), 관계형 데이터베이스 관리시스템(Relational Data Base Management System, RDBMS), 겜스톤(Gemston), 오리온(Orion), 객체 지향형 데이타베이스 관리 시스템(Object Oriented Database Management System, OODBMS) 분산 데이터베이스, 클라우드 등을 이용하여 본 실시예의 목적에 맞게 구현될 수 있다.The crop cultivation information service platform 10 includes a database. The database refers to a data storage form in which data search, extraction, deletion, editing, addition, and the like can be freely performed. Databases are Oracle, Infomix, Sybase, Relational Data Base Management System (RDBMS), Gemston, Orion, object-oriented database management system ( Object Oriented Database Management System (OODBMS) may be implemented according to the purpose of the present embodiment by using a distributed database, cloud, or the like.

작물 재배 정보 서비스 플랫폼(10)은 프로세서 및 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함한다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 작물 재배 정보 서비스 서버로 구현될 수 있다.The crop cultivation information service platform 10 includes a processor and a memory for storing a program executed by the processor. Here, the crop cultivation information service platform 10 may be implemented as a crop cultivation information service server.

작물 재배 정보 서비스 플랫폼(10)은 프로세서에 의해 후술하는 과정들이 수행될 수 있으며, 과정에 따른 데이터가 메모리에 저장될 수 있으며, 반드시 이에 한정되는 것은 아니다.The crop cultivation information service platform 10 may perform processes to be described later by a processor, and data according to the process may be stored in a memory, but is not limited thereto.

본 발명의 일 실시예에 따르면, 프로세서는 작물 재배 정보 서비스 플랫폼(10), 무인 비행체(20), 제1 단말기(30) 및 제2 단말기(32)가 서로 정보를 주고 받는 행위에 의한 행동 이력을 생성하고 저장할 수 있다. 예를 들어, 행동 이력은 작물 재배 정보 서비스 플랫폼(10)이 제1 단말기(30) 및 제2 단말기(32)에 제공하는 작물 지도, 무인 비행체(20)에 제공하는 비행 경로 등을 포함할 수 있으며, 이를 통해 지역 별 작물 지도 제공 상황, 일정 기간 동안 무인 비행체(20)가 비행한 이력 등을 확인할 수 있다.According to an embodiment of the present invention, the processor is a crop cultivation information service platform 10, the unmanned aerial vehicle 20, the first terminal 30 and the second terminal 32 behavior history by the act of exchanging information with each other can be created and saved. For example, the behavior history may include a crop map provided by the crop cultivation information service platform 10 to the first terminal 30 and the second terminal 32, a flight path provided to the unmanned aerial vehicle 20, etc. Through this, it is possible to check the crop map provision status for each region, the history of the flight of the unmanned aerial vehicle 20 for a certain period, and the like.

본 발명의 일 실시예에 따르면, 무인 비행체(20)와 작물 재배 정보 서비스 플랫폼(10)은 실시간으로 데이터를 주고 받으며, 4G, 5G 무선망 및 Wifi를 활용하여 이미지 즉시 전송이 가능하고, 데이터 삭제 전송기능을 수행할 수 있다.According to an embodiment of the present invention, the unmanned aerial vehicle 20 and the crop cultivation information service platform 10 exchange data in real time, and use 4G, 5G wireless networks and Wifi to instantly transmit images, and delete data. A transmission function can be performed.

무인 비행체(20)는 획득한 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)에 전송하고, 위도, 경도, 상태 정보, 짐벌 상태 정보 등을 추가적으로 전송할 수 있다.The unmanned aerial vehicle 20 may transmit the acquired crop image to the crop cultivation information service platform 10 in real time, and may additionally transmit latitude, longitude, state information, gimbal state information, and the like.

제1 단말기(30)는 무인 비행체(20)를 확인하는 사용자가 사용하는 단말기로서, 실시간 앱을 통해 영상 정보 및 비행 정보를 실시간으로 확인할 수 있으며, 무인 비행체(20)와 OcuSync, Lightbridge2, WiFi 등을 통해 통신을 수행할 수 있다.The first terminal 30 is a terminal used by a user to check the unmanned aerial vehicle 20, and can check image information and flight information in real time through a real-time app, and the unmanned aerial vehicle 20 and OcuSync, Lightbridge2, WiFi, etc. communication can be performed through

제2 단말기(32)는 재배면적, 수확현황, 생육, 병해충, 재해 정보를 시각화한 작물 지도를 모니터링할 수 있는 단말기로, 정보를 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에서 사용되는 단말기일 수 있으며 반드시 이에 한정되는 것은 아니다.The second terminal 32 is a terminal capable of monitoring a crop map that visualizes cultivation area, harvest status, growth, pests, and disaster information. It may be a terminal used, etc., but is not necessarily limited thereto.

작물 재배 정보 서비스 플랫폼(10)은 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체(20)의 비행 경로를 생성할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)가 획득한 작물 영상을 전달받아 분석하여 비행 경로에 따른 작물 정보를 획득하며, 비행 경로 및 작물 정보를 기반으로 재배 면적 별 수확 현황 및 재해 현황에 따른 작물 지도를 생성할 수 있다.The crop cultivation information service platform 10 may generate a flight path of the unmanned aerial vehicle 20 according to the land formed in consideration of preset topographic information and take-off and landing points. The crop cultivation information service platform 10 receives and analyzes the crop image acquired by the unmanned aerial vehicle 20 to obtain crop information according to the flight path, and based on the flight path and crop information, the harvest status and disaster status by cultivation area You can create a crop map according to

작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 포함하는 기 설정된 지형 정보를 기반으로 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 추출된 대표점에 따라 비행 궤적을 고려하여 비행 경로를 생성할 수 있다. The crop cultivation information service platform 10 extracts a representative point of the lot indicating the center point of the lot based on preset topographic information including the lot information on the lot, and takes the flight in consideration of the flight trajectory according to the extracted representative point. You can create a route.

필지 정보는 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함할 수 있다.The lot information may include division boundary information between parcels and altitude information of areas included in the lot.

작물 재배 정보 서비스 플랫폼(10)은 비행 경로 생성 시 무인 비행체(20)의 이착륙 지점을 설정할 수 있다. 여기서, 이착륙 지점은 이륙과 착륙이 모두 가능한 지점이다. 이착륙 지점은 접근성이 용이한 곳으로, 전신주, 교목 등이 없고 시야 확보가 용이한 곳으로 설정할 수 있다. 또한, 주민차량 통행에 방해가 되지 않는 곳에 이착륙 지점이 설정될 수 있다.The crop cultivation information service platform 10 may set the take-off and landing points of the unmanned aerial vehicle 20 when creating a flight path. Here, the take-off and landing point is a point where both take-off and landing are possible. The take-off and landing point can be set to a place with easy access, no telephone poles, trees, etc., and easy visibility. In addition, take-off and landing points may be set where they do not interfere with the passage of residents' vehicles.

본 발명의 일 실시예에 따르면, 이착륙 지점은 이륙 지점과 착륙 지점을 포함하는 2곳으로 설정될 수 있으나 반드시 이에 한정되는 것은 아니며, 적어도 하나 이상의 이착륙 지점을 설정할 수 있다. 적어도 하나 이상의 이착륙 지점을 통해 무인 비행체(20)는 이륙과 착륙을 안전하게 수행할 수 있다.According to an embodiment of the present invention, two take-off and landing points may be set including a take-off point and a landing point, but the present invention is not limited thereto, and at least one take-off and landing point may be set. The unmanned aerial vehicle 20 can safely perform take-off and landing through at least one take-off and landing point.

이착륙 지점은 작물 재배 정보 서비스 플랫폼(10)에서 설정될 수 있으며, 무인 비행체(20)로 이착륙 지점의 좌표를 송신할 수 있다.The take-off and landing points may be set in the crop cultivation information service platform 10 , and coordinates of the take-off and landing points may be transmitted to the unmanned aerial vehicle 20 .

또한, 무인 비행체(20)는 복수의 서브 영역을 비행하며 작물 영상을 획득할 수 있다. 이때, 서브 영역은 면적, 고도차 등을 기준으로 적어도 두 영역으로 작물 재배 정보 서비스 플랫폼(10)에서 분할되어 설정될 수 있다.In addition, the unmanned aerial vehicle 20 may acquire a crop image while flying a plurality of sub-regions. In this case, the sub-region may be divided and set in the crop cultivation information service platform 10 into at least two regions based on an area, an elevation difference, and the like.

작물 재배 정보 서비스 플랫폼(10)은 비행 경로를 제외하고 재설정한 재설정 경로를 무인 비행체(20)로 전송할 수 있다.The crop cultivation information service platform 10 may transmit the reset route except for the flight route to the unmanned aerial vehicle 20 .

재설정 경로는 비행 경로에 따라 획득한 작물 영상을 통해 작물 정보를 인식하지 못한 경우, 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함할 수 있다. 구체적으로, 재설정 경로는 비행 경로를 따라서 무인 비행체(20)가 이동하면서 주변 환경 정보를 획득하고, 획득한 환경 정보를 기반으로 최적의 비행 경로를 재설정하여 생성될 수 있다. 여기서, 환경 정보는 장애물의 개수, 장애물의 크기, 날씨 등과 같이 무인 비행체(20)가 비행하며 작물 영상을 촬영하는데 있어 방해되는 요소를 포함할 수 있다.The reset path may further include a path for re-photographing the crop image when crop information is not recognized through the crop image obtained according to the flight path. Specifically, the reset path may be generated by acquiring surrounding environment information while the unmanned aerial vehicle 20 moves along the flight path, and resetting the optimal flight path based on the acquired environment information. Here, the environmental information may include factors that prevent the unmanned aerial vehicle 20 from taking a crop image while flying, such as the number of obstacles, the size of the obstacles, and the weather.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행 경로에 따른 이동을 실시간으로 관찰하고, 무인 비행체(20)가 비행 경로를 이탈하는 경우, 무인 비행체(20)의 점검 신호를 생성할 수 있고, 점검 신호에 의해 무인 비행체(20)의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받을 수 있다.The crop cultivation information service platform 10 observes the movement along the flight path of the unmanned aerial vehicle 20 in real time, and when the unmanned aerial vehicle 20 deviates from the flight path, a check signal of the unmanned aerial vehicle 20 is generated. It is possible to receive an abnormal signal or a normal signal generated by checking the status of the GPS and lidar sensors that check the position and movement direction of the unmanned aerial vehicle 20 by the inspection signal.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 상태 점검 시 이상이 있는 경우 이상 신호를 수신하여 무인 비행체(20)가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 정상 신호를 수신하여 무인 비행체(20)로 비행 경로를 재전송하여 비행 경로에 따른 이동을 재관찰할 수 있다.The crop cultivation information service platform 10 receives an abnormal signal when there is an abnormality in the state check of the unmanned aerial vehicle 20 to generate a return signal for the unmanned aerial vehicle 20 to return, and receives a normal signal when there is no abnormality Thus, by retransmitting the flight path to the unmanned aerial vehicle 20, the movement according to the flight path can be re-observed.

작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.The crop cultivation information service platform 10 may analyze crop images through a convolutional neural network (CNN) and classify them by crops to obtain crop information including types of crops and state of crops.

작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고, 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 무인 비행체(20)의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고, 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 제1 작물 영상 및 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 생성된 합성 영상을 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행할 수 있다.The crop cultivation information service platform 10 performs primary crop recognition by analyzing the first crop image through a convolutional neural network, and when crop information is not obtained through primary crop recognition, the location of the unmanned aerial vehicle 20 Alternatively, secondary crop recognition is performed by analyzing the second crop image obtained by adjusting the shooting angle through a convolutional neural network, and when crop information is not obtained through secondary crop recognition, the first crop image and the second crop A tertiary crop recognition can be performed by synthesizing an image through an adversarial generative neural network (GAN) to generate a synthetic image, and analyzing the generated synthetic image through a convolutional neural network.

3차 작물 인식은 제1 작물 영상 또는 제2 작물 영상과 제1 작물 영상 또는 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 합성 영상을 분석하여 수행될 수 있다. 레이블 정보는 제1 작물 영상 또는 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함할 수 있다.Tertiary crop recognition analyzes the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image through the generator as input. can be performed. The label information may include time information, location information, and color information at which the first crop image or the second crop image was obtained.

작물 재배 정보 서비스 플랫폼(10)은 상기 작물 영상에 합성곱 신경망을 1차적으로 사용하여 작물의 종류에 따른 복수의 분류 모델 및 정상, 결핍, 고온 피해, 병을 포함하는 작물의 상태에 따른 복수의 상태 모델을 학습할 수 있으며, 학습된 복수의 분류 모델을 적용하여 작물 영상에서 추출된 특징을 분석하여 작물의 종류를 판단하며, 판단된 작물의 종류에 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.The crop cultivation information service platform 10 primarily uses a convolutional neural network for the crop image, and a plurality of classification models according to the type of crop and a plurality of classification models according to the state of the crop including normal, deficiency, high temperature damage, and disease. A state model can be learned, and a plurality of learned classification models are applied to analyze the characteristics extracted from the crop image to determine the crop type, and the state model can be applied to the determined crop type to determine the state of the crop. can

작물 재배 정보 서비스 플랫폼(10)은 복수의 상태 모델을 적용하여 작물의 상태에 따른 상태 특징값을 추출하고, 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있으며, 상태 모델에 적용된 시간값을 적용하여 시간값 별 상기 기 설정된 기준 특징값이 변화할 수 있다.The crop cultivation information service platform 10 applies a plurality of state models to extract state feature values according to the state of the crop, compares the state feature value with a preset reference feature value, and includes normal, deficiency, high temperature damage, and disease. It is possible to determine the state of the crop, and by applying the time value applied to the state model, the preset reference characteristic value for each time value can be changed.

작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 고려하여 비행 경로에 따른 위치에 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성할 수 있다.The crop cultivation information service platform 10 may generate a crop map in which the harvest status and disaster status for each cultivation area are displayed at a location along the flight path in consideration of crop information including the type of crop and the status of the crop.

작물 재배 정보 서비스 플랫폼(10)은 비행 경로에 따른 총 면적 중 작물 정보에 따른 재배 면적을 산출하여 작물 정보의 좌표를 추출하여 비행 경로, 작물 정보, 재배 면적 및 좌표를 이용하여 작물 지도를 생성할 수 있다.The crop cultivation information service platform 10 calculates the cultivation area according to crop information among the total area according to the flight path, extracts the coordinates of the crop information, and generates a crop map using the flight path, crop information, cultivation area and coordinates. can

상술한 작물 재배 정보 서비스 플랫폼(10)이 작물의 종류 및 작물 상태를 판단하는 과정은 작물 상태 판단 장치(12)를 통해 수행될 수 있다. 따라서, 작물 상태 판단 장치(12)는 작물의 종류에 따른 복수의 분류 모델 및 작물의 상태에 따른 복수의 상태 모델을 학습하고, 비행 경로를 따라 이동하는 무인 비행체(20)가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득할 수 있다.The process in which the above-described crop cultivation information service platform 10 determines the type of crop and the crop status may be performed through the crop status determination device 12 . Accordingly, the crop state determination device 12 learns a plurality of classification models according to the type of crop and a plurality of state models according to the state of the crop, and obtains the crop image obtained by the unmanned aerial vehicle 20 moving along the flight path. After receiving the information, it is possible to obtain crop information including the type of crop and the state of the crop by analyzing it through a convolutional neural network (CNN) and classifying it by crop.

작물 지도는 무인 비행체(20)가 작물 영상을 획득함과 동시에 작물 정보를 획득하여 생성될 수 있다.The crop map may be generated by acquiring crop information while the unmanned aerial vehicle 20 acquires a crop image.

본 실시예의 무인 비행체(20)는 드론, 소형 헬리콥터, 비행기 등으로 구현될 수 있으며, 구체적으로, 사람이 탑승하여 조종하지 않고, 주로 원격 조종으로 움직이는 비행체로 구현될 수 있다.The unmanned aerial vehicle 20 of this embodiment may be implemented as a drone, a small helicopter, an airplane, or the like, and specifically, it may be implemented as an airplane moving mainly by remote control, without being controlled by a person on board.

본 발명의 일 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 통해 주, 월, 년도 별로 작물 데이터를 관리할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 매년 매달 작물 상황을 비교할 수 있으며, 년도 별 재배 선호 작물, 재배 면적 변화, 재해에 따른 작물 변화 등을 확인할 수 있으며, 이를 기반으로 앞으로의 상황을 예측하여 제공받으려는 공공기관, 국민, 연구기관, 기업, 학계, 타산업군 등에 제공할 수 있다.According to an embodiment of the present invention, the crop cultivation information service platform 10 may manage crop data by week, month, and year through a crop map. Specifically, the crop cultivation information service platform 10 can compare the crop situation every month and every year, and can check the crop preference for each year, the change of the cultivation area, the crop change according to the disaster, etc., and predict the future situation based on this It can be provided to public institutions, citizens, research institutions, corporations, academia, and other industries.

작물 재배 정보 서비스 플랫폼(10)은 작물의 종류와 작물의 상태를 포함하는 작물 지도를 제공함에 따라 시장에 유통될 작물의 종류 별 수확량을 예측할 수 있으며, 이를 통해 시장가를 예측할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 별 수확량을 예측하고, 수확량에서 작물의 상태에 따라 폐기되는 양을 예측하여 전체 수확량 중 유통 가능한 작물 비율을 예측할 수 있다.As the crop cultivation information service platform 10 provides a crop map including the type of crop and the state of the crop, it is possible to predict the yield for each type of crop to be distributed in the market, and through this, it is possible to predict the market price. Specifically, the crop cultivation information service platform 10 may predict the yield for each type of crop, and predict the amount to be discarded according to the state of the crop in the yield, thereby predicting the proportion of crops that can be distributed among the total yield.

또한, 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 이용하여 작물 별 목표 수확량을 수확하기 위해 작물을 재배해야 될 양을 설정하여 제공할 수도 있다. 작물 재배 정보 서비스 플랫폼(10)은 유통 가능한 작물 비율을 기반으로 추가 재배가 필요한 작물의 종류 또는 재배가 더 이상 필요하지 않은 작물의 종류를 제공하여 작물의 재배량을 관리하고 작물 재배 종류를 제안하며, 이에 따라 시장가를 안정적으로 관리할 수 있다.In addition, the crop cultivation information service platform 10 may set and provide an amount to be grown in order to harvest a target yield for each crop by using a distribution ratio of crops. The crop cultivation information service platform 10 provides the types of crops that need additional cultivation or the types of crops that are no longer required for cultivation based on the ratio of crops that can be distributed, manages the amount of crops grown and suggests types of crops, Accordingly, the market price can be managed stably.

도 2는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.2 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components other than those described below.

도시된 컴퓨팅 환경은 작물 재배 정보 서비스 플랫폼(10)을 포함한다. 일 실시예에서 작물 재배 정보 서비스 플랫폼(10)은 타 단말기와 신호를 송수신하는 모든 형태의 컴퓨팅 기기일 수 있다. The illustrated computing environment includes a crop cultivation information service platform 10 . In an embodiment, the crop cultivation information service platform 10 may be any type of computing device that transmits and receives signals to and from other terminals.

작물 재배 정보 서비스 플랫폼(10)은 적어도 하나의 프로세서(110), 컴퓨터 판독 가능한 저장매체(120) 및 통신 버스(160)를 포함한다. 프로세서(110)는 작물 재배 정보 서비스 플랫폼(10)으로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(110)는 컴퓨터 판독 가능한 저장 매체(120)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(110)에 의해 실행되는 경우 작물 재배 정보 서비스 플랫폼(10)으로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The crop cultivation information service platform 10 includes at least one processor 110 , a computer-readable storage medium 120 , and a communication bus 160 . The processor 110 may cause the crop cultivation information service platform 10 to operate according to the above-mentioned exemplary embodiment. For example, the processor 110 may execute one or more programs stored in the computer-readable storage medium 120 . The one or more programs may include one or more computer-executable instructions, which, when executed by the processor 110 , cause the crop cultivation information service platform 10 to perform operations according to the exemplary embodiment. can be configured to perform.

컴퓨터 판독 가능한 저장 매체(120)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능한 저장 매체(120)에 저장된 프로그램(130)은 프로세서(110)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독한 가능 저장 매체(120)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 기기들, 광학 디스크 저장 기기들, 플래시 메모리 기기들, 그 밖에 작물 재배 정보 서비스 플랫폼(10)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 120 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 130 stored in the computer-readable storage medium 120 includes a set of instructions executable by the processor 110 . In one embodiment, computer-readable storage medium 120 includes memory (volatile memory, such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, It may be flash memory devices, other types of storage media accessed by the crop cultivation information service platform 10 and capable of storing desired information, or a suitable combination thereof.

통신 버스(160)는 프로세서(110), 컴퓨터 판독 가능한 저장 매체(120)를 포함하여 작물 재배 정보 서비스 플랫폼(10)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 160 interconnects various other components of crop cultivation information service platform 10 including processor 110 and computer readable storage medium 120 .

작물 재배 정보 서비스 플랫폼(10)은 또한 하나 이상의 입출력 장치(미도시)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(140) 및 하나 이상의 통신 인터페이스(150)를 포함할 수 있다. 입출력 인터페이스(140) 및 통신 인터페이스(150)는 통신 버스(160)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(140)를 통해 작물 재배 정보 서비스 플랫폼(10)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(미도시)는 작물 재배 정보 서비스 플랫폼(10)을 구성하는 일 컴포넌트로서 작물 재배 정보 서비스 플랫폼(10)의 내부에 포함될 수도 있고, 작물 재배 정보 서비스 플랫폼(10)과는 구별되는 별개의 장치로 컴퓨팅 기기와 연결될 수도 있다.The crop cultivation information service platform 10 may also include one or more input/output interfaces 140 and one or more communication interfaces 150 that provide interfaces for one or more input/output devices (not shown). The input/output interface 140 and the communication interface 150 are connected to the communication bus 160 . The input/output device (not shown) may be connected to other components of the crop cultivation information service platform 10 through the input/output interface 140 . Exemplary input/output devices include input devices such as pointing devices (such as a mouse or trackpad), keyboards, touch input devices (such as touchpads or touchscreens), voice or sound input devices, various types of sensor devices and/or imaging devices; and/or output devices such as display devices, printers, speakers and/or network cards. An exemplary input/output device (not shown) may be included in the crop cultivation information service platform 10 as a component constituting the crop cultivation information service platform 10 , and is distinct from the crop cultivation information service platform 10 . It may be connected to the computing device as a separate device.

도 3은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.3 is a view sequentially illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.

도 3의 (a)는 작물 재배 정보 서비스 플랫폼(10)에서 비행 경로를 생성하는 과정이다. 이때, 생성된 비행 경로는 무인 비행체(20)로 전달된다. 예를 들어, 풍력 발전소가 위치하는 지역에서는 자기장 영향권을 벗어나도록 경로를 벗어나도록 설계하여 비행 경로를 설정할 수 있다. 이와 같이 비행 경로는 무인 비행체(20)의 비행에 방해가 될 수 있는 요소를 모두 고려하여 설정된다. 비행경로는 목적지의 평면좌표를 추출하고 고도변화값을 반영하여 3차원적인 비행경로가 자동으로 생성될 수 있다.Figure 3 (a) is a process of generating a flight path in the crop cultivation information service platform (10). At this time, the generated flight path is transmitted to the unmanned aerial vehicle 20 . For example, in an area where a wind power plant is located, a flight path may be set by designing to deviate from the path so as to escape the influence of the magnetic field. As such, the flight path is set in consideration of all factors that may interfere with the flight of the unmanned aerial vehicle 20 . The flight path extracts the plane coordinates of the destination and reflects the altitude change value to automatically create a three-dimensional flight path.

도 3의 (b)는 무인 비행체(20)가 비행하며 작물 영상을 획득하는 과정이다. 이때, 비행은 도 3의 (a)에서 획득된 비행 경로를 따라 이동한다.Figure 3 (b) is a process of acquiring a crop image while the unmanned aerial vehicle 20 flies. At this time, the flight moves along the flight path obtained in (a) of FIG.

무인 비행체(20)는 비행 경로를 따라 이동하며 작물 영상을 획득하고, 획득된 작물 영상을 실시간으로 작물 재배 정보 서비스 플랫폼(10)으로 전송한다.The unmanned aerial vehicle 20 moves along a flight path to acquire a crop image, and transmits the acquired crop image to the crop cultivation information service platform 10 in real time.

도 3의 (c)는 작물 영상을 전달 받은 작물 재배 정보 서비스 플랫폼(10)에서 작물을 판독하고, 작물의 좌표를 추출하는 과정이다. 이때, 작물 판독은 인공 지능(AI, Artificial Intelligence)을 통해 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 판독을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 수행할 수 있으며, 이는 도 5에서 자세히 설명한다.3 (c) is a process of reading a crop from the crop cultivation information service platform 10 that has received the crop image and extracting the coordinates of the crop. In this case, the crop reading may be performed through artificial intelligence (AI), but is not limited thereto. Specifically, the crop cultivation information service platform 10 may perform crop reading through a convolutional neural network (CNN), which will be described in detail in FIG. 5 .

도 3의 (d)는 작물 재배 정보 서비스 플랫폼(10)에서 정사 지도와 주제도를 제작하는 과정으로, 작물 지도를 생성할 수 있다.FIG. 3( d ) is a process of producing an orthodox map and a subject map in the crop cultivation information service platform 10 , and a crop map may be generated.

정사 지도는 지표면의 비고에 의해 발생하는 작물 영상 상의 각 점의 왜곡을 보정하여 동일 축척이 되도록 만든 지도이다. 구체적으로, 정사 지도는 무인 비행체(20)에서 획득한 작물 영상의 지형 기복에 의한 기하학적 왜곡을 보정하고 모든 물체를 수직으로 내려다보았을 때의 모습으로 변환한 도면이며, 좌표와 주기 포함한다.The orthographic map is a map made to the same scale by correcting the distortion of each point on the crop image caused by the remark of the ground surface. Specifically, the orthographic map is a diagram in which the geometric distortion of the crop image obtained from the unmanned aerial vehicle 20 is corrected due to the topographical undulations and converted into the appearance when all objects are viewed vertically, and includes coordinates and periods.

주제도는 특정한 주제를 표현할 것을 목적으로 작성된 지도이다. 본 발명의 일 실시예에 따르면, 주제도는 필지에 따라 작물이 구분되어 표시되는 지도일 수 있으며, 반드시 이에 한정되는 것은 아니다.Thematic map is a map created for the purpose of expressing a specific topic. According to an embodiment of the present invention, the subject map may be a map in which crops are divided and displayed according to parcels, but is not necessarily limited thereto.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영과 동시에 작물의 종류를 판독하고, 지도상에 표시하고 재배 면적을 도출할 수 있다. 이때, 작물 재배 정보 서비스 플랫폼(10)은 실시간 재배 면적 제공으로 촬영과 결과 생성이 동시간대에 완성될 수 있으며, 시계열적 작물 재배 변동 상황 확인이 가능한 효과가 있다.The crop cultivation information service platform 10 may read the type of crop while photographing through the unmanned aerial vehicle 20 , display it on the map, and derive the cultivation area. In this case, the crop cultivation information service platform 10 provides real-time cultivation area so that shooting and result generation can be completed at the same time, and it is possible to check the time-series crop cultivation change situation.

무인 비행체(20)는 현장 조사, 이착륙 포인트가 설정된 비행 경로를 작물 재배 정보 서비스 플랫폼(10)으로부터 수신하고, 정사와 고도를 촬영하여 획득한 데이터들을 송신할 수 있다.The unmanned aerial vehicle 20 may receive a field survey and a flight route in which takeoff and landing points are set from the crop cultivation information service platform 10 , and transmit data obtained by photographing the orthography and altitude.

작물 재배 정보 서비스 플랫폼(10)은 GIS 데이터를 세팅하고, 무인 비행체(20)의 최적의 비행 경로를 생성하여 비행 경로를 전송하고, 데이터를 수신하고 관리할 수 있다. 또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 분석하여 작물을 구분하고, 재배 면적을 산출하고, 주제도 지도 GUI, AI 학습 데이터를 확보하고, GIS 공간정보를 입력하고, 데이터 서버를 관리할 수 있다.The crop cultivation information service platform 10 may set GIS data, generate an optimal flight path of the unmanned aerial vehicle 20, transmit the flight path, and receive and manage data. In addition, the crop cultivation information service platform 10 analyzes the crop image to classify crops, calculate the cultivation area, secure the topic map GUI, AI learning data, input GIS spatial information, and manage the data server can do.

여기서, GUI는 사용자가 컴퓨터와 정보를 교환할 때, 그래픽을 통해 작업할 수 있는 환경을 말한다.Here, the GUI refers to an environment in which a user can work through graphics when exchanging information with a computer.

따라서, 작물 재배 정보 서비스 플랫폼(10)은 산지 지형 조사의 특성을 반영하여 3D 지형비행을 통하여 작물 재배 현황과 생육 상태를 파악한다. 무인 비행체(20)에서 보내온 실시간 이미지 데이터는 영상분석을 통하여 촬영 당일 주제 현황도를 생성할 수 있으며, 이는 농업관측의 목표와 부합하는 기술이며 실시간 영상전송 및 작물 분석 기술을 통해 관측업무의 적시성과 정확성을 확보할 수 있다.Therefore, the crop cultivation information service platform 10 reflects the characteristics of the mountain topography survey and grasps the crop cultivation status and growth status through 3D topographic flight. The real-time image data sent from the unmanned aerial vehicle 20 can generate a subject status map on the day of shooting through image analysis, which is a technology that matches the goal of agricultural observation. accuracy can be ensured.

작물 재배 정보 서비스 플랫폼(10)은 정사영상을 작성하고, 작물 영상을 통해 작물을 분류하며, 작물 별, 필지 별 재배 지도를 제작하고, 배추 재배 필지를 분리하며, 배추 재배 필지 변화를 표시하고 시계열화할 수 있다. 여기서, 웹 기반의 실시간 시계열화값 그림은 작물 재배 현황, 출하 면적, 정식시기 분포도, 수확 시기 분포도 등을 모두 그림과 값으로 표기할 수 있다.The crop cultivation information service platform 10 creates an orthographic image, categorizes crops through crop images, produces a cultivation map for each crop and each lot, separates cabbage cultivation fields, displays changes in cabbage cultivation fields, and watches may deteriorate. Here, in the web-based real-time time-series value plot, crop cultivation status, shipment area, distribution map of planting season, distribution map of harvest time, etc. can all be expressed in figures and values.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)로부터 획득한 작물 영상을 기반으로 정사 영상을 생성할 수 있으며, 작물 영상을 통해 작물의 분류는 도 5의 AI 서버를 통해 작물을 분류할 수 있다.The crop cultivation information service platform 10 may generate an orthographic image based on the crop image obtained from the unmanned aerial vehicle 20, and the classification of crops through the crop image can classify the crops through the AI server of FIG. have.

작물 재배 정보 서비스 플랫폼(10)은 작물 영상을 통해 분류된 작물을 서로 다른 색으로 표시하여 각각의 필지에 따른 작물을 표시하여 작물 지도를 제작할 수 있으며, 획득한 작물 지도에서 배추만 추출할 수 있다. 단계 S1440은 일 실시예로 도시한 것으로 배추가 아닌 다른 작물 재배 필지로 분리할 수 있다.The crop cultivation information service platform 10 may display crops classified through crop images in different colors to display crops according to each lot to produce a crop map, and only Chinese cabbage can be extracted from the obtained crop map. . Step S1440 is illustrated as an embodiment and may be separated into other crop cultivation fields other than Chinese cabbage.

작물 재배 정보 서비스 플랫폼(10)은 기존에 확인된 배추 재배 필지와 현재 무인 비행체(20)를 통해 확인한 배추 재배 필지를 비교하여 변화를 표시할 수 있다. 구체적으로, 배추 재배 필지가 늘었을 경우, 기존과 다른 영역을 다른 색으로 표시하여 추가된 필지를 확인하도록 할 수 있다.The crop cultivation information service platform 10 may display a change by comparing the previously identified cabbage cultivation parcels with the cabbage cultivation parcels currently confirmed through the unmanned aerial vehicle 20 . Specifically, when the number of fields for cultivation of Chinese cabbage is increased, areas different from the existing ones may be displayed in different colors to confirm the added fields.

작물 재배 정보 서비스 플랫폼(10)은 배추 재배 필지의 변화가 표시된 영역을 정사 지도에 표시하여 형성할 수 있다. 구체적으로, 시계열화는 관측 결과를 일정한 기준에 따라 계열로 정리한 것이다.The crop cultivation information service platform 10 may be formed by displaying the area in which the change of the cabbage cultivation land is displayed on the orthographic map. Specifically, time seriesization is the arrangement of observation results into a series according to a certain criterion.

작물 재배 정보 서비스 플랫폼(10)은 작물의 종류 및 작물의 상태를 판단할 때 시간값을 추가로 고려하여 작물의 상태를 더 자세히 관찰할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 계절 별로 작물의 색상이 차이가 날 수 있으며, 계절 별 작물의 색상에 따라 정상 상태 또는 비정상 상태로 나뉠 수 있으므로 시간값을 더 고려하여 작물의 상태를 더 확실하게 알 수 있다.The crop cultivation information service platform 10 may further consider the time value when determining the type of crop and the state of the crop to observe the state of the crop in more detail. Specifically, the crop cultivation information service platform 10 may have a different color of crops for each season, and may be divided into a normal state or an abnormal state depending on the color of the crop for each season. can be known more clearly.

웹 기반의 실시간 시계열화값 그림은 GIS 기술과 데이터 분석 영상 구현 기술을 활용하여 실시간으로 재배지 면적의 변화 상을 시계열화한 것이다.The web-based real-time time-series value diagram is a time-series of changes in cultivated area in real time using GIS technology and data analysis image implementation technology.

작물 재배 정보 서비스 플랫폼(10)은 작물 품목별. 필지 별 재배 면적, 저식 면적, 출하 면적 등을 이미지와 값으로 산출하고, 데이터베이스 분석툴을 활용하여 작물구분도, 정식시기 분포도, 수확시기 분포도 등을 구현할 수 있다. 이때, 각 필지에는 현장의 저고도 사진이 배치되어 클릭으로 현장 사진을 오픈 할 수 있다.Crop cultivation information service platform 10 by crop item. It is possible to calculate the cultivated area, planted area, and shipment area for each lot with images and values, and to use the database analysis tool to implement the crop classification diagram, the planting season distribution map, and the harvest time distribution map. At this time, a low-altitude photo of the site is placed on each lot, and the site photo can be opened with a click.

도 4는 본 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.4 is a diagram of extracting a representative point of lots according to an embodiment of the present invention, and generating a flight trajectory according to the extracted representative point of a lot.

작물 재배 정보 서비스 플랫폼(10)은 필지에 대한 필지 정보를 농지정보 데이터베이스(GIS)로부터 획득할 수 있다. 필지 정보는, 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함한다. 본 실시예에서 필지 대표점은 각 필지의 중심점, 내지는 필지의 특성을 잘 나타내는 특징점일 수 있다.The crop cultivation information service platform 10 may obtain lot information about the lot from the farmland information database (GIS). The lot information includes division boundary information between parcels and altitude information of areas included in the lot. In the present embodiment, the representative point of a lot may be a central point of each lot or a feature point that well indicates the characteristics of the lot.

도 4를 참조하면, 각 필지의 중심점을 필지 대표점으로 표시하여 필지의 대표점을 이은 경로를 나타낼 수 있다. 도 4의 대표점을 이은 경로는 무인 비행체(20)의 실제 주행 경로일 수 있으며, 반드시 이에 한정되는 것은 아니다.Referring to FIG. 4 , the central point of each lot may be displayed as a representative point of the lot to indicate a path connecting the representative points of the lot. The path connecting the representative points of FIG. 4 may be the actual driving path of the unmanned aerial vehicle 20, but is not necessarily limited thereto.

좌측의 비행 영역은 총 비행 거리가 3.83Km이며, 예상 비행 시간은 12분 23초이고, 총 포인트는 73개일 수 있다. 우측의 비행 영역은 총 비행 거리가 6.21Km이며, 예상 비행 시간은 17분 12초이고, 총 포인트는 94개일 수 있다. 여기서, 좌측 및 우측의 비행 영역에서의 드론은 비행 고도가 20m로 동일하다.The flight zone on the left has a total flight distance of 3.83Km, an estimated flight time of 12 minutes and 23 seconds, and a total number of points can be 73. The flight area on the right has a total flight distance of 6.21Km, an estimated flight time of 17 minutes and 12 seconds, and a total number of points can be 94. Here, the drones in the left and right flight areas have the same flight altitude of 20 m.

따라서, 무인 비행체(20)의 주행 경로는 필지 대표점들을 연결하는 연결 거리의 총합을 최소로 하도록 결정될 수 있다. 주행 경로는 작물 재배 정보 서비스 플랫폼(10)에서 미리 결정한 비행 경로일 수 있으며, 주행 중 경로를 변경할 수도 있다.Accordingly, the driving path of the unmanned aerial vehicle 20 may be determined to minimize the sum of the connection distances connecting the representative points of the lot. The driving path may be a flight path determined in advance by the crop cultivation information service platform 10 , and the path may be changed while driving.

본 발명의 다른 실시예에 따르면, 무인 비행체(20)는 카메라를 통해 획득한 영상을 외부의 작물 재배 정보 서비스 플랫폼(10)으로 실시간 전송이 가능하다. 작물 재배 정보 서비스 플랫폼(10)은 획득된 영상에 대한 영상 처리를 통해 신속하게, 또는 실시간으로 작물의 종류와 분포를 분석할 수 있다.According to another embodiment of the present invention, the unmanned aerial vehicle 20 can transmit an image acquired through a camera to the external crop cultivation information service platform 10 in real time. The crop cultivation information service platform 10 may analyze the type and distribution of crops quickly or in real time through image processing for the acquired image.

무인 비행체(20)는 기존의 작물 정보를 고려하여 비행이 수정될 수 있다. 예를 들어, 양파같은 경우는 수직 영상만으로는 구별이 안되며, 측면 45도에서 영상을 촬영하는 것이 필요하다. 따라서, 무인 비행체(20)의 경로 결정에 있어서, 작물의 히스토리 정보를 활용하여, 양파경작의 히스토리가 있는 필지의 경우, 20미터보다 낮은 높이 예를 들어 10~15미터 구간에서 비스듬한 각도로 영상을 획득하는 것이 바람직하다. 이 경우, 무인 비행체(20)의 위치는 필지의 대표점이 아니라, 무인 비행체(20)의 카메라가 주시하는 지점이 필지의 대표점인 것이 바람직하다.The flight of the unmanned aerial vehicle 20 may be modified in consideration of existing crop information. For example, in the case of an onion, it is not possible to distinguish only with a vertical image, and it is necessary to shoot an image at 45 degrees from the side. Therefore, in determining the path of the unmanned aerial vehicle 20, in the case of a plot with a history of onion cultivation, by utilizing the history information of crops, the image is displayed at an oblique angle at a height lower than 20 meters, for example, in a section of 10 to 15 meters. It is desirable to obtain In this case, it is preferable that the position of the unmanned aerial vehicle 20 is not the representative point of the parcel, but the representative point of the parcel that the camera of the unmanned aerial vehicle 20 looks at.

도 5는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.5 is a diagram illustrating a concept of performing image learning through AI and recognizing a type of crop through this according to an embodiment of the present invention.

인공신경망은 학습 단계와 적용 단계의 구별된 동작을 수행할 수 있다. 학습 단계에서, 인공신경망은 트레이닝 데이터를 입력 받고, 미리 결정된 가중치값에 따른 특징값을 생성하고, 생성된 특징값을 이용하여 작물의 종류를 구분하는 동작이 이루어진다.The artificial neural network can perform distinct operations of the learning phase and the application phase. In the learning step, the artificial neural network receives training data, generates a feature value according to a predetermined weight value, and classifies the type of crop using the generated feature value.

인공신경망은 프로세서에서 수행되는 소프트웨어의 형태로 구현될 수 있다. 트레이닝 데이터는 다양한 작물들을 커버할 수 있도록, 또한 계절별 다양한 영상들로 구비되는 것이 바람직하다. 트레이닝 데이터는 이미 작물에 대한 정보(작물의 종류, 계절 정보, 작물 단계 정보 등)을 포함할 수 있고, 이러한 정보를 이용한 지도 학습이 가능하다.The artificial neural network may be implemented in the form of software executed in a processor. It is preferable that the training data be provided with various images for each season so as to cover various crops. The training data may already include information about crops (type of crops, season information, crop stage information, etc.), and supervised learning using this information is possible.

트레이닝 데이터를 통한 학습을 통해, 인공신경망에 포함되는 가중치 값은, 작물 인식의 오류를 최소화하는 범위에서 결정될 수 있다. 인공 신경망은, 예를 들어 컨볼루션 신경망일 수 있는데, 컨볼루션 신경망의 경우 영상 처리, 객체 인식에 유리하다.Through learning through training data, a weight value included in the artificial neural network may be determined within a range that minimizes errors in crop recognition. The artificial neural network may be, for example, a convolutional neural network, which is advantageous for image processing and object recognition.

작물 재배 정보 서비스 플랫폼(10)은 비행을 통해 유묘 시기부터 작물 구분이 가능하고, 재배 작물 확인 과정이 더 빠르고 정확할 수 있다. 또한, 모아진 성장 데이터는 작물판독과 생육, 병해충 피해 데이터 등 AI 학습 데이터로 축적이 가능할 수 있다.The crop cultivation information service platform 10 can classify crops from seedling time through flight, and the cultivation crop confirmation process can be faster and more accurate. In addition, the collected growth data can be accumulated as AI learning data such as crop reading, growth, and pest damage data.

구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 합성곱 신경망(CNN, Convolutional Neural Network)의 분류 모델을 통해 작물을 분류할 수 있다. Specifically, the crop cultivation information service platform 10 may classify crops through a classification model of a convolutional neural network (CNN).

합성곱 신경망(CNN, Convolutional Neural Network)은 작물 영상의 특징을 추출하여 특징들의 패턴을 파악하는 구조이다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 입력되면 특징 추출을 수행한다. 특징 추출은 컨볼루션 연산과 같은 연산을 통하여 특징을 추출하고, 활성화 함수를 통해 비선형 공간으로 확장하고, 풀링을 통해 압축하는 과정을 의미할 수 있다. 이를 통해 고차원의 비선형 공간에서 물체의 특징에 따른 분류가 가능하다.Convolutional Neural Network (CNN) is a structure that extracts features of crop images and identifies patterns of features. Specifically, the crop cultivation information service platform 10 performs feature extraction when a crop image is input. Feature extraction may refer to a process of extracting a feature through an operation such as a convolution operation, extending it to a nonlinear space through an activation function, and compressing it through pooling. Through this, classification according to the characteristics of objects in a high-dimensional non-linear space is possible.

분류 모델은 컨볼루션(Convolution) 연산을 통해 특징을 추출한다. 활성화 함수(Activation Function)를 통해 비선형 공간으로 확장하고, 풀링(Pooling) 연산을 통해 특징을 압축한다. 분류 모델은 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함할 수 있다. 여기서, 작물 재배 정보 서비스 플랫폼(10)은 제1 작물 영역을 학습하는 제1 분류 모델과 제2 작물 영역을 학습하는 제2 분류 모델을 상호 독립적으로 학습할 수 있다.A classification model extracts features through a convolution operation. It expands into a non-linear space through an activation function, and compresses features through a pooling operation. The classification model may include a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop. Here, the crop cultivation information service platform 10 may learn the first classification model for learning the first crop region and the second classification model for learning the second crop region independently of each other.

작물 재배 정보 서비스 플랫폼(10)은 학습된 분류 모델을 통해 무인 비행체(20)를 통해 입력된 작물 영상을 분석하여 작물을 종류에 따라 1차적으로 분류할 수 있다. 구체적으로, 분류 모델은 배추, 무, 오이, 당근 등과 같은 재배 작물의 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 촬영한 작물 영상이 입력되면, 작물 영상에 분류 모델을 적용하여 작물 영상의 시간값을 입력으로 하여 작물의 특징을 추출하여 작물의 종류를 판단할 수 있다.The crop cultivation information service platform 10 may primarily classify crops according to types by analyzing crop images input through the unmanned aerial vehicle 20 through the learned classification model. Specifically, the classification model may learn images of cultivated crops such as cabbage, radishes, cucumbers, carrots, and the like, and may further learn not only the entire image but also the image when the cultivated crop is photographed from the top. Through this, when the crop image taken through the unmanned aerial vehicle 20 is input, the crop cultivation information service platform 10 applies a classification model to the crop image and extracts the characteristics of the crop by inputting the time value of the crop image as input. The type of crop can be determined.

작물 재배 정보 서비스 플랫폼(10)은 2차적으로 판단된 작물의 종류에 따라 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단할 수 있다. 구체적으로, 상태 모델은 재배 작물 별 정상, 결핍, 고온 피해, 병 등과 같은 상태 이미지를 학습할 수 있으며, 전체 이미지뿐만 아니라 재배 작물을 상단에서 촬영했을 때의 이미지를 더 학습할 수 있다. 이를 통해 작물 재배 정보 서비스 플랫폼(10)은 1차적으로 작물의 종류가 판단되면, 판단된 작물의 종류에 따라 시간값을 입력으로 하여 상태 모델을 적용하여 작물의 상태를 판단할 수 있다.The crop cultivation information service platform 10 may determine the state of the crop including normality, deficiency, high temperature damage, and disease by applying a plurality of state models learned according to the secondary determined crop type. Specifically, the state model can learn state images such as normality, deficiency, high temperature damage, disease, etc. for each cultivated crop, and can further learn not only the entire image but also the image when the cultivated crop is photographed from the top. Through this, when the type of crop is primarily determined, the crop cultivation information service platform 10 may determine the status of the crop by inputting a time value as an input according to the determined type of crop and applying the status model.

또한, 작물 재배 정보 서비스 플랫폼(10)은 작물 영상에 계절 필터를 적용하여, 영상에서 계절에 따른 색상의 변화가 제거된 영상을 획득할 수 있다. 여기서, 계절 필터는 계절별 색상, 예를 들어 배추의 경우, 계절 별 메인 색상인 봄(노랑), 여름(연두), 가을(초록)의 필터를 계절 필터로 정의할 수 있다. 작물 재배 정보 서비스 플랫폼(10)은 작물 영상이 획득된 시간(계절)을 고려하여 계절에 따른 색상이 제거된 잔여 영상을 획득할 수 있다. 예를 들어, 여름에 획득된 영상이라면 연두색이 메인 색상이므로, 무인 비행체(20)를 통해 획득한 작물 영상에 연두색 필터를 적용하여 연두색이 제거된 잔여 영상을 획득할 수 있다. 이렇게 필터링된 잔여 영상에 미리 학습된 CNN 신경망을 적용함으로써, 현재의 작물에 이상 징후가 있는지 여부를 색상을 통해서 확인할 수 있다. 구체적으로, 연두색 필터가 제거된 잔여 영상은 배추의 하얀색, 노란색, 고동색, 검은 반점 등을 확인할 수 있으며, 높은 온도에 의해 배추가 시든 정도, 배추가 자란 정도, 배추병의 유무 등을 확인할 수 있다. 이를 통해 배추의 상황을 판단하고 대비할 수 있다.In addition, the crop cultivation information service platform 10 may obtain an image from which a color change according to season is removed from the image by applying a seasonal filter to the crop image. Here, the seasonal filter may define a seasonal filter, for example, a filter of spring (yellow), summer (yellow green), and autumn (green), which are main colors for each season, in the case of Chinese cabbage. The crop cultivation information service platform 10 may acquire the residual image from which the color according to the season is removed in consideration of the time (season) at which the crop image is acquired. For example, if the image is acquired in summer, since yellow-green is the main color, the residual image from which the yellow-green has been removed may be obtained by applying a yellow-green filter to the crop image acquired through the unmanned aerial vehicle 20 . By applying the pre-trained CNN neural network to the filtered residual image, it is possible to check whether there are any abnormalities in the current crop through color. Specifically, the residual image with the yellow-green filter removed can confirm the white, yellow, auburn, and black spots of the cabbage, and the degree of withering of the cabbage due to the high temperature, the degree of growth of the cabbage, the presence or absence of Chinese cabbage disease, etc. . Through this, it is possible to judge the situation of cabbage and prepare for it.

상술한 바와 같이 분류 모델 및 상태 모델을 통해 작물의 종류와 상태를 판단하면 작물 재배 정보 서비스 플랫폼(10)은 작물 지도를 생성할 수 있다. 작물 지도는 무인 비행체(20)의 비행 경로를 기반으로 생성되며, 재배 면적 별로 작물의 종류에 따른 작물의 상태를 표시하여 작물 지도를 생성할 수 있다.As described above, when the type and state of the crop is determined through the classification model and the state model, the crop cultivation information service platform 10 may generate a crop map. The crop map is generated based on the flight path of the unmanned aerial vehicle 20 , and the crop map can be generated by displaying the state of the crop according to the type of crop for each cultivation area.

도 6은 발명의 일 실시예에 따른 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.6 is a view showing the state of a crop using an image obtained through a drone flight according to an embodiment of the present invention.

도 6의 (a)는 수확 진행 정도를 나타내는 도면이고, 도 5의 (b)는 배추 무름병을 나타내는 도면이고, 도 5의 (c)는 정상 생육을 나타내는 도면이고, 도 5의 (d)는 석회 결핍을 나타내는 도면이고, 도 5의 (e)는 고온 피해를 나타내는 도면이다.Fig. 6 (a) is a view showing the progress of harvest, Fig. 5 (b) is a view showing cabbage rot, Fig. 5 (c) is a view showing normal growth, Fig. 5 (d) is It is a view showing a lack of lime, and Figure 5 (e) is a view showing damage to high temperature.

작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)의 비행을 통해 획득한 작물 영상을 통해 수확 진행 정도, 각종 병충해의 상황을 진단할 수 있다.The crop cultivation information service platform 10 may diagnose the progress of harvesting and the situation of various pests through the crop image acquired through the flight of the unmanned aerial vehicle 20 .

작물 재배 정보는 작물의 종류, 작물의 상태 등을 포함할 수 있다. 작물의 상태는 작물의 성상, 크기, 색깔 등을 포함하며, 이에 대한 영상 분석을 통해 작물의 재배단계, 병충해 가능성 여부를 판단할 수 있다. 또한, 영상 분석을 통해 작물들의 수확 진행 정보도 추가적으로 확인할 수 있다.Crop cultivation information may include a type of crop, a state of a crop, and the like. The state of a crop includes the characteristics, size, and color of the crop, and through image analysis, it is possible to determine the cultivation stage of the crop and the possibility of pests. In addition, information on the harvest progress of crops can be additionally confirmed through image analysis.

본 발명의 일 실시예에 따르면 배추에 따른 작물의 상태는 배추 무름병, 석회 결핍, 고온 피해 등을 통해 상태가 좋지 않음을 판단할 수 있으며, 이에 따른 원인을 분석하여 예방할 수 있다. 구체적으로, 작물 재배 정보 서비스 플랫폼(10)은 무인 비행체(20)를 통해 획득한 작물 영상을 통해 작물의 종류와 작물의 상태를 판단할 수 있다.According to an embodiment of the present invention, the state of the crop according to the Chinese cabbage can be determined to be in poor condition through cabbage rot, lime deficiency, high temperature damage, etc., and can be prevented by analyzing the cause thereof. Specifically, the crop cultivation information service platform 10 may determine the type of crop and the state of the crop through the crop image acquired through the unmanned aerial vehicle 20 .

축적한 성장 데이터는 작물판독과 생육, 병해충 피해 등을 판독할 AI 학습 데이터로 축적할 수 있다.The accumulated growth data can be accumulated as AI learning data to read crops, growth, and damage by pests.

본 발명의 다른 실시예에 따르면, 작물 재배 정보 서비스 플랫폼(10)은 식생지수를 구하기 위한 분광 촬영을 실시하고, 생육시기의 ½ 시기에 생체 중량을 ¼을 수확하여 측정 수확 후 측정 항목은 초장, 생체중으로 하고, 생육을 마치고 최종 수확물의 초장과 생체중을 측정하고, 촬영으로 취득한 NDVI와 실제 작물 생육 데이터와 비교하여 생육 데이터와의 식생지수와 상관 분석을 수행할 수 있다.According to another embodiment of the present invention, the crop cultivation information service platform 10 performs spectral imaging to obtain the vegetation index, and harvests ¼ of the biological weight at ½ of the growth period, and the measurement items after harvest are plant height, It is possible to perform a vegetation index and correlation analysis with the growth data by using the live weight, measuring the plant height and live weight of the final crop after growth, and comparing the NDVI obtained by photography with the actual crop growth data.

식생지수는 식물체의 질소량과 직접적인 비례관계에 있는 엽록소의 분광반사 특성이 주로 적색(Red), 청색(Blue) 파장은 흡수하는 반면 근적외선(NIR, Near InfraRed) 파장은 반사하는 현상을 바탕으로 이들 파장을 조합하여 녹색 식물의 상대적 분포량과 활동성을 평가하는 지표이다. 적색 파장과 근적외선 파장의 반사율을 이용하여 계산하는 정규화식생지수(NDVI, Normalized Difference Vegetation Index)를 산정할 수 있다. RED-edge 및 Sequoir 촬영 시 진동 및 속도로 인한 Blur현상이 발생할 수 있으므로 조도가 확보된 시간에 촬영이 진행될 수 있도록 작업 계획을 잡으며 카메라 감도는 iso 400이상으로 설정하며 셔터스피드 1/250이상을 확보할 수 있다. 직광으로 인한 반사율 왜곡을 피할 수 있도록 밝고 흐린날 촬영이 바람직할 수 있다.The vegetation index is based on the phenomenon that the spectral reflection characteristics of chlorophyll, which are directly proportional to the nitrogen content of plants, mainly absorb red and blue wavelengths while reflecting NIR (Near InfraRed) wavelengths. It is an index to evaluate the relative distribution and activity of green plants by combining Normalized Difference Vegetation Index (NDVI), which is calculated using reflectance of red and near-infrared wavelengths, can be calculated. When shooting RED-edge and Sequoir, blur caused by vibration and speed may occur, so make a work plan so that the shooting can proceed at a time when the illumination is secured. can do. It may be desirable to shoot on a bright, overcast day to avoid reflectance distortion due to direct light.

도 7은 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다. 주제도 제작을 위한 수행 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.7 is a flowchart illustrating a process for producing a subject map in a control center according to an embodiment of the present invention. The process for producing the theme map is performed by the crop cultivation information service platform, and detailed descriptions and overlapping descriptions of the operations performed by the crop cultivation information service platform will be omitted.

작물 재배 정보 서비스 플랫폼(10)에서의 주제도 제작은 저고도 무인 비행체에서 획득한 저고도 작물 영상을 전송 받아 수행될 수 있다(S710).The subject map production in the crop cultivation information service platform 10 may be performed by receiving the low-altitude crop image obtained from the low-altitude unmanned aerial vehicle (S710).

저고도 작물 영상은 NAS 서버를 거쳐(S720) 데이터 서버에 전달될 수 있다(S722). 여기서, NAS 서버는 컴퓨터 네트워크에 연결된 파일 수준의 컴퓨터 기억장치를 나타낸다.The low-altitude crop image may be transmitted to the data server via the NAS server (S720) (S722). Here, the NAS server represents a file-level computer storage device connected to a computer network.

저고도 작물 영상은 AI 서버로 전달되어 작물 판독을 수행할 수 있다(S730). 또한, 저고도 작물 영상은 영상 판독원에 추가로 전달되어 작물 판독을 수행할 수 있다(S732).The low-altitude crop image may be transmitted to the AI server to perform crop reading (S730). In addition, the low-altitude crop image may be further transmitted to an image reading source to perform crop reading (S732).

단계 S730은 농촌경제연구원이나 농촌진흥청 등의 공공 홈페이지 관측 작물 사진 취합, 농경지 드론 이미지 취득, 해제면 경작 시 실사 등의 이미지 소스를 크롤링(Crawling)할 수 있다. 크롤링(Crawling)은 무수히 많은 컴퓨터에 분산 저장되어 있는 문서를 수집하여 검색 대상의 색인으로 포함시키는 기술로서, 어느 부류의 기술을 얼마나 빨리 검색 대상에 포함시키냐 하는 것이 우위를 결정하는 요소이다.Step S730 may crawl image sources such as collecting photos of crops observed on public homepages such as the Rural Economic Research Institute or the Rural Development Administration, acquiring drone images of agricultural land, and due diligence when cultivating cleared surfaces. Crawling is a technology that collects documents distributed and stored in countless computers and includes them as an index of a search target. What type of technology is included in the search target and how quickly is a factor that determines the superiority.

단계 S730은 이미지 소스를 크롤링하여 판독 알고리즘을 통해 작물을 판독할 수 있다. 판독 알고리즘은 Vggnet, Alexnet, Squeeznet, Resnet, Densenet 등을 사용할 수 있다.In step S730, the crop may be read through a reading algorithm by crawling the image source. The reading algorithm may use Vggnet, Alexnet, Squeeznet, Resnet, Densenet, and the like.

이때, 단계 S730 및 단계 S732에서 수행한 작물 판독에 따라 판독된 작물의 교차 검증을 통해 정확도를 향상시킬 수 있다.In this case, the accuracy may be improved through cross-validation of the crops read according to the crop readings performed in steps S730 and S732.

단계 S730 및 단계 S732에서 판독된 작물들은 이미지 분류를 통해 동일한 이미지들을 분류할 수 있다(S740).The crops read in steps S730 and S732 may classify the same images through image classification (S740).

또한, 단계 S750에서 저고도 작물 영상은 정사 보정과정을 생략할 수 있다.In addition, in step S750, the low-altitude crop image may omit the orthogonal correction process.

이미지 분류(S740)와 정사 보정(S750)이 완료되면 주제도를 제작할 수 있다(S760). 제작된 주제도는 데이터 서버에 저장된다(S770).When the image classification (S740) and orthographic correction (S750) are completed, a subject map can be produced (S760). The produced subject map is stored in the data server (S770).

도 7에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 7에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.Although it is interposed as sequentially executing each process in FIG. 7, this is merely illustrative, and those skilled in the art change the order described in FIG. 7 within the range that does not depart from the essential characteristics of the embodiment of the present invention. Alternatively, various modifications and variations may be applied by executing one or more processes in parallel or adding other processes.

도 8은 발명의 일 실시예에 따른 도 7의 단계 S730에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다. AI 서버가 수행하는 과정은 작물 재배 정보 서비스 플랫폼에 의해 수행되며, 작물 재배 정보 서비스 플랫폼이 수행하는 것에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.8 is a flowchart illustrating a process performed by the AI server in step S730 of FIG. 7 according to an embodiment of the present invention. The process performed by the AI server is performed by the crop cultivation information service platform, and detailed descriptions and overlapping descriptions of the crop cultivation information service platform will be omitted.

AI 서버는 이미지를 획득할 수 있다(S810). 여기서, 이미지는 저고도 무인 비행체에서 획득한 저고도 작물 영상이다.The AI server may acquire an image (S810). Here, the image is a low-altitude crop image obtained from a low-altitude unmanned aerial vehicle.

AI 서버는 이미지를 획득하면 이미지를 추출할 수 있다(S820). 단계 S820의 이미지 추출은 도 8의 도면과 같이 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 기 설정된 영역만큼 추출한다. 예를 들어, 이미지 추출은 획득한 이미지의 중간 영역에 위치하는 이미지로, 직사각형 형태의 영역으로 추출할 수 있다.When the AI server acquires the image, the AI server may extract the image (S820). In the image extraction of step S820, as shown in the drawing of FIG. 8 , the crop image is extracted as much as a preset area from the low-altitude crop image obtained from each lot. For example, image extraction is an image located in the middle region of the acquired image, and may be extracted as a rectangular region.

단계 S830에서, AI 서버는 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 추출하면 인공지능을 통해 작물을 구분할 수 있다. 인공지능을 통한 작물 구분은 도 5를 통해 확인할 수 있으며, 각각의 작물을 종류에 따라 구분할 수 있다.In step S830, the AI server can classify crops through artificial intelligence by extracting crop images from low-altitude crop images obtained from each lot. The classification of crops through artificial intelligence can be confirmed through FIG. 5 , and each crop can be classified according to type.

단계 S830에서, 작물 구분이 되지 않으며, 이미지를 획득하는 단계(S810)로 다시 돌아가고, 작물 구분이 완료되면 단계 S840에서 이미지의 좌표를 추출할 수 있다.In step S830, crop classification is not performed, and the process returns to step S810 of obtaining an image, and when crop classification is completed, coordinates of the image may be extracted in step S840.

단계 S840에서, 이미지 좌표 추출은 획득한 저고도 작물 영상을 통해 각각의 필지에 따른 좌표를 GIS를 통해 좌표를 추출할 수 있으며, 또는 저고도 무인 비행체에 부착된 GPS를 통해 각각의 필지에서 저고도 작물 영상 촬영된 경우의 무인 비행체의 위치를 통해 좌표를 추출할 수 있다.In step S840, image coordinate extraction may extract coordinates according to each lot through GIS through the obtained low-altitude crop image, or low-altitude crop image shooting in each lot through GPS attached to the low-altitude unmanned aerial vehicle Coordinates can be extracted through the location of the unmanned aerial vehicle in the case of

좌표 추출이 완료되면 단계 S850에서, 각각의 영역을 계산할 수 있다. 영역은 작물 지도를 생성하기 위해 계산되며, 각각의 필지를 기준으로 GIS를 통해 확인할 수 있다.When the coordinate extraction is completed, each region may be calculated in step S850. The area is calculated to create a crop map and can be checked through GIS based on each lot.

본 발명의 일 실시예에 따르면, AI 학습을 위한 생육단계별 데이터는 유묘기, 초기신장기, 성숙기, 수확기 등을 확인할 수 있으며, 데이터 누적 시 생육, 병충해 등을 추가로 판독이 가능하다.According to an embodiment of the present invention, data for each growth stage for AI learning can check seedling, early growth, maturity, harvest, etc.

도 8에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.Although it is interposed as sequentially executing each process in FIG. 8, it is only illustratively described, and those skilled in the art change the order described in FIG. Alternatively, various modifications and variations may be applied by executing one or more processes in parallel or adding other processes.

따라서, 작물 재배 정보 서비스 플랫폼(10)은 드론 촬영 농작물 이미지 전송, 드론 촬영한 영상의 서버의 특정 폴더에 전송, 인공지능 딥러닝 판독모델을 생성, 판독모델은 가동시키고 각각의 결과값을 비교해서 작물을 판독하는 파이썬 코드, 판독된 값은 데이터베이스에 저장하고 관리하는 모듈, 데이터베이스에 저장된 판독결과를 지도에 표시하는 모듈, 지도상의 위치를 선택했을 때 해당 작물의 사진과 판독된 결과를 보여주는 모듈 등으로 구성되어 상술한 과정들을 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다.Therefore, the crop cultivation information service platform 10 transmits the drone-photographed crop image, sends the drone-photographed image to a specific folder on the server, creates an artificial intelligence deep learning reading model, operates the reading model, and compares each result value. Python code that reads crops, a module that stores and manages the read values in a database, a module that displays the reading results stored in the database on a map, a module that displays a picture of the crop and the read results when a location on the map is selected, etc. may be configured to perform the above-described processes, but is not necessarily limited thereto.

도 9는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.9 is a block diagram for explaining a learning concept for crop analysis performed in the AI server according to an embodiment of the present invention.

적대적 생성 신경망(Generative model, GAN)은 생성모델과 판별모델이 경쟁하면서 실제와 가까운 이미지를 자동으로 만들어 내는 기계학습이다.A generative neural network (GAN) is a machine learning that automatically generates images close to the real thing while a generative model and a discriminant model compete.

도 9는 적대적 신경망의 일종으로서 AI서버의 프로세서에서 수행되는 학습 개념을 나타낸 것이다. 도 9에 도시된 적대적 신경망에 의하여 수행되는 프로세스들은 적대적 신경망을 수행하기 위한 일련의 프로그램들로서 AI 서버의 메모리에 저장되며, AI 서버의 프로세서에서 수행되는 하기의 동작들을 포함한다.9 shows a learning concept performed in a processor of an AI server as a type of adversarial neural network. The processes performed by the adversarial neural network shown in FIG. 9 are stored in the memory of the AI server as a series of programs for performing the adversarial neural network, and include the following operations performed by the processor of the AI server.

우선, 적대적 신경망의 학습을 위한 입력 정보(910)는 해당 필지에서 획득된 다수의 트레이닝 영상을 포함한다. 추가적인 입력 정보(910)로서, 해당 영상이 획득되었을 때의 시간 정보(기후 정보, 촬영시각), 위치 정보(GPS 상의 위치 정보, 해당 필지의 식별 정보 등), 색상 정보(해당 필지에서 획득된 영상에서의 주 색상 정보)를 레이블 정보(역시 트레이닝 데이터임)로서 더 포함한다. First, the input information 910 for learning the adversarial neural network includes a plurality of training images obtained from a corresponding lot. As additional input information 910 , time information (climate information, shooting time) when the corresponding image was acquired, location information (location information on GPS, identification information of the corresponding lot, etc.), color information (image acquired from the corresponding lot) The main color information in ) is further included as label information (which is also training data).

도 9에 도시된 바와 같이, 생성자(930)는 레이블 정보(910)와 랜덤 노이즈(920)를 입력으로 하여 페이크 영상을 생성한다. 분별자(940)는 다수의 컨볼루션 필터와 활성화층 및 풀링층으로 구성되며, 최종적인 특징값을 이용하여 Real/Fake에 대한 판단을 한다.As shown in FIG. 9 , a generator 930 generates a fake image by receiving label information 910 and random noise 920 as inputs. The classifier 940 is composed of a plurality of convolution filters, an activation layer, and a pooling layer, and determines Real/Fake using the final feature value.

분별자(940)와 생성자(930)의 필터계수에 대한 업데이트는 생성자(930)를 통해 생성된 페이크 영상과, 리얼 샘플인 트레이닝 영상(950)에 대한 분별 결과(Real/Fake 응답)에 대한 피드백을 통해, 보다 정확한 분별 결과를 얻을 수 있는 방향으로 필터 계수가 업데이트된다. 이러한 학습 과정을 통해 생성자(930)의 필터 계수는 결정될 수 있다. 물리적인 관점에서, 분별자(940), 생성자(930)는 실질적으로 프로세서에 해당하며, 프로세서가 수행하는 세부적인 동작을 나타내는 용어로 이해될 수 있다. The update of the filter coefficients of the classifier 940 and the generator 930 is feedback on the discrimination result (Real/Fake response) of the fake image generated through the generator 930 and the training image 950 that is a real sample. Through this, the filter coefficients are updated in a direction to obtain a more accurate classification result. Through this learning process, filter coefficients of the generator 930 may be determined. From a physical point of view, the classifier 940 and the generator 930 substantially correspond to a processor, and may be understood as terms representing detailed operations performed by the processor.

도 10은 도 9를 통해 결정된 생성자(930)를 통해 이미지 분류(S740)를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.FIG. 10 is a conceptual diagram illustrating a method of generating an input image for image classification ( S740 ) through the generator 930 determined through FIG. 9 .

현재 드론을 통해 획득된 영상이 충분한 신뢰 수준으로 이미지 분류가 가능하다면, 본 과정을 수행할 필요성은 적다. 하지만, 현재 획득된 영상만으로 작물의 종류를 특정하기 어려울 때에는, 적대적 신경망을 통해 생성되는 합성 영상을 이용하여 작물의 종류를 결정하는 것이 바람직하다.If the image acquired through the current drone can be classified with a sufficient confidence level, there is little need to perform this process. However, when it is difficult to specify the type of crop only with the currently acquired image, it is preferable to determine the type of crop using a synthetic image generated through an adversarial neural network.

도 10에서 생성자(930)는 도 9를 통해 학습이 완료된 생성자(930)를 의미한다. 여기서 입력은 현재의 획득 영상(1010)과, 해당 획득 영상(1010)에 대한 레이블(910)이다. 레이블에 포함되는 정보(910)는 영상을 촬영한 시점의 시간 정보, 위치 정보, 색상 정보를 포함할 수 있다. 이미지 분류(S740)를 위한 입력은, 레이블 정보(910)를 입력으로 하여 생성자(930)를 통해 합성된 합성 영상(960)과, 현재의 획득 영상(1010)이다. 합성 영상(960)을 통해 추출된 특징값과, 획득 영상(1010)을 통해 추출된 특징값을 미리 결정된 가중치에 따라 합산한 후, 합산 특징값을 이용하여 이미지 분류를 수행한다면, 획득 영상만으로 이미지 분류를 수행한 경우와 대비할 때, 분류의 신뢰도를 더욱 높일 수 있다.In FIG. 10 , a generator 930 means a generator 930 whose learning has been completed through FIG. 9 . Here, the inputs are the current acquired image 1010 and a label 910 for the corresponding acquired image 1010 . The information 910 included in the label may include time information, location information, and color information at the time of capturing the image. Inputs for image classification (S740) are a synthesized image 960 synthesized through a generator 930 with label information 910 as an input, and a currently acquired image 1010. If the feature value extracted from the synthesized image 960 and the feature value extracted from the acquired image 1010 are summed according to a predetermined weight and then image classification is performed using the summed feature value, then the image is only obtained from the acquired image. When compared with the case where classification is performed, the reliability of classification can be further increased.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even if all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 작물 재배 정보 서비스 플랫폼
12: 작물 상태 판단 장치
14: 모니터링부
20: 무인 비행체
30: 제1 단말기
32: 제2 단말기
10: Crop Cultivation Information Service Platform
12: Crop condition judgment device
14: monitoring unit
20: unmanned aerial vehicle
30: first terminal
32: second terminal

Claims (15)

프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 재배 정보 서비스 플랫폼에 있어서,
상기 프로세서는,
기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 무인 비행체의 비행 경로를 생성하고,
상기 무인 비행체가 획득한 작물 영상을 전달받아 분석하여 상기 비행 경로에 따른 작물 정보를 획득하며,
작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 고려하여 상기 비행 경로에 따른 재배 면적 별 수확 현황 및 재해 현황이 표시되는 작물 지도를 생성하고,
상기 프로세서는, 상기 작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하여 상기 작물 영상을 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 상기 작물 정보를 획득하며,
상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고, 상기 비행 경로를 기반으로 재배 면적 별로 상기 작물의 종류에 따른 상기 작물의 상태를 표시하여 상기 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
In the crop cultivation information service platform comprising a processor and a memory for storing a program executed by the processor,
The processor is
Creates the flight path of the unmanned aerial vehicle according to the land formed in consideration of the preset topographic information and the take-off point and landing point,
It receives and analyzes the crop image acquired by the unmanned aerial vehicle to obtain crop information according to the flight path,
In consideration of the crop information including the type of crop and the state of the crop, a crop map is generated in which the harvest status and disaster status by cultivation area according to the flight path are displayed,
The processor learns a plurality of classification models according to the type of crop and a plurality of state models according to the state of the crop, and analyzes the crop image through a convolutional neural network (CNN) to classify each crop. Obtaining the crop information including the type of crop and the state of the crop,
The processor includes a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop primarily By applying a model, inputting the time value of the crop image as an input, analyzing the extracted characteristics to determine the type of crop, and secondarily, by inputting the time value according to the determined type of crop, the plurality of learned To generate the crop map by applying a state model to determine the state of the crop, including normal, deficiency, and high temperature damage, and displaying the state of the crop according to the type of crop for each cultivation area based on the flight path Crop cultivation information service platform, characterized in that.
제1항에 있어서,
상기 프로세서는,
필지에 대한 필지 정보를 포함하는 상기 기 설정된 지형 정보를 기반으로 상기 필지의 중심점을 나타내는 상기 필지의 대표점을 추출하고, 상기 추출된 대표점에 따라 비행 궤적을 고려하여 상기 비행 경로를 생성하고,
상기 필지 정보는 필지간 구분 경계 정보 및 필지에 포함되는 영역들의 고도 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
According to claim 1,
The processor is
Extracting a representative point of the lot indicating the center point of the lot based on the preset topographic information including lot information about the lot, and generating the flight path in consideration of the flight trajectory according to the extracted representative point,
The lot information is a crop cultivation information service platform, characterized in that it includes information on the boundary between parcels and altitude information of areas included in the lot.
제2항에 있어서,
상기 프로세서는,
상기 비행 경로를 제외하고 재설정한 무인 비행체의 재설정 경로를 생성하고,
상기 재설정 경로는 상기 비행 경로에 따라 획득한 상기 작물 영상을 통해 상기 작물 정보를 인식하지 못한 경우, 상기 작물 영상을 재촬영하기 위한 경로를 추가로 더 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
3. The method of claim 2,
The processor is
Create a reset route of the unmanned aerial vehicle that has been reset except for the flight route,
The reset path, if the crop information is not recognized through the crop image acquired according to the flight path, crop cultivation information service platform, characterized in that it further comprises a path for re-photographing the crop image.
제1항에 있어서,
상기 프로세서는,
상기 무인 비행체의 상기 비행 경로에 따른 이동을 실시간으로 관찰하고, 상기 무인 비행체가 상기 비행 경로를 이탈하는 경우, 상기 무인 비행체의 점검 신호를 생성하고,
상기 점검 신호에 의해 상기 무인 비행체의 위치 및 이동 방향을 확인하는 GPS, 라이다 센서의 상태를 점검하여 생성된 이상 신호 또는 정상 신호를 전달받는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
According to claim 1,
The processor is
Observing the movement of the unmanned aerial vehicle along the flight path in real time, and generating a check signal of the unmanned aerial vehicle when the unmanned aerial vehicle deviates from the flight path,
A crop cultivation information service platform, characterized in that it receives an abnormal signal or a normal signal generated by checking the status of a GPS and lidar sensor that confirms the position and movement direction of the unmanned aerial vehicle by the inspection signal.
제4항에 있어서,
상기 프로세서는,
상기 무인 비행체의 상태 점검 시 이상이 있는 경우 상기 이상 신호를 수신하여 상기 무인 비행체가 복귀하기 위한 복귀 신호를 생성하고, 이상이 없는 경우 상기 정상 신호를 수신하여 상기 비행 경로를 상기 무인 비행체로 재전송하여 상기 비행 경로에 따른 이동을 재관찰하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
5. The method of claim 4,
The processor is
When there is an abnormality in the state check of the unmanned aerial vehicle, the abnormal signal is received to generate a return signal for the unmanned aerial vehicle to return, and if there is no abnormality, the normal signal is received and the flight path is retransmitted to the unmanned aerial vehicle. Crop cultivation information service platform, characterized in that re-observing the movement along the flight path.
삭제delete 삭제delete 제1항에 있어서,
상기 프로세서는,
상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
According to claim 1,
The processor is
First crop recognition is performed by analyzing the first crop image through the convolutional neural network,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the position or shooting angle of the unmanned aerial vehicle is analyzed through the convolutional neural network to perform secondary crop recognition,
When crop information is not obtained through the secondary crop recognition, a synthesized image is generated by synthesizing the first crop image and the second crop image through an adversarial generating neural network (GAN), and the generated synthesized image is used in the A crop cultivation information service platform, characterized in that it performs tertiary crop recognition by analyzing it through a convolutional neural network.
제8항에 있어서,
상기 3차 작물 인식은,
상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
9. The method of claim 8,
The tertiary crop recognition is
Analyze the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image as inputs through a generator is performed by
The label information is a crop cultivation information service platform, characterized in that it includes time information, location information, and color information at which the first crop image or the second crop image was obtained.
제1항에 있어서,
상기 프로세서는,
상기 비행 경로에 따른 총 면적 중 상기 작물 정보에 따른 재배 면적을 산출하여 상기 작물 정보의 좌표를 추출하여 상기 비행 경로, 상기 작물 정보, 상기 재배 면적 및 상기 좌표를 이용하여 상기 무인 비행체가 작물 영상을 획득함과 동시에 상기 작물 정보를 획득하여 생성되는 상기 작물 지도를 생성하고,
상기 프로세서는,
작물의 종류 및 작물의 상태가 표시된 상기 작물 지도를 이용하여 시장에 유통되는 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 예측하고,
상기 작물의 종류 별 수확량 및 상기 작물의 상태에 따라 폐기되는 양을 이용하여 유통 가능한 작물 비율을 예측하고, 상기 유통 가능한 작물 비율을 이용하여 시장가를 예측하는 것을 특징으로 하는 작물 재배 정보 서비스 플랫폼.
According to claim 1,
The processor is
The unmanned aerial vehicle uses the flight path, the crop information, the cultivation area, and the coordinates to extract the crop information by calculating the cultivation area according to the crop information among the total area along the flight path. generating the crop map generated by acquiring the crop information at the same time as acquiring,
The processor is
Predicting the yield for each type of crop distributed in the market and the amount to be discarded according to the condition of the crop by using the crop map in which the type of crop and the condition of the crop are displayed,
A crop cultivation information service platform, characterized in that predicting a circulating crop ratio using the yield for each type of crop and an amount discarded according to the state of the crop, and predicting a market price using the circulating crop ratio.
프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함하는 작물 상태 판단 장치에 있어서,
상기 프로세서는,
작물의 종류에 따른 복수의 분류 모델 및 상기 작물의 상태에 따른 복수의 상태 모델을 학습하고,
비행 경로를 따라 이동하는 무인 비행체가 획득한 작물 영상을 전달받아 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 분석하여 작물 별로 분류하여 작물의 종류 및 작물의 상태를 포함하는 작물 정보를 획득하며,
상기 프로세서는, 1차적으로 기 설정된 작물에 속하는 제1 작물 영역을 학습하는 제1 분류 모델 및 기 설정된 작물에 속하지 않는 제2 작물 영역을 학습하는 제2 분류 모델을 포함하는 상기 학습된 복수의 분류 모델을 적용하여 상기 작물 영상의 시간값을 입력으로 하여 추출된 특징을 분석하여 작물의 종류를 판단하고, 2차적으로 상기 판단된 작물의 종류에 따라 상기 시간값을 입력으로 하여 상기 학습된 복수의 상태 모델을 적용하여 정상, 결핍, 고온 피해, 병을 포함하는 상기 작물의 상태를 판단하는 것을 특징으로 하는 작물 상태 판단 장치.
In the crop status determination apparatus comprising a processor and a memory for storing a program executed by the processor,
The processor is
Learning a plurality of classification models according to the type of crop and a plurality of state models according to the state of the crop,
It receives crop images acquired by an unmanned aerial vehicle moving along the flight path and analyzes it through a convolutional neural network (CNN) to classify each crop to obtain crop information including the type of crop and the state of the crop.
The processor includes a first classification model for learning a first crop region belonging to a preset crop and a second classification model for learning a second crop region not belonging to a preset crop primarily By applying a model, inputting the time value of the crop image as an input, analyzing the extracted characteristics to determine the type of crop, and secondarily, by inputting the time value according to the determined type of crop, the plurality of learned Crop condition determination device, characterized in that by applying the condition model to determine the condition of the crop including normal, deficiency, high temperature damage, and disease.
삭제delete 제11항에 있어서,
상기 프로세서는,
상기 복수의 상태 모델을 적용하여 상기 작물의 상태에 따른 상태 특징값을 추출하고, 상기 상태 특징값과 기 설정된 기준 특징값을 비교하여 정상, 결핍 및 고온 피해를 포함하는 상기 작물의 상태를 판단하고,
상기 시간값을 적용하여 상기 시간값 별 상기 기 설정된 기준 특징값이 변화하는 것을 특징으로 하는 작물 상태 판단 장치.
12. The method of claim 11,
The processor is
By applying the plurality of state models to extract a state feature value according to the state of the crop, and comparing the state feature value with a preset reference feature value to determine the state of the crop including normal, deficiency and high temperature damage, ,
Crop condition determination apparatus, characterized in that by applying the time value, the preset reference characteristic value is changed for each time value.
제11항에 있어서,
상기 프로세서는,
상기 합성곱 신경망을 통해 제1 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 무인 비행체의 위치 또는 촬영 각도를 조절하여 획득된 제2 작물 영상을 상기 합성곱 신경망을 통해 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 작물 영상 및 상기 제2 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 상기 합성곱 신경망을 통해 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 상태 판단 장치.
12. The method of claim 11,
The processor is
First crop recognition is performed by analyzing the first crop image through the convolutional neural network,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the position or shooting angle of the unmanned aerial vehicle is analyzed through the convolutional neural network to perform secondary crop recognition,
When crop information is not obtained through the secondary crop recognition, a synthesized image is generated by synthesizing the first crop image and the second crop image through an adversarial generating neural network (GAN), and the generated synthesized image is used in the Crop condition determination device, characterized in that the tertiary crop recognition is performed by analysis through a convolutional neural network.
제14항에 있어서,
상기 3차 작물 인식은,
상기 제1 작물 영상 또는 상기 제2 작물 영상과 상기 제1 작물 영상 또는 상기 제2 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
상기 레이블 정보는 상기 제1 작물 영상 또는 상기 제2 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 상태 판단 장치.
15. The method of claim 14,
The tertiary crop recognition is
Analyzes the synthesized image generated through an adversarial generative neural network (GAN) that synthesizes the first crop image or the second crop image and the label information of the first crop image or the second crop image as inputs through a generator is performed by
The label information is a crop condition determination device, characterized in that it includes time information, location information, and color information at which the first crop image or the second crop image was obtained.
KR1020200124869A 2020-07-09 2020-09-25 Crop state judgment apparatus and crop cultivation information service platform including the same KR102300799B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200084502 2020-07-09
KR20200084502 2020-07-09

Publications (1)

Publication Number Publication Date
KR102300799B1 true KR102300799B1 (en) 2021-09-10

Family

ID=73791132

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200105327A KR102187654B1 (en) 2020-07-09 2020-08-21 Low altitude drone and Crop Cultivating Information Acquisition System including the same
KR1020200124869A KR102300799B1 (en) 2020-07-09 2020-09-25 Crop state judgment apparatus and crop cultivation information service platform including the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200105327A KR102187654B1 (en) 2020-07-09 2020-08-21 Low altitude drone and Crop Cultivating Information Acquisition System including the same

Country Status (1)

Country Link
KR (2) KR102187654B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467855B1 (en) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same
KR20230040765A (en) * 2021-09-16 2023-03-23 한국항공우주연구원 Crop yield prediction method and apparatus using the same
KR20230081690A (en) 2021-11-30 2023-06-07 (주)레이원 Composite cultivation management decision-making monitoring system
WO2023101146A1 (en) * 2021-12-03 2023-06-08 한국전자기술연구원 Device and method for automatic bakanae disease identification based on image information
WO2023106558A1 (en) * 2021-12-07 2023-06-15 한국전자기술연구원 Image information-based automatic reading device and method for rice lodging
KR102579689B1 (en) * 2022-11-10 2023-09-18 주식회사 이지에프앤씨 Customization-based smart farm service provision system
NO20220416A1 (en) * 2022-04-05 2023-10-06 Digifarm As Methods and systems for estimating crop yield from vegetation index data
KR102597426B1 (en) * 2022-11-09 2023-11-02 시스템 엔지니어링 코리아 ㈜ System for wirelessly measuring impact of agricultural product

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021216379A2 (en) * 2020-04-21 2021-10-28 Pyka Inc. Unmanned aerial vehicle aerial spraying control
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
KR102384334B1 (en) * 2021-02-26 2022-04-08 주식회사 이노드 Apparatus and method for providing crop information of cultivation area
KR102514706B1 (en) * 2021-09-07 2023-03-29 경상국립대학교산학협력단 Apparatus and method for automatically generating flight path mission files of unmanned aerial vehicles
KR102447678B1 (en) * 2022-05-16 2022-09-26 이대권 Drone for measuring atmosphere environment
KR20240005607A (en) 2022-07-05 2024-01-12 주식회사 이노드 Image matching method of image taken by unmanned aerial vehicle and device therefor
CN116733472A (en) * 2023-06-05 2023-09-12 江西华丽丰科技有限公司 Metal ore mining and selecting control system based on intelligent algorithm
CN116543309B (en) * 2023-06-28 2023-10-27 华南农业大学 Crop abnormal information acquisition method, system, electronic equipment and medium
CN117612047B (en) * 2024-01-23 2024-04-12 国网湖北省电力有限公司信息通信公司 Unmanned aerial vehicle inspection image recognition method for power grid based on AI large model

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
WO2016183000A1 (en) * 2015-05-12 2016-11-17 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
KR20170047036A (en) * 2015-10-22 2017-05-04 농업회사법인 주식회사 호그린 System for supplying unmanned pesticide
WO2017077543A1 (en) * 2015-11-08 2017-05-11 Agrowing Ltd A method for aerial imagery acquisition and analysis
KR20170058526A (en) * 2015-11-19 2017-05-29 하태훈 Disk shaped drone
KR101801746B1 (en) * 2017-01-03 2017-11-27 (주)세이프어스드론 Smart Drone for disaster prevention, System and Method using the same
JP2018537335A (en) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and system for controlling the flight of an unmanned aerial vehicle
KR101948635B1 (en) * 2017-12-20 2019-02-18 계양전기 주식회사 Agricultural drone and operating method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070101B2 (en) * 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
KR101642828B1 (en) * 2014-05-26 2016-07-28 서울대학교산학협력단 Obstacle avoidance system and method based on multiple images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US20140303814A1 (en) * 2013-03-24 2014-10-09 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
WO2016183000A1 (en) * 2015-05-12 2016-11-17 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
KR20170047036A (en) * 2015-10-22 2017-05-04 농업회사법인 주식회사 호그린 System for supplying unmanned pesticide
WO2017077543A1 (en) * 2015-11-08 2017-05-11 Agrowing Ltd A method for aerial imagery acquisition and analysis
KR20170058526A (en) * 2015-11-19 2017-05-29 하태훈 Disk shaped drone
JP2018537335A (en) * 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and system for controlling the flight of an unmanned aerial vehicle
KR101801746B1 (en) * 2017-01-03 2017-11-27 (주)세이프어스드론 Smart Drone for disaster prevention, System and Method using the same
KR101948635B1 (en) * 2017-12-20 2019-02-18 계양전기 주식회사 Agricultural drone and operating method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230040765A (en) * 2021-09-16 2023-03-23 한국항공우주연구원 Crop yield prediction method and apparatus using the same
KR102653356B1 (en) * 2021-09-16 2024-04-02 한국항공우주연구원 Crop yield prediction method and apparatus using the same
KR102467855B1 (en) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same
KR20230081690A (en) 2021-11-30 2023-06-07 (주)레이원 Composite cultivation management decision-making monitoring system
WO2023101146A1 (en) * 2021-12-03 2023-06-08 한국전자기술연구원 Device and method for automatic bakanae disease identification based on image information
WO2023106558A1 (en) * 2021-12-07 2023-06-15 한국전자기술연구원 Image information-based automatic reading device and method for rice lodging
NO20220416A1 (en) * 2022-04-05 2023-10-06 Digifarm As Methods and systems for estimating crop yield from vegetation index data
KR102597426B1 (en) * 2022-11-09 2023-11-02 시스템 엔지니어링 코리아 ㈜ System for wirelessly measuring impact of agricultural product
KR102579689B1 (en) * 2022-11-10 2023-09-18 주식회사 이지에프앤씨 Customization-based smart farm service provision system

Also Published As

Publication number Publication date
KR102187654B1 (en) 2020-12-07

Similar Documents

Publication Publication Date Title
KR102300799B1 (en) Crop state judgment apparatus and crop cultivation information service platform including the same
Torres-Sánchez et al. Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis
Hamylton et al. Evaluating techniques for mapping island vegetation from unmanned aerial vehicle (UAV) images: Pixel classification, visual interpretation and machine learning approaches
Zhang et al. Orchard management with small unmanned aerial vehicles: A survey of sensing and analysis approaches
Pádua et al. UAS, sensors, and data processing in agroforestry: A review towards practical applications
CN106407880B (en) Use the storage of image procossing, growth and risk profile
US20170372137A1 (en) Systems, devices, and methods for robotic remote sensing for precision agriculture
Honrado et al. UAV imaging with low-cost multispectral imaging system for precision agriculture applications
GB2598012A (en) System and method for crop monitoring
Marín et al. Urban lawn monitoring in smart city environments
Meivel et al. Remote sensing analysis of agricultural drone
Kakamoukas et al. A multi-collective, IoT-enabled, adaptive smart farming architecture
Xue et al. Assessment of canopy vigor information from kiwifruit plants based on a digital surface model from unmanned aerial vehicle imagery
Liu et al. An efficient approach based on UAV orthographic imagery to map paddy with support of field-level canopy height from point cloud data
Khuzaimah et al. Application and potential of drone technology in oil palm plantation: Potential and limitations
Phang et al. From Satellite to UAV-based Remote Sensing: A Review on Precision Agriculture
Livanos et al. Extraction of reflectance maps for smart farming applications using unmanned aerial vehicles
KR102408373B1 (en) Method and Apparatus for Automated Management of an Agricultural Land Information
Duman et al. Design of a smart vertical farming system using image processing
Wijesingha Geometric quality assessment of multi-rotor unmanned aerial vehicle borne remote sensing products for precision agriculture
Sadiq et al. A review on the imaging approaches in agriculture with crop and soil sensing methodologies
Poudel et al. Assessing Red Pine Seedlings Using Uav Point Clouds and Field-Verified Data
Izere Plant Height Estimation Using RTK-GNSS Enabled Unmanned Aerial Vehicle (UAV) Photogrammetry
Gadepally et al. A Deep Transfer Learning based approach for forecasting spatio-temporal features to maximize yield in cotton crops
Phade et al. IoT‐Enabled Unmanned Aerial Vehicle: An Emerging Trend in Precision Farming

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant