KR102187654B1 - Low altitude drone and Crop Cultivating Information Acquisition System including the same - Google Patents

Low altitude drone and Crop Cultivating Information Acquisition System including the same Download PDF

Info

Publication number
KR102187654B1
KR102187654B1 KR1020200105327A KR20200105327A KR102187654B1 KR 102187654 B1 KR102187654 B1 KR 102187654B1 KR 1020200105327 A KR1020200105327 A KR 1020200105327A KR 20200105327 A KR20200105327 A KR 20200105327A KR 102187654 B1 KR102187654 B1 KR 102187654B1
Authority
KR
South Korea
Prior art keywords
crop
information
image
low
altitude
Prior art date
Application number
KR1020200105327A
Other languages
Korean (ko)
Inventor
정호
김대성
정철훈
정형균
구영한
김정선
박병배
박주원
Original Assignee
주식회사 이노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노드 filed Critical 주식회사 이노드
Application granted granted Critical
Publication of KR102187654B1 publication Critical patent/KR102187654B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • B64C2201/042
    • B64C2201/127
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Abstract

The present invention provides a crop cultivation information obtaining system, which includes: a control center generating a flight path in accordance with a lot of land formed in consideration of predetermined land information and take-off and landing points; and a low altitude unmanned aerial vehicle obtaining environmental information or low altitude crop images while performing low altitude flight along the flight path, wherein the control center analyses the low altitude crop images to obtain crop information and displays the crop information in accordance with a coordinate to generate a crop map.

Description

저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템{Low altitude drone and Crop Cultivating Information Acquisition System including the same}Low altitude drone and Crop Cultivating Information Acquisition System including the same}

본 발명은 농작물, 수목의 재배 면적 조사를 위한 방법 및 시스템에 관한 것으로서, 특히 드론을 이용하여 작물 재배 면적, 작물 종류 등의 정보를 획득하기 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for surveying the cultivation area of crops and trees, and in particular, to a method and system for acquiring information such as crop cultivation area and crop type using a drone.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.

지구 온난화에 따른 기상 이변, 경작지 용도 변경, 작목 갱신, 농법의 변화 및 경작의 규모화에 따른 작물 수급의 변동성이 커지면서 정밀한 농업 관측이 필요해지고 있다. 농업용지, 임업용지에서의 실제로 존재하는 작물, 수목의 현황을 파악하는 통계는 농산물, 임산물 등의 수급을 예상하고, 미래의 수급 계획을 수립하는데 기본적인 정보이다. 하지만, 기존의 방법들은 건축 기술 내지는 측량 기술 기반으로 공간 정보를 구축하는 방법에 국한되어 있어, 실제 현장에서의 식생을 파악하기 위한 자료로는 불충한 한계가 있다. 즉, 기존의 방식에 따를 때 현재의 식생 파악에 대한 정확한 정보를 제공하지 못하기 때문에, 이후의 수요 예측 역시 부정확하다는 한계가 있다.As the variability in the supply and demand of crops increases due to extreme weather, change of cropland use, crop renewal, changes in farming methods, and scale-up of cultivation due to global warming, precise agricultural observations are required. Statistics that grasp the current status of crops and trees that actually exist in agricultural land and forestry land are basic information for predicting the supply and demand of agricultural products and forest products and establishing future supply and demand plans. However, the existing methods are limited to the method of constructing spatial information based on building technology or surveying technology, and thus, there is insufficient limit as a data for grasping vegetation at the actual site. In other words, since it is not possible to provide accurate information on the current vegetation grasping when the existing method is followed, there is a limitation that the future demand forecast is also inaccurate.

종래에는 농촌경제연구원, 통계청 등의 기관에서, 농지, 산지의 식생에 대한 정보를 제공하였지만, 상술한 이유로 예측이 부정확한 이유가 있어, 특정 농작물의 공급이 너무 많아, 가격이 폭락하는 등 다양한 문제가 있었으며, 이는 수요예측의 베이스가 되는 토지 재배지 기본면적 자체가 잘못되었기 때문이다.In the past, institutions such as Rural Economic Research Institute and Statistics Korea provided information on vegetation in farmland and mountain areas, but there is a reason that the forecast is inaccurate for the above-described reasons, so there is too much supply of specific crops and various problems such as a plunge in prices. This is because the basic area of land and cultivation area itself, which is the basis of demand forecasting, was wrong.

본 발명의 실시예들은 상기한 문제점을 해결하기 위해 안출된 것으로서, 저고도 드론을 활용하여 관측 정확도를 높이고, 재배 면적 출하 변동 상황 및 기상 이변에 대한 빠르고 신속한 상황파악으로 수급 예측력을 강화시키는데 발명의 주된 목적이 있다.The embodiments of the present invention have been devised to solve the above problems, and use a low-altitude drone to increase observation accuracy, and to reinforce the supply and demand prediction power by quickly and quickly grasping the cultivation area shipment fluctuations and extreme weather conditions. There is a purpose.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Still other objects, not specified, of the present invention may be additionally considered within the range that can be easily deduced from the following detailed description and effects thereof.

본 실시예의 일 측면에 의하면, 본 발명은 기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 비행 경로를 생성하는 관제 센터 및 상기 비행 경로에 따라 저고도 비행을 수행하며 환경 정보 또는 저고도 작물 영상을 획득하는 저고도 무인 비행체를 포함하고, 상기 관제 센터는 상기 저고도 작물 영상을 분석하여 작물 정보를 획득하고, 상기 작물 정보를 좌표에 따라 표시하여 작물 지도를 생성하는 것을 특징으로 하는 작물 재배 정보 획득 시스템을 제안한다.According to an aspect of the present embodiment, the present invention provides a control center that generates a flight path according to a lot formed in consideration of preset terrain information, take-off point and landing point, and performs low altitude flight according to the flight path, and provides environmental information or low altitude. Crop cultivation information, comprising a low-altitude unmanned aerial vehicle that acquires a crop image, wherein the control center analyzes the low-altitude crop image to obtain crop information, and displays the crop information according to coordinates to generate a crop map. Propose an acquisition system.

본 발명의 또 다른 실시예에 따르면, 본 발명은 기 설정된 지형 정보를 고려하여 생성된 비행 경로를 따라 비행을 가능하게 하는 구동력을 발생시키는 구동부, 주변의 환경 정보를 획득하는 센서부, 상기 비행 경로에 따라 저고도 비행을 수행하며 저고도 작물 영상을 획득하는 영상 획득부, 상기 저고도 작물 영상을 분석하여 작물 정보를 획득하고, 상기 작물 정보를 좌표에 따라 표시하여 작물 지도를 생성하는 프로세서 및 상기 획득된 저고도 영상 또는 상기 프로세서에서의 연산 결과를 외부의 통신 가능한 장치로 전달하기 위한 통신부를 포함하는 저고도 무인 비행체를 제안한다.According to another embodiment of the present invention, the present invention provides a driving unit that generates a driving force that enables flight along a flight path generated in consideration of preset terrain information, a sensor unit that acquires surrounding environment information, and the flight path. An image acquisition unit that performs a low altitude flight and acquires a low altitude crop image according to, a processor that obtains crop information by analyzing the low altitude crop image, and displays the crop information according to coordinates to generate a crop map, and the obtained low altitude A low-altitude unmanned aerial vehicle including a communication unit for transmitting an image or an operation result in the processor to an external communication device is proposed.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 저고도 비행을 수행하는 저고도 무인 비행체가 저고도에서 획득된 저고도 작물 영상을 획득할 수 있으며, 획득된 저고도 작물 영상을 이용하면 작물의 종류, 작물의 성상에 대한 영상처리가 가능한 효과가 있다.As described above, according to the embodiments of the present invention, the present invention enables a low-altitude unmanned aerial vehicle performing a low-altitude flight to obtain a low-altitude crop image obtained at a low altitude, and using the obtained low-altitude crop image , There is an effect that image processing is possible for the characteristics of crops.

또한. 본 발명의 실시예들에 의하면, 본 발명은 인공신경망을 통해 이렇게 획득된 저고도 작물 영상에 대한 객체 인식이 가능하므로, 필지 별 작물의 현황을 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.In addition. According to the embodiments of the present invention, the present invention enables object recognition of the low-altitude crop image obtained in this way through an artificial neural network, so that the current status of crops for each lot can be more accurately identified compared to the existing technology.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effect described in the following specification expected by the technical features of the present invention and the provisional effect thereof are treated as described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 시스템을 개략적으로 나타내는 블록도이다.
도 2 및 도 3은 발명의 일 실시예에 따른 저고도 무인 비행체를 나타내는 예시도이다.
도 4 내지 도 9는 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 나타내는 예시도이다.
도 10은 발명의 일 실시예에 따른 저고도 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.
도 11은 발명의 일 실시예에 따른 저고도 지형 비행을 통한 정사 영상 추출을 나타내는 도면이다.
도 12 내지 도 14는 본 발명의 일 실시예에 따른 작물 재배 정보 획득을 위해 작물 재배 정보 획득 시스템이 수행하는 과정을 나타내는 흐름도이다.
도 15는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.
도 16은 도 15을 통해 결정된 생성자를 통해 이미지 분류를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.
1 is a block diagram schematically showing a system for obtaining crop cultivation information according to an embodiment of the present invention.
2 and 3 are exemplary views showing a low-altitude unmanned aerial vehicle according to an embodiment of the present invention.
4 to 9 are exemplary diagrams illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.
10 is a view showing a state of a crop by using an image acquired through a low-altitude drone flight according to an embodiment of the present invention.
11 is a diagram illustrating extraction of an orthogonal image through low-altitude terrain flight according to an embodiment of the present invention.
12 to 14 are flowcharts illustrating a process performed by the crop cultivation information acquisition system to acquire crop cultivation information according to an embodiment of the present invention.
15 is a block diagram illustrating a learning concept for crop analysis performed in an AI server according to an embodiment of the present invention.
16 is a conceptual diagram illustrating a method of generating an input image for image classification through a generator determined through FIG. 15.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments to be posted below, but may be implemented in a variety of different forms, and only these embodiments make the posting of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes a plurality of expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including ordinal numbers, such as second and first, may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a second component may be referred to as a first component, and similarly, a first component may be referred to as a second component. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 발명은 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템에 관한 것이다.The present invention relates to a low-altitude unmanned aerial vehicle and a crop cultivation information acquisition system including the same.

작물 재배 정보 획득 시스템(10)은 저고도 무인 비행체(100)와 관제 센터(200)를 활용하여 빠르고 정확한 재배 면적 파악이 가능하다. 작물 재배 정보 획득 시스템(10)은 빠르고, 정확한 관측이 가능하며, 경제적 효과를 가져올 수 있으며, 관측의 양과 질을 높일 수 있다. 이에 따라 농민의 소득을 보장할 수 있으며, 소비자 가격이 안정될 수 있으며, 농업 관측 정확도를 제고하고 수급 예측력을 강화할 수 있다.The crop cultivation information acquisition system 10 can quickly and accurately determine the cultivation area using the low-altitude unmanned aerial vehicle 100 and the control center 200. The crop cultivation information acquisition system 10 enables fast and accurate observations, can bring economic effects, and can increase the quantity and quality of observations. Accordingly, farmers' income can be guaranteed, consumer prices can be stabilized, agricultural observation accuracy can be improved, and supply and demand forecasting power can be strengthened.

여기서, 빠른 관측은 작목 전환 또는 수급 대비를 위한 빠른 결과물을 도출할 수 있으며, 정확한 관측은 부정확한 관측 데이터의 고도화와 현대화가 가능하고, 경제적 관측은 관측 소요 비용과 관측 오차로 인한 경제 피해가 감소하는 효과가 있다. 또한, 관측의 양과 질은 기상재해, 병해충, 식생지수 등의 다양한 정보를 제공할 수 있는 효과가 있다.Here, rapid observation can derive rapid results for conversion of crops or supply and demand, and accurate observation enables the advancement and modernization of inaccurate observation data, and economic observation reduces the cost of observation and economic damage caused by observation errors. There is an effect. In addition, the quantity and quality of observations has the effect of providing various information such as meteorological disasters, pests, and vegetation index.

작물 재배 정보 획득 시스템(10)은 고랭지 작물에 대해 조사할 수 있으며, 드론을 통해 영상을 획득하여 신속하고 정확한 작물 재배 면적 및 생육을 관측할 수 있다. 작물 재배 정보 획득 시스템(10)은 해발 850m 이상의 지역으로 지형이 험준하며 일교차가 심한 지역에서도 관측할 수 있다.The crop cultivation information acquisition system 10 may investigate high altitude crops, and acquire images through a drone to quickly and accurately observe crop cultivation area and growth. The crop cultivation information acquisition system 10 can be observed in an area of 850 m or more above sea level, where the topography is rugged and the daily temperature difference is severe.

본 발명의 일 실시예에 따르면, 작물 재배 정보 획득 시스템(10)은 드론 촬영을 통한 고랭지 배추 재배 면적의 시기별, 순차적 변화 양상을 파악하여 표출할 수 있다. 드론을 활용하여 획득한 이미지의 빠르고 정확한 처리와 지리정보시스템(GIS, Geographic Information System) 기반의 시계열 변화관리를 통해 관측업무의 효율성을 향상시키고 농업 관측업무 전반에 드론 영상 데이터를 효과적으로 활용할 수 있다. 여기서, 작물을 나타내는 고랭지 배추는 일 예로서, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation information acquisition system 10 may grasp and display a change pattern of highland cabbage cultivation area by time and sequentially through drone photography. Through fast and accurate processing of images acquired using drones and time series change management based on a geographic information system (GIS), the efficiency of observation work can be improved, and drone image data can be effectively utilized in overall agricultural observation work. Here, the highland cabbage representing the crop is an example and is not necessarily limited thereto.

지리정보시스템(GIS, Geographic Information System)은 지리정보 즉 공간적으로 분포하는 정보를 처리, 관리하는 정보시스템의 일종이다. 여기서 공간적으로 분포하는 정보 즉 지리정보는 보통 지도의 형태로 나타나며, 지리정보시스템은 이러한 지리정보를 입력, 저장, 처리, 분석, 관리, 출력 등을 할 수 있는 정보시스템을 의미한다. GIS는 농가 지도(Farm Map) 기반의 필지 구분 및 면적 도출할 수 있다. 여기서, Farm Map은 필지 별 경계선을 추출할 때 이용될 수 있다.Geographic Information System (GIS) is a type of information system that processes and manages geographical information, that is, spatially distributed information. Here, spatially distributed information, that is, geographic information, is usually displayed in the form of a map, and the geographic information system refers to an information system that can input, store, process, analyze, manage, and output such geographic information. GIS can derive parcel division and area based on Farm Map. Here, the Farm Map may be used when extracting a boundary line for each lot.

따라서, 작물 재배 정보 획득 시스템(10)은 재배 면적의 시계열적 변화를 관측할 수 있으며, 드론을 통한 재배 면적, 출하 변동 관측의 경제성 및 효용성을 확인할 수 있고, 실시간 영상 파악으로 변동성 파악이 가능하며, 노지 작물을 효과적으로 관측하고, 고도화를 위한 병해충, 기상 피해 상황 파악 등 생육 판단의 기초 데이터를 선제적으로 확보할 수 있다.Therefore, the crop cultivation information acquisition system 10 can observe the time-series change of the cultivation area, can check the economical efficiency and effectiveness of observing the cultivation area and shipment fluctuation through a drone, and can identify variability through real-time image identification. , It is possible to preemptively secure basic data for growth judgment, such as effectively observing open field crops, and grasping pests and weather damage conditions for advancement.

도 1은 본 발명의 일 실시예에 따른 작물 재배 정보 획득 시스템을 개략적으로 나타내는 블록도이다.1 is a block diagram schematically showing a system for obtaining crop cultivation information according to an embodiment of the present invention.

도 1을 참조하면, 작물 재배 정보 획득 시스템(10)은 저고도 무인 비행체(100) 및 관제 센터(200)를 포함한다. 작물 재배 정보 획득 시스템(10)은 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 1, the crop cultivation information acquisition system 10 includes a low-altitude unmanned aerial vehicle 100 and a control center 200. The crop cultivation information acquisition system 10 may omit some of the various components exemplarily illustrated in FIG. 1 or may additionally include other components.

본 발명의 일 실시예에 따르면, 작물 재배 정보 획득 시스템(10)은 저고도 무인 비행체(100)를 통해 비행을 실행하여 정보를 생산할 수 있다. 저고도 무인 비행체(100)는 이미지, 열 영상, 초분광 영상 등을 획득하여 관제 센터(200)에 전송할 수 있다. 관제 센터(200)는 저고도 무인 비행체(100)의 비행경로를 생성하고 실증하고, 저고도 무인 비행체(100)에서 생산된 정보를 취합하며, 빅데이터를 가공하여 AI 작물 분류, 재배, 수확 현황 도출, 시각화, GIS 기반 분석 표출 등을 수행하고, 공간 정보를 활용하여 비행 경로, 수집방법 개발(DSM 3D 지형 입력, Farm Map 입력) 및 조사 영역, 전송 데이터 송수신 등을 조사원이 관리할 수 있다. 또한, 작물 재배 정보 획득 시스템(10)은 관제 센터(200)의 경로 제공, 수집, 저장, 분석 등을 저고도 무인 비행체(100), 공공기관, 연구 기관, 기업, 학계, 타산업군 등에 제공할 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the crop cultivation information acquisition system 10 may generate information by performing a flight through the low-altitude unmanned aerial vehicle 100. The low-altitude unmanned aerial vehicle 100 may acquire an image, a thermal image, a hyperspectral image, and the like and transmit it to the control center 200. The control center 200 generates and demonstrates the flight path of the low-altitude unmanned aerial vehicle 100, collects information produced by the low-altitude unmanned aerial vehicle 100, and processes big data to classify AI crops, cultivate, and derive the current state of harvest. Visualization, GIS-based analysis and expression, etc. can be performed, and the flight path, collection method development (DSM 3D terrain input, Farm Map input), survey area, transmission data transmission and reception, etc. can be managed by using spatial information. In addition, the crop cultivation information acquisition system 10 can provide the route provision, collection, storage, and analysis of the control center 200 to the low-altitude unmanned aerial vehicle 100, public institutions, research institutions, companies, academia, and other industries. However, it is not necessarily limited thereto.

저고도 무인 비행체(100)는 비행 경로에 따라 저고도 비행을 수행하며 환경 정보 또는 저고도 작물 영상을 획득한다. 여기서, 비행 경로는 저고도 무인 비행체(100)가 저고도 비행을 수행하며 환경 정보 또는 저고도 작물 영상을 획득하기 위해 비행하는 경로로서, 이륙 지점과 착륙 지점을 고려하여 비행하는 경로를 생성할 수 있다.The low-altitude unmanned aerial vehicle 100 performs low-altitude flight according to the flight path and acquires environmental information or low-altitude crop images. Here, the flight path is a path through which the low-altitude unmanned aerial vehicle 100 performs low-altitude flight and obtains environmental information or a low-altitude crop image, and a path for flying in consideration of a take-off point and a landing point may be generated.

저고도 무인 비행체(100)는 센서부(110), 구동부(120), 영상 획득부(130), 프로세서(140) 및 통신부(150)를 포함한다. 저고도 무인 비행체(100)는 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.The low-altitude unmanned aerial vehicle 100 includes a sensor unit 110, a driving unit 120, an image acquisition unit 130, a processor 140, and a communication unit 150. The low-altitude unmanned aerial vehicle 100 may omit some components from among the various components exemplarily illustrated in FIG. 1 or may additionally include other components.

센서부(110)는 주변의 상기 환경 정보를 획득할 수 있다.The sensor unit 110 may acquire the surrounding environment information.

센서부(100)는 전방에 위치하는 장애물을 감지하는 전방 센서(112), 하방에 위치하는 장애물을 감지하는 하방 센서(114) 초음파를 통해 주변의 장애물을 감지하는 초음파 센서(116) 및 근접하는 장애물을 감지하는 근접 센서(118)를 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 여기서, 장애물은 드론의 이동을 저지하고 지연시키는 것을 나타낸다.The sensor unit 100 includes a front sensor 112 that detects an obstacle located in front, a lower sensor 114 that detects an obstacle located below, an ultrasonic sensor 116 that detects surrounding obstacles through ultrasonic waves, and It may include a proximity sensor 118 for detecting an obstacle, but is not limited thereto. Here, obstacles represent blocking and delaying the movement of the drone.

센서부(100)는 전방 센서(112), 하방 센서(114), 초음파 센서(116) 및 근접 센서(118)에서 감지하는 장애물 정보를 적어도 하나 포함하여 환경 정보를 획득할 수 있다.The sensor unit 100 may acquire environmental information including at least one of obstacle information detected by the front sensor 112, the lower sensor 114, the ultrasonic sensor 116, and the proximity sensor 118.

구동부(120)는 저고도 무인 비행체(100)의 비행을 가능하게 하는 구동력을 발생시킬 수 있다.The driving unit 120 may generate a driving force that enables the flight of the low-altitude unmanned aerial vehicle 100.

영상 획득부(130)는 비행 경로를 따라 이동하며 저고도 작물 영상을 획득할 수 있다.The image acquisition unit 130 may move along the flight path and acquire a low-altitude crop image.

프로세서(140)는 환경 정보와 상기 획득된 저고도 작물 영상을 고려하여 비행 경로를 재설정하고, 상기 구동부, 상기 영상 획득부를 제어할 수 있다.The processor 140 may reset a flight path in consideration of environmental information and the acquired low-altitude crop image, and control the driving unit and the image acquisition unit.

프로세서(140)는 획득된 환경 정보에 따라 감지된 장애물이 비행 경로에 위치하는 경우, 감지된 장애물의 개수 및 크기를 고려하여 다음 지점으로 이동하기 위한 이동 경로를 재분석하여 비행 경로를 재설정하여 재설정 경로를 생성하고, 재설정 경로를 관제 센터(200)에 전송할 수 있다.When an obstacle detected according to the acquired environmental information is located in the flight path, the processor 140 re-analyzes the movement path for moving to the next point in consideration of the number and size of the detected obstacles, and resets the flight path to reset the path. And may transmit the reset path to the control center 200.

구체적으로, 재설정 경로는 관제 센터(200)에서 생성된 비행 경로를 따라서 저고도 무인 비행체(100)가 이동하면서 주변 환경 정보를 획득하고, 획득한 환경 정보를 기반으로 최적의 비행 경로를 재설정하여 생성될 수 있다. 여기서, 환경 정보는 장애물의 개수, 장애물의 크기, 날씨 등과 같이 저고도 무인 비행체(100)가 비행함에 있어 방해되는 요소를 포함할 수 있다.Specifically, the reset path is generated by acquiring surrounding environment information while the low-altitude unmanned aerial vehicle 100 moves along the flight path generated by the control center 200, and resetting the optimal flight path based on the acquired environment information. I can. Here, the environmental information may include elements that interfere with the flight of the low-altitude unmanned aerial vehicle 100, such as the number of obstacles, the size of the obstacle, and weather.

프로세서(140)는 직하방을 향하도록 설정된 영상 획득부(130)에서 획득된 제1 저고도 작물 영상을 분석하여 1차 작물 인식을 수행할 수 있다. 프로세서(140)는 1 차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 직하방을 향하도록 설정된 영상 획득부(130)의 각도를 기 설정된 각도로 조절하여 획득된 제2 저고도 작물 영상을 전달받아 분석하여 2차 작물 인식을 수행할 수 있다. 이때, 프로세서(140)는 2 차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 제1 저고도 작물 영상 및 제2 저고도 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 생성된 합성 영상을 분석하여 3차 작물 인식을 수행한다.The processor 140 may perform primary crop recognition by analyzing the first low-altitude crop image acquired by the image acquisition unit 130 set to face directly downward. When the crop information cannot be obtained through the primary crop recognition, the processor 140 receives the second low altitude crop image obtained by adjusting the angle of the image acquisition unit 130 set to face directly downward to a preset angle. By analyzing, secondary crop recognition can be performed. At this time, the processor 140 generates a composite image by synthesizing the first low-altitude crop image and the second low-altitude crop image through a hostile generation neural network (GAN) when it is not possible to obtain crop information through secondary crop recognition. By analyzing the synthesized image, the third crop recognition is performed.

본 발명의 일 실시예에 따르면, 프로세서(140)는 3차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 제1 저고도 작물 영상, 제2 저고도 작물 영상 및 합성 영상을 관제 센터(200)로 전송하고, 저고도 무인 비행체가 다음 지점으로 이동할 수 있다.According to an embodiment of the present invention, the processor 140 transmits the first low-altitude crop image, the second low-altitude crop image, and the composite image to the control center 200 when crop information cannot be obtained through the third crop recognition. And, the low-altitude unmanned aerial vehicle can move to the next point.

여기서, 관제 센터(200)는 제1 저고도 작물 영상, 제2 저고도 작물 영상 및 합성 영상을 분석하여 작물 인식을 수행하고 작물 인식이 수행되지 않을 경우, 재촬영 신호를 저고도 무인 비행체(100)에 전송할 수 있다.Here, the control center 200 performs crop recognition by analyzing the first low-altitude crop image, the second low-altitude crop image, and the composite image, and transmits a re-taking signal to the low-altitude unmanned aerial vehicle 100 when crop recognition is not performed. I can.

통신부(150)는 획득된 환경 정보, 저고도 작물 영상 또는 작물 정보를 관제 서버(200)로 전달하고, 비행 경로를 전달 받을 수 있다.The communication unit 150 may transmit the obtained environmental information, low-altitude crop image or crop information to the control server 200 and receive a flight path.

관제 센터(200)는 기 설정된 지형 정보에 따른 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 비행 경로를 생성한다.The control center 200 generates a flight path according to a lot formed in consideration of a take-off point and a landing point according to preset terrain information.

관제 센터(200)는 저고도 작물 영상을 분석하여 작물 정보를 획득하고, 작물 정보를 좌표에 따라 표시하여 작물 지도를 생성한다.The control center 200 analyzes low-altitude crop images to obtain crop information, and displays crop information according to coordinates to generate a crop map.

관제 센터(200)는 경로 설정부(210) 및 작물 검출부(220)를 포함한다. 작물 검출부(220)는 영상 분석부(222), 면적 산출부(224), 좌표 추출부(226) 및 지도 생성부(228)를 포함한다. 관제 센터(200)는 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.The control center 200 includes a route setting unit 210 and a crop detection unit 220. The crop detection unit 220 includes an image analysis unit 222, an area calculation unit 224, a coordinate extraction unit 226, and a map generation unit 228. The control center 200 may omit some of the various components exemplarily illustrated in FIG. 1 or may additionally include other components.

경로 설정부(210)는 필지에 대한 필지 정보를 포함하는 기 설정된 지형 정보를 기반으로 필지의 대표점을 추출하고, 필지의 대표점을 고려하여 저고도 무인 비행체(100)의 비행 경로를 설정할 수 있다.The route setting unit 210 extracts a representative point of the parcel based on preset topographic information including parcel information about the parcel, and may set the flight path of the low-altitude unmanned aerial vehicle 100 in consideration of the representative point of the parcel. .

경로 설정부(210)는 필지의 중심점을 나타내는 추출된 대표점에 따라 비행 궤적을 고려하여 비행 경로를 생성할 수 있다. 필지 정보는 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함한다.The path setting unit 210 may generate a flight path in consideration of the flight trajectory according to the extracted representative point indicating the center point of the parcel. The lot information includes divisional boundary information between lots and elevation information of areas included in the lot.

작물 검출부(220)는 비행 경로에 따라 획득된 저고도 작물 영상을 분석하여 작물 지도를 생성할 수 있다.The crop detection unit 220 may generate a crop map by analyzing the low-altitude crop image acquired according to the flight path.

영상 분석부(222)는 저고도 작물 영상을 분석하여 작물을 구분하여 작물 정보를 생성할 수 있다.The image analysis unit 222 may generate crop information by analyzing low-altitude crop images and classifying crops.

면적 산출부(224)는 비행 경로에 따른 총 면적 중 작물 정보에 따른 재배 면적을 산출할 수 있다.The area calculation unit 224 may calculate a cultivation area according to crop information among the total area according to the flight path.

좌표 추출부(226)는 작물 정보의 좌표를 추출할 수 있다.The coordinate extraction unit 226 may extract coordinates of crop information.

지도 생성부(228)는 비행 경로, 작물 정보, 재배 면적 및 좌표를 이용하여 작물 지도를 생성할 수 있다.The map generator 228 may generate a crop map using flight paths, crop information, cultivation area, and coordinates.

도 2 및 도 3은 발명의 일 실시예에 따른 저고도 무인 비행체를 나타내는 예시도이다.2 and 3 are exemplary views showing a low-altitude unmanned aerial vehicle according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 저고도 무인 비행체의 상면 방향의 구조를 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 저고도 무인 비행체의 배면 방향의 구조를 나타낸 도면이다.FIG. 2 is a view showing the structure of a low-altitude unmanned aerial vehicle according to an embodiment of the present invention, and FIG. 3 is a view showing a structure of a rear-facing structure of a low-altitude unmanned aerial vehicle according to an embodiment of the present invention.

본 실시예의 저고도 무인 비행체(100)는 드론, 소형 헬리콥터, 비행기 등으로 구현될 수 있으며, 구체적으로, 사람이 탑승하여 조종하지 않고, 주로 원격 조종으로 움직이는 비행체로 구현될 수 있다.The low-altitude unmanned aerial vehicle 100 of the present embodiment may be implemented as a drone, a small helicopter, or an airplane, and specifically, it may be implemented as a vehicle that moves mainly by remote control without a person boarding and controlling it.

저고도 무인 비행체(100)는 하우징 본체와 비행 유닛으로 구현될 수 있다.The low-altitude unmanned aerial vehicle 100 may be implemented as a housing body and a flight unit.

하우징 본체는 저고도 무인 비행체(100)의 바디 골격을 이룬다.The housing body forms the body skeleton of the low-altitude unmanned aerial vehicle 100.

비행 유닛은 아암부와 날개부로 구현될 수 있으며, 도 2 및 도 3에 도시된 바와 같이 네쌍이나 여섯쌍 등으로 이루어질 수 있다. 비행 유닛은 저고도 무인 비행체(100)의 구동부(120)에 포함될 수 있다.The flight unit may be implemented with an arm portion and a wing portion, and may be formed of four or six pairs, as shown in FIGS. 2 and 3. The flight unit may be included in the driving unit 120 of the low-altitude unmanned aerial vehicle 100.

구동부(120)는 저고도 무인 비행체(100)에 포함되는 각종 액추에이터를 구동시킬 수 있다. 여기서, 액추에이터는 모터 구동, 기어 구동 등을 통해 저고도 무인 비행체(100)에 필요한 동작을 수행하는 장치로서, 예를 들어 비행 유닛의 프로펠러(122a, 122b, 122c, 122d)를 구동하기 위한 구동 모터가 있다. 구동부(120)는 이를 구동시키기 위한 제어 신호를 생성할 수 있다.The driving unit 120 may drive various actuators included in the low-altitude unmanned aerial vehicle 100. Here, the actuator is a device that performs the operation required for the low-altitude unmanned aerial vehicle 100 through motor drive, gear drive, etc., for example, a drive motor for driving the propellers 122a, 122b, 122c, 122d of the flight unit have. The driving unit 120 may generate a control signal for driving it.

따라서, 구동부(120)는 관제 센터(200)에서 전송된 비행 경로를 따라 이동하도록 구동시킬 수 있다.Accordingly, the driving unit 120 may be driven to move along the flight path transmitted from the control center 200.

프로세서(140)는 저고도 무인 비행체(100)가 획득한 영상 신호의 처리를 통해 작물을 인식할 수 있다.The processor 140 may recognize crops through processing of the image signal acquired by the low-altitude unmanned aerial vehicle 100.

통신부(150)는 외부의 서버와의 통신을 통해 획득된 영상을 외부로 전달하거나 또는 프로세서(140)에서 판단된 결과 정보를 외부로 전달하기도 하고, 외부 조작부로부터의 제어 신호를 수신하는 기능을 할 수 있다.The communication unit 150 transmits an image obtained through communication with an external server to the outside or transmits the result information determined by the processor 140 to the outside, and receives a control signal from an external operation unit. I can.

저고도 무인 비행체(100)는 메모리(미도시)와 저장부(미도시)를 더 포함할 수 있다. 메모리는 프로세서(140)에서 처리된 신호를 임시로 저장할 수 있다. 저장부는 메모리에 저장된 정보를 저장하는 비휘발성 보조 기억 장치이다.The low-altitude unmanned aerial vehicle 100 may further include a memory (not shown) and a storage unit (not shown). The memory may temporarily store the signal processed by the processor 140. The storage unit is a nonvolatile auxiliary storage device that stores information stored in the memory.

도 3을 참조하면, 저고도 무인 비행체(100)는 배면부에 센서부(110) 및 영상 획득부(130)를 포함한다.Referring to FIG. 3, the low-altitude unmanned aerial vehicle 100 includes a sensor unit 110 and an image acquisition unit 130 on a rear surface thereof.

영상 획득부(130)는 카메라(132) 및 짐벌(134)을 포함한다.The image acquisition unit 130 includes a camera 132 and a gimbal 134.

카메라(132)는 저고도 비행을 통해 작물의 영상을 획득한다.The camera 132 acquires an image of a crop through low altitude flight.

짐벌(134)은 저고도 무인 비행체(100)와 카메라(132)를 연결하며, 방향축에 대해 회전할 수 있다. 짐벌(134)은 카메라를 파지하며, 카메라의 주시 방향을 제어한다. 여기서, 프로세서(140)는 짐벌(134)의 구동을 제어하여 결과적으로 카메라(132)의 주시 방향을 제어할 수 있다.The gimbal 134 connects the low-altitude unmanned aerial vehicle 100 and the camera 132 and can rotate about a direction axis. The gimbal 134 grips the camera and controls the gaze direction of the camera. Here, the processor 140 may control the driving of the gimbal 134 and consequently, the gaze direction of the camera 132.

주로 카메라(132)는 직하방을 향하고 있지만, 지상영상만으로는 작물의 구분이 되지 않는 경우, 옥수수와 같은 작물의 경우 측방 40 ~ 50도의 방향의 영상을 획득하는 것이 필요하다.Mainly, the camera 132 faces directly downward, but when crops cannot be distinguished by only the ground image, it is necessary to acquire an image in a direction of 40 to 50 degrees lateral to a crop such as corn.

짐벌(134)은 3축 짐벌 구조를 형성하는 것이 바람직하며, 난기류와 강풍에서 비행 시 흔들림 없이 목표하는 방향으로 영상을 촬영할 수 있다.It is preferable that the gimbal 134 has a 3-axis gimbal structure, and it is possible to shoot an image in a target direction without shaking when flying in turbulence and strong winds.

짐벌(134)이 목표하는 각도는 저고도 무인 비행체(100)의 프로세서(140)에서 설정될 수 있다. 여기서, 목표하는 각도는 직하방을 바라보도록 설정할 수 있으며, 저고도 무인 비행체(100)를 기준으로 180도로 구현될 수 있다.The target angle of the gimbal 134 may be set by the processor 140 of the low-altitude unmanned aerial vehicle 100. Here, the target angle may be set to look directly underneath, and may be implemented at 180 degrees based on the low-altitude unmanned aerial vehicle 100.

프로세서(140)는 목표 각도가 설정되면, 저고도 무인 비행체(100)가 외부 충격을 받더라도 설정된 각도가 변형되지 않도록 지속적으로 각도를 보정할 수 있다. 예를 들어, 목표 각도는 직하방을 바라보는 각도로 180도로 설정되지만, 저고도 무인 비행체(100)가 좌 또는 우측으로 치우쳐지는 경우, 180도 보다 작거나 커질 수 있으며, 카메라(132)가 직하방을 바라보도록 180도에서 좌 또는 우측으로 치우쳐지는 각도를 더 추가하여 보정할 수 있다.When the target angle is set, the processor 140 may continuously correct the angle so that the set angle is not deformed even if the low-altitude unmanned aerial vehicle 100 receives an external impact. For example, the target angle is set to 180 degrees as an angle looking directly below, but when the low-altitude unmanned aerial vehicle 100 is skewed to the left or right, it may be smaller or larger than 180 degrees, and the camera 132 is directly below It can be corrected by adding an angle that is skewed to the left or right at 180 degrees to look at.

구체적으로, 프로세서(140)는 영상 획득부(130)에서 획득한 저고도 작물 영상을 처리하여 1차적으로 작물 인식을 수행하고, 작물 인식이 되지 않을 경우, 직하방을 바라보는 상기 영상 획득부(130)를 기 설정된 각도로 조절하여 저고도 작물 영상을 획득한 후 2차적으로 작물 인식을 수행한다. 이때, 프로세서(140)는 영상 획득부(130)의 각도를 순차적으로 조절하여 작물 인식을 수행하고, 작물이 인식되지 않을 경우 관제 센터(200)로 저고도 작물 영상을 보내 재확인하도록 한다. 이때, 관제 센터(200)에서도 저고도 작물 영상에 따른 작물 판독이 되지 않을 경우 추가 촬영을 위한 재촬영 신호를 저고도 무인 비행체(100)로 전송하여 해당 필지를 재촬영할 수 있다.Specifically, the processor 140 primarily performs crop recognition by processing the low-altitude crop image acquired by the image acquisition unit 130, and when the crop is not recognized, the image acquisition unit 130 looking directly below. ) Is adjusted to a preset angle to acquire low-altitude crop images, and then crop recognition is performed secondarily. At this time, the processor 140 performs crop recognition by sequentially adjusting the angle of the image acquisition unit 130, and if the crop is not recognized, sends a low-altitude crop image to the control center 200 for reconfirmation. At this time, when the crop is not read according to the low-altitude crop image even in the control center 200, a re-photographing signal for additional photographing may be transmitted to the low-altitude unmanned aerial vehicle 100 to retake the parcel.

저고도 무인 비행체(100)는 카메라(132)가 직하방을 바라보는 방향에서 기 설정된 각도 만큼 움직이는 경우에 현재 위치에서 저고도 작물 영상을 촬영하거나, 일정 거리 이동하여 저고도 작물 영상을 촬영할 수 있다.The low-altitude unmanned aerial vehicle 100 may capture a low-altitude crop image from a current position or a low-altitude crop image by moving a predetermined distance when the camera 132 moves by a preset angle in a direction facing directly below.

본 발명의 일 실시예에 따르면, 저고도 무인 비행체(100)는 카메라(132)가 직하방을 바라보는 방향에서 기 설정된 각도 만큼 움직이는 경우에, 기 설정된 각도에 비례하는 거리만큼 이동한 후 저고도 작물 영상을 촬영할 수 있다. 이때, 이동하는 경로는 저고도 무인 비행체(100)가 설정된 비행 경로를 고려하여 현재 위치에서 다음 경로로 이동하는 경로로 이동할 수 있다.According to an embodiment of the present invention, when the camera 132 moves by a preset angle in a direction looking directly below, the low altitude crop image after moving by a distance proportional to the preset angle. You can shoot. At this time, the moving path may move to a path moving from the current position to the next path in consideration of the flight path in which the low-altitude unmanned aerial vehicle 100 is set.

센서부(110)는 전방 센서(112), 하방 센서(114), 초음파 센서(116) 및 근접 센서(350)를 포함한다. The sensor unit 110 includes a front sensor 112, a lower sensor 114, an ultrasonic sensor 116, and a proximity sensor 350.

전방 센서(112)는 스테레오 방식의 영상 센서가 바람직하다. 전방 센서(112)는 스테레오 영상 처리를 통해 전방에 위치한 장애물을 감지하기 위한 스테레오 영상을 획득한다. 이후 설명하는 프로세서 내지는 영상처리를 위한 영상처리 프로세서에서의 영상 처리를 통해 전방의 장애물을 감지할 수 있다.The front sensor 112 is preferably a stereo image sensor. The front sensor 112 acquires a stereo image for detecting an obstacle located in front through stereo image processing. An obstacle in front may be detected through image processing in a processor described below or an image processing processor for image processing.

하방 센서(114)는 스테레오 방식의 영상 센서가 바람직하다. 하방 센서(114)는 스테레오 영상 처리를 통해 하방 방향에 위치한 장애물을 인식하기 위한 센서이다.The lower sensor 114 is preferably a stereo image sensor. The downward sensor 114 is a sensor for recognizing an obstacle located in a downward direction through stereo image processing.

초음파 센서(116)는 초음파 신호를 통해 주변의 장애물을 감지한다. 영상 센서는 야간 비행에는 부적합하지만, 초음파 센서(116)의 경우 야간에도 장애물을 감지할 수 있다.The ultrasonic sensor 116 detects surrounding obstacles through ultrasonic signals. The image sensor is not suitable for night flight, but the ultrasonic sensor 116 can detect obstacles even at night.

근접 센서(350)는 근접해있는 장애물을 검출할 수 있다. 예를 들어, 근접 센서(350)는 적외선 근접 센서가 바람직하며, 반드시 이에 한정되는 것은 아니다.The proximity sensor 350 may detect an obstacle in proximity. For example, the proximity sensor 350 is preferably an infrared proximity sensor, but is not limited thereto.

센서부(110) 및 영상 획득부(130)를 통해 획득하는 데이터들은 프로세서(140)에 전달 시 프로세서(140)에서 처리 가능한 신호로 변환될 수 있다.Data acquired through the sensor unit 110 and the image acquisition unit 130 may be converted into signals that can be processed by the processor 140 when transmitted to the processor 140.

도 4 내지 도 10은 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 나타내는 예시도이다.4 to 10 are exemplary diagrams illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.

도 4는 발명의 일 실시예에 따른 작물 재배 정보 획득 과정을 순서대로 나타내는 도면이다.4 is a diagram sequentially illustrating a process of obtaining crop cultivation information according to an embodiment of the present invention.

도 4의 (a)는 관제 센터(200)에서 비행 경로를 생성하는 과정이다. 이때, 생성된 비행 경로는 무인 비행체(100)로 전달된다. 예를 들어, 풍력 발전소가 위치하는 지역에서는 자기장 영향권을 벗어나도록 경로를 벗어나도록 설계하여 비행 경로를 설정할 수 있다. 이와 같이 비행 경로는 무인 비행체(100)의 비행에 방해가 될 수 있는 요소를 모두 고려하여 설정된다. 비행경로는 목적지의 평면좌표를 추출하고 고도변화값을 반영하여 3차원적인 비행경로를 자동 생성하도록 한다.4A is a process of generating a flight path in the control center 200. At this time, the generated flight path is transmitted to the unmanned aerial vehicle 100. For example, in an area where a wind power plant is located, a flight path can be set by designing to deviate from the path so that it is outside the sphere of influence of the magnetic field. In this way, the flight path is set in consideration of all factors that may interfere with the flight of the unmanned aerial vehicle 100. The flight route extracts the plane coordinate of the destination and automatically generates a three-dimensional flight route by reflecting the altitude change value.

도 4의 (b)는 무인 비행체(100)가 비행하며 영상 획득부(130)를 통해 저고도 작물 영상을 획득하는 과정이다. 이때, 비행은 도 4의 (a)에서 획득된 비행 경로를 따라 이동한다.4B is a process in which the unmanned aerial vehicle 100 flies and acquires a low altitude crop image through the image acquisition unit 130. At this time, the flight moves along the flight path obtained in (a) of FIG. 4.

무인 비행체(100)는 비행 경로를 따라 이동하며 20미터 내외의 저고도 작물 영상을 획득하고, 획득된 저고도 작물 영상을 실시간으로 관제 센터(200)로 전송한다.The unmanned aerial vehicle 100 moves along the flight path and acquires a low-altitude crop image of about 20 meters, and transmits the acquired low-altitude crop image to the control center 200 in real time.

도 4의 (c)는 저고도 작물 영상을 전달 받은 관제 센터(200)에서 작물을 판독하고, 작물의 좌표를 추출하는 과정이다. 이때, 작물 판독은 인공 지능(AI, Artificial Intelligence)을 통해 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다.4C is a process of reading a crop in the control center 200 receiving a low altitude crop image and extracting the coordinates of the crop. At this time, crop reading can be performed through artificial intelligence (AI), but is not limited thereto.

도 4의 (d)는 관제 센터(200)에서 정사 지도와 주제도를 제작하는 과정이다.4D is a process of producing an orthodox map and a theme map in the control center 200.

정사 지도는 지표면의 비고에 의해 발생하는 저고도 작물 영상 상의 각 점의 왜곡을 보정하여 동일 축척이 되도록 만든 지도이다. 구체적으로, 정사 지도는 저고도 무인 비행체(100)에서 획득한 저고도 작물 영상의 지형 기복에 의한 기하학적 왜곡을 보정하고 모든 물체를 수직으로 내려다보았을 때의 모습으로 변환한 도면이며, 좌표와 주기 포함한다.The orthogonal map is a map made to be the same scale by correcting the distortion of each point on the low-altitude crop image caused by remarks on the ground surface. Specifically, the orthogonal map is a diagram obtained by correcting the geometric distortion of the low-altitude crop image obtained from the low-altitude unmanned aerial vehicle 100 due to the undulations of the terrain and transforming it into a shape when all objects are viewed vertically, including coordinates and periods.

주제도는 특정한 주제를 표현할 것을 목적으로 작성된 지도이다. 본 발명의 일 실시예에 따르면, 주제도는 필지에 따라 작물이 구분되어 표시되는 지도일 수 있으며, 반드시 이에 한정되는 것은 아니다.Thematic map is a map created for the purpose of expressing a specific subject. According to an embodiment of the present invention, the subject map may be a map in which crops are divided and displayed according to parcels, but is not limited thereto.

작물 재배 정보 획득 시스템(10)은 저고도 무인 비행체(100)를 통해 촬영과 동시에 작물의 종류를 판독하고, 지도상에 표시하고 재배 면적을 도출할 수 있다. 이때, 작물 재배 정보 획득 시스템(10)은 실시간 재배 면적 제공으로 촬영과 결과 생성이 동시간대에 완성될 수 있으며, 시계열적 작물 재배 변동 상황 확인이 가능한 효과가 있다.The crop cultivation information acquisition system 10 reads the type of crop at the same time as photographing through the low-altitude unmanned aerial vehicle 100, displays it on a map, and derives the cultivation area. At this time, the crop cultivation information acquisition system 10 can complete shooting and result generation at the same time by providing a real-time cultivation area, and it is possible to check the cultivation fluctuations in time series.

저고도 무인 비행체(100)는 현장 조사, 이착륙 포인트를 설정하고, 비행 경로를 수신하고, 정사와 저고도를 촬영하고, 획득한 데이터들을 송신할 수 있다.The low-altitude unmanned aerial vehicle 100 may perform a field survey, set a take-off and landing point, receive a flight path, photograph a normal and low altitude, and transmit the acquired data.

관제 센터(200)는 GIS 데이터를 세팅하고, 최적의 비행 경로를 생성하고, 비행 경로를 전송하고, 데이터를 수신하고 관리할 수 있다. 또한, 관제 센터(200)는 저고도 작물 영상을 분석하여 작물을 구분하고, 재배 면적을 산출하고, 주제도 지도 GUI, AI 학습 데이터를 확보하고, GIS 공간정보를 입력하고, 데이터 서버를 관리할 수 있다.The control center 200 may set GIS data, generate an optimal flight path, transmit a flight path, and receive and manage data. In addition, the control center 200 analyzes low-altitude crop images to classify crops, calculates cultivation area, secures subject map GUI, AI learning data, inputs GIS spatial information, and manages data servers. have.

여기서, GUI는 사용자가 컴퓨터와 정보를 교환할 때, 그래픽을 통해 작업할 수 있는 환경을 말한다.Here, the GUI refers to an environment in which a user can work through graphics when exchanging information with a computer.

따라서, 작물 재배 정보 획득 시스템(10)은 산지 지형 조사의 특성을 반영하여 저고도 3D 지형비행을 통하여 작물 재배 현황과 생육 상태를 파악한다. 현장에서 보내온 실시간 이미지 데이터는 영상분석을 통하여 촬영 당일 주제 현황도를 생성할 수 있으며, 이는 농업관측의 목표와 부합하는 기술이며 실시간 영상전송 및 작물 분석 기술을 통해 관측업무의 적시성과 정확성을 확보할 수 있다.Accordingly, the crop cultivation information acquisition system 10 grasps the crop cultivation status and growth status through low-altitude 3D terrain flight by reflecting the characteristics of the mountainous terrain survey. Real-time image data sent from the field can be used to create a subject status map on the day of shooting through image analysis, which is a technology that matches the goal of agricultural observation, and through real-time image transmission and crop analysis technology, the timeliness and accuracy of observation work can be secured. I can.

본 발명의 일 실시예에 따르면, 저고도 무인 비행체(100)와 관제 센터(200)는 실시간으로 데이터를 주고 받으며, 4G, 5G 무선망 및 Wifi를 활용하여 이미지 즉시 전송이 가능하고, 데이터 삭제 전송기능을 수행할 수 있다.According to an embodiment of the present invention, the low altitude unmanned aerial vehicle 100 and the control center 200 exchange data in real time, and images can be immediately transmitted using 4G, 5G wireless networks and Wifi, and data deletion transmission function Can be done.

저고도 무인 비행체(100)는 획득한 저고도 작물 영상을 실시간으로 관제 센터(200)에 전송하고, 위도, 경도, 상태 정보, 짐벌 상태 정보 등을 추가적으로 전송할 수 있다.The low-altitude unmanned aerial vehicle 100 may transmit the obtained low-altitude crop image to the control center 200 in real time, and additionally transmit latitude, longitude, state information, and gimbal state information.

도 5는 발명의 일 실시예에 따른 저고도 무인 비행체의 고도와 촬영 면적의 관계를 설명하기 위한 개념도이다.5 is a conceptual diagram illustrating a relationship between an altitude and a photographing area of a low-altitude unmanned aerial vehicle according to an embodiment of the present invention.

종래에는 100~150m 상공에서 드론이 획득한 영상을 정사 보정 후 재배지의 임상 정보를 획득하였다. 본 발명의 경우, 10~30m 구간에서 영상을 촬영할 수 있으며, 특히 20m의 저고도 비행에서 획득된 영상을 이용하여 재배지의 임상 정보를 획득할 수 있다.Conventionally, after orthogonal correction of an image acquired by a drone from 100 to 150 m in the air, clinical information of the cultivation site was obtained. In the case of the present invention, an image may be taken in a section of 10 to 30 m, and in particular, clinical information of a cultivation area may be acquired using an image acquired in a low altitude flight of 20 m.

종래의 드론에 따른 150m 상공에서는 약 4~5cm의 해상도로 영상 판독이 가능하고, 해당 해상도로는 작물의 종류를 파악하는 것은 사실상 어렵다. 본 발명의 드론에 따른 20m 상공에서는 0.5cm급의 해상도로 영상 판독을 하므로, 작물의 종류 예측이 가능하다.According to a conventional drone, it is possible to read an image at a resolution of about 4 to 5 cm from 150 m above the air, and it is practically difficult to grasp the type of crop at that resolution. According to the drone of the present invention, since the image is read at a resolution of 0.5 cm in the air above 20 m, it is possible to predict the type of crop.

저고도 무인 비행체(100)는 10~30m 구간에서 영상을 촬영함에 따라 충분한 해상도를 형성하여 작물의 구분을 정확하게 할 수 있다.The low-altitude unmanned aerial vehicle 100 can accurately classify crops by forming a sufficient resolution by capturing an image in a range of 10 to 30 m.

도 5를 참조하면, 종래의 드론은 150m 고도에서 240m 폭의 면적을 촬영할 수 있는 반면, 본 발명의 드론은 20m 고도에서 32m폭의 면적을 촬영할 수 있다. 이에 따른 면적은 56배 차이가 나며, 높은 해상도 차이로 인해 본 발명의 드론에서 촬영한 이미지만으로 작물을 구분할 수 있으며, 생육 상태까지 확인할 수 있다.Referring to FIG. 5, while a conventional drone can capture an area of 240 m width at an altitude of 150 m, the drone of the present invention can capture an area of 32 m width at an altitude of 20 m. Accordingly, the area is 56 times different, and due to the high resolution difference, crops can be classified only with images taken by the drone of the present invention, and the growing state can be confirmed.

저고도 무인 비행체(100)는 저고도 정밀 촬영이 가능하며, 위험 회피가 가능하고, 작업시간을 단축시킬 수 있으며, 동일 궤적 비행이 가능하다. 또한, 비행 경로를 전송은 저고도 무인 비행체(100)의 비행 작업 능률이 향상되고, 저고도 무인 비행체(100) 및 관제센터(200)에서 경로 변경이 가능하고, 비행기록을 관리할 수 있는 효과가 있다.The low-altitude unmanned aerial vehicle 100 is capable of precise photographing at a low altitude, avoiding hazards, shortening working time, and flying in the same trajectory. In addition, the transmission of the flight path has the effect of improving the flight work efficiency of the low-altitude unmanned aerial vehicle 100, enabling the route change in the low-altitude unmanned aerial vehicle 100 and the control center 200, and managing the flight record. .

종래의 150미터 상공에서 촬영하는 경우 4센치 해상도는 나오나 작목 구분이 불가능하며, 본 발명에 따르면, 20m에서 촬영하기 때문에 작목의 구분이 가능하다. 각 필지의 공간 정보, 특히 위치 정보, 경계 정보는 농지정보를 관리하는 데이터베이스(GIS)로부터 용이하게 얻을 수 있다. 드론의 비행 높이는 10~30m, 특히 15~25m가 바람직한데, 위 높이는 예를 들어 전신주 내지는 전선등과의 충돌을 피하기 위함이며, 위 높이보다 더 높게 주행할 경우, 작물의 인식이 어려운 문제를 고려함이다.In the case of a conventional shooting from 150 meters above, the 4 cm resolution is available, but it is impossible to distinguish the crops. According to the present invention, since the shooting is taken at 20 m, it is possible to distinguish the crops. Spatial information of each lot, particularly location information and boundary information, can be easily obtained from a database (GIS) that manages farmland information. The flying height of the drone is preferably 10 to 30 m, especially 15 to 25 m, and the upper height is to avoid collisions with, for example, telephone poles or power lines, and when driving higher than the upper height, it is considered difficult to recognize crops. .

또한, 저고도 무인 비행체(100)는 안개, 돌풍, 저기압 등과 같은 기상 요소를 대비하여 저공 비행을 수행하고, 천재지변이 일어났을 경우, 수행 일정을 변경하고, 고온 피해에 대비하여 냉각 장치를 포함할 수 있다.In addition, the low-altitude unmanned aerial vehicle 100 performs low-flying in preparation for meteorological factors such as fog, gusts, low pressure, etc., changes the execution schedule, and includes a cooling device in preparation for high-temperature damage. I can.

도 6은 발명의 일 실시예에 따른 저고도 무인 비행체의 비행 경로를 나타내는 도면이다.6 is a view showing a flight path of a low-altitude unmanned aerial vehicle according to an embodiment of the present invention.

저고도 무인 비행체(100)는 이착륙 지점(102, 104)을 설정할 수 있다. 여기서, 이착륙 지점(102, 104)은 이륙과 착륙이 모두 가능한 지점이다.The low-altitude unmanned aerial vehicle 100 may set take-off and landing points 102 and 104. Here, the take-off and landing points 102 and 104 are points where both take-off and landing are possible.

이착륙 지점(102, 104)은 접근성이 용이한 곳으로, 전신주, 교목 등이 없고 시야 확보가 용이한 곳으로 설정할 수 있다. 또한, 주민차량 통행에 방해가 되지 않는 곳에 이착륙 지점이 설정될 수 있다.The take-off and landing points 102 and 104 are easily accessible, and can be set to a place where there are no telephone poles or arboretum and easy to secure visibility. In addition, take-off and landing points can be set in a place that does not interfere with the traffic of resident vehicles.

본 발명의 일 실시예에 따르면, 이착륙 지점(102, 104)은 2곳으로 설정하였으나 반드시 이에 한정되는 것은 아니며, 적어도 하나 이상의 이착륙 지점을 설정할 수 있다.According to an embodiment of the present invention, the take-off and landing points 102 and 104 are set to two, but are not limited thereto, and at least one take-off and landing point may be set.

도 6을 참조하면, 저고도 무인 비행체(100)는 복수의 서브 영역을 비행하며 저고도 작물 영상을 획득할 수 있다. 이때, 서브 영역은 분할될 수 있으며, 이는 면적, 고도차 등을 기준으로 적어도 두 영역으로 분할될 수 있다.Referring to FIG. 6, the low-altitude unmanned aerial vehicle 100 may obtain a low-altitude crop image while flying in a plurality of sub-areas. In this case, the sub-region may be divided, which may be divided into at least two regions based on an area, an elevation difference, and the like.

이착륙 지점(102, 104)은 저고도 무인 비행체(100)가 설정하거나 관제 센터(200)에서 설정될 수 있으며, 저고도 무인 비행체(100)가 설정하는 경우 관제 센터(200)로 지점 좌표를 송신할 수 있다.The take-off and landing points 102 and 104 may be set by the low-altitude unmanned aerial vehicle 100 or set at the control center 200, and when the low-altitude unmanned aerial vehicle 100 is set, the point coordinates can be transmitted to the control center 200. have.

도 7은 발명의 일 실시예에 따른 필지 대표점을 추출하고, 추출된 필지 대표점에 따라 비행 궤적을 생성한 도면이다.7 is a view in which a representative lot of parcels is extracted according to an embodiment of the present invention, and a flight trajectory is generated according to the extracted representative parcels.

필지에 대한 필지 정보를 농지정보 데이터베이스(GIS)로부터 획득할 수 있다. 필지 정보는, 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함한다. 본 실시예에서 필지 대표점은 각 필지의 중심점, 내지는 필지의 특성을 잘 나타내는 특징점일 수 있다.Lot information about the lot can be obtained from the Farmland Information Database (GIS). The lot information includes divisional boundary information between parcels and elevation information of areas included in the parcels. In this embodiment, the representative lot of the lot may be a central point of each lot, or a feature point that shows the characteristics of the lot.

도 7을 참조하면, 각 필지의 중심점을 필지 대표점으로 표시하여 필지의 대표점을 이은 경로를 나타낼 수 있다.Referring to FIG. 7, a path connecting the representative points of the parcel may be represented by marking the center point of each parcel as a representative parcel point.

도 7의 대표점을 이은 경로는 저고도 무인 비행체(100)의 실제 주행 경로일 수 있으며, 반드시 이에 한정되는 것은 아니다.The path following the representative point of FIG. 7 may be an actual driving path of the low-altitude unmanned aerial vehicle 100, but is not limited thereto.

좌측의 비행 영역은 총 비행 거리가 3.83Km이며, 예상 비행 시간은 12분 23초이고, 총 포인트는 73개일 수 있다. 우측의 비행 영역은 총 비행 거리가 6.21Km이며, 예상 비행 시간은 17분 12초이고, 총 포인트는 94개일 수 있다. 여기서, 촤측 및 우측의 비행 영역에서의 드론은 비행 고도가 20m로 동일하다.The flight area on the left has a total flight distance of 3.83 km, an estimated flight time of 12 minutes and 23 seconds, and a total of 73 points. The flight area on the right has a total flight distance of 6.21Km, an estimated flight time of 17 minutes 12 seconds, and a total of 94 points. Here, the drones in the flight area on the right side and the right side have the same flight altitude as 20m.

따라서, 무인 비행체(100)의 주행 경로는 필지 대표점들을 연결하는 연결 거리의 총합을 최소로 하도록 결정될 수 있다. 주행 경로는 드론 내부의 프로세서 내지는 서버에 위치하는 프로세서가 미리 결정한 것일 수 있으며, 주행 중 경로를 변경할 수도 있다.Accordingly, the driving route of the unmanned aerial vehicle 100 may be determined to minimize the sum of connection distances connecting representative parcels. The driving route may be predetermined by a processor inside the drone or a processor located in the server, and the route may be changed while driving.

도 8은 발명의 일 실시예에 따른 필지 영상 정보를 처리하는 또 다른 예를 나탄낸 도면이다.8 is a diagram illustrating another example of processing parcel image information according to an embodiment of the present invention.

a1~a8은, 각 필지를 대표하는 필지 대표점을 나타낸 것이다. a8-1, a8-2의 경우, 하나의 필지이지만 필지 대표점을 두 개로 처리한 예이다. 해당 필지의 경우 길쭉하게 생기고, 가운데가 잘록한 경우라면, 필지의 중심을 필지 대표점으로 하기 보다는 두 개의 영역으로 구별 가능한 상황에서 각각의 영역별 중심을 필지 대표점으로 결정할 수 있다.A1 to a8 represent parcel representative points representing each parcel. In the case of a8-1 and a8-2, it is an example of processing one lot but two representative points. If the parcel is elongated and the center is narrow, the center of each area can be determined as the parcel representative point in a situation where the center of the parcel can be distinguished into two areas rather than the parcel representative point.

또한, 필지 대표점은 중심점 뿐만 아니라, 필지의 특성을 잘 나타내는 특징점일 수 있다. 예를 들어, 필지 영상에는 필지의 경계를 나타내는, 도로, 농로 영상이 포함될 수 있다. 필지 영상은 작물과는 무관한 것으로, 필지의 농작물을 좀 더 정확하게 인식하기 위해서는 해당 필지의 농작물 특성을 잘 나타내는 지점을 결정하는 것이 필요한데, 예를 들어 영상을 서브 블록 별로 주파수 영역에서 분석하고, 대표적인 주파수 영역값을 갖는 서브 블록의 위치를 특징점으로 채택하는 것도 가능하다.In addition, the representative lot of the lot may be a central point as well as a feature point that shows the characteristics of the lot. For example, the parcel image may include an image of a road and a farm road indicating the boundary of the parcel. The parcel image is irrelevant to the crop, and in order to more accurately recognize the crop of the parcel, it is necessary to determine a point that represents the crop characteristics of the parcel. For example, the image is analyzed in frequency domain for each sub-block It is also possible to adopt the position of a sub-block having a frequency domain value as a feature point.

h1~h8-2는, 각 필지 중심점의 고도를 나타낸 것이다. 드론의 이동 경로를 결정함에 있어서, 각 필지 중심점간의 거리는 평면도 상에서의 거리가 아니라, 3차원 공간좌표 상에서의 거리인 것이 바람직하다. 그래야만, 작물 구분이 가능한 해상도의 이미지를 획득할 수 있으며 지면 및 장애물과의 충돌을 회피 할 수 있기 때문이다.h1 to h8-2 shows the altitude of each parcel center point. In determining the movement path of the drone, it is preferable that the distance between the center points of each parcel is not a distance on a plan view, but a distance on a three-dimensional spatial coordinate. This is because it is possible to obtain an image with a resolution that can distinguish crops and avoid collisions with the ground and obstacles.

도 9는 발명의 일 실시예에 따른 AI를 통해 영상 학습을 수행하고, 이를 통해 작물의 종류를 인식하는 개념을 나타낸 도면이다.9 is a diagram illustrating a concept of performing image learning through AI according to an embodiment of the present invention, and recognizing the type of crop through this.

인공신경망은 학습 단계와 적용 단계의 구별된 동작을 수행할 수 있다. 학습 단계에서, 인공신경망은 트레이닝 데이터를 입력 받고, 미리 결정된 가중치값에 따른 특징값을 생성하고, 생성된 특징값을 이용하여 작물의 종류를 구분하는 동작이 이루어진다.The artificial neural network can perform distinct operations of a learning step and an application step. In the learning step, the artificial neural network receives training data, generates a feature value according to a predetermined weight value, and classifies the crop type using the generated feature value.

인공신경망은 프로세서에서 수행되는 소프트웨어의 형태로 구현될 수 있다. 트레이닝 데이터는 다양한 작물들을 커버할 수 있도록, 또한 계절별 다양한 영상들로 구비되는 것이 바람직하다. 트레이닝 데이터는 이미 작물에 대한 정보(작물의 종류, 계절 정보, 작물 단계 정보 등)을 포함할 수 있고, 이러한 정보를 이용한 지도 학습이 가능하다.The artificial neural network can be implemented in the form of software executed by a processor. It is preferable that the training data be provided with various images for each season so as to cover various crops. Training data may already include information on crops (type of crop, season information, crop stage information, etc.), and supervised learning is possible using this information.

트레이닝 데이터를 통한 학습을 통해, 인공신경망에 포함되는 가중치 값은, 작물 인식의 오류를 최소화하는 범위에서 결정될 수 있다. 인공 신경망은, 예를 들어 컨볼루션 신경망일 수 있는데, 컨볼루션 신경망의 경우 영상 처리, 객체 인식에 유리하다.Through learning through training data, a weight value included in the artificial neural network may be determined within a range that minimizes errors in crop recognition. The artificial neural network may be, for example, a convolutional neural network. In the case of a convolutional neural network, it is advantageous for image processing and object recognition.

도 10은 발명의 일 실시예에 따른 저고도 드론 비행을 통해 획득한 영상을 이용하여, 작물의 상태를 나타내는 도면이다.10 is a view showing a state of a crop by using an image acquired through a low-altitude drone flight according to an embodiment of the present invention.

도 10의 (a)는 수확 진행 정도를 나타내는 도면이고, 도 10의 (b)는 배추 무름병을 나타내는 도면이고, 도 10의 (c)는 정상 생육을 나타내는 도면이고, 도 10의 (d)는 석회 결핍을 나타내는 도면이고, 도 10의 (e)는 고온 피해를 나타내는 도면이다.Figure 10 (a) is a view showing the progress of the harvest, Figure 10 (b) is a view showing the cabbage soft rot, Figure 10 (c) is a view showing normal growth, Figure 10 (d) is It is a figure showing the lack of lime, and FIG. 10(e) is a figure showing high temperature damage.

작물 재배 정보 획득 시스템(10)은 저고도 무인 비행체(100)의 저고도 비행을 통해서, 수확 진행 정도, 각종 병충해의 상황도 진단할 수 있다. 이때, 저고도 비행을 통해 작물 재배 정보를 획득할 수 있다.The crop cultivation information acquisition system 10 may diagnose the degree of harvesting progress and the situation of various diseases and pests through the low-altitude flight of the low-altitude unmanned aerial vehicle 100. At this time, it is possible to obtain crop cultivation information through low altitude flight.

작물 재배 정보는, 작물의 종류, 작물의 상태를 포함할 수 있다. 작물의 상태는 작물의 성상, 크기, 색깔 등을 포함하며, 이에 대한 영상 분석을 통해 작물의 재배단계, 병충해 가능성 여부를 판단할 수 있다. 또한, 영상 분석을 통해 작물들의 수확 진행 정보도 추가적으로 확인할 수 있다.The crop cultivation information may include the type of crop and the state of the crop. The state of the crop includes the nature, size, and color of the crop, and through image analysis, it is possible to determine the crop's cultivation stage and the possibility of diseases and pests. In addition, information on the harvesting progress of crops can be additionally confirmed through image analysis.

본 발명의 일 실시예에 따르면 배추에 따른 작물의 상태는 배추 무름병, 석회 결핍, 고온 피해 등을 통해 상태가 좋지 않음을 판단할 수 있으며, 이에 따른 원인을 분석하여 예방할 수 있다. 구체적으로, 저고도 무인 비행체(100)를 통해 획득한 저고도 작물 영상을 통해 작물의 종류와 작물의 상태를 판단할 수 있다.According to an embodiment of the present invention, the state of a crop according to cabbage may be determined to be in good condition through cabbage softness, lime deficiency, high temperature damage, etc., and the cause may be analyzed and prevented. Specifically, it is possible to determine the type of crop and the state of the crop through the low altitude crop image acquired through the low altitude unmanned aerial vehicle 100.

축적한 성장 데이터는 작물판독과 생육, 병해충 피해 등을 판독할 AI 학습 데이터로 축적할 수 있다.The accumulated growth data can be accumulated as AI learning data to read crop reading, growth, and damage from pests.

본 발명의 다른 실시예에 따르면, 작물 재배 정보 획득 시스템(10)은 식생지수를 구하기 위한 분광 촬영을 실시하고, 생육시기의 ½ 시기에 생체 중량을 ¼을 수확하여 측정 수확 후 측정 항목은 초장, 생체중으로 하고, 생육을 마치고 최종 수확물의 초장과 생체중을 측정하고, 촬영으로 취득한 NDVI와 실제 작물 생육 데이터와 비교하여 생육 데이터와의 식생지수와 상관 분석을 수행할 수 있다.According to another embodiment of the present invention, the crop cultivation information acquisition system 10 performs spectroscopic photographing to obtain a vegetation index, and measures ¼ of the body weight at ½ of the growth period, and the measurement item after harvesting is the height, The vegetation index and correlation analysis with the growth data can be performed by measuring the plant height and fresh weight of the final crop after completion of growth, and comparing the NDVI acquired by photographing with the actual crop growth data.

식생지수는 식물체의 질소량과 직접적인 비례관계에 있는 엽록소의 분광반사 특성이 주로 적색(Red), 청색(Blue) 파장은 흡수하는 반면 근적외선(NIR, Near InfraRed) 파장은 반사하는 현상을 바탕으로 이들 파장을 조합하여 녹색 식물의 상대적 분포량과 활동성을 평가하는 지표이다. 적색 파장과 근적외선 파장의 반사율을 이용하여 계산하는 정규화식생지수(NDVI, Normalized Difference Vegetation Index)를 산정할 수 있다. RED-edge 및 Sequoir 촬영 시 진동 및 속도로 인한 Blur현상이 발생할 수 있으므로 조도가 확보된 시간에 촬영이 진행될 수 있도록 작업 계획을 잡으며 카메라 감도는 iso 400이상으로 설정하며 셔터스피드 1/250이상을 확보할 수 있다. 직광으로 인한 반사율 왜곡을 피할 수 있도록 밝고 흐린날 촬영이 바람직할 수 있다.The vegetation index is based on the phenomenon that the spectral reflection characteristic of chlorophyll, which is directly proportional to the amount of nitrogen in the plant, mainly absorbs red and blue wavelengths, while reflecting near infrared (NIR) wavelengths. It is an index to evaluate the relative distribution and activity of green plants by combining them. The Normalized Difference Vegetation Index (NDVI) calculated using the reflectance of the red wavelength and near-infrared wavelength can be calculated. When shooting RED-edge and Sequoir, blur due to vibration and speed may occur, so make a work plan so that the shooting can proceed when the illumination is secured, and the camera sensitivity is set to ISO 400 or higher, and a shutter speed of 1/250 or higher is secured. can do. Shooting on a bright, cloudy day may be desirable to avoid reflectance distortion caused by direct light.

도 11은 발명의 일 실시예에 따른 저고도 지형 비행을 통한 정사 영상 추출을 나타내는 도면이다.11 is a diagram illustrating extraction of an orthogonal image through low-altitude terrain flight according to an embodiment of the present invention.

도 11의 (a)는 Fam Map 필지정보를 나타내고, 도 11의 (b)는 DSM 고도 정보를 나타낸다. 도 11의 (c)는 도 11의 (a)와 (b)를 기반으로 생성된 비행 영역을 나타낼 수 있다.FIG. 11A shows Fam Map lot information, and FIG. 11B shows DSM altitude information. FIG. 11(c) may show a flight area created based on FIGS. 11(a) and (b).

도 11의 (d)는 지형 비행을 통해 저고도 작물 영상을 획득하는 도면이고, 도 11의 (e)는 획득한 정사 이미지를 나타내고, 도 11의 (f)는 획득한 정사 이미지에서 작물 식별 가능한 이미지를 나타낸다.(D) of FIG. 11 is a diagram of obtaining a low-altitude crop image through terrain flight, (e) of FIG. 11 shows the acquired orthogonal image, and (f) of FIG. 11 is an image that can identify crops from the acquired orthogonal image. Represents.

작물 재배 정보 획득 시스템(10)은 25미터 이내 저고도 미션 비행을 통해 유묘 시기부터 작물 구분이 가능하고, 재배 작물 확인 과정이 더 빠르고 정확할 수 있다. 또한, 모아진 성장 데이터는 작물판독과 생육, 병해충 피해 데이터 등 AI 학습 데이터로 축적이 가능할 수 있다.The crop cultivation information acquisition system 10 can distinguish crops from the seedling period through a low-altitude mission flight within 25 meters, and the process of identifying cultivated crops can be faster and more accurate. In addition, the collected growth data can be accumulated as AI learning data, such as crop reading and growth, and damage data from pests.

본 발명의 드론은, 통신부를 통해 카메라를 통해 획득한 영상을 외부의 서버로 실시간 전송이 가능하다. 서버는 획득된 영상에 대한 영상 처리를 통해 신속하게, 또는 실시간으로 작물의 종류와 분포를 분석할 수 있다.The drone of the present invention can transmit an image acquired through a camera through a communication unit to an external server in real time. The server can analyze the type and distribution of crops quickly or in real time through image processing on the acquired images.

또한, 기존의 작물 정보가 더 포함될 경우, 드론의 비행을 기존의 작물 정보를 고려하여 수정될 수 있다. 예를 들어, 양파같은 경우는 수직 영상만으로는 구별이 안되며, 측면 45도에서 영상을 촬영하는 것이 필요하다. 따라서, 드론의 경로 결정에 있어서, 작물의 히스토리 정보를 활용하여, 양파경작의 히스토리가 있는 필지의 경우, 20미터보다 낮은 높이 예를 들어 10~15미터 구간에서 비스듬한 각도로 영상을 획득하는 것이 바람직하다. 이 경우, 드론의 위치는 필지의 대표점이 아니라, 드론의 카메라가 주시하는 지점이 필지의 대표점인 것이 바람직하다.In addition, if the existing crop information is further included, the flight of the drone may be modified in consideration of the existing crop information. For example, in the case of onions, vertical images cannot be distinguished, and it is necessary to shoot images at 45 degrees from the side. Therefore, in determining the path of the drone, it is desirable to acquire images at an oblique angle at a height lower than 20 meters, for example, in a section of 10 to 15 meters, in the case of a parcel with a history of onion cultivation, using the history information of the crop. Do. In this case, it is preferable that the location of the drone is not the representative point of the lot, but the point that the drone's camera looks at is the representative point of the lot.

도 12 내지 도 14는 본 발명의 일 실시예에 따른 작물 재배 정보 획득을 위해 작물 재배 정보 획득 시스템이 수행하는 과정을 나타내는 흐름도이다. 작물 재배 정보 획득을 위해 작물 재배 정보 획득 시스템이 수행하는 과정은 작물 재배 정보 획득 시스템에 의해 수행되며, 작물 재배 정보 획득 시스템이 수행하는 동작에 관한 상세한 설명과 중복되는 설명은 생략하기로 한다.12 to 14 are flowcharts illustrating a process performed by the crop cultivation information acquisition system to acquire crop cultivation information according to an embodiment of the present invention. The process performed by the crop cultivation information acquisition system to acquire crop cultivation information is performed by the crop cultivation information acquisition system, and detailed descriptions and overlapping descriptions of operations performed by the crop cultivation information acquisition system will be omitted.

도 12는 발명의 일 실시예에 따른 관제 센터에서의 주제도 제작을 위한 수행 과정을 나타내는 흐름도이다.12 is a flowchart illustrating a process for producing a subject map in a control center according to an embodiment of the present invention.

관제 센터에서의 주제도 제작은 저고도 무인 비행체에서 획득한 저고도 작물 영상을 전송 받아 수행될 수 있다(S1210).The subject map production in the control center may be performed by receiving a low-altitude crop image acquired from a low-altitude unmanned aerial vehicle (S1210).

저고도 작물 영상은 NAS 서버를 거쳐(S1220) 데이터 서버에 전달될 수 있다(S122). 여기서, NAS 서버는 컴퓨터 네트워크에 연결된 파일 수준의 컴퓨터 기억장치를 나타낸다.The low altitude crop image may be transmitted to the data server via the NAS server (S1220) (S122). Here, the NAS server represents a file-level computer storage device connected to a computer network.

저고도 작물 영상은 AI 서버로 전달되어 작물 판독을 수행할 수 있다(S1230). 또한, 저고도 작물 영상은 영상 판독원에 추가로 전달되어 작물 판독을 수행할 수 있다(S1232).The low-altitude crop image is transmitted to the AI server to perform crop reading (S1230). In addition, the low-altitude crop image may be additionally transmitted to the image reader to perform crop reading (S1232).

단계 S1230은 농촌경제연구원이나 농촌진흥청 등의 공공 홈페이지 관측 작물 사진 취합, 농경지 드론 이미지 취득, 해제면 경작 시 실사 등의 이미지 소스를 크롤링(Crawling)할 수 있다. 크롤링(Crawling)은 무수히 많은 컴퓨터에 분산 저장되어 있는 문서를 수집하여 검색 대상의 색인으로 포함시키는 기술로서, 어느 부류의 기술을 얼마나 빨리 검색 대상에 포함시키냐 하는 것이 우위를 결정하는 요소이다.Step S1230 may crawl image sources such as collection of photographs of crops observed on public websites of the Rural Economic Research Institute or Rural Development Administration, acquisition of drone images of agricultural land, and due diligence when cultivating off-side. Crawling is a technology that collects documents distributed and stored in a myriad of computers and includes them as an index of search targets, and how quickly a certain kind of technology is included in the search target is a factor that determines its superiority.

단계 S1230은 이미지 소스를 크롤링하여 판독 알고리즘을 통해 작물을 판독할 수 있다. 판독 알고리즘은 Vggnet, Alexnet, Squeeznet, Resnet, Densenet 등을 사용할 수 있다.In step S1230, the image source may be crawled and the crop may be read through a reading algorithm. Reading algorithms can use Vggnet, Alexnet, Squeeznet, Resnet, Densenet, and the like.

이때, 단계 S1230 및 단계 S1232에서 수행한 작물 판독에 따라 판독된 작물의 교차 검증을 통해 정확도를 향상시킬 수 있다.In this case, accuracy may be improved through cross-validation of the read crops according to the crop readings performed in steps S1230 and S1232.

단계 S1230 및 단계 S1232에서 판독된 작물들은 이미지 분류를 통해 동일한 이미지들을 분류할 수 있다(S1240).The crops read in step S1230 and step S1232 may classify the same images through image classification (S1240).

또한, 단계 S1250에서 저고도 작물 영상은 정사 보정과정을 생략할 수 있다.Further, in step S1250, the orthogonal correction process may be omitted for the low altitude crop image.

이미지 분류(S1240)와 정사 보정(S1250)이 완료되면 주제도를 제작할 수 있다(S1260). 제작된 주제도는 데이터 서버에 저장된다(S1270).When the image classification (S1240) and orthogonal correction (S1250) are completed, a theme map may be produced (S1260). The produced theme map is stored in the data server (S1270).

도 13은 발명의 일 실시예에 따른 도 12의 단계 S1230에서 AI 서버가 수행하는 과정을 나타내는 흐름도이다.13 is a flowchart illustrating a process performed by the AI server in step S1230 of FIG. 12 according to an embodiment of the present invention.

AI 서버는 이미지를 획득할 수 있다(S1310). 여기서, 이미지는 저고도 무인 비행체에서 획득한 저고도 작물 영상이다.The AI server may acquire an image (S1310). Here, the image is a low-altitude crop image acquired from a low-altitude unmanned aerial vehicle.

AI 서버는 이미지를 획득하면 이미지를 추출할 수 있다(S1320). 단계 S1320의 이미지 추출은 도 13의 도면과 같이 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 기 설정된 영역만큼 추출한다. 예를 들어, 이미지 추출은 획득한 이미지의 중간 영역에 위치하는 이미지로, 직사각형 형태의 영역으로 추출할 수 있다.When the AI server acquires the image, it may extract the image (S1320). In the image extraction in step S1320, crop images are extracted as much as a preset area from the low-altitude crop images acquired in each lot as shown in FIG. 13. For example, the image extraction is an image located in the middle area of the acquired image, and may be extracted as a rectangular area.

단계 S1330에서, AI 서버는 각각의 필지에서 획득한 저고도 작물 영상에서 작물 이미지를 추출하면 인공지능을 통해 작물을 구분할 수 있다. 인공지능을 통한 작물 구분은 도 9를 통해 확인할 수 있으며, 각각의 작물을 종류에 따라 구분할 수 있다.In step S1330, the AI server may classify the crops through artificial intelligence by extracting the crop images from the low-altitude crop images acquired in each parcel. Classification of crops through artificial intelligence can be confirmed through FIG. 9, and each crop can be classified according to type.

단계 S1330에서, 작물 구분이 되지 않으며, 이미지를 획득하는 단계(S1310)로 다시 돌아가고, 작물 구분이 완료되면 단계 S1340에서 이미지의 좌표를 추출할 수 있다.In step S1330, the crop is not classified, and the process returns to the step of acquiring the image (S1310). When the crop classification is completed, the coordinates of the image may be extracted in step S1340.

단계 S1340에서, 이미지 좌표 추출은 획득한 저고도 작물 영상을 통해 각각의 필지에 따른 좌표를 GIS를 통해 좌표를 추출할 수 있으며, 또는 저고도 무인 비행체에 부착된 GPS를 통해 각각의 필지에서 저고도 작물 영상 촬영된 경우의 무인 비행체의 위치를 통해 좌표를 추출할 수 있다.In step S1340, the image coordinate extraction can extract the coordinates according to each lot through the GIS through the obtained low-altitude crop image, or take a low-altitude crop image at each lot through the GPS attached to the low-altitude unmanned aerial vehicle. The coordinates can be extracted through the location of the unmanned aerial vehicle in the case where

좌표 추출이 완료되면 단계 S1350에서, 각각의 영역을 계산할 수 있다. 영역은 작물 지도를 생성하기 위해 계산되며, 각각의 필지를 기준으로 GIS를 통해 확인할 수 있다.When the coordinate extraction is completed, in step S1350, each area may be calculated. Areas are calculated to generate crop maps, and can be checked through GIS based on each parcel.

본 발명의 일 실시예에 따르면, AI 학습을 위한 생육단계별 데이터는 유묘기, 초기신장기, 성숙기, 수확기 등을 확인할 수 있으며, 데이터 누적 시 생육, 병충해 등을 추가로 판독이 가능하다.According to an embodiment of the present invention, data for each growth stage for AI learning can be identified as a seedling period, early growth period, maturity period, harvest period, and the like, and when data is accumulated, growth, pests, and the like can be additionally read.

도 14는 발명의 일 실시예에 따른 웹 기반의 실시간 시계열화값 그림 도출을 나타내는 흐름도이다.14 is a flowchart illustrating a web-based real-time time series value drawing according to an embodiment of the present invention.

웹 기반의 실시간 시계열화값 그림 도출은 정사영상을 작성하는 단계(S1410), 촬영 이미지를 통해 작물을 분류하는 단계(S1420), 작물 별, 필지 별 재배 지도를 제작하는 단계(S1430), 배추 재배 필지를 분리하는 단계(S1440), 배추 재배 필지 변화를 표시하는 단계(S1450) 및 시계열화하는 단계(S1460)를 포함한다.Deriving a web-based real-time time series value picture is a step of creating an orthogonal image (S1410), classifying a crop through a photographed image (S1420), producing a cultivation map for each crop and lot (S1430), cultivation of cabbage Separating the lot (S1440), displaying a change in the lot of cabbage cultivation (S1450), and a step of time-series (S1460).

웹 기반의 실시간 시계열화값 그림은 작물 재배 현황, 출하 면적, 정식시기 분포도, 수확 시기 분포도 등을 모두 그림과 값으로 표기할 수 있다.The web-based real-time time-series value plot can display crop cultivation status, shipping area, distribution map at planting time, distribution map at harvest time, etc. all as figures and values.

정사영상을 작성하는 단계(S1410)는 저고도 무인 비행체로부터 획득한 저고도 작물 영상을 기반으로 정사 영상을 생성할 수 있다.In the step of creating an orthogonal image (S1410), an orthogonal image may be generated based on a low-altitude crop image acquired from a low-altitude unmanned aerial vehicle.

촬영 이미지를 통해 작물을 분류하는 단계(S1420)는 도 14의 AI 서버를 통해 작물을 분류할 수 있다.In the step of classifying the crop through the photographed image (S1420), the crop may be classified through the AI server of FIG. 14.

작물 별, 필지 별 재배 지도를 제작하는 단계(S1430)는 단계 S1420에서 분류된 작물을 서로 다른 색으로 표시하여 각각의 필지에 따른 작물을 표시하여 재배 지도를 제작할 수 있다.In the step of producing a cultivation map for each crop and lot (S1430), the crops classified in step S1420 may be displayed in different colors to display crops according to each lot to produce a cultivation map.

배추 재배 필지를 분리하는 단계(S1440)는 단계 S1430에서 획득한 재배 지도에서 배추만 추출할 수 있다. 단계 S1440은 일 실시예로 도시한 것으로 배추가 아닌 다른 작물 재배 필지로 분리할 수 있다.In the step of separating the cabbage cultivation lot (S1440), only the cabbage may be extracted from the cultivation map obtained in step S1430. Step S1440 is shown as an embodiment, it can be separated into other crop cultivation lot other than cabbage.

배추 재배 필지 변화를 표시하는 단계(S1450)는 기존에 확인된 배추 재배 필지와 현재 저고도 무인 비행체를 통해 확인한 배추 재배 필지를 비교하여 변화를 표시할 수 있다. 구체적으로, 배추 재배 필지가 늘었을 경우, 기존과 다른 영역을 다른 색으로 표시하여 추가된 필지를 확인하도록 할 수 있다.In the step of displaying the change of the cabbage cultivation lot (S1450), the change may be displayed by comparing the previously identified cabbage cultivation lot with the current low-altitude unmanned aerial vehicle. Specifically, when the number of lots of cabbage cultivation increases, areas different from the existing areas can be displayed in different colors to confirm the added lot.

시계열화하는 단계(S1460)는 배추 재배 필지의 변화가 표시된 영역을 정사 지도에 표시하여 형성할 수 있다. 구체적으로 시계열화하는 단계(S1460)는 관측 결과를 일정한 기준에 따라 계열로 정리한 것이다.In the step of time-series conversion (S1460), an area in which the change of the cabbage cultivation lot is displayed may be displayed on an orthogonal map to form the area. Specifically, in the step of time-seriesizing (S1460), observation results are arranged in a series according to a certain standard.

웹 기반의 실시간 시계열화값 그림은 GIS 기술과 데이터 분석 영상 구현 기술을 활용하여 실시간으로 재배지 면적의 변화 상을 시계열화한 것이다.The web-based real-time time series value plot is a time series of changes in the area of cultivation in real time using GIS technology and data analysis image realization technology.

작물 재배 정보 획득 시스템(10)은 작물 품목별. 필지 별 재배 면적, 저식 면적, 출하 면적 등을 이미지와 값으로 산출하고, 데이터베이스 분석툴을 활용하여 작물구분도, 정식시기 분포도, 수확시기 분포도 등을 구현할 수 있다. 이때, 각 필지에는 현장의 저고도 사진이 배치되어 클릭으로 현장 사진을 오픈 할 수 있다.Crop cultivation information acquisition system 10 by crop item. The cultivation area, planting area, and shipping area for each lot can be calculated as images and values, and crop classification, planting season distribution, and harvest season distribution can be implemented using database analysis tools. At this time, low-altitude photos of the site are arranged on each lot, and the site photos can be opened with a click.

도 12 내지 도 14에서는 각각의 과정을 순차적으로 실행하는 것으로 개재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 12 내지 도 14에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.In FIGS. 12 to 14, it is interposed that each process is sequentially executed, but this is only illustrative, and those skilled in the art are shown in FIGS. 12 to 14 within the range not departing from the essential characteristics of the embodiment of the present invention. By changing the described order, executing one or more processes in parallel, or adding other processes, various modifications and variations may be applied.

따라서, 작물 재배 정보 획득 시스템(10)은 드론 촬영 농작물 이미지 전송, 드론 촬영한 영상의 서버의 특정 폴더에 전송, 인공지능 딥러닝 판독모델을 생성, 판독모델은 가동시키고 각각의 결과값을 비교해서 작물을 판독하는 파이썬 코드, 판독된 값은 데이터베이스에 저장하고 관리하는 모듈, 데이터베이스에 저장된 판독결과를 지도에 표시하는 모듈, 지도상의 위치를 선택했을 때 해당 작물의 사진과 판독된 결과를 보여주는 모듈 등으로 구성되어 상술한 과정들을 수행할 수 있으며, 반드시 이에 한정되는 것은 아니다.Therefore, the crop cultivation information acquisition system 10 transmits images of crops photographed by drones, transmits images of drones photographed to a specific folder on the server, generates artificial intelligence deep learning reading models, operates reading models, and compares each result value. Python code to read crops, a module that stores and manages the read values in a database, a module that displays the reading results stored in the database on a map, a module that displays a picture of the crop and the read results when a location on the map is selected, etc. It may be configured to perform the above-described processes, but is not limited thereto.

도 15는 본 발명의 일 실시예의 AI 서버에서 수행되는 작물 분석을 위한 학습 개념을 설명하기 위한 블록도이다.15 is a block diagram illustrating a learning concept for crop analysis performed in an AI server according to an embodiment of the present invention.

적대적 생성 신경망(Generative model, GAN)은 생성모델과 판별모델이 경쟁하면서 실제와 가까운 이미지를 자동으로 만들어 내는 기계학습이다.A generative model (GAN) is a machine learning that automatically creates an image that is close to the real world while the generative model and the discriminant model compete.

도 15는 적대적 신경망의 일종으로서 AI서버의 프로세서에서 수행되는 학습 개념을 나타낸 것이다. 도 15에 도시된 적대적 신경망에 의하여 수행되는 프로세스들은 적대적 신경망을 수행하기 위한 일련의 프로그램들로서 AI 서버의 메모리에 저장되며, AI 서버의 프로세서에서 수행되는 하기의 동작들을 포함한다.15 shows a learning concept performed by a processor of an AI server as a kind of hostile neural network. The processes performed by the hostile neural network shown in FIG. 15 are a series of programs for executing the hostile neural network, and are stored in the memory of the AI server, and include the following operations performed by the processor of the AI server.

우선, 적대적 신경망의 학습을 위한 입력 정보(1610)는 해당 필지에서 획득된 다수의 트레이닝 영상을 포함한다. 추가적인 입력 정보(1610)로서, 해당 영상이 획득되었을 때의 시간 정보(기후 정보, 촬영시각), 위치 정보(GPS 상의 위치 정보, 해당 필지의 식별 정보 등), 색상 정보(해당 필지에서 획득된 영상에서의 주 색상 정보)를 레이블 정보(역시 트레이닝 데이터임)로서 더 포함한다. First, the input information 1610 for learning of the hostile neural network includes a plurality of training images obtained from a corresponding lot. As additional input information 1610, time information (climate information, shooting time) when the image was acquired, location information (location information on GPS, identification information of the parcel, etc.), color information (image acquired at the parcel) The main color information in) is further included as label information (which is also training data).

도 15에 도시된 바와 같이, 생성자(1630)는 레이블 정보(1610)와 랜덤 노이즈(1620)를 입력으로 하여 페이크 영상을 생성한다. 분별자(1640)는 다수의 컨볼루션 필터와 활성화층 및 풀링층으로 구성되며, 최종적인 특징값을 이용하여 Real/Fake에 대한 판단을 한다.As shown in FIG. 15, the generator 1630 generates a fake image by inputting the label information 1610 and the random noise 1620. The classifier 1640 is composed of a plurality of convolution filters, an activation layer, and a pooling layer, and determines Real/Fake using the final feature values.

분별자(1640)와 생성자(1630)의 필터계수에 대한 업데이트는 생성자(1630)를 통해 생성된 페이크 영상과, 리얼 샘플인 트레이닝 영상(1650)에 대한 분별 결과(Real/Fake 응답)에 대한 피드백을 통해, 보다 정확한 분별 결과를 얻을 수 있는 방향으로 필터 계수가 업데이트된다. 이러한 학습 과정을 통해 생성자(1630)의 필터 계수는 결정될 수 있다. 물리적인 관점에서, 분별자(1640), 생성자(1630)는 실질적으로 프로세서에 해당하며, 프로세서가 수행하는 세부적인 동작을 나타내는 용어로 이해될 수 있다. The update of the filter coefficients of the classifier 1640 and the generator 1630 is a feedback on the fake image generated through the generator 1630 and the classification result (Real/Fake response) for the training image 1650, which is a real sample. Through this, the filter coefficient is updated in a direction in which a more accurate classification result can be obtained. Through this learning process, the filter coefficient of the generator 1630 may be determined. From a physical point of view, the classifier 1640 and the generator 1630 substantially correspond to a processor, and may be understood as terms representing detailed operations performed by the processor.

도 16은 도 15를 통해 결정된 생성자(1630)를 통해 이미지 분류(S1240)를 위한 입력 영상을 생성하는 방법을 설명하는 개념도이다.16 is a conceptual diagram illustrating a method of generating an input image for image classification (S1240) through the generator 1630 determined through FIG. 15.

현재 드론을 통해 획득된 영상이 충분한 신뢰 수준으로 이미지 분류가 가능하다면, 본 과정을 수행할 필요성은 적다. 하지만, 현재 획득된 영상만으로 작물의 종류를 특정하기 어려울 때에는, 적대적 신경망을 통해 생성되는 합성 영상을 이용하여 작물의 종류를 결정하는 것이 바람직하다.If the image acquired through the current drone can be classified with a sufficient level of confidence, the need to perform this process is small. However, when it is difficult to specify the type of crop with only the currently acquired image, it is desirable to determine the type of crop using a composite image generated through a hostile neural network.

도 16에서 생성자(1630)는 도 15를 통해 학습이 완료된 생성자(1630)를 의미한다. 여기서 입력은 현재의 획득 영상(1710)과, 해당 획득 영상(1710)에 대한 레이블(1610)이다. 레이블에 포함되는 정보(1610)는 영상을 촬영한 시점의 시간 정보, 위치 정보, 색상 정보를 포함할 수 있다. 이미지 분류(S1240)를 위한 입력은, 레이블 정보(1610)를 입력으로 하여 생성자(1630)를 통해 합성된 합성 영상(1660)과, 현재의 획득 영상(1710)이다. 합성 영상(1660)을 통해 추출된 특징값과, 획득 영상(1710)을 통해 추출된 특징값을 미리 결정된 가중치에 따라 합산한 후, 합산 특징값을 이용하여 이미지 분류를 수행한다면, 획득 영상만으로 이미지 분류를 수행한 경우와 대비할 때, 분류의 신뢰도를 더욱 높일 수 있다.In FIG. 16, the generator 1630 refers to the generator 1630 for which learning is completed through FIG. 15. Here, the inputs are the current acquired image 1710 and a label 1610 for the acquired image 1710. The information 1610 included in the label may include time information, location information, and color information of the time when the image is captured. Inputs for image classification (S1240) include a synthesized image 1660 synthesized by the creator 1630 by inputting label information 1610 as an input, and a currently acquired image 1710. If the feature value extracted through the synthesis image 1660 and the feature value extracted through the acquired image 1710 are summed according to a predetermined weight, and then image classification is performed using the summed feature value, When compared to the case of performing classification, the reliability of classification can be further increased.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even if all the components constituting the embodiments of the present invention described above are described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated in one or more.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the technical field to which the present invention belongs can make various modifications, changes, and substitutions within the scope not departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but are for description, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 작물 재배 정보 획득 시스템
100: 저고도 무인 비행체
200: 관제 센터
10: Crop cultivation information acquisition system
100: low altitude unmanned aerial vehicle
200: control center

Claims (12)

기 설정된 지형 정보와 이륙 지점 및 착륙 지점을 고려하여 형성된 필지에 따른 비행 경로를 생성하는 관제 센터; 및
상기 비행 경로에 따라 저고도 비행을 수행하며 환경 정보 또는 저고도 작물 영상을 획득하는 저고도 무인 비행체를 포함하고,
상기 관제 센터는 상기 저고도 작물 영상을 분석하여 작물 정보를 획득하고, 상기 작물 정보를 좌표에 따라 표시하여 작물 지도를 생성하고,
상기 저고도 무인 비행체는,
상기 저고도 무인 비행체의 비행을 가능하게 하는 구동력을 발생시키는 구동부;
상기 비행 경로를 따라 이동하며 상기 저고도 작물 영상을 획득하는 영상 획득부; 및
상기 구동부 및 상기 영상 획득부를 제어하고, 상기 환경 정보와 상기 획득된 저고도 작물 영상을 고려하여 상기 비행 경로를 재설정하는 프로세서를 포함하고,
상기 프로세서는,
직하방을 향하도록 설정된 상기 영상 획득부에서 획득된 제1 저고도 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 직하방을 향하도록 설정된 영상 획득부의 각도를 기 설정된 각도로 조절하여 획득된 제2 저고도 작물 영상을 전달받아 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 저고도 작물 영상 및 상기 제2 저고도 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 작물 재배 정보 획득 시스템.
A control center for generating a flight path according to a parcel formed in consideration of preset terrain information and take-off and landing points; And
It includes a low-altitude unmanned aerial vehicle that performs low-altitude flight according to the flight path and obtains environmental information or low-altitude crop images,
The control center analyzes the low altitude crop image to obtain crop information, displays the crop information according to coordinates, and generates a crop map,
The low altitude unmanned aerial vehicle,
A driving unit that generates a driving force that enables the flight of the low-altitude unmanned aerial vehicle;
An image acquisition unit that moves along the flight path and obtains the low-altitude crop image; And
And a processor for controlling the driving unit and the image acquisition unit, and resetting the flight path in consideration of the environment information and the obtained low altitude crop image,
The processor,
First crop recognition is performed by analyzing the first low altitude crop image acquired by the image acquisition unit set to face directly downward,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the angle of the image acquisition unit set to face the direct downward direction is received and analyzed to perform secondary crop recognition. Perform,
When crop information is not obtained through the secondary crop recognition, the first low-altitude crop image and the second low-altitude crop image are synthesized through a hostile generated neural network (GAN) to generate a synthetic image, and the generated synthetic image Crop cultivation information acquisition system, characterized in that performing the third crop recognition by analyzing the.
제1항에 있어서,
상기 저고도 무인 비행체는,
주변의 상기 환경 정보를 획득하는 센서부; 및
상기 획득된 환경 정보, 상기 저고도 작물 영상 또는 상기 작물 정보를 상기 관제 센터로 전달하고, 상기 비행 경로를 전달 받는 통신부를 더 포함하는 작물 재배 정보 획득 시스템.
The method of claim 1,
The low altitude unmanned aerial vehicle,
A sensor unit for acquiring the surrounding environment information; And
Transmitting the obtained environmental information, the low altitude crop image or the crop information to the control center, crop cultivation information acquisition system further comprising a communication unit receiving the flight path.
제2항에 있어서,
상기 센서부는,
전방에 위치하는 장애물을 감지하는 전방 센서;
하방에 위치하는 장애물을 감지하는 하방 센서;
초음파를 통해 주변의 장애물을 감지하는 초음파 센서; 및
근접하는 장애물을 감지하는 근접 센서를 포함하고,
상기 센서부는 상기 전방 센서, 상기 하방 센서, 상기 초음파 센서 및 상기 근접 센서에서 감지하는 장애물 정보를 적어도 하나 포함하여 상기 환경 정보를 획득하는 것을 특징으로 하는 작물 재배 정보 획득 시스템.
The method of claim 2,
The sensor unit,
A front sensor detecting an obstacle positioned in front;
A lower sensor for detecting an obstacle positioned below;
An ultrasonic sensor that detects surrounding obstacles through ultrasonic waves; And
Including a proximity sensor for detecting an obstacle in proximity,
The sensor unit includes at least one obstacle information detected by the front sensor, the lower sensor, the ultrasonic sensor, and the proximity sensor to obtain the environment information.
제1항에 있어서,
상기 프로세서는,
상기 획득된 환경 정보에 따라 감지된 장애물이 상기 비행 경로에 위치하는 경우, 상기 감지된 장애물의 개수 및 크기를 고려하여 다음 지점으로 이동하기 위한 이동 경로를 재분석하여 상기 비행 경로를 재설정하여 재설정 경로를 생성하고, 상기 재설정 경로를 상기 관제 센터에 전송하는 것을 특징으로 하는 작물 재배 정보 획득 시스템.
The method of claim 1,
The processor,
When an obstacle detected according to the acquired environmental information is located in the flight path, a movement path for moving to the next point is re-analyzed in consideration of the number and size of the detected obstacles, and the flight path is reset to establish a reset path. Generating and transmitting the reset route to the control center, crop cultivation information acquisition system, characterized in that.
삭제delete 제1항에 있어서,
상기 3차 작물 인식은,
상기 제1 저고도 작물 영상 또는 상기 제2 저고도 작물 영상과 상기 제1 저고도 작물 영상 또는 상기 제2 저고도 작물 영상의 레이블 정보를 입력으로 하여 생성자를 통해 합성하는 적대적 생성 신경망(GAN)을 통해 생성된 상기 합성 영상을 분석하여 수행되며,
상기 레이블 정보는 상기 제1 저고도 작물 영상 또는 상기 제2 저고도 작물 영상이 획득된 시간 정보, 위치 정보 및 색상 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 획득 시스템.
The method of claim 1,
The tertiary crop recognition,
The first low-altitude crop image or the second low-altitude crop image and the label information of the first low-altitude crop image or the second low-altitude crop image are input and synthesized through a generator through a hostile generation neural network (GAN). It is performed by analyzing the composite image,
The label information includes time information, location information, and color information when the first low-altitude crop image or the second low-altitude crop image is acquired.
제1항에 있어서,
상기 관제 센터는,
필지에 대한 필지 정보를 포함하는 상기 기 설정된 지형 정보를 기반으로 상기 필지의 대표점을 추출하고, 상기 필지의 대표점을 고려하여 상기 저고도 무인 비행체의 비행 경로를 설정하는 경로 설정부; 및
상기 비행 경로에 따라 획득된 저고도 작물 영상을 분석하여 작물 지도를 생성하는 작물 검출부를 포함하는 작물 재배 정보 획득 시스템.
The method of claim 1,
The control center,
A route setting unit extracting a representative point of the parcel based on the preset topographic information including parcel information, and setting a flight path of the low-altitude unmanned aerial vehicle in consideration of the representative point of the parcel; And
Crop cultivation information acquisition system comprising a crop detection unit for generating a crop map by analyzing the low altitude crop image obtained according to the flight path.
제7항에 있어서,
상기 작물 검출부는,
상기 저고도 작물 영상을 분석하여 작물을 구분하여 상기 작물 정보를 생성하는 영상 분석부;
상기 비행 경로에 따른 총 면적 중 상기 작물 정보에 따른 재배 면적을 산출하는 면적 산출부;
상기 작물 정보의 좌표를 추출하는 좌표 추출부; 및
상기 비행 경로, 상기 작물 정보, 상기 재배 면적 및 상기 좌표를 이용하여 작물 지도를 생성하는 지도 생성부를 포함하는 작물 재배 정보 획득 시스템.
The method of claim 7,
The crop detection unit,
An image analysis unit for generating the crop information by analyzing the low altitude crop image to classify the crop;
An area calculation unit for calculating a cultivation area according to the crop information among the total area according to the flight path;
A coordinate extraction unit for extracting coordinates of the crop information; And
A system for obtaining crop cultivation information including a map generator for generating a crop map using the flight path, the crop information, the cultivation area and the coordinates.
제7항에 있어서,
상기 경로 설정부는,
상기 필지의 중심점을 나타내는 상기 추출된 대표점에 따라 비행 궤적을 고려하여 상기 비행 경로를 생성하고,
상기 필지 정보는 필지간 구분 경계 정보, 필지에 포함되는 영역들의 고도 정보를 포함하는 것을 특징으로 하는 작물 재배 정보 획득 시스템.
The method of claim 7,
The path setting unit,
Generates the flight path in consideration of the flight trajectory according to the extracted representative point representing the center point of the parcel,
The lot information is a system for obtaining crop cultivation information, characterized in that it includes information on a boundary between divisions and height information of areas included in the lot.
기 설정된 지형 정보를 고려하여 생성된 비행 경로를 따라 비행을 가능하게 하는 구동력을 발생시키는 구동부;
주변의 환경 정보를 획득하는 센서부;
상기 비행 경로에 따라 저고도 비행을 수행하며 저고도 작물 영상을 획득하는 영상 획득부;
상기 저고도 작물 영상을 분석하여 작물 정보를 획득하고, 상기 작물 정보를 좌표에 따라 표시하여 작물 지도를 생성하는 프로세서; 및
상기 획득된 저고도 영상 또는 상기 프로세서에서의 연산 결과를 외부의 통신 가능한 장치로 전달하기 위한 통신부를 포함하고,
상기 프로세서는,
직하방을 향하도록 설정된 상기 영상 획득부에서 획득된 제1 저고도 작물 영상을 분석하여 1차 작물 인식을 수행하고,
상기 1차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 직하방을 향하도록 설정된 영상 획득부의 각도를 기 설정된 각도로 조절하여 획득된 제2 저고도 작물 영상을 전달받아 분석하여 2차 작물 인식을 수행하고,
상기 2차 작물 인식을 통해 작물 정보를 획득하지 못한 경우, 상기 제1 저고도 작물 영상 및 상기 제2 저고도 작물 영상을 적대적 생성 신경망(GAN)을 통해 합성하여 합성 영상을 생성하고, 상기 생성된 합성 영상을 분석하여 3차 작물 인식을 수행하는 것을 특징으로 하는 저고도 무인 비행체.
A driving unit that generates a driving force that enables flight along a flight path generated in consideration of preset terrain information;
A sensor unit for acquiring surrounding environment information;
An image acquisition unit that performs low altitude flight according to the flight path and acquires a low altitude crop image;
A processor that analyzes the low-altitude crop image to obtain crop information, and displays the crop information according to coordinates to generate a crop map; And
A communication unit for transmitting the obtained low-altitude image or an operation result in the processor to an external communication capable device,
The processor,
First crop recognition is performed by analyzing the first low-altitude crop image acquired by the image acquisition unit set to face directly downward,
When crop information is not obtained through the primary crop recognition, the second crop image obtained by adjusting the angle of the image acquisition unit set to face the direct downward direction is received and analyzed to perform secondary crop recognition Perform,
When crop information cannot be obtained through the secondary crop recognition, the first low-altitude crop image and the second low-altitude crop image are synthesized through a hostile generated neural network (GAN) to generate a synthetic image, and the generated synthetic image Low-altitude unmanned aerial vehicle, characterized in that to perform the third crop recognition by analyzing.
제10항에 있어서,
상기 프로세서는,
상기 획득된 환경 정보에 따라 감지된 장애물이 상기 비행 경로에 위치하는 경우, 상기 감지된 장애물의 개수 및 크기를 고려하여 다음 지점으로 이동하기 위한 이동 경로를 재분석하여 상기 비행 경로를 재설정하여 재설정 경로를 생성하고, 상기 재설정 경로를 관제 센터에 전송하는 것을 특징으로 하는 저고도 무인 비행체.
The method of claim 10,
The processor,
When an obstacle detected according to the acquired environmental information is located in the flight path, a movement path for moving to the next point is re-analyzed in consideration of the number and size of the detected obstacles, and the flight path is reset to establish a reset path. A low-altitude unmanned aerial vehicle, characterized in that to generate and transmit the reset route to the control center.
삭제delete
KR1020200105327A 2020-07-09 2020-08-21 Low altitude drone and Crop Cultivating Information Acquisition System including the same KR102187654B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200084502 2020-07-09
KR1020200084502 2020-07-09

Publications (1)

Publication Number Publication Date
KR102187654B1 true KR102187654B1 (en) 2020-12-07

Family

ID=73791132

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200105327A KR102187654B1 (en) 2020-07-09 2020-08-21 Low altitude drone and Crop Cultivating Information Acquisition System including the same
KR1020200124869A KR102300799B1 (en) 2020-07-09 2020-09-25 Crop state judgment apparatus and crop cultivation information service platform including the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200124869A KR102300799B1 (en) 2020-07-09 2020-09-25 Crop state judgment apparatus and crop cultivation information service platform including the same

Country Status (1)

Country Link
KR (2) KR102187654B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
KR102384334B1 (en) * 2021-02-26 2022-04-08 주식회사 이노드 Apparatus and method for providing crop information of cultivation area
KR102447678B1 (en) * 2022-05-16 2022-09-26 이대권 Drone for measuring atmosphere environment
KR102467855B1 (en) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same
KR20230036438A (en) * 2021-09-07 2023-03-14 경상국립대학교산학협력단 Apparatus and method for automatically generating flight path mission files of unmanned aerial vehicles
US20230137693A1 (en) * 2020-04-21 2023-05-04 Pyka Inc. Unmanned aerial vehicle aerial spraying control
CN116543309A (en) * 2023-06-28 2023-08-04 华南农业大学 Crop abnormal information acquisition method, system, electronic equipment and medium
CN116733472A (en) * 2023-06-05 2023-09-12 江西华丽丰科技有限公司 Metal ore mining and selecting control system based on intelligent algorithm
KR20240005607A (en) 2022-07-05 2024-01-12 주식회사 이노드 Image matching method of image taken by unmanned aerial vehicle and device therefor
CN117612047A (en) * 2024-01-23 2024-02-27 国网湖北省电力有限公司信息通信公司 Unmanned aerial vehicle inspection image recognition method for power grid based on AI large model

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653356B1 (en) * 2021-09-16 2024-04-02 한국항공우주연구원 Crop yield prediction method and apparatus using the same
KR20230081690A (en) 2021-11-30 2023-06-07 (주)레이원 Composite cultivation management decision-making monitoring system
KR20230083801A (en) * 2021-12-03 2023-06-12 한국전자기술연구원 Image information-based automatic reading device and method for rice kidney disease
KR20230085331A (en) * 2021-12-07 2023-06-14 한국전자기술연구원 Apparatus and method for automatic reading of rice uniforms based on image information
NO20220416A1 (en) * 2022-04-05 2023-10-06 Digifarm As Methods and systems for estimating crop yield from vegetation index data
KR102597426B1 (en) * 2022-11-09 2023-11-02 시스템 엔지니어링 코리아 ㈜ System for wirelessly measuring impact of agricultural product
KR102579689B1 (en) * 2022-11-10 2023-09-18 주식회사 이지에프앤씨 Customization-based smart farm service provision system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US9070101B2 (en) * 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
KR20150136209A (en) * 2014-05-26 2015-12-07 서울대학교산학협력단 Obstacle avoidance system and method based on multiple images

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10139279B2 (en) * 2015-05-12 2018-11-27 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
KR101794609B1 (en) * 2015-10-22 2017-12-01 농업회사법인 주식회사 호그린 System for supplying unmanned pesticide
EP3374928B1 (en) * 2015-11-08 2024-03-27 Agrowing Ltd A method for aerial imagery acquisition and analysis
KR101805988B1 (en) * 2015-11-19 2017-12-07 하태훈 Disk shaped drone
EP3835912A1 (en) * 2015-12-09 2021-06-16 SZ DJI Technology Co., Ltd. Systems and methods for auto-return
KR101801746B1 (en) * 2017-01-03 2017-11-27 (주)세이프어스드론 Smart Drone for disaster prevention, System and Method using the same
KR101948635B1 (en) * 2017-12-20 2019-02-18 계양전기 주식회사 Agricultural drone and operating method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070101B2 (en) * 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US20140303814A1 (en) * 2013-03-24 2014-10-09 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
KR20150136209A (en) * 2014-05-26 2015-12-07 서울대학교산학협력단 Obstacle avoidance system and method based on multiple images

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230137693A1 (en) * 2020-04-21 2023-05-04 Pyka Inc. Unmanned aerial vehicle aerial spraying control
US11726479B2 (en) * 2020-04-21 2023-08-15 Pyka Inc. Unmanned aerial vehicle aerial spraying control
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
KR102384334B1 (en) * 2021-02-26 2022-04-08 주식회사 이노드 Apparatus and method for providing crop information of cultivation area
KR20230036438A (en) * 2021-09-07 2023-03-14 경상국립대학교산학협력단 Apparatus and method for automatically generating flight path mission files of unmanned aerial vehicles
KR102514706B1 (en) 2021-09-07 2023-03-29 경상국립대학교산학협력단 Apparatus and method for automatically generating flight path mission files of unmanned aerial vehicles
KR102467855B1 (en) * 2021-09-17 2022-11-16 경남도립거창대학산학협력단 A method for setting an autonomous navigation map, a method for an unmanned aerial vehicle to fly autonomously based on an autonomous navigation map, and a system for implementing the same
KR102447678B1 (en) * 2022-05-16 2022-09-26 이대권 Drone for measuring atmosphere environment
KR20240005607A (en) 2022-07-05 2024-01-12 주식회사 이노드 Image matching method of image taken by unmanned aerial vehicle and device therefor
CN116733472A (en) * 2023-06-05 2023-09-12 江西华丽丰科技有限公司 Metal ore mining and selecting control system based on intelligent algorithm
CN116543309A (en) * 2023-06-28 2023-08-04 华南农业大学 Crop abnormal information acquisition method, system, electronic equipment and medium
CN116543309B (en) * 2023-06-28 2023-10-27 华南农业大学 Crop abnormal information acquisition method, system, electronic equipment and medium
CN117612047A (en) * 2024-01-23 2024-02-27 国网湖北省电力有限公司信息通信公司 Unmanned aerial vehicle inspection image recognition method for power grid based on AI large model
CN117612047B (en) * 2024-01-23 2024-04-12 国网湖北省电力有限公司信息通信公司 Unmanned aerial vehicle inspection image recognition method for power grid based on AI large model

Also Published As

Publication number Publication date
KR102300799B1 (en) 2021-09-10

Similar Documents

Publication Publication Date Title
KR102187654B1 (en) Low altitude drone and Crop Cultivating Information Acquisition System including the same
Torres-Sánchez et al. Mapping the 3D structure of almond trees using UAV acquired photogrammetric point clouds and object-based image analysis
Hamylton et al. Evaluating techniques for mapping island vegetation from unmanned aerial vehicle (UAV) images: Pixel classification, visual interpretation and machine learning approaches
Zhang et al. Orchard management with small unmanned aerial vehicles: A survey of sensing and analysis approaches
CN106407880B (en) Use the storage of image procossing, growth and risk profile
Meivel et al. Remote sensing analysis of agricultural drone
Xue et al. Assessment of canopy vigor information from kiwifruit plants based on a digital surface model from unmanned aerial vehicle imagery
US20220366605A1 (en) Accurate geolocation in remote-sensing imaging
Kierdorf et al. GrowliFlower: An image time‐series dataset for GROWth analysis of cauLIFLOWER
Liu et al. An efficient approach based on UAV orthographic imagery to map paddy with support of field-level canopy height from point cloud data
Zhu et al. Estimating and mapping mangrove biomass dynamic change using WorldView-2 images and digital surface models
Zhou et al. An automated, high-performance approach for detecting and characterizing broccoli based on UAV remote-sensing and transformers: A case study from Haining, China
Vanegas et al. Multi and hyperspectral UAV remote sensing: Grapevine phylloxera detection in vineyards
Zou et al. The fusion of satellite and unmanned aerial vehicle (UAV) imagery for improving classification performance
Thomas et al. Impacts of abrupt terrain changes and grass cover on vertical accuracy of UAS-SfM derived elevation models
Zhu et al. UAV flight height impacts on wheat biomass estimation via machine and deep learning
Duman et al. Design of a smart vertical farming system using image processing
Wijesingha Geometric quality assessment of multi-rotor unmanned aerial vehicle borne remote sensing products for precision agriculture
Fertu et al. Monitoring the vegetation of agricultural crops using drones and remote sensing-comparative presentation.
KR102408373B1 (en) Method and Apparatus for Automated Management of an Agricultural Land Information
KULPANICH et al. HEIGHT MEASUREMENT AND OIL PALM YIELD PREDICTION USING UNMANNED AERIAL VEHICLE (UAV) DATA TO CREATE CANOPY HEIGHT MODEL (CHM).
Izere Plant Height Estimation Using RTK-GNSS Enabled Unmanned Aerial Vehicle (UAV) Photogrammetry
Poudel et al. Assessing Red Pine Seedlings Using Uav Point Clouds and Field-Verified Data
Aguilar Results of the drone survey for Ngaitupoto Ki Motokaraka Trust
Sun et al. Individual tree segmentation and biomass estimation based on UAV Digital aerial photograph

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant