KR102371909B1 - Smart farm crop monitoring method and system using drones - Google Patents

Smart farm crop monitoring method and system using drones Download PDF

Info

Publication number
KR102371909B1
KR102371909B1 KR1020200030145A KR20200030145A KR102371909B1 KR 102371909 B1 KR102371909 B1 KR 102371909B1 KR 1020200030145 A KR1020200030145 A KR 1020200030145A KR 20200030145 A KR20200030145 A KR 20200030145A KR 102371909 B1 KR102371909 B1 KR 102371909B1
Authority
KR
South Korea
Prior art keywords
drone
crop
point
movement
abnormal target
Prior art date
Application number
KR1020200030145A
Other languages
Korean (ko)
Other versions
KR20210115101A (en
Inventor
박수홍
Original Assignee
박수홍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박수홍 filed Critical 박수홍
Priority to KR1020200030145A priority Critical patent/KR102371909B1/en
Publication of KR20210115101A publication Critical patent/KR20210115101A/en
Application granted granted Critical
Publication of KR102371909B1 publication Critical patent/KR102371909B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/22Ground or aircraft-carrier-deck installations for handling aircraft
    • B64F1/222Ground or aircraft-carrier-deck installations for handling aircraft for storing aircraft, e.g. in hangars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • B64C2201/123
    • B64C2201/127
    • B64C2201/141
    • B64C2201/20
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Agronomy & Crop Science (AREA)
  • Data Mining & Analysis (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Mechanical Engineering (AREA)
  • Animal Husbandry (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Catching Or Destruction (AREA)

Abstract

본 발명은, 작물 구역내의 지정된 복수의 이동 포인트에 따른 비행을 시작하는 단계, 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하는 단계, 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하는 단계 및 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계를 포함하는, 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것이다.The present invention comprises the steps of starting a flight according to a plurality of designated moving points in a crop area, detecting an abnormal target using a crop monitoring sensor provided while moving from a first point to a second point of the plurality of moving points; Flying from the current flight position between the first point and the second point to the abnormal target according to the detection of the abnormal target, and the crop abnormal information including the photographed image and the position information including the abnormal target Transmitting through wireless communication It relates to a smart farm crop monitoring method and monitoring system using a drone, comprising the steps.

Description

드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템{SMART FARM CROP MONITORING METHOD AND SYSTEM USING DRONES}Smart farm crop monitoring method and monitoring system using drones {SMART FARM CROP MONITORING METHOD AND SYSTEM USING DRONES}

본 발명은 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것으로서, 구체적으로는 농장 구역 내를 비행하는 드론을 이용하여 작물의 생장 상태 및 병해충 상태를 모니터링하고 이에 따라 작물의 상태를 관리할 수 있는 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것이다. The present invention relates to a smart farm crop monitoring method and monitoring system using a drone, and more specifically, by using a drone flying in a farm area to monitor the growth status and pest status of crops, and to manage the status of the crops accordingly. It relates to a smart farm crop monitoring method and monitoring system using a drone.

2차 산업과 3차 산업에서는 많은 자동화가 이루어지고 있다. 제조업이나 서비스업 분야에서는 로봇, 자동화 기기, 인공 지능 기기 등을 이용하여 다양한 과정과 처리가 자동화되고 있다. A lot of automation is taking place in the secondary and tertiary industries. In the manufacturing and service industries, various processes and processes are being automated using robots, automated devices, artificial intelligence devices, and the like.

1차 산업인 농업, 임업 분야에서도 다양한 자동화 시도가 이루어지고 있으나 소정의 성과가 발생하지 않고 여전히 많은 인적 관여가 필요하다. 특히, 쌀, 보리, 밀, 사과, 배 등과 같은 농작물 이나 과일(이하, '작물'이라함.)은 지속적인 생장 관리와 보호가 필요하다. Various automation attempts are being made in the primary industries of agriculture and forestry, but there are no results and a lot of human involvement is still required. In particular, crops or fruits such as rice, barley, wheat, apples and pears (hereinafter referred to as 'crops') require continuous growth management and protection.

예를 들어, 농작인(농부나 관리인)은 쌀, 보리, 밀 등의 씨를 뿌리고 발아 과정 및 성장 과정에서 쌀, 보리, 밀 등의 생육이 정상적 이도록 다양한 관리 활동을 취한다. 농작인은 잡초를 제거하거나 병충해를 줄이기 위해 지정된 시기마다 농약 등을 작물에 뿌린다. 이러한 다양한 활동을 위해, 농작인은 지속적으로 작물이 자라는 농장이나 과수원을 방문하여야 한다. For example, a farmer (a farmer or manager) sows seeds of rice, barley, wheat, etc., and takes various management activities to ensure the normal growth of rice, barley, and wheat during germination and growth. Farmers spray pesticides on crops at designated times to remove weeds or reduce pests and pests. For these various activities, farmers must constantly visit farms or orchards where crops are grown.

특히, 작물이 병충해를 입거나 발육에 문제가 있는 경우 작물의 작황은 매우 나빠져 그 수확량이 줄어들거나 품질이 나빠지는 문제가 발생한다. 이에 따라, 농작인은 병충해를 예방하기 위한 다양한 약물을 선제적으로 작물에 뿌려야 하거나 추가적인 발육 촉진 활동을 수행하여야 한다. 이러한 활동으로 필요 이상의 인적 관여와 작물의 품질을 또한 낮추는 문제를 야기한다.In particular, when a crop is damaged by pests or there is a problem with its growth, the crop's crop condition is very bad, resulting in a reduced yield or poor quality. Accordingly, the farmer must preemptively spray various drugs to prevent diseases and pests on crops or perform additional growth promotion activities. These activities cause more human involvement than necessary and also lower the quality of crops.

이와 같이, 작물의 생장 문제와 병충해 발생의 파악을 자동화하여 작물의 상태를 미리 예측하고 관리 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템이 필요하다.As such, there is a need for a smart farm crop monitoring method and monitoring system using a drone that can predict and manage crop conditions in advance by automating the identification of crop growth problems and outbreaks of pests.

공개특허 10-2018-0079725, 2018년07월11일Patent Publication 10-2018-0079725, July 11, 2018

본 발명은 상술한 문제점을 해결하기 위해서 안출한 것으로서, 드론을 활용하여 작물의 최적 생육을 관리할 수 있는 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a smart farm crop monitoring method and monitoring system using a drone that can manage the optimal growth of crops using the drone.

또한, 본 발명은 드론에 장착되는 센서를 이용한 타겟 추적으로 작물의 위치별 생장 상태를 파악하고 병해충의 발생을 선제적으로 분석 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is to provide a smart farm crop monitoring method and monitoring system using a drone capable of identifying the growth status of crops by location by tracking a target using a sensor mounted on a drone and preemptively analyzing the occurrence of pests and pests. There is this.

또한, 본 발명은 작물 구역 내에서 작물 감시 가능한 복수의 드론을 이용하여 작물 구역 내 생장 상태 이상이나 병해충 이상의 위치를 특정하고 특정된 위치에서 촬영된 이미지 분석으로 작물의 생장을 감시 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention uses a plurality of drones capable of monitoring crops within the crop area to specify the location of abnormal growth conditions or pests in the crop area, and a smart drone using a drone capable of monitoring the growth of crops by analyzing images taken at the specified location An object of the present invention is to provide a method and a monitoring system for monitoring a farm crop.

또한, 본 발명은 작물 구역 내에서 지정된 스케줄에 따라 작물 감시 가능하고 작물 감시 완료 후 안전하게 지정된 도킹 스테이션에 착륙하고 이후 무선 충전 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is capable of monitoring crops according to a specified schedule within the crop area, and after completion of crop monitoring, safely landing at a designated docking station, and thereafter to provide a smart farm crop monitoring method and monitoring system using a drone capable of wireless charging. there is.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 발명에 일 양상에 따른 작물 감시 방법은 드론이 작물 구역내의 지정된 복수의 이동 포인트에 따른 비행을 시작하는 단계, 드론이 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하는 단계, 드론이 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하는 단계 및 드론이 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계를 포함한다.Crop monitoring method according to an aspect of the present invention comprises the steps of starting a flight according to a plurality of designated movement points in a crop area by a drone, and monitoring crops provided while the drone moves from a first point to a second point of the plurality of movement points Detecting an abnormal target using a sensor, the drone flying to the abnormal target from the current flight position between the first point and the second point according to the detection of the abnormal target, and the image captured by the drone including the abnormal target and and transmitting crop abnormality information including location information through wireless communication.

상기한 작물 감시 방법에 있어서, 이상 타겟을 검출하는 단계는 비행중 드론의 센싱 방향을 변경하고 근적외선 센서 또는 열화상 센서인 작물 모니터링 센서에 의해 변경된 센싱 방향에서 노출된 데이터 영역을 센싱하고 센싱된 데이터 영역에서 지정된 임계치 이상의 데이터를 포함하는 지로 이상 타겟을 검출한다. In the above-described crop monitoring method, the detecting of the abnormal target includes changing the sensing direction of the drone during flight and sensing the data area exposed in the sensing direction changed by the crop monitoring sensor, which is a near-infrared sensor or a thermal image sensor, and the sensed data A giro abnormal target including data exceeding a specified threshold value in the area is detected.

상기한 작물 감시 방법에 있어서, 이상 타겟을 검출하는 단계는 센싱된 데이터 영역의 복수의 데이터 중 이웃하는 데이터와의 데이터 차가 지정된 임계치 이상인 데이터를 포함하는 서브 영역을 이상 타겟으로 결정하고, 이상 타겟으로 비행하는 단계는 센싱된 데이터 영역에서의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행한다. In the above-described crop monitoring method, the detecting of the abnormal target comprises determining, as an abnormal target, a sub-region including data in which a data difference with neighboring data among a plurality of data of the sensed data region is equal to or greater than a specified threshold, and as an abnormal target. The flying step flies in a direction determined by the relative position of the sub-region in the sensed data area.

상기한 작물 감시 방법에 있어서, 작물 이상 정보의 전송 이후에, 드론이 현재 비행 위치에 의해 결정되는 비행 위치로 리턴하는 단계 및 작물 감시를 위한 복수의 이동 포인트를 통한 비행 이후에 드론이 무선 충전 가능한 드론 스테이션에 착륙하는 단계를 더 포함한다.In the above crop monitoring method, after the transmission of crop abnormality information, the drone returns to the flight position determined by the current flight position, and the drone can be wirelessly charged after flying through a plurality of moving points for crop monitoring and landing at the drone station.

상기한 작물 감시 방법에 있어서, 드론 스테이션에 착륙하는 단계는 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 드론의 3차원 위치를 변경한다.In the above-described crop monitoring method, the step of landing at the drone station includes moving to the location of the drone station using the provided GPS sensor, identifying the marker of the wireless charging pad from the image taken by the provided vision camera, and selecting the identified marker. It changes the 3D position of the drone according to its position and size.

또한, 본 발명에 일 양상에 따른 작물 감시 시스템은 복수의 드론을 포함하고, 각각의 드론은, 드론별 달리 지정되는 복수의 이동 포인트에 따른 비행을 시작하고 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하고 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하고 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송한다.In addition, the crop monitoring system according to an aspect of the present invention includes a plurality of drones, and each drone starts flying according to a plurality of movement points differently designated for each drone, and starts flying from the first point of the plurality of movement points. An abnormal target is detected using the crop monitoring sensor provided while moving to two points, and the image is taken including the abnormal target flying from the current flight position between the first point and the second point according to the detection of the abnormal target and crop abnormality information including location information is transmitted through wireless communication.

상기한 작물 감시 시스템에 있어서, 드론은 비행중 드론의 센싱 방향을 변경하고 근적외선 센서 또는 열화상 센서인 작물 모니터링 센서에 의해 변경된 센싱 방향에서 노출된 데이터 영역을 센싱하고 센싱된 데이터 영역에서 지정된 임계치 이상의 데이터를 포함하는 지로 이상 타겟을 검출한다.In the crop monitoring system described above, the drone changes the sensing direction of the drone during flight and senses the exposed data area in the sensing direction changed by the crop monitoring sensor, which is a near-infrared sensor or a thermal image sensor, and exceeds a specified threshold in the sensed data area. An abnormal target containing data is detected.

상기한 작물 감시 시스템에 있어서, 드론은 센싱된 데이터 영역의 복수의 데이터 중 이웃하는 데이터와의 데이터 차가 지정된 임계치 이상인 데이터를 포함하는 서브 영역을 이상 타겟으로 결정하고, 센싱된 데이터 영역에서의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행한다.In the crop monitoring system described above, the drone determines, as an abnormal target, a sub-region including data in which a data difference with respect to neighboring data is greater than or equal to a specified threshold among a plurality of data in the sensed data region, and the sub-region in the sensed data region Fly in a direction determined by the relative position of

상기한 작물 감시 시스템에 있어서, 마커가 표시된 무선충전패드를 포함하는 드론 스테이션을 더 포함하고, 드론은 복수의 이동 포인트로의 비행을 통한 작물 구역의 작물 감시 이후에 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 무선충전패드에 착륙하기 위해 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 드론의 3차원 위치를 변경한다.In the crop monitoring system described above, further comprising a drone station including a wireless charging pad marked with a marker, wherein the drone uses a GPS sensor provided after crop monitoring in a crop area through flight to a plurality of moving points. It moves to the station's location and identifies the marker of the wireless charging pad from the image taken by the vision camera equipped to land on the wireless charging pad, and changes the three-dimensional position of the drone according to the position and size of the identified marker.

상기한 작물 감시 시스템에 있어서, 드론 스테이션을 통해 드론과 무선통신 가능한 지역관제센터를 더 포함하고, 지역관제센터는 드론으로부터 작물 이상 정보를 수신하고 복수의 작물 이미지로 학습된 AI(Artificial Intelligence)를 통해 작물 이상 정보의 이상을 분류한다.In the crop monitoring system described above, further comprising a regional control center capable of wireless communication with a drone through a drone station, wherein the regional control center receives crop abnormality information from the drone and uses AI (Artificial Intelligence) learned from a plurality of crop images. Classify anomalies in crop anomaly information through

상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 드론을 활용하여 작물의 최적 생육을 관리할 수 있는 효과가 있다.The smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above is effective in managing the optimal growth of crops by using the drone.

또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 드론에 장착되는 센서를 이용한 타겟 추적으로 작물의 위치별 생장 상태를 파악하고 병해충의 발생을 선제적으로 분석 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above is an effect that can identify the growth state of crops by location and preemptively analyze the occurrence of pests by target tracking using a sensor mounted on the drone. there is

또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 작물 구역 내에서 작물 감시 가능한 복수의 드론을 이용하여 작물 구역 내 생장 상태 이상이나 병해충 이상의 위치를 특정하고 특정된 위치에서 촬영된 이미지 분석으로 작물의 생장을 감시 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above uses a plurality of drones capable of monitoring crops in the crop area to specify the location of abnormalities in growth conditions or pests and abnormalities in the crop area and the specified location There is an effect of monitoring the growth of crops by analyzing the images taken in

또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 작물 구역 내에서 지정된 스케줄에 따라 작물 감시 가능하고 작물 감시 완료 후 안전하게 지정된 도킹 스테이션에 착륙하고 이후 무선 충전 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above can monitor crops according to a specified schedule within the crop area, land safely at a designated docking station after crop monitoring is completed, and wirelessly charge thereafter. there is.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

도 1은 본 발명에 따른 예시적인 스마트 팜 작물 감시 시스템을 도시한 도면이다.
도 2은 지역관제센터의 예시적인 블록도를 도시한 도면이다.
도 3은 드론 스테이션의 예시적인 구조를 도시한 도면이다.
도 4는 드론의 예시적인 블록도를 도시한 도면이다.
도 5는 본 발명에 따라 구성되는 드론의 예시적인 외형을 도시한 도면이다.
도 6은 드론을 이용하여 작물 감시를 위한 예시적인 제어 흐름을 도시한 도면이다.
도 7은 두 대의 드론을 이용하여 일정한 작물 구역내에서 작물 감시를 행하는 예를 설명하는 도면이다.
1 is a diagram illustrating an exemplary smart farm crop monitoring system according to the present invention.
2 is a diagram illustrating an exemplary block diagram of a regional control center.
3 is a diagram illustrating an exemplary structure of a drone station.
4 is a diagram illustrating an exemplary block diagram of a drone.
5 is a view showing an exemplary external appearance of a drone constructed according to the present invention.
6 is a diagram illustrating an exemplary control flow for crop monitoring using a drone.
7 is a view for explaining an example of performing crop monitoring in a certain crop area using two drones.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. The above-described objects, features and advantages will become more clear through the detailed description that will be described later in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can understand the technical spirit of the present invention It will be easy to implement. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 예시적인 스마트 팜 작물 감시 시스템을 도시한 도면이다.1 is a diagram illustrating an exemplary smart farm crop monitoring system in accordance with the present invention.

도 1에 따르면, 드론(300)을 이용하여 스마트 팜(농장)에 재배중인 작물의 생장을 감시하기 위한 시스템은 지역관제센터(200), 하나 이상의 드론(300) 및 드론 스테이션(400)을 포함하고 드론(300) 및 드론 스테이션(400)은 작물이 재배중인 작물 구역(500)(농장) 내에 설치되어 작물 구역(500) 내의 작물의 상태를 주기적으로 및/또는 비주기적으로 감시한다. 작물 감시 시스템은 그 외 중앙관제센터(100)를 더 포함할 수 있다. According to FIG. 1 , a system for monitoring the growth of crops grown in a smart farm (farm) using a drone 300 includes a regional control center 200 , one or more drones 300 and a drone station 400 . And the drone 300 and the drone station 400 are installed in the crop area 500 (farm) where crops are being grown to periodically and/or aperiodically monitor the state of the crops in the crop area 500 . The crop monitoring system may further include a central control center 100 .

도 1을 통해 작물 감시 시스템을 살펴보면, 중앙관제센터(100)는 하나 이상의 지역관제센터(200)를 관리 및 모니터링한다. 중앙관제센터(100)는 서버, 컴퓨터 등을 구비하고 지역관제센터(200)와 인터넷을 통해 연결된다. 지역관제센터(200)는 각종 정보나 제어 정보를 중앙관제센터(100)로 전송하고 중앙관제센터(100)는 지역관제센터(200)로부터 작물 생장의 이상 정보를 수신할 수 있다. Looking at the crop monitoring system through FIG. 1 , the central control center 100 manages and monitors one or more regional control centers 200 . The central control center 100 includes a server, a computer, and the like, and is connected to the regional control center 200 through the Internet. The regional control center 200 may transmit various types of information or control information to the central control center 100 , and the central control center 100 may receive information on abnormal crop growth from the regional control center 200 .

중앙관제센터(100)는 예를 들어, 시기별 생장 유의 정보, 현재 유행중인 병해충 정보 등에 관련된 각종 정보를 지역관제센터(200)로 전송할 수 있고 그 외 지역관제센터(200)에서 이용 가능한 프로그램, 드론(300)이나 드론 스테이션(400)에서 이용 가능한 프로그램 등을 지역관제센터(200)로 전송할 수 있다. 중앙관제센터(100)는 특정 광역 지역에 설치되어 있는 여러 지역관제센터(200)를 관리 및 모니터링 가능하다. The central control center 100 may transmit various information related to, for example, information on growth significance for each period, information on pests currently in vogue, etc. to the regional control center 200, and other programs available in the regional control center 200; Programs available in the drone 300 or the drone station 400 may be transmitted to the regional control center 200 . The central control center 100 can manage and monitor several regional control centers 200 installed in a specific wide area.

지역관제센터(200)는 작물이 재배되고 있는 작물 구역(500) 내의 드론(300)을 제어하여 작물의 상태를 감시한다. 지역관제센터(200)는 작물 구역(500) 내의 여러 드론(300)의 비행 스케줄, 비행 경로 등을 설정할 수 있고 드론(300)과 무선통신을 통해 비행 중에 생성되는 작물 이상 정보를 수신하여 이를 저장하고 작물 이상 정보를 분석할 수 있다. The regional control center 200 monitors the state of the crop by controlling the drone 300 in the crop area 500 where crops are grown. The regional control center 200 can set flight schedules, flight routes, etc. of several drones 300 within the crop area 500, and receive and store crop abnormality information generated during flight through wireless communication with the drone 300 and crop anomaly information can be analyzed.

지역관제센터(200)는 무선 AP, 라우터, NVR 및 백엔드 서버 등을 구비하여 드론(300)을 통해 수신되는 작물 이상 정보에 대한 분석으로 관리 대상 작물의 생장이나 병충 발생 여부를 분석할 수 있다. 지역관제센터(200)는 작물 구역(500)내(예를 들어, 유리 등으로 외부와 분리되어 작물 재배 공간을 가지는 농장)의 다수의 드론(300)에 대한 비행 스케줄, 비행 경로를 설정하고 무선통신을 통해 각각의 드론(300)으로 감시 요청을 전송할 수 있다.The regional control center 200 is equipped with a wireless AP, a router, an NVR, and a back-end server to analyze the crop abnormality information received through the drone 300 to analyze the growth or occurrence of pests of the crop to be managed. The regional control center 200 sets flight schedules and flight routes for a plurality of drones 300 within the crop area 500 (eg, a farm having a crop growing space separated from the outside by glass, etc.) and wirelessly A monitoring request may be transmitted to each drone 300 through communication.

작물 구역(500)내 하나의 드론(300)에 대해 설정되는 비행 경로와 다른 드론(300)에 대해 설정되는 비행 경로는 서로 다를 수 있고 비행 경로는 복수의 이동 포인트(501)로 특정될 수 있다. 즉, 각각의 드론(300)은 감시 요청이나 설정된 주기에 따라 해당 드론(300)에 대해 설정된 복수의 이동 포인트(501)(예를 들어, 위도 및 경도의 GPS좌표)로 비행하고 비행 중에 작물 이상을 감지하여 이를 지역관제센터(200)로 알릴 수 있다. A flight path set for one drone 300 in the crop zone 500 and a flight path set for another drone 300 may be different from each other, and the flight path may be specified by a plurality of movement points 501 . . That is, each drone 300 flies to a plurality of movement points 501 (eg, GPS coordinates of latitude and longitude) set for the corresponding drone 300 according to a monitoring request or a set period, and crops abnormalities during flight. can be detected and reported to the regional control center 200 .

지역관제센터(200)는 드론 스테이션(400)을 통해 드론(300)과 무선통신 가능하거나 직접 드론(300)과 무선통신 가능하다. The regional control center 200 may wirelessly communicate with the drone 300 through the drone station 400 or directly communicate with the drone 300 wirelessly.

지역관제센터(200)에 대해서는 도 2와 도 6에서 좀 더 상세히 살펴보도록 한다. The regional control center 200 will be described in more detail with reference to FIGS. 2 and 6 .

드론(300)은 작물 구역(500) 내에 설치되어 설정된 비행 경로에 따라 비행하면서 작물 구역(500) 내의 작물의 상태를 모니터링할 수 있는 기기이다. 작물 구역(500) 내에 설치되어 운영되는 드론(300)들 각각은 설정된 주기에 따라 자동으로 또는 지역관제센터(200)로부터의 감시 요청에 따라 드론 스테이션(400)으로부터 이륙하여 재배중인 작물을 감시하고 감시에 따른 정보를 지역관제센터(200)로 전송 가능하다. The drone 300 is installed in the crop zone 500 and is a device capable of monitoring the state of crops in the crop zone 500 while flying according to a set flight path. Each of the drones 300 installed and operated in the crop area 500 take off from the drone station 400 automatically according to a set period or according to a monitoring request from the regional control center 200 to monitor the crops being grown and Information according to the monitoring can be transmitted to the regional control center 200 .

드론(300)에 대해서는 도 4 이하에서 좀 더 상세히 살펴보도록 한다. The drone 300 will be described in more detail below with reference to FIG. 4 .

드론 스테이션(400)은 드론(300)을 보호하기 위한 격납고이다. 드론 스테이션(400)은 무선충전패드(407)를 포함하여 무선충전패드(407)에 안착한 드론(300)의 배터리(313)를 무선충전할 수 있도록 구성된다. 드론 스테이션(400)은 드론(300)의 착륙시에 이용 가능한 마커(407-1)(표시)를 무선충전패드(407) 표면에 포함할 수 있다.The drone station 400 is a hangar for protecting the drone 300 . The drone station 400 is configured to wirelessly charge the battery 313 of the drone 300 seated on the wireless charging pad 407 including the wireless charging pad 407 . The drone station 400 may include on the surface of the wireless charging pad 407 a marker 407 - 1 (mark) usable when the drone 300 is landed.

드론 스테이션(400)에 대해서는 도 3에서 좀 더 상세히 살펴보도록 한다. The drone station 400 will be described in more detail with reference to FIG. 3 .

작물 구역(500)은 작물이 재배되는 영역을 나타낸다. 작물 구역(500)은 소위 논, 묘목장, 농장, 과수원 등일 수 있다. 바람직하게는 작물 구역(500)은 유리, 비닐, 플라스틱 등을 이용하여 외부와 분리되고 농장 내에 작물 재배인(농작인)의 이동, 수확을 위한 이동 통로(503)와 작물이 재배되는 작물재배 영역(505)을 포함하여 구성될 수 있다. 작물 구역(500)은 다수의 이동 통로(503)와 다수의 작물재배 영역(505)을 포함하여 이동 통로(503)상에 작물 재배인이 이동하거나 드론(300)이 비행할 수 있다. Crop zone 500 represents an area in which crops are grown. Crop zone 500 may be a so-called paddy field, nursery, farm, orchard, or the like. Preferably, the crop area 500 is separated from the outside by using glass, vinyl, plastic, etc., and a movement passage 503 for movement and harvesting of a crop grower (farmer) within the farm and a crop cultivation area where crops are grown. 505 may be included. The crop zone 500 includes a plurality of movement passages 503 and a plurality of crop cultivation areas 505 so that a crop grower can move or the drone 300 can fly on the movement passage 503 .

도 2은 지역관제센터(200)의 예시적인 블록도를 도시한 도면이다.2 is a diagram illustrating an exemplary block diagram of the regional control center 200 .

도 2에 따르면, 지역관제센터(200)는 입력부(201), 출력부(203), 통신부(205), 디스플레이부(207), 저장부(209) 및 제어부(211)를 포함한다. 도 2의 블록도는 바람직하게는 기능 블록도를 나타내고 지역관제센터(200)는 다양한 하드웨어 구성을 통해 본 기능 블록을 구성할 수 있다. 예를 들어, 지역관제센터(200)는 무선 AP, 라우터, NVR, 백엔드 서버 및 퍼스널 컴퓨터를 포함하여 각 기능 블록에 정의된 기능을 수행할 수 있다.According to FIG. 2 , the regional control center 200 includes an input unit 201 , an output unit 203 , a communication unit 205 , a display unit 207 , a storage unit 209 , and a control unit 211 . The block diagram of FIG. 2 preferably shows a functional block diagram, and the regional control center 200 may configure this functional block through various hardware configurations. For example, the regional control center 200 may perform a function defined in each functional block, including a wireless AP, a router, an NVR, a back-end server, and a personal computer.

도 2를 통해 지역관제센터(200)를 살펴보면, 입력부(201)는 지역관제센터(200) 내의 관리자, 농작인 등의 사용자 입력을 수신한다. 입력부(201)는 버튼, 터치패널, 마우스, 키보드, 마이크 등을 구비하여 관리자 등으로부터의 각종 구동 제어, 설정 등의 입력을 수신할 수 있다. Referring to the regional control center 200 through FIG. 2 , the input unit 201 receives a user input such as a manager or a farmer in the regional control center 200 . The input unit 201 may include a button, a touch panel, a mouse, a keyboard, a microphone, and the like, and may receive input such as various driving controls and settings from an administrator or the like.

출력부(203)는 각종 신호를 출력한다. 출력부(203)는 부저, LED, 스피커 등을 구비하여 관리자 등에게 알리기 위한 각종 신호를 출력할 수 있다. 설계 예에 따라 입력부(201)와 출력부(203) 등의 구성은 지역관제센터(200)에서 생략될 수 있다.The output unit 203 outputs various signals. The output unit 203 may include a buzzer, an LED, a speaker, and the like, and output various signals for notifying a manager or the like. Depending on the design example, the configuration of the input unit 201 and the output unit 203 may be omitted from the regional control center 200 .

통신부(205)는 데이터 통신을 수행한다. 통신부(205)는 라우터, 무선 AP, 유선 랜 인터페이스 등을 구비하여 인터넷을 통해 중앙관제센터(100)와 각종 데이터를 송수신하거나 무선랜(와이파이) 및/또는 LTE 등의 이동통신망에 따른 무선통신을 통해 드론 스테이션(400) 및/또는 드론(300)과 각종 데이터를 송수신한다. The communication unit 205 performs data communication. The communication unit 205 is provided with a router, a wireless AP, a wired LAN interface, etc. to transmit/receive various data to and from the central control center 100 through the Internet, or perform wireless communication according to a mobile communication network such as wireless LAN (Wi-Fi) and/or LTE. It transmits and receives various data to and from the drone station 400 and/or the drone 300 through the

디스플레이부(207)는 LCD, LED, TFT-LCD 디스플레이 모듈 등을 구비하여 제어부(211)로부터 수신되는 비디오 프레임 신호를 출력한다. 디스플레이부(207)는 작물 이상 정보의 시각 이미지를 제어부(211)로부터 수신하여 출력할 수 있다.The display unit 207 includes an LCD, an LED, a TFT-LCD display module, and the like, and outputs a video frame signal received from the control unit 211 . The display unit 207 may receive and output a visual image of crop abnormality information from the control unit 211 .

저장부(209)는 휘발성 메모리, 비휘발성 메모리, 하드디스크 등의 대용량 저장매체를 포함하여 각종 데이터와 프로그램 등을 저장한다. 예를 들어, 저장부(209)는 지역관제센터(200)와 나아가 작물 구역(500) 내의 복수의 드론(300)을 제어하기 위한 제어 프로그램, 드론(300)으로부터 수신된 작물 이상 정보로부터 작물 이상 상태를 분석하기 위한 분석 프로그램, 드론(300)으로부터 수신되고 이상 상태로 추정된 이미지(작물 이상 정보의 이미지)를 저장하기 위한 이상 이미지 DB를 저장한다. 작물 이상 정보는 작물의 상태가 발육(생장) 저하, 병해충 인식, 발충해 발생 등과 같이 작물의 비정상적인(abnormal) 상태를 식별할 수 있는 이미지를 포함할 수 있다. The storage unit 209 stores various data and programs including mass storage media such as volatile memory, non-volatile memory, and hard disk. For example, the storage unit 209 is a control program for controlling the regional control center 200 and further, a plurality of drones 300 in the crop area 500, and crop abnormality information from crop abnormality information received from the drone 300. An analysis program for analyzing a state, an abnormal image DB for storing an image (an image of crop abnormality information) received from the drone 300 and estimated as an abnormal state is stored. The crop abnormality information may include an image capable of identifying an abnormal state of a crop, such as a decrease in growth (growth), recognition of pests, and occurrence of pests.

이상 이미지 DB는 복수의 이상 이미지 아이템으로 구성되고 각각의 이상 이미지 아이템은 촬영 시각, 촬영된 시각(vision) 이미지 및 위치 정보를 포함하고 나아가 센싱 데이터 이미지를 더 포함할 수 있다. 시각 이미지는 시각적으로(비전으로) 분석 가능한 2차원 어레이 데이터일 수 있고 센싱 데이터 이미지는 작물 모니터링 센서에 의해 센싱된 2차원의 센싱 데이터 어레이일 수 있다. 위치 정보는 이미지를 촬영한 드론(300)의 위치를 나타낼 수 있다. The abnormal image DB is composed of a plurality of abnormal image items, and each abnormal image item includes a photographing time, a photographed vision image, and location information, and may further include a sensing data image. The visual image may be a two-dimensional array data that can be analyzed visually (by vision), and the sensing data image may be a two-dimensional sensing data array sensed by a crop monitoring sensor. The location information may indicate the location of the drone 300 taking an image.

저장부(209)는 그 외 작물의 상태별로(이상 상태별로) 미리 분류되는 시각 이미지 및 센싱 데이터 이미지를 더 저장할 수 있다. The storage unit 209 may further store visual images and sensing data images that are pre-classified by other crop states (by abnormal states).

제어부(211)는 지역관제센터(200)를 제어한다. 제어부(211)는 프로그램을 수행할 수 있는 하나 이상의 실행 유닛(Execution Unit)을 구비하여 실행 유닛을 통해 저장부(209)의 프로그램을 수행하여 지역관제센터(200)를 제어할 수 있다. 제어부(211)는 CPU, MPU, GPU, 중앙처리장치, 마이컴 등을 하나 이상 포함하거나 이를 나타낼 수 있다. The control unit 211 controls the regional control center 200 . The control unit 211 may include one or more execution units capable of executing a program, and may control the regional control center 200 by executing the program of the storage unit 209 through the execution unit. The control unit 211 may include or indicate one or more of a CPU, an MPU, a GPU, a central processing unit, a microcomputer, and the like.

예를 들어, 제어 프로그램을 수행하는 제어부(211)는 작물 구역(500) 내의 복수의 드론(300)으로 비행 스케줄, 비행 경로 등을 무선통신을 통해 설정하고 복수의 드론(300)의 비행을 제어(예를 들어, 감시 요청의 전송 등)할 수 있다. 제어부(211)는 클라우드 기반의 제어 플랫폼을 이용하여 작물 구역(500)내의 복수의 드론(300)을 통일적으로 제어 가능하다. 또한, 제어 프로그램을 수행하는 제어부(211)는 임의의 드론(300)으로부터 작물 이상 정보를 수신하고 이상 이미지 아이템을 생성하여 촬영 시각과 함께 작물 이상 정보의 시각 이미지, 센싱 데이터 이미지 및 위치 정보를 저장할 수 있다. For example, the control unit 211 performing the control program sets a flight schedule, a flight route, etc. with the plurality of drones 300 in the crop area 500 through wireless communication and controls the flight of the plurality of drones 300 . (eg, sending a monitoring request, etc.). The controller 211 can uniformly control the plurality of drones 300 in the crop area 500 using a cloud-based control platform. In addition, the control unit 211 for performing the control program receives crop abnormality information from an arbitrary drone 300 and generates an abnormal image item to store a visual image of crop abnormality information, a sensing data image, and location information together with a shooting time. can

제어부(211)는 작물 이상 정보의 수신을 출력부(203)를 통해 출력하거나 디스플레이부(207)를 통해 시각 이미지 및 센싱 데이터 이미지를 출력할 수 있다. 제어 프로그램은 프런트 엔드 클라이언트로 동작하는 퍼스널 컴퓨터에서 수행될 수 있다.The control unit 211 may output the reception of crop abnormality information through the output unit 203 or output a visual image and a sensing data image through the display unit 207 . The control program may be executed in a personal computer operating as a front-end client.

분석 프로그램을 수행하는 제어부(211)는 이상 이미지 DB에 저장된 이상 이미지 아이템에 대한 분석을 수행한다. 단순히, 제어부(211)는 수신된 이상 이미지 아이템의 영상 및 센싱 이미지를 디스플레이부(207)로 출력하고 사용자 입력에 따라 이상 상태를 분류할 수 있다. The control unit 211 executing the analysis program analyzes the abnormal image item stored in the abnormal image DB. Simply, the controller 211 may output an image and a sensed image of the received abnormal image item to the display 207 and classify the abnormal state according to a user input.

또는, 제어부(211)는 저장부(209)의 이상 상태별로 미리 분류되는 시각 이미지 및 센싱 데이터 이미지와 수신된 이상 이미지 아이템의 시각 이미지 및 센싱 데이터 이미지를 비교하여 이상 상태를 분류하고 분류된 결과를 이상 이미지 아이템에 더 저장할 수 있다. 제어부(211)는 여러 작물 이미지와 각 작물 이미지에 대한 이상 상태 분류로 미리 학습된 인공지능(Artificial Intelligence : AI) 알고리즘을 통해 이상 이미지 아이템의 시각 이미지로부터 이상 상태를 분류하고 그 분류된 결과를 이상 이미지 아이템에 저장할 수 있다. 분석시, 제어부(211)는 시각 이미지만을 이용하여 이상 상태 분류를 수행하거나 센싱 데이터 이미지를 더 이용하여 이상 상태를 분류할 수 있다. Alternatively, the controller 211 classifies the abnormal state by comparing the visual image and the sensing data image that are pre-classified for each abnormal state of the storage unit 209 with the visual image and the sensing data image of the received abnormal image item, and displays the classified result. You can store more in the image item above. The control unit 211 classifies the abnormal state from the visual image of the abnormal image item through an artificial intelligence (AI) algorithm pre-learned by multiple crop images and abnormal state classification for each crop image, and the classified result is abnormal. You can store it in an image item. During analysis, the controller 211 may classify the abnormal state using only the visual image or classify the abnormal state by further using the sensing data image.

제어부(211)는 생장 불량, 병충해 발견 등의 이상 상태를 이상 이미지 아이템에 대해 분류 및 저장하고 각각의 이상 이미지 아이템의 이상 상태들을 이상 이미지 아이템들의 위치별로 클러스터링하여 병해충의 발생시작, 병해충 증가, 저생장 초기, 저생장 확산 등의 가능성을 인공지능 기술 등을 이용하여 미리 예측하고 예측 결과를 제어부(211)가 디스플레이부(207)나 출력부(203)를 통해 출력할 수 있다. 제어부(211)는 생장, 병해충 등의 예측 결과와 함께 클러스터링된 위치 영역을 같이 출력할 수 있다. 이에 따라, 관리자 등은 작물 구역(500)내의 여러 위치 영역에서의 주요한 이상 상태를 파악할 수 있다. The control unit 211 classifies and stores abnormal states such as growth failure, pest detection, etc. for abnormal image items, and clusters abnormal states of each abnormal image item by location of abnormal image items to start occurrence of pests, increase pests, reduce The possibility of early growth period, slow growth spread, etc. may be predicted in advance using artificial intelligence technology or the like, and the prediction result may be output by the control unit 211 through the display unit 207 or the output unit 203 . The controller 211 may output the clustered location area together with the prediction results of growth, pests, and the like. Accordingly, the manager or the like can identify major abnormalities in various location areas within the crop area 500 .

지역관제센터(200)에 대해서는 도 6에서 좀 더 살펴보도록 한다. The regional control center 200 will be described in more detail with reference to FIG. 6 .

도 3은 드론 스테이션(400)의 예시적인 구조를 도시한 도면이다.3 is a diagram illustrating an exemplary structure of a drone station 400 .

도 3의 드론 스테이션(400)은 드론(300)을 내부에 수용하고 드론(300)을 충전하며 필요시 드론(300)으로부터의 각종 데이터를 지역관제센터(200)와 송수신할 수 있도록 구성된다. The drone station 400 of FIG. 3 is configured to accommodate the drone 300 inside, charge the drone 300, and transmit/receive various data from the drone 300 to and from the regional control center 200 when necessary.

도 3에서 알 수 있는 바와 같이, 드론 스테이션(400)은 무선통신 모듈(401), 드론스테이션 제어 모듈(403), 무선충전 모듈(405) 및 무선충전패드(407)를 포함하고 내부에 드론(300)을 수용하고 외부와 분리하기 위한 벽체(409)와 드론(300)의 착륙을 가이드하는 하나 이상의 슬로프(411)를 더 포함할 수 있다. 3, the drone station 400 includes a wireless communication module 401, a drone station control module 403, a wireless charging module 405 and a wireless charging pad 407, and a drone ( It may further include a wall 409 for accommodating and separating from the outside and one or more slopes 411 for guiding the landing of the drone 300 .

드론 스테이션(400)은 상부가 개방되고 개방된 상부는 직사각형의 형상을 가질 수 있다. 예를 들어, 드론 스테이션(400)의 개방된 상부는 1.3 미터 * 1.3 미터 크기의 개구를 가지고 4개의 측면에 벽체(409)를 가져 드론(300)을 내부에 수용 가능하다. 벽체(409)는 유리, 아크릴, 금속재 등의 재질로 구성될 수 있고 바람직하게는 유리로 구성된다.The drone station 400 may have an open top, and an open top may have a rectangular shape. For example, the open top of the drone station 400 has a 1.3 meter * 1.3 meter size opening and has walls 409 on four sides to accommodate the drone 300 inside. The wall 409 may be made of a material such as glass, acrylic, or metal, and is preferably made of glass.

무선통신 모듈(401)은 무선통신을 통해 데이터를 송수신한다. 무선통신 모듈(401)은 무선 AP 및/또는 이동통신망을 통해 무선패킷을 송수신하기 위한 이동통신 모듈일 수 있다. 이동통신 모듈은 예를 들어 LTE 모듈일 수 있다. 무선통신 모듈(401)을 통해 드론 스테이션(400)은 지역관제센터(200)와 각종 데이터를 송수신할 수 있다. 무선통신 모듈(401)은 무선 AP나 LTE 모듈을 통해 중계기로 동작할 수 있어 드론(300)으로부터의 데이터를 지역관제센터(200)로 전송하고 지역관제센터(200)로부터의 데이터를 무선 연결된 드론(300)으로 송신할 수 있다. 무선통신 모듈(401)은 2.4GHz/5.8GHz 대역의 무선통신(예를 들어, 와이파이 통신)이나 LTE, 5G 등의 이동통신을 수행할 수 있도록 구성된다. The wireless communication module 401 transmits and receives data through wireless communication. The wireless communication module 401 may be a mobile communication module for transmitting and receiving wireless packets through a wireless AP and/or a mobile communication network. The mobile communication module may be, for example, an LTE module. The drone station 400 may transmit/receive various data to and from the regional control center 200 through the wireless communication module 401 . The wireless communication module 401 can operate as a repeater through a wireless AP or LTE module, so that data from the drone 300 is transmitted to the regional control center 200 and data from the regional control center 200 is wirelessly connected to the drone. It can be sent to (300). The wireless communication module 401 is configured to perform wireless communication (eg, Wi-Fi communication) in the 2.4 GHz/5.8 GHz band or mobile communication such as LTE, 5G, and the like.

드론스테이션 제어 모듈(403)은 드론 스테이션(400)을 제어한다. 드론스테이션 제어모듈은 알려진 컴퓨팅 보드(예를 들어, 아두이노, 라즈베리 파이 등)를 포함하여 무선충전패드(407)에서의 무선 충전 등을 제어할 수 있다. The drone station control module 403 controls the drone station 400 . The drone station control module may include a known computing board (eg, Arduino, Raspberry Pi, etc.) to control wireless charging and the like in the wireless charging pad 407 .

무선충전 모듈(405)은 무선충전패드(407)로 무선전력을 공급하거나 차단할 수 있다. 무선충전 모듈(405)은 무선전력을 생성을 위한 트랜스미터를 구비하고 드론스테이션 제어 모듈(403)로부터 수신되는 제어 신호에 따라 트랜스미터를 구동하여 내외부 전원(예를 들어, 드론 스테이션(400)에 내장된 배터리 전원이나 외부로부터 유입되는 교류 전원)을 변환하여 무선충전패드(407)의 송신코일로 출력한다. 무선충전 모듈(405)은 수신되는 제어 신호에 따라 무선전력용 전력 신호를 생성하거나 차단 가능하다. The wireless charging module 405 may supply or block wireless power to the wireless charging pad 407 . The wireless charging module 405 includes a transmitter for generating wireless power and drives the transmitter according to a control signal received from the drone station control module 403 to drive the transmitter to internal and external power sources (eg, built-in drone station 400). Battery power or AC power supplied from the outside) is converted and output to the transmission coil of the wireless charging pad 407 . The wireless charging module 405 may generate or block a power signal for wireless power according to a received control signal.

무선충전패드(407)는 송신 코일(transmission Coil)을 내부에 구비하고 무선충전패드(407) 위에 위치하는 드론(300)(의 수신코일)에 무선전력을 공급한다. 무선충전패드(407)는 자기공명 또는 자기유도 방식의 무선충전기술을 적용하여 무선충전패드(407) 상의 드론(300)에 무선전력을 공급할 수 있도록 구성된다.The wireless charging pad 407 has a transmission coil therein and supplies wireless power to the drone 300 (receiving coil of) positioned on the wireless charging pad 407 . The wireless charging pad 407 is configured to supply wireless power to the drone 300 on the wireless charging pad 407 by applying a magnetic resonance or magnetic induction type wireless charging technology.

무선충전패드(407)는 표면에 표시된 마커(407-1)를 포함하여 구성된다. 마커(407-1)(marker)는 드론(300)이 시각 이미지에서 식별 가능한 표시자로서 예를 들어, 패턴 이미지, 크로스바 이미지, 'H' 표시 등 드론(300)과 약속된 형상을 가지는 표시이다. The wireless charging pad 407 is configured to include a marker 407-1 displayed on the surface. The marker 407-1 (marker) is an indicator that the drone 300 can identify in the visual image, and is a mark having a shape promised with the drone 300, such as a pattern image, a crossbar image, an 'H' mark, etc. .

슬로프(411)는 착륙을 시도하는 드론(300)에 대해 벽체(409) 위의 개구로부터 무선충전패드(407)로의 착륙을 가이드(안내)할 수 있도록 구성된다. 드론 스테이션(400)은 2개 또는 4개의 슬로프(411)를 가지고 각각의 슬로프(411)는 개구의 한 측면으로부터 무선충전패드(407)의 표면 외곽으로의 일정한 경사(예를 들어, 70도 등)를 가진다. 슬로프(411)는 플라스틱, 고무, 금속재, 또는 직물 재질로 구성될 수 있다. 바람직하게는 슬로프(411)는 천 등의 직물 재질로 구성된다. 드론(300)에 의한 착륙이 오차로 벗어나는 경우에도 슬로프(411)에 의해 드론(300)을 안전하게 무선충전패드(407)에 안착시킬 수 있다. The slope 411 is configured to guide (guide) the landing from the opening on the wall 409 to the wireless charging pad 407 for the drone 300 attempting to land. The drone station 400 has two or four slopes 411, and each slope 411 has a constant inclination (eg, 70 degrees, etc.) from one side of the opening to the outside of the surface of the wireless charging pad 407. ) has The slope 411 may be made of plastic, rubber, metal, or fabric. Preferably, the slope 411 is made of a fabric material such as cloth. Even when the landing by the drone 300 deviates due to an error, the drone 300 can be safely seated on the wireless charging pad 407 by the slope 411 .

도 4는 드론(300)의 예시적인 블록도를 도시한 도면이다.4 is a diagram illustrating an exemplary block diagram of the drone 300 .

도 4에 따르면, 드론(300)은 무선통신부(301), 저장부(303), 카메라부(305), 센싱부(307), 드론 구동부(309), 배터리 충전부(311), 배터리(313) 및 제어부(315)를 포함한다. 도 4의 블록도는 바람직하게는 기능 블록도를 나타내고 드론(300)은 각 기능을 수행하기 위한 대응하는 하드웨어 블록(구성요소)을 가지도록 구성된다. According to FIG. 4 , the drone 300 includes a wireless communication unit 301 , a storage unit 303 , a camera unit 305 , a sensing unit 307 , a drone driving unit 309 , a battery charging unit 311 , and a battery 313 . and a control unit 315 . The block diagram of Fig. 4 preferably shows a functional block diagram and the drone 300 is configured to have corresponding hardware blocks (components) for performing each function.

도 4를 통해, 드론(300)을 살펴보면, 무선통신부(301)는 무선 데이터 통신을 수행한다. 무선통신부(301)는 2.4GHz/5.8GHz 대역의 무선통신(예를 들어, 와이파이 통신)이나 LTE, 5G 등의 무선이동통신을 수행하기 위한 통신 칩셋과 회로를 구비하여 각종 데이터를 송수신할 수 있다. 예를 들어, 무선통신부(301)는 지역관제센터(200)로부터 제어 데이터를 수신하고 제어 데이터에 따른 비행에 따라 감지된 작물 이상 정보를 무선통신을 통해 지역관제센터(200)로 전송할 수 있다. 무선통신부(301)는 직접 지역관제센터(200)와 무선통신을 수행하거나 임의의(또는 지정된) 드론 스테이션(400)을 경유하여 지역관제센터(200)와 무선통신을 수행할 수 있다. Referring to the drone 300 through FIG. 4 , the wireless communication unit 301 performs wireless data communication. The wireless communication unit 301 is provided with a communication chipset and circuit for performing wireless mobile communication such as 2.4GHz/5.8GHz band wireless communication (eg, Wi-Fi communication) or LTE, 5G, and can transmit and receive various data. . For example, the wireless communication unit 301 may receive control data from the regional control center 200 and transmit crop abnormality information detected according to the flight according to the control data to the regional control center 200 through wireless communication. The wireless communication unit 301 may directly perform wireless communication with the regional control center 200 or perform wireless communication with the regional control center 200 via an arbitrary (or designated) drone station 400 .

저장부(303)는 비휘발성 메모리, 휘발성 메모리 등을 포함하여 각종 데이터와 프로그램을 저장한다. 예를 들어, 저장부(303)는 작물 구역(500) 내의 비행을 제어하기 위한 비행제어 프로그램, 비행중 이상 타겟을 검출하기 위한 이상 타겟 추적 프로그램 등과 비행 경로, 비행 주기 등의 설정 데이터를 저장한다. The storage unit 303 stores various data and programs including non-volatile memory and volatile memory. For example, the storage unit 303 stores a flight control program for controlling flight within the crop zone 500, an abnormal target tracking program for detecting an abnormal target during flight, and setting data such as a flight path and a flight period. .

카메라부(305)는 구비된 렌즈를 통해 노출되는 시각(영상) 이미지를 촬영한다. 카메라부(305)는 비전 카메라를 구비하여 렌즈에 노출되는 시각(비전) 이미지를 캡쳐링하고 캡쳐링된 비전(시각) 이미지를 제어부(315)로 전송하거나 저장부(303)에 저장 가능하다. The camera unit 305 takes a visual (video) image exposed through the provided lens. The camera unit 305 includes a vision camera to capture a visual (vision) image exposed to the lens, and transmits the captured vision (vision) image to the controller 315 or may be stored in the storage unit 303 .

센싱부(307)는 드론(300) 외부의 각종 외부 환경을 센싱한다. 센싱부(307)는 GPS 센서, 충돌 회피 센서 및 작물 모니터링 센서를 포함하여 드론(300) 외부를 센싱한다. GPS 센서는 GPS 신호를 수신하고 충돌 회피 센서는 비행 중 전방의 물체를 인식할 수 있다. 충돌 회피 센서는 초음파 센서(울트라 소닉 센서), 레이저, 라이다 센서 등일 수 있다. 작물 모니터링 센서는 작물 구역(500) 내의 작물의 상태를 모니터링 가능한 센서이다. 작물 모니터링 센서는 작물에서의 상태 변화가 감지 가능한 근적외선(Near Infrared) 센서(카메라)이거나 열화상 센서(카메라)일 수 있다. 작물 모니터링 센서는 노출된 영역에서의 근적외선값이나 열화상값에 대응하는 데이터값을 센싱하고 노출된 영역의 센싱된 데이터들을 제어부(315)로 출력할 수 있다. 센싱된 데이터는 2차원의 센싱 데이터(이미지)를 구성할 수 있다.The sensing unit 307 senses various external environments outside the drone 300 . The sensing unit 307 senses the outside of the drone 300 including a GPS sensor, a collision avoidance sensor, and a crop monitoring sensor. The GPS sensor receives the GPS signal, and the collision avoidance sensor can recognize an object in front during flight. The collision avoidance sensor may be an ultrasonic sensor (ultra sonic sensor), a laser, a lidar sensor, or the like. The crop monitoring sensor is a sensor capable of monitoring the condition of crops in the crop zone 500 . The crop monitoring sensor may be a Near Infrared sensor (camera) capable of detecting a state change in a crop or a thermal image sensor (camera). The crop monitoring sensor may sense a data value corresponding to a near-infrared value or a thermal image value in the exposed region and output the sensed data in the exposed region to the controller 315 . The sensed data may constitute two-dimensional sensing data (image).

드론 구동부(309)는 드론(300)의 상,하,좌,우,전, 후의 이동을 위한 하나 이상의 엔진이나 모터를 구비하고 제어부(315)로부터 수신되는 제어 신호에 따라 지정된 엔진이나 모터를 동작 제어하여 드론(300)을 동작시킨다. 드론 구동부(309)를 통해 드론(300)은 비행할 수 있고 특정 위치로 이동 가능하다.The drone driving unit 309 includes one or more engines or motors for moving the drone 300 up, down, left, right, forward, and backward, and operates a designated engine or motor according to a control signal received from the control unit 315 . Control to operate the drone 300 . The drone 300 can fly through the drone driving unit 309 and can move to a specific location.

배터리(313)는 드론(300)의 블록들이 이용 가능한 전원을 저장한다. 배터리(313)는 리튬이온, 리튬폴리머 등의 알려진 전지를 포함하여 무선충전패드(407)로부터 공급되는 전원을 저장하고 저장된 전원을 전원이 필요한 블록들(예를 들어, 제어부(315), 무선통신부(301), 드론 구동부(309), 센싱부(307), 카메라부(305), 저장부(303) 등)에 공급한다.The battery 313 stores power available to blocks of the drone 300 . The battery 313 stores power supplied from the wireless charging pad 407 including known batteries such as lithium ion and lithium polymer, and stores the stored power in blocks requiring power (eg, the control unit 315, the wireless communication unit). 301 , the drone driving unit 309 , the sensing unit 307 , the camera unit 305 , the storage unit 303 , etc.).

배터리 충전부(311)는 배터리(313)에 전원을 충전한다. 배터리 충전부(311)는 수신코일과 수신코일로부터 유도되는 신호로부터 충전 전원을 생성하는 전원생성 회로나 부품을 포함한다. 배터리 충전부(311)는 배터리(313)에 연결되어 배터리(313)로 충전 전원을 공급하거나 충전 전원의 공급을 차단할 수 있다. 배터리 충전부(311)는 배터리(313)의 출력 전원을 측정하고 측정된 전원 데이터를 제어부(315)로 출력 가능하다. 측정되는 전원 데이터는 전류, 전압, 또는 전력 데이터일 수 있고 이로부터 배터리(313) 잔량이 제어부(315)에 의해 측정될 수 있다. The battery charging unit 311 charges the battery 313 with power. The battery charging unit 311 includes a receiving coil and a power generating circuit or component for generating charging power from a signal derived from the receiving coil. The battery charging unit 311 may be connected to the battery 313 to supply charging power to the battery 313 or to cut off the supply of charging power. The battery charging unit 311 may measure the output power of the battery 313 and output the measured power data to the control unit 315 . The measured power data may be current, voltage, or power data, and the remaining amount of the battery 313 may be measured by the controller 315 therefrom.

드론(300)은 배터리 충전부(311)에 포함되는 수신코일을 하나 또는 복수 개 구비할 수 있고 수신코일은 드론(300)의 4 개의 다리 중 하나 또는 복수 개에 부착되거나 내장될 수 있다. 이와 같이 수신코일은 무선충전패드(407)에 접하는 드론(300) 다리(의 하측)에 설치되어 무선충전방식에 따른 무선전력을 무선충전패드(407)로부터 수신할 수 있다.The drone 300 may include one or a plurality of receiving coils included in the battery charging unit 311 , and the receiving coil may be attached to or embedded in one or a plurality of four legs of the drone 300 . As described above, the receiving coil is installed on the leg (lower side) of the drone 300 in contact with the wireless charging pad 407 to receive wireless power according to the wireless charging method from the wireless charging pad 407 .

제어부(315)는 드론(300)을 제어한다. 제어부(315)는 프로그램을 수행할 수 있는 하나 이상의 실행 유닛을 구비하여 실행 유닛을 통해 저장부(303)의 비행제어 프로그램을 수행하여 지정된 비행 경로에 따라 비행하고 이상 타겟 추적 프로그램을 제어하여 비행 중 작물 구역(500)내 이상 상태를 가지는 타겟을 추적할 수 있다. The controller 315 controls the drone 300 . The control unit 315 includes one or more execution units capable of executing the program, and performs the flight control program of the storage unit 303 through the execution unit to fly according to a designated flight path and control the abnormal target tracking program during flight A target having an abnormal condition in the crop area 500 may be tracked.

비행제어 프로그램을 수행하는 제어부(315)는 드론 구동부(309)와 약속된 통신 프로토콜에 따라 드론(300)의 비행을 제어할 수 있다. 예를 들어, 제어부(315)는 MAVlink(ROSlink) 프로토콜에 따라 드론 구동부(309)를 제어하여 지정된 비행 경로에 따라 비행할 수 있다. The control unit 315 executing the flight control program may control the flight of the drone 300 according to a communication protocol promised with the drone driving unit 309 . For example, the controller 315 may control the drone driving unit 309 according to the MAVlink (ROSlink) protocol to fly according to a designated flight path.

드론(300)에서 수행되는 비행 및 타겟 검출을 위한 제어 흐름은 도 6 및 도 7을 통해 좀 더 상세히 살펴보도록 한다. A control flow for flight and target detection performed by the drone 300 will be described in more detail with reference to FIGS. 6 and 7 .

도 5는 본 발명에 따라 구성되는 드론(300)의 예시적인 외형을 도시한 도면이다. 5 is a diagram illustrating an exemplary external appearance of a drone 300 configured according to the present invention.

도 5에서 알 수 있는 바와 같이, 본 발명에 따른 드론(300)은 각종 센서와 카메라를 구비한다. 예를 들어, 드론(300)은 각종 처리를 수행하기 위한 컴퓨팅 보드, GPS 센서, 충돌 회피 센서, 작물 모니터링 센서 및 비전 카메라를 구비한다. GPS 센서는 드론(300) 바디로부터 상측을 향해 도출되고 하나 또는 복수의 충돌 회피 센서는 드론(300) 바디 사방(전,후,좌,우)에 설치되어 비행하는 사방을 향해 장애물을 센싱한다. 드론(300) 바디 전방에 설치되는 작물 모니터링 센서는 작물 구역(500)내의 작물의 이상을 센싱할 수 있는 센서이고 드론(300) 바디 전방에 설치되는 비전 카메라는 전방의 영상을 촬영 가능하다. 그 외, 드론(300)은 착륙에 이용되고 컴퓨팅 보드의 보호를 위해 이용되는 다리에 수신 코일을 내장하거나 외부에 구비할 수 있다.As can be seen from FIG. 5 , the drone 300 according to the present invention includes various sensors and cameras. For example, the drone 300 includes a computing board, a GPS sensor, a collision avoidance sensor, a crop monitoring sensor, and a vision camera for performing various processes. The GPS sensor is derived from the body of the drone 300 upward, and one or a plurality of collision avoidance sensors are installed in all directions (front, rear, left, right) of the body of the drone 300 to sense obstacles in all directions of flying. A crop monitoring sensor installed in front of the body of the drone 300 is a sensor capable of sensing abnormalities in crops in the crop area 500, and a vision camera installed in front of the body of the drone 300 is capable of capturing an image of the front. In addition, the drone 300 may have a built-in reception coil in a leg used for landing and protection of a computing board or may be provided outside.

도 6은 드론(300)을 이용하여 작물 감시를 위한 예시적인 제어 흐름을 도시한 도면이다. 6 is a diagram illustrating an exemplary control flow for crop monitoring using the drone 300 .

도 6의 제어 흐름은 드론(300)에서 수행되는 이동과 액션에 대한 제어 흐름을 나타내고 작물 구역(500)내의 다른 드론(300)도 동일한 주요 이동과 액션에 대한 제어 흐름을 가진다. 도 6의 제어 흐름은 드론(300)의 제어부(315)에 의한 제어로 이루어지고 예를 들어, 지역관제센터(200)와 연동하여 수행되는 비행제어 프로그램과 이상 타겟 추적 프로그램의 수행으로 이루어진다. The control flow of FIG. 6 shows the control flow for movement and action performed by the drone 300 , and the other drone 300 in the crop zone 500 also has the same control flow for the main movement and action. The control flow of FIG. 6 is controlled by the control unit 315 of the drone 300 and consists of, for example, a flight control program performed in conjunction with the regional control center 200 and execution of an abnormal target tracking program.

이하에서는 단일 드론(300)에서 이루어지는 제어 흐름을 주로 설명하나 필요한 경우 도 7과 연동하여 여러 드론(300)에서 이루어지는 동일한 제어 흐름도 함께 설명하도록 한다. Hereinafter, the control flow performed in a single drone 300 will be mainly described, but if necessary, the same control flow performed in multiple drones 300 in conjunction with FIG. 7 will also be described.

먼저, 작물 구역(500)내의 복수의 드론(300) 각각은 비행과 감시에 관련된 각종 정보를 설정(S101)한다. 예를 들어, 드론(300)은 비행 경로, 비행주기(시각) 등을 설정하고 지역관제센터(200)와 무선통신 채널을 설정한다. 비행 경로는 복수의 이동 포인트(501)를 포함할 수 있다. 이동 포인트(501)는 GPS 좌표(위도와 경도 좌표)를 나타낼 수 있다. First, each of the plurality of drones 300 in the crop area 500 sets various information related to flight and monitoring ( S101 ). For example, the drone 300 sets a flight route, a flight period (time), and the like, and establishes a wireless communication channel with the regional control center 200 . The flight path may include a plurality of movement points 501 . The moving point 501 may indicate GPS coordinates (latitude and longitude coordinates).

하나의 드론(300)(도 7의 (a))은 특정 드론 스테이션(400)(도 7의 (A))에 착륙한 상태에서 이동 포인트(501)들 {E,F,G,H}로 특정되는 비행 경로로 설정되고 다른 하나의 드론(300)(도 7의 (b))은 다른 특정 드론 스테이션(400)(도 7의 (B))에 착륙한 상태에서 이동 포인트(501)들 {A,B,C,D}로 특정되는 비행 경로로 설정될 수 있다. 비행주기는 예를 들어 특정 비행시작 시각으로 설정되거나 1일 1회, 2회 등으로 설정될 수 있다. 드론(300)은 비행주기에 따라 자동 작물 감시를 수행하거나 지역관제센터(200)로부터의 제어에 따라 작물 감시를 시작할 수 있다. One drone 300 (FIG. 7(a)) moves to the moving points 501 {E, F, G, H} in a state of landing at a specific drone station 400 (FIG. 7(A)). The other drone 300 (FIG. 7(b)) is set to a specified flight path, and the other specific drone station 400 (FIG. 7(B)) is set at the moving points 501 in the state of landing. A,B,C,D} can be set to the flight path specified. The flight cycle may be, for example, set to a specific flight start time or set to once or twice a day. The drone 300 may perform automatic crop monitoring according to a flight cycle or may start crop monitoring according to control from the regional control center 200 .

각종 셋팅 정보의 설정 이후에, 드론(300)은 비행 이벤트의 발생을 인식(S103)한다. 예를 들어, 드론(300)은 설정된 비행주기의 도래, 비행시각의 도래 또는 무선통신부(301)를 통해 지역관제센터(200)로부터 감시 요청을 수신함에 따른 비행 이벤트 발생을 인식할 수 있다. After setting various setting information, the drone 300 recognizes the occurrence of a flight event (S103). For example, the drone 300 may recognize the arrival of a set flight period, the arrival of a flight time, or the occurrence of a flight event as a result of receiving a monitoring request from the regional control center 200 through the wireless communication unit 301 .

비행 이벤트를 인식한 각각의 드론(300)(드론(300)별 비행 이벤트는 동일하거나 서로 다른 시각에 발생할 수 있음)은 각 드론(300)별 설정된 다수의 이동 포인트(501)에 따른 비행 경로로의 비행을 시작(S105)한다.Each drone 300 recognizing a flight event (flight events for each drone 300 may occur at the same or different times) is a flight path according to a plurality of movement points 501 set for each drone 300. to start the flight of (S105).

드론(300)은 복수의 이동 포인트(501) 중에서 시작 이동 포인트(501) 및 종료 이동 포인트(501)를 설정하고 시작 이동 포인트(501)에서 종료 이동 포인트(501)로의 비행을 시작할 수 있다. 예를 들어, 하나의 드론(300)(도 7의 (a))는 E(시작 이동 포인트(501))에서 F(종료 이동 포인트(501))로의 비행을 시작하고 다른 하나의 드론(300)(도 7의 (b))는 A(시작 이동 포인트(501))에서 B(종료 이동 포인트(501))로의 비행을 시작한다. The drone 300 may set a start movement point 501 and an end movement point 501 among the plurality of movement points 501 , and start flying from the start movement point 501 to the end movement point 501 . For example, one drone 300 (FIG. 7(a)) starts flying from E (start movement point 501) to F (end movement point 501), and the other drone 300 (B) of FIG. 7 starts a flight from A (start movement point 501) to B (end movement point 501).

시작 이동 포인트(501)로부터 종료 이동 포인트(501)로 비행을 위해 드론(300)의 제어부(315)는 비행제어 프로그램을 통해 드론 구동부(309)를 제어하고 비행 경로 상의 이동 포인트(501)들 중 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 이동(비행) 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출(S107)한다. To fly from the start moving point 501 to the end moving point 501, the control unit 315 of the drone 300 controls the drone driving unit 309 through the flight control program, and among the moving points 501 on the flight path An abnormal target is detected ( S107 ) by using the crop monitoring sensor provided during the movement (flight) from the starting movement point 501 to the ending movement point 501 .

예를 들어, 드론(300)은 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로 설정된 비행속도(초당 10Cm, 20Cm, 1 미터 등)에 따라 비행한다. 시작 이동 포인트(501)로부터 종료 이동 포인트(501) 사이의 이동 통로(503)를 비행중에 드론(300)은 센싱부(307)의 충돌 회피 센서를 통해 전방(나아가 좌우의) 장애물을 회피하면서 비행할 수 있다.For example, the drone 300 flies according to a flight speed (10 cm per second, 20 cm, 1 meter, etc.) set from the starting movement point 501 to the ending movement point 501 . While flying the moving passage 503 between the start moving point 501 and the end moving point 501, the drone 300 flies while avoiding obstacles in front (further left and right) through the collision avoidance sensor of the sensing unit 307 . can do.

지정된 속도로 비행 중 드론(300)은 작물 모니터링 센서의 센싱 방향을 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 축(이동 통로(503))으로부터 좌우 일정 각도(예를 들어, 좌측, 우측 30도나 45도 등)로 변경하고 변경된 센싱 방향에서(을 향한) 작물 모니터링 센서에 노출된 작물재배 영역(505)을 센싱한다. 드론(300)은 센싱된 데이터 영역(예를 들어, 센싱 이미지(2차원 어레이))에서 지정된 임계치 이상의 데이터가 포함되는 지로(것으로) 이상 타겟을 검출할 수 있다. 드론(300)은 느린 속도로 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 이동 통로(503)를 통한 비행중에 드론(300) 방향을 일정한 각도로 좌측 우측으로 변경하고 변경된 방향에서 작물재배 영역(505)에 대한 센싱 이미지(예를 들어, 2차원 데이터 어레이)를 캡쳐링할 수 있다. During flight at a specified speed, the drone 300 sets the sensing direction of the crop monitoring sensor from the start movement point 501 to the end movement point 501 (moving passage 503) at a left and right angle at a certain angle (e.g., left, 30 degrees to the right, 45 degrees, etc.) and sense the crop cultivation area 505 exposed to the crop monitoring sensor in (toward) the changed sensing direction. The drone 300 may detect an abnormal target including data greater than or equal to a specified threshold in the sensed data area (eg, a sensing image (two-dimensional array)). The drone 300 changes the direction of the drone 300 to the left and right at a constant angle while flying through the passage 503 from the start movement point 501 to the end movement point 501 at a slow speed and cultivates crops in the changed direction. A sensing image (eg, a two-dimensional data array) for the region 505 may be captured.

나아가(동시에), 드론(300)은 카메라부(305)의 비전 카메라를 통해 변경된 센싱 방향을 향한 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상인 작물(예를 들어, 과실 나무, 농작물 등)을 식별할 수 있다. 드론(300)의 제어부(315)는 캡쳐링된 시각 이미지에 대한 분석(이미지간 비교, 학습된 프로그램에 의한 판단 등)으로 감시 대상 작물인지를 판단할 수 있다. Furthermore (simultaneously), the drone 300 captures a visual image toward the changed sensing direction through the vision camera of the camera unit 305, and a crop to be monitored from the captured visual image (eg, fruit trees, crops, etc.) ) can be identified. The control unit 315 of the drone 300 may determine whether it is a crop to be monitored by analyzing the captured visual images (compare between images, judgment by a learned program, etc.).

드론(300)은 센싱된 데이터 영역의 2차원 데이터 중 이웃하는 데이터와 지정된 임계치 이상의 차이를 가지는 데이터의 위치를 이상 타겟으로 결정할 수 있다. 예를 들어, 드론(300)은 복수의 이웃 위치(좌, 우, 상, 하 등)의 온도값이 지정된 온도차(예를 들어 3도 등) 이상을 가지는 위치를 이상 타겟으로 결정할 수 있다. The drone 300 may determine, as an abnormal target, a location of data having a difference greater than or equal to a specified threshold value from neighboring data among the two-dimensional data of the sensed data area. For example, the drone 300 may determine, as an abnormal target, a location in which temperature values of a plurality of neighboring locations (left, right, top, bottom, etc.) have a specified temperature difference (eg, 3 degrees, etc.) or more.

예를 들어, 드론(300)은 센싱된 데이터 영역을 2차원의 일련의 서브 영역(예를 들어, 2*2, 4*4, 8*8 데이터 영역 등)으로 분류하고 각 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상(예를 들어, 3도 등)을 가지는 서브 영역을 이상 타겟으로 결정할 수 있다. For example, the drone 300 classifies the sensed data area into a series of two-dimensional sub-areas (eg, 2*2, 4*4, 8*8 data area, etc.) and senses for each sub-area. The average value of the data may be calculated and a sub-region having a predetermined threshold or more (eg, 3 degrees, etc.) than a neighboring sub-region among a plurality of sub-regions may be determined as an abnormal target.

작물 생장이 저하되고 있는 작물 지점 부위나 병충이 있는 지점 부위나 병충해의 피해가 발생한 지점 부위는 열화상 이미지나 근적외선 이미지에서 주변 부위와 다른 센싱값을 가진다. 예를 들어, 병충이 위치하는 지점의 온도는 다른 작물 부위에서 센싱되는 온도와는 다르고 일반적으로 더 높다. 또한, 작물 잎이 마른 지점에서 센싱된 온도는 정상적으로 생장중인 지점에서의 센싱된 온도와는 서로 다르다. The part of the crop branch where crop growth is declining, the part where there are pests, or the part where the damage by pests has occurred has a different sensing value from the surrounding parts in the thermal image or near-infrared image. For example, the temperature at which a pest is located is different and generally higher than the temperature sensed in other crop areas. In addition, the temperature sensed at the point where the leaves of the crop are dry is different from the temperature sensed at the point during normal growth.

이상 타겟의 결정 과정은 센싱된 데이터 영역에서 감시 대상 작물이 식별되는 경우에만 수행되거나 식별 여부와 상관없이 수행될 수도 있다. The process of determining the abnormal target may be performed only when a crop to be monitored is identified in the sensed data area, or may be performed regardless of whether the crop is identified.

이상 타겟의 검출에 따라, 드론(300)은 시작 이동 포인트(501)로부터 종료 이동 포인트(501) 사이의 이동 통로(503) 상의 현재 드론 위치에서 이상 타겟으로 비행(S109)한다.According to the detection of the abnormal target, the drone 300 flies to the abnormal target at the current drone position on the moving passage 503 between the starting movement point 501 and the ending movement point 501 ( S109 ).

구체적으로, 드론(300)은 센싱부(307)의 GPS 센서를 통해 결정되는 현재 드론 위치를 저장부(303)에 저장하고 센싱된 데이터 영역에서 이상 타겟의 위치에 의해 결정되는 방향으로 비행을 시작한다. Specifically, the drone 300 stores the current drone position determined through the GPS sensor of the sensing unit 307 in the storage unit 303 and starts flying in a direction determined by the position of the abnormal target in the sensed data area. do.

예를 들어, 드론(300)은 센싱된 데이터 영역에서의 이상 타겟으로 특정된 서브 영역의 상대적 위치에 따라 비행 방향을 변경한다. 이상 타겟이 센싱된 데이터 영역의 중심으로부터 좌측(우측)에 있는 경우 센싱된 데이터 영역의 중심에 이상 타겟(의 서브 영역)이 위치하도록 드론(300)을 좌측(우측)으로 회전할 수 있다. 이 과정에서 드론(300)은 작물 모니터링 센서를 통한 이상 타겟을 계속하여 검출할 수 있다. For example, the drone 300 changes the flight direction according to the relative position of the sub-region specified as the abnormal target in the sensed data area. When the abnormal target is to the left (right) from the center of the sensed data region, the drone 300 may be rotated to the left (right) so that the abnormal target (a sub region of) is located in the center of the sensed data region. In this process, the drone 300 may continuously detect an abnormal target through the crop monitoring sensor.

비행 방향이 변경됨에 따라, 드론(300)은 이상 타겟을 향해 일정한 속도(초당 10Cm, 20Cm, 1 미터 등)로 비행한다. 이상 타겟으로의 비행 과정에서 드론(300)은 작물 모니터링 센서를 통해 이상 타겟을 계속 검출하고 이상 타겟의 크기가 센싱된 데이터 영역 내에서 지정된 크기(예를 들어, 25%의 크기) 이내의 범위내에서 비행할 수 있고 지정된 크기를 초과하는 경우 비행을 멈출 수 있다.As the flight direction is changed, the drone 300 flies toward the abnormal target at a constant speed (10 cm per second, 20 cm, 1 meter, etc.). In the process of flying to the abnormal target, the drone 300 continues to detect the abnormal target through the crop monitoring sensor, and the size of the abnormal target is within a specified size (eg, 25% size) within the sensed data area. It can fly in and can stop flying if it exceeds the specified size.

드론(300)은 이상 타겟으로의 비행 과정에서 시각 이미지를 촬영하고 GPS 센서에 의해 결정되는 위치 정보와 함께 저장부(303)에 저장한다. 예를 들어, 드론(300)은 이상 타겟으로의 비행 과정에서 카메라부(305)에 의해 촬영되는 시각 이미지, 촬영시의 위치 정보, 나아가 촬영 시각 및 작물 모니터링 센서에 의해 센싱된 데이터 영역 이미지를 저장부(303)에 저장할 수 있다. 드론(300)은 1회(이상 타겟으로의 비행 종료 위치에서) 또는 복수 회(예를 들어, 지정된 주기에 따라) 시각 이미지, 위치 정보, 나아가 촬영 시각 및 작물 모니터링 센서에 의해 센싱된 데이터 영역 이미지를 저장부(303)에 저장할 수 있다. The drone 300 takes a visual image in the course of flying to an abnormal target and stores it in the storage unit 303 together with location information determined by the GPS sensor. For example, the drone 300 stores a visual image captured by the camera unit 305 in the process of flying to an abnormal target, location information at the time of photographing, and furthermore, a photographing time and a data area image sensed by a crop monitoring sensor. may be stored in unit 303 . The drone 300 provides a visual image, location information, and a data area image sensed by the photographing time and crop monitoring sensor once (at the flight end position to the target) or multiple times (for example, according to a specified period) may be stored in the storage unit 303 .

센싱된 데이터 영역에서의 이상 타겟의 크기 등에 따라 이상 타겟으로의 비행이 종료됨에 따라, 드론(300)은 이상 타겟을 포함하여 촬영된 시각 이미지 및 위치 정보를 포함하는 작물 이상 정보를 구성하여 무선통신을 통해 지역관제센터(200)로 전송(S111)한다. As the flight to the abnormal target is terminated according to the size of the abnormal target in the sensed data area, the drone 300 configures the crop abnormal information including the photographed visual image including the abnormal target and location information, and wireless communication It is transmitted to the regional control center 200 through (S111).

지역관제센터(200)는 근거리 무선통신망이나 이동통신망을 통해 작물 이상 정보를 수신하고 이상 이미지 DB에 신규의 이상 이미지 아이템을 생성하고 작물 이상 정보의 시각 이미지, 위치 정보, 촬영 시각 및 나아가 센싱된 데이터 이미지를 저장한다. 시각 이미지, 위치 정보, 촬영 시각 및 나아가 센싱된 데이터 이미지는 한 개 또는 복수 개가 이상 이미지 아이템에 저장될 수 있다.The regional control center 200 receives crop abnormality information through a local area wireless communication network or mobile communication network, creates a new abnormal image item in the abnormal image DB, and visual image of crop abnormality information, location information, shooting time, and further sensed data Save the image. One or more of the visual image, location information, shooting time, and further sensed data image may be stored in the image item.

지역관제센터(200)는 이상 이미지 DB의 하나 이상의 이상 이미지 아이템에 대한 분석으로 작물 구역(500) 내의 특징 위치에서의 이상 상태를 분류하고 분류된 결과를 이상 이미지 아이템에 더 저장할 수 있다. 지역관제센터(200)는 미리 학습된 인공지능(Artificial Intelligence : AI) 알고리즘을 통해 이상 상태를 분류하고 그 분류된 결과를 이상 이미지 아이템에 저장할 수 있다.The regional control center 200 may classify an abnormal state at a feature position in the crop area 500 by analyzing one or more abnormal image items of the abnormal image DB, and further store the classified result in the abnormal image item. The regional control center 200 may classify an abnormal state through a pre-learned artificial intelligence (AI) algorithm, and store the classified result in an abnormal image item.

작물 이상 정보의 전송 이후에, 드론(300)은 이동 통로(503) 상의 기존 비행 위치로 리턴(S113)한다. 예를 들어, 드론(300)은 GPS 센서를 이용하여 저장부(303)에 저장되어 있는 현재 드론 위치로 리턴하고 이동 통로(503) 상에서 종료 이동 포인트(501)로 비행을 재개한다. After the transmission of the crop abnormality information, the drone 300 returns to the existing flight position on the moving passage 503 ( S113 ). For example, the drone 300 returns to the current drone location stored in the storage unit 303 using a GPS sensor and resumes flight to the end movement point 501 on the movement passage 503 .

드론(300)은 GPS 센서를 이용하여 현재 위치 정보를 주기적으로 체크하고 현재 위치 정보가 종료 이동 포인트(501)인지를 판단(S115)할 수 있다. 예를 들어, 드론(300)은 현재 위치 정보가 종료 이동 포인트(501)와 일정한 거리 이내(예를 들어, 50Cm 등)인 경우에 드론(300)이 현재 종료 이동 포인트(501)에 위치하는 것으로 결정할 수 있다. The drone 300 may periodically check the current location information using the GPS sensor and determine whether the current location information is the end moving point 501 ( S115 ). For example, the drone 300 indicates that the drone 300 is located at the current ending movement point 501 when the current location information is within a certain distance (eg, 50 cm, etc.) from the ending movement point 501 . can decide

이동 통로(503)상의 드론(300)이 아직 종료 이동 포인트(501)에 위치하지 못한 경우, 드론(300)은 종료 이동 포인트(501)로 계속 비행하면서 이상 타겟의 검출(S107), 비행(S109), 정보 전송(S111) 및 리턴(S113) 과정을 반복 진행한다. If the drone 300 on the moving passage 503 has not yet been positioned at the end moving point 501, the drone 300 continues to fly to the end moving point 501 while detecting an abnormal target (S107) and flying (S109). ), the information transmission (S111) and return (S113) processes are repeated.

종료 이동 포인트(501)에 도착한 경우, 드론(300)은 현재 종료 이동 포인트(501)가 최종 이동 포인트(501)인지를 판단(S117)한다. When arriving at the ending moving point 501 , the drone 300 determines whether the current ending moving point 501 is the final moving point 501 ( S117 ).

예를 들어,'E'-'F' 이동 통로(503) 비행 완료에 따라 'F'에 위치하는 드론(300)(도 7의 (a))은 종료 이동 포인트(501) 'F'가 최종 종료 포인트인 'H'와 동일한 지를 판단하고 'A'-'B' 이동 통로(503) 비행 완료에 따라 'B'에 위치하는 드론(300)(도 7의 (b))은 종료 이동 포인트(501) 'B'가 최종 이동 포인트(501) 'D'와 동일한 지를 판단할 수 있다. For example, according to the completion of the flight of the 'E'-'F' moving passage 503, the drone 300 located at 'F' (FIG. It is determined whether it is the same as the ending point 'H', and according to the completion of the flight of the 'A'-'B' moving passage 503, the drone 300 (in FIG. 501) It may be determined whether 'B' is the same as the final moving point 501 'D'.

종료 이동 포인트(501)와 최종 이동 포인트(501)가 다른 위치인 경우에, 드론(300)은 시작 이동 포인트(501) 및 종료 이동 포인트(501)를 재설정(S119)한다. When the ending movement point 501 and the final movement point 501 are different positions, the drone 300 resets the starting movement point 501 and the ending movement point 501 ( S119 ).

예를 들어, 'E'-'F' 이동 통로(503) 비행을 완료한 드론(300)(도 7의 (a))은 'E'-'F' 이동 통로(503) 다음의 'F'-'G' 이동 통로(503)의 'F'를 시작 이동 포인트(501)로 설정하고 'G'를 종료 이동 포인트(501)로 설정한다. 또한, 'A'-'B' 이동 통로(503) 비행을 완료한 드론(300)(도 7의 (b))은 'A'-'B' 이동 통로(503) 다음의 'B'-'C' 이동 통로(503)의 'B'를 시작 이동 포인트(501)로 설정하고 'C'를 종료 이동 포인트(501)로 설정한다.For example, the drone 300 ((a) of FIG. 7) that has completed the flight of the 'E'-'F' passage 503 has an 'F' following the 'E'-'F' movement passage 503 -'G' Set 'F' of the moving passage 503 as the start moving point 501 and set 'G' as the end moving point 501 . In addition, the drone 300 (FIG. 7(b)) that has completed the flight of the 'A'-'B' passage 503 is 'B'-' following the 'A'-'B' movement passage 503 'B' of the moving passage C' 503 is set as the starting moving point 501 and 'C' is set as the ending moving point 501 .

시작 이동 포인트(501) 및 종료 이동 포인트(501)가 재설정됨에 따라 드론(300)은 재설정된 이동 통로(503)를 비행하면서 이상 타겟을 검출하고 작물 이상 정보를 전송하는 과정(S107 내지 S115)을 수행한다. As the start movement point 501 and the end movement point 501 are reset, the drone 300 flies through the reset movement path 503 while detecting an abnormal target and transmitting crop abnormal information (S107 to S115). carry out

작물 감시를 위한 비행 경로에 따라 설정된 여러 이동 포인트(501)를 통한 비행을 완료하여 최종 이동 포인트(501)에 위치하는 드론(300)은 무선 충전 가능한 드론 스테이션(400)에 착륙(S121)한다. 비행 완료의 경우 외에, 드론(300)은 내장된 배터리(313)가 지정된 임계치 이하의 전력을 가지는 경우 드론 스테이션(400)으로 이동하여 착륙하여 무선충전하고 무선충전 완료 후 비행이 중단된 위치로 이동하여 작물 감시 과정을 재수행(S107 내지 S119)할 수 있다. The drone 300 positioned at the final moving point 501 by completing the flight through several moving points 501 set according to the flight path for crop monitoring land (S121) on the drone station 400 capable of wireless charging. In addition to the case of flight completion, when the built-in battery 313 has power below a specified threshold, the drone 300 moves to the drone station 400 to land, wirelessly charge, and move to the location where the flight was stopped after the wireless charging is completed. to re-perform the crop monitoring process (S107 to S119).

드론 스테이션(400)으로의 착륙을 위해, 드론(300)은 착륙을 위해 지정된 드론 스테이션(400)의 위치로 이동한다. 예를 들어, 하나의 드론(300)(도 7의 (a))은 미리 설정된 하나의 드론 스테이션(400)(도 7의 (A))의 위치로 구비된 GPS 센서를 이용하여 이동하고 다른 하나의 드론(300)(도 7의 (b))은 미리 설정된 다른 하나의 드론 스테이션(400)(도 7의 (B))의 위치로 구비된 GPS 센서를 이용하여 이동한다. For landing on the drone station 400 , the drone 300 moves to a location of the drone station 400 designated for landing. For example, one drone 300 (FIG. 7(a)) moves using a GPS sensor provided to a preset location of one drone station 400 (FIG. 7(A)), and the other The drone 300 ((b) of FIG. 7) moves to the preset location of another drone station 400 (((B) of FIG. 7) using a GPS sensor provided.

드론(300)이 지정된 드론 스테이션(400)의 위치로 이동함에 따라, 드론(300)은 카메라부(305)의 비전 카메라를 아래(하측 방향으)로 향하고 비전 카메라를 통해 이미지를 촬영한다. 드론(300)은 촬영된 이미지(시각 이미지)에서 무선충전패드(407)에 포함되는 마커(407-1)를 식별하고 식별된 마커(407-1)의 이미지에서 위치와 그 크기에 따라 드론(300)의 위치(3차원 위치)를 변경하여 착륙을 시도한다. As the drone 300 moves to the location of the designated drone station 400 , the drone 300 faces the vision camera of the camera unit 305 downward (downward direction) and takes an image through the vision camera. The drone 300 identifies the marker 407-1 included in the wireless charging pad 407 in the captured image (visual image), and according to the location and size of the identified marker 407-1 in the image, the drone ( 300) and try to land by changing the position (three-dimensional position).

예를 들어, 드론(300)은 아래로 향한 비전 카메라에서 촬영된 시각 이미지에서 약속된 형상의 마커(407-1)를 식별하고 식별된 마커(407-1)가 시각 이미지에서 중앙(중앙 영역)에 위치하도록 드론 구동부(309)를 제어하여 전후좌우 방향으로 드론(300)을 이동시킨다. 드론(300)의 호버링과 이동을 반영하여 시각 이미지에서 마커(407-1)는 일부 오차를 가지고 중앙 영역에 위치하는 것으로 드론(300)은 판단할 수 있다. 드론(300)은 마커(407-1)를 중앙 영역에 위치시키기 위해 드론 구동부(309)를 제어하고 지속적으로 비전 카메라를 통해 이미지를 촬영하고 비교한다.For example, the drone 300 identifies a marker 407-1 of a promised shape in a visual image taken by a downward-facing vision camera, and the identified marker 407-1 is located in the center (central region) of the visual image. Controls the drone driving unit 309 so as to be positioned in the , and moves the drone 300 in the forward, backward, left, and right directions. The drone 300 may determine that the marker 407 - 1 is located in the central region with some error in the visual image by reflecting the hovering and movement of the drone 300 . The drone 300 controls the drone driving unit 309 to position the marker 407 - 1 in the central area, and continuously captures and compares images through the vision camera.

식별된 마커(407-1)가 시각 이미지의 중앙 영역에 위치함에 따라, 드론(300)은 마커(407-1)의 크기에 따라 드론 구동부(309)를 제어하여 무선충전패드(407)가 있는 아래(하측) 방향으로 드론(300)을 이동시킨다. 드론(300)은 하측 방향으로 이동함에 따라 카메라부(305)를 제어하여 계속 시각 이미지를 촬영하고 촬영된 이미지에서 마커(407-1)를 중앙 영역에 위치시키기 위한 전후좌우 제어를 더 수행할 수 있다. As the identified marker 407-1 is located in the central region of the visual image, the drone 300 controls the drone driving unit 309 according to the size of the marker 407-1 to have a wireless charging pad 407. The drone 300 is moved in a downward (downward) direction. As the drone 300 moves in the downward direction, it controls the camera unit 305 to continuously shoot a visual image, and further controls forward, backward, left, and right for positioning the marker 407-1 in the central area in the captured image. there is.

중앙에 위치하는 마커(407-1)가 지정된 크기 이상을 가지거나 무선충전패드(407)에 접촉(예를 들어, 센싱부(307)에 구비되고 드론(300)의 다리 하측에 위치하는 압력 센서를 통한 압력 인식)한 경우에, 드론(300)은 드론 구동부(309)를 통해 엔진 구동을 종료하고 무선충전을 시작한다. A marker 407-1 located in the center has a specified size or more or is in contact with the wireless charging pad 407 (eg, a pressure sensor provided in the sensing unit 307 and located under the leg of the drone 300 ) pressure recognition), the drone 300 ends the engine driving through the drone driving unit 309 and starts wireless charging.

드론(300)은 드론 스테이션(400)과 연동하여 무선충전패드(407)를 통한 무선충전을 시작하고 배터리 충전부(311)를 통해 지정된 전력량 이상으로 완충된 경우 드론 스테이션(400)으로 완충상태를 나타내는 데이터를 무선통신 등을 통해 전송할 수 있다. 그에 따라, 드론 스테이션(400)은 무선충전 모듈(405)을 제어하여 무선전력 송출을 중단할 수 있다. The drone 300 interworks with the drone station 400 to start wireless charging through the wireless charging pad 407, and when it is fully charged to more than a specified amount of power through the battery charging unit 311, the drone station 400 indicates a fully charged state. Data can be transmitted through wireless communication or the like. Accordingly, the drone station 400 may control the wireless charging module 405 to stop wireless power transmission.

무선전력의 충전후 드론(300)은 다음 비행 이벤트에 따라 작물의 상태를 감시(S103 내지 S119)할 수 있다. After charging the wireless power, the drone 300 may monitor the state of the crop according to the next flight event (S103 to S119).

이와 같은 제어 흐름과 대응하는 시스템에 의해 재배 작물에 대한 재배인 또는 관리인(농작인)의 빈번한 관리와 감시 없이도 드론(300)에 의해 작물의 생장과 병충해 발생을 조기에 감시하고 예측할 수 있도록 한다.By means of such a control flow and a corresponding system, the growth of crops and the occurrence of pests can be monitored and predicted early by the drone 300 without frequent management and monitoring of the grower or manager (farmer) for the cultivated crops.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above, for those of ordinary skill in the art to which the present invention pertains, various substitutions, modifications and changes are possible without departing from the technical spirit of the present invention. It is not limited by the drawings.

100 : 중앙관제센터
200 : 지역관제센터
201 : 입력부 203 : 출력부
205 : 통신부 207 : 디스플레이부
209 : 저장부 211 : 제어부
300 : 드론
301 : 무선통신부 303 : 저장부
305 : 카메라부 307 : 센싱부
309 : 드론 구동부 311 : 배터리 충전부
313 : 배터리 315 : 제어부
400 : 드론 스테이션
401 : 무선통신 모듈 403 : 드론스테이션 제어 모듈
405 : 무선충전 모듈
407 : 무선충전패드 407-1 : 마커
409 : 벽체 411 : 슬로프
500 : 작물 구역
501 : 이동 포인트
503 : 이동 통로
505 : 작물재배 영역
100: central control center
200: regional control center
201: input unit 203: output unit
205: communication unit 207: display unit
209: storage unit 211: control unit
300 : drone
301: wireless communication unit 303: storage unit
305: camera unit 307: sensing unit
309: drone driving unit 311: battery charging unit
313: battery 315: control unit
400 : drone station
401: wireless communication module 403: drone station control module
405: wireless charging module
407: wireless charging pad 407-1: marker
409: wall 411: slope
500 : crop area
501 : moving point
503: moving passage
505: crop cultivation area

Claims (10)

외부와 분리되고 작물이 재배되는 복수의 작물재배 영역과 이동 또는 작물의 수확을 위한 복수의 이동 통로를 포함하는 작물 구역 내의 지정된 복수의 이동 포인트에 따른 비행을 드론이 시작하는 단계;
(a) 상기 드론이 상기 복수의 이동 통로 중 상기 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로의 이동 통로의 이동 중에 구비된 작물 모니터링 센서의 센싱 방향을 상기 이동 통로에 인접하는 좌측 또는 우측의 작물재배 영역을 센싱하도록 상기 이동 통로의 축으로부터 좌측 또는 우측의 지정된 각도로 변경하여 상기 작물재배 영역으로부터 이상 타겟을 검출하는 단계;
(b) 상기 드론이 상기 이상 타겟의 검출에 따라 상기 제1 포인트로부터 상기 제2 포인트 사이의 현재 비행 위치로부터 상기 이상 타겟으로 비행하는 단계;
상기 드론이 상기 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계; 및
상기 드론이 상기 제2 포인트를 제1 포인트로 설정하고 상기 복수의 이동 포인트 중 상기 제2 포인트에 후속하는 포인트를 제2 포인트로 설정하여 상기 단계 (a) 및 상기 단계 (b)를 반복 수행하는 단계;를 포함하고,
상기 단계 (a)는 열화상 센서인 상기 작물 모니터링 센서에 의해 센싱된 데이터 영역을 2차원의 복수의 서브 영역으로 분류하고 복수의 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상의 온도차를 가지는 서브 영역을 이상 타겟으로 결정하는,
작물 감시 방법.
Initiating, by the drone, flying according to a plurality of designated movement points in a crop area that is separated from the outside and includes a plurality of crop growing areas where crops are grown and a plurality of passages for movement or harvesting of crops;
(a) the drone detects the sensing direction of the crop monitoring sensor provided during the movement of the movement passage from the first point to the second point of the plurality of movement points among the plurality of movement passages left or right adjacent to the movement passage detecting an abnormal target from the crop cultivation area by changing it to a specified angle left or right from the axis of the moving passage to sense the crop cultivation area of ;
(b) the drone flying to the abnormal target from a current flight position between the first point and the second point according to the detection of the abnormal target;
transmitting, by the drone, crop abnormality information including a photographed image including the abnormal target and location information through wireless communication; and
The drone sets the second point as a first point and sets a point following the second point among the plurality of movement points as a second point to repeat steps (a) and (b) step; including;
In the step (a), a data area sensed by the crop monitoring sensor, which is a thermal image sensor, is classified into a plurality of two-dimensional sub-regions, an average value of the sensed data for the plurality of sub-regions is calculated, and a neighbor among the plurality of sub-regions. Determining a sub-region having a temperature difference greater than or equal to a specified threshold than a sub-region to be an abnormal target,
Crop monitoring methods.
삭제delete 제1항에 있어서,
상기 단계 (a)는 구비된 비전 카메라를 통해 지정된 각도로 변경된 센싱 방향에서 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상 작물이 식별되는 경우에만 상기 이상 타겟을 검출하고,
상기 이상 타겟으로 비행하는 단계는 상기 센싱된 데이터 영역에서의 상기 이상 타겟의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행하는,
작물 감시 방법.
According to claim 1,
In the step (a), a visual image is captured in a sensing direction changed to a specified angle through an provided vision camera, and the abnormal target is detected only when a crop to be monitored is identified in the captured visual image,
The step of flying to the abnormal target is flying in a direction determined by the relative position of the sub-region of the abnormal target in the sensed data region,
Crop monitoring methods.
제1항에 있어서,
상기 단계 (a) 및 상기 단계 (b)를 반복 수행하는 단계 이후에, 상기 드론이 상기 현재 비행 위치에 의해 결정되는 비행 위치로 리턴하는 단계; 및
작물 감시를 위한 상기 복수의 이동 포인트를 통한 비행 이후에 상기 드론이 무선 충전 가능한 드론 스테이션에 착륙하는 단계;를 더 포함하는,
작물 감시 방법.
According to claim 1,
After repeating the steps (a) and (b), returning the drone to a flight position determined by the current flight position; and
After flying through the plurality of moving points for crop monitoring, the drone landing at a drone station capable of wireless charging; further comprising,
Crop monitoring methods.
제4항에 있어서,
상기 드론 스테이션에 착륙하는 단계는 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 상기 드론의 3차원 위치를 변경하는,
작물 감시 방법.
5. The method of claim 4,
In the step of landing at the drone station, the drone moves to the location of the drone station using the provided GPS sensor, identifies the marker of the wireless charging pad from the image taken by the provided vision camera, and according to the location and size of the identified marker, the drone to change the three-dimensional position of
Crop monitoring methods.
복수의 드론;을 포함하여 외부와 분리되고 작물이 재배되는 복수의 작물재배 영역과 이동 또는 작물의 수확을 위한 복수의 이동 통로를 포함하는 작물 구역 내의 작물을 감시하는 작물 감시 시스템으로서,
각각의 드론은, 드론별 달리 지정되는 복수의 이동 포인트에 따른 비행을 시작하고 상기 복수의 이동 통로 중 상기 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로의 이동 통로의 이동 중에 구비된 작물 모니터링 센서의 센싱 방향을 상기 이동 통로에 인접하는 좌측 또는 우측의 작물재배 영역을 센싱하도록 상기 이동 통로의 축으로부터 좌측 또는 우측의 지정된 각도로 변경하여 상기 작물재배 영역으로부터 이상 타겟을 검출하고 상기 이상 타겟의 검출에 따라 상기 제1 포인트로부터 상기 제2 포인트 사이의 현재 비행 위치로부터 상기 이상 타겟으로 비행하고 상기 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하고 상기 제2 포인트를 제1 포인트로 설정하고 상기 복수의 이동 포인트 중 상기 제2 포인트에 후속하는 포인트를 제2 포인트로 설정하여 상기 이상 타겟의 검출과 상기 이상 타겟으로의 비행을 반복 수행하며,
상기 드론은 열화상 센서인 상기 작물 모니터링 센서에 의해 센싱된 데이터 영역을 2차원의 복수의 서브 영역으로 분류하고 복수의 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상의 온도차를 가지는 서브 영역을 이상 타겟으로 결정하는,
작물 감시 시스템.
A crop monitoring system for monitoring crops in a crop area including a plurality of drones, including a plurality of crop cultivation areas separated from the outside and where crops are grown, and a plurality of movement paths for movement or harvesting of crops,
Each drone starts flying according to a plurality of movement points that are differently designated for each drone, and monitors crops provided during movement of a movement passage from a first point to a second point of the plurality of movement points among the plurality of movement passages. By changing the sensing direction of the sensor to a designated angle left or right from the axis of the moving passage to sense the left or right crop cultivation area adjacent to the movement passage, an abnormal target is detected from the crop cultivation area, and the abnormal target is According to the detection, from the current flight position between the first point and the second point, fly to the abnormal target, and transmit crop abnormal information including the image and location information taken including the abnormal target through wireless communication, and the A second point is set as a first point and a point subsequent to the second point among the plurality of moving points is set as a second point to repeatedly perform detection of the abnormal target and flight to the abnormal target,
The drone classifies a data area sensed by the crop monitoring sensor, which is a thermal image sensor, into a plurality of two-dimensional sub-regions, calculates an average value of the sensed data for the plurality of sub-regions, and neighboring sub-regions among the plurality of sub-regions. determining a sub-region having a temperature difference greater than or equal to a specified threshold as an abnormal target,
crop monitoring system.
삭제delete 제6항에 있어서,
상기 드론은, 구비된 비전 카메라를 통해 지정된 각도로 변경된 센싱 방향에서 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상 작물이 식별되는 경우에만, 상기 이상 타겟을 검출하고 상기 센싱된 데이터 영역에서의 상기 이상 타겟의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행하는,
작물 감시 시스템.
7. The method of claim 6,
The drone captures a visual image in a sensing direction changed to a specified angle through an provided vision camera, and detects the abnormal target only when a crop to be monitored is identified in the captured visual image, and in the sensed data area to fly in a direction determined by the relative position of the sub-region of the anomaly of the target,
crop monitoring system.
제6항에 있어서,
마커가 표시된 무선충전패드를 포함하는 드론 스테이션;을 더 포함하고,
상기 드론은 상기 복수의 이동 포인트로의 비행을 통한 작물 구역의 작물 감시 이후에 구비된 GPS 센서를 이용하여 상기 드론 스테이션의 위치로 이동하고 상기 무선충전패드에 착륙하기 위해 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 상기 드론의 3차원 위치를 변경하는,
작물 감시 시스템.
7. The method of claim 6,
A drone station including a wireless charging pad marked with a marker; further comprising,
The drone moves to the location of the drone station using a GPS sensor provided after crop monitoring in the crop area through flight to the plurality of movement points and is photographed by a vision camera provided to land on the wireless charging pad. Identifying the marker of the wireless charging pad in the image and changing the three-dimensional position of the drone according to the position and size of the identified marker,
crop monitoring system.
제9항에 있어서,
상기 드론 스테이션을 통해 드론과 무선통신 가능한 지역관제센터를 더 포함하고,
상기 지역관제센터는 상기 드론으로부터 작물 이상 정보를 수신하고 복수의 작물 이미지로 학습된 AI(Artificial Intelligence)를 통해 상기 작물 이상 정보의 이상을 분류하는,
작물 감시 시스템.
10. The method of claim 9,
Further comprising a regional control center capable of wireless communication with the drone through the drone station,
The regional control center receives the crop abnormality information from the drone and classifies the abnormality of the crop abnormality information through AI (Artificial Intelligence) learned from a plurality of crop images,
crop monitoring system.
KR1020200030145A 2020-03-11 2020-03-11 Smart farm crop monitoring method and system using drones KR102371909B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200030145A KR102371909B1 (en) 2020-03-11 2020-03-11 Smart farm crop monitoring method and system using drones

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200030145A KR102371909B1 (en) 2020-03-11 2020-03-11 Smart farm crop monitoring method and system using drones

Publications (2)

Publication Number Publication Date
KR20210115101A KR20210115101A (en) 2021-09-27
KR102371909B1 true KR102371909B1 (en) 2022-03-10

Family

ID=77926006

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200030145A KR102371909B1 (en) 2020-03-11 2020-03-11 Smart farm crop monitoring method and system using drones

Country Status (1)

Country Link
KR (1) KR102371909B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102541165B1 (en) 2022-11-29 2023-06-13 주식회사 미드바르 Integrated management system of smart farm using muti-hop network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114932965B (en) * 2022-06-16 2023-10-27 江苏业派生物科技有限公司 Plant disease and insect pest monitoring device, remote monitoring system and monitoring method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101793509B1 (en) * 2016-08-02 2017-11-06 (주)노루기반시스템즈 Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
KR101937597B1 (en) * 2017-10-25 2019-04-10 김동원 Drone for the extermination of harmful animals and their flying method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101914179B1 (en) * 2016-09-07 2018-11-01 주식회사 웨이브쓰리디 Apparatus of detecting charging position for unmanned air vehicle
KR20180079725A (en) 2017-01-02 2018-07-11 주식회사 위츠 Drone Wireless Charging System
KR102028622B1 (en) * 2018-01-31 2019-10-04 주식회사 에디테크놀로지 Method and system for automatically tracking object using drone

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101793509B1 (en) * 2016-08-02 2017-11-06 (주)노루기반시스템즈 Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
KR101937597B1 (en) * 2017-10-25 2019-04-10 김동원 Drone for the extermination of harmful animals and their flying method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102541165B1 (en) 2022-11-29 2023-06-13 주식회사 미드바르 Integrated management system of smart farm using muti-hop network

Also Published As

Publication number Publication date
KR20210115101A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US20220107298A1 (en) Systems and methods for crop health monitoring, assessment and prediction
US10779472B2 (en) Robotic fruit picking system
US11194348B2 (en) System and method for drone fleet management for harvesting and dilution
KR102371909B1 (en) Smart farm crop monitoring method and system using drones
CA3035074A1 (en) Systems and methods for identifying pests in crop-containing areas via unmanned vehicles based on crop damage detection
KR102265860B1 (en) Artificial Intelligence Robot System for Unmanned Crop Cultivation and Harvesting
WO2020206946A1 (en) Lodging driving planning system of automatic harvester, and method thereof
US20240090395A1 (en) Method and system for pollination
You et al. Semiautonomous precision pruning of upright fruiting offshoot orchard systems: An integrated approach
TW202123152A (en) Fruits and vegetables monitoring system and method thereof
EP4187344B1 (en) Work machine distance prediction and action control
WO2020206940A1 (en) Planning system and method for residual harvesting path of automatic harvester
WO2022091092A1 (en) System and method for indoor crop management
KR20200124109A (en) Artificial Intelligence Robot System for Unmanned Crop Cultivation and Harvesting
KR20210084038A (en) Agricultural product management system using agricultural product harvest autonomous robot and method thereof
KR102523022B1 (en) Smart farm management device and smart farm management system comprising the device using nueral networks
US20240033940A1 (en) Aerial sensor and manipulation platform for farming and method of using same
EP4206848A1 (en) Virtual safety bubbles for safe navigation of farming machines
US20230397521A1 (en) Automated and directed data gathering for horticultural operations with robotic devices
JP2022041829A (en) Information processing device, information processing system, information processing method, and program
BR102022026428A2 (en) VIRTUAL SAFETY BUBBLES FOR SAFE NAVIGATION OF AGRICULTURAL MACHINERY

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant