KR102371909B1 - Smart farm crop monitoring method and system using drones - Google Patents
Smart farm crop monitoring method and system using drones Download PDFInfo
- Publication number
- KR102371909B1 KR102371909B1 KR1020200030145A KR20200030145A KR102371909B1 KR 102371909 B1 KR102371909 B1 KR 102371909B1 KR 1020200030145 A KR1020200030145 A KR 1020200030145A KR 20200030145 A KR20200030145 A KR 20200030145A KR 102371909 B1 KR102371909 B1 KR 102371909B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- crop
- point
- movement
- abnormal target
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 100
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000002159 abnormal effect Effects 0.000 claims abstract description 103
- 238000004891 communication Methods 0.000 claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims description 31
- 230000005856 abnormality Effects 0.000 claims description 27
- 239000003550 marker Substances 0.000 claims description 25
- 238000013473 artificial intelligence Methods 0.000 claims description 8
- 238000003306 harvesting Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 claims 1
- 241000607479 Yersinia pestis Species 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 238000003860 storage Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 4
- 240000005979 Hordeum vulgare Species 0.000 description 3
- 235000007340 Hordeum vulgare Nutrition 0.000 description 3
- 240000007594 Oryza sativa Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 241000209140 Triticum Species 0.000 description 3
- 235000021307 Triticum Nutrition 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 239000002420 orchard Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 241000220324 Pyrus Species 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 206010016165 failure to thrive Diseases 0.000 description 1
- 230000035784 germination Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 235000021017 pears Nutrition 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D45/04—Landing aids; Safety measures to prevent collision with earth's surface
- B64D45/08—Landing aids; Safety measures to prevent collision with earth's surface optical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F1/00—Ground or aircraft-carrier-deck installations
- B64F1/22—Ground or aircraft-carrier-deck installations for handling aircraft
- B64F1/222—Ground or aircraft-carrier-deck installations for handling aircraft for storing aircraft, e.g. in hangars
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U80/00—Transport or storage specially adapted for UAVs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B64C2201/123—
-
- B64C2201/127—
-
- B64C2201/141—
-
- B64C2201/20—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Agronomy & Crop Science (AREA)
- Data Mining & Analysis (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Mechanical Engineering (AREA)
- Animal Husbandry (AREA)
- Transportation (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Catching Or Destruction (AREA)
Abstract
본 발명은, 작물 구역내의 지정된 복수의 이동 포인트에 따른 비행을 시작하는 단계, 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하는 단계, 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하는 단계 및 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계를 포함하는, 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것이다.The present invention comprises the steps of starting a flight according to a plurality of designated moving points in a crop area, detecting an abnormal target using a crop monitoring sensor provided while moving from a first point to a second point of the plurality of moving points; Flying from the current flight position between the first point and the second point to the abnormal target according to the detection of the abnormal target, and the crop abnormal information including the photographed image and the position information including the abnormal target Transmitting through wireless communication It relates to a smart farm crop monitoring method and monitoring system using a drone, comprising the steps.
Description
본 발명은 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것으로서, 구체적으로는 농장 구역 내를 비행하는 드론을 이용하여 작물의 생장 상태 및 병해충 상태를 모니터링하고 이에 따라 작물의 상태를 관리할 수 있는 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템에 관한 것이다. The present invention relates to a smart farm crop monitoring method and monitoring system using a drone, and more specifically, by using a drone flying in a farm area to monitor the growth status and pest status of crops, and to manage the status of the crops accordingly. It relates to a smart farm crop monitoring method and monitoring system using a drone.
2차 산업과 3차 산업에서는 많은 자동화가 이루어지고 있다. 제조업이나 서비스업 분야에서는 로봇, 자동화 기기, 인공 지능 기기 등을 이용하여 다양한 과정과 처리가 자동화되고 있다. A lot of automation is taking place in the secondary and tertiary industries. In the manufacturing and service industries, various processes and processes are being automated using robots, automated devices, artificial intelligence devices, and the like.
1차 산업인 농업, 임업 분야에서도 다양한 자동화 시도가 이루어지고 있으나 소정의 성과가 발생하지 않고 여전히 많은 인적 관여가 필요하다. 특히, 쌀, 보리, 밀, 사과, 배 등과 같은 농작물 이나 과일(이하, '작물'이라함.)은 지속적인 생장 관리와 보호가 필요하다. Various automation attempts are being made in the primary industries of agriculture and forestry, but there are no results and a lot of human involvement is still required. In particular, crops or fruits such as rice, barley, wheat, apples and pears (hereinafter referred to as 'crops') require continuous growth management and protection.
예를 들어, 농작인(농부나 관리인)은 쌀, 보리, 밀 등의 씨를 뿌리고 발아 과정 및 성장 과정에서 쌀, 보리, 밀 등의 생육이 정상적 이도록 다양한 관리 활동을 취한다. 농작인은 잡초를 제거하거나 병충해를 줄이기 위해 지정된 시기마다 농약 등을 작물에 뿌린다. 이러한 다양한 활동을 위해, 농작인은 지속적으로 작물이 자라는 농장이나 과수원을 방문하여야 한다. For example, a farmer (a farmer or manager) sows seeds of rice, barley, wheat, etc., and takes various management activities to ensure the normal growth of rice, barley, and wheat during germination and growth. Farmers spray pesticides on crops at designated times to remove weeds or reduce pests and pests. For these various activities, farmers must constantly visit farms or orchards where crops are grown.
특히, 작물이 병충해를 입거나 발육에 문제가 있는 경우 작물의 작황은 매우 나빠져 그 수확량이 줄어들거나 품질이 나빠지는 문제가 발생한다. 이에 따라, 농작인은 병충해를 예방하기 위한 다양한 약물을 선제적으로 작물에 뿌려야 하거나 추가적인 발육 촉진 활동을 수행하여야 한다. 이러한 활동으로 필요 이상의 인적 관여와 작물의 품질을 또한 낮추는 문제를 야기한다.In particular, when a crop is damaged by pests or there is a problem with its growth, the crop's crop condition is very bad, resulting in a reduced yield or poor quality. Accordingly, the farmer must preemptively spray various drugs to prevent diseases and pests on crops or perform additional growth promotion activities. These activities cause more human involvement than necessary and also lower the quality of crops.
이와 같이, 작물의 생장 문제와 병충해 발생의 파악을 자동화하여 작물의 상태를 미리 예측하고 관리 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템이 필요하다.As such, there is a need for a smart farm crop monitoring method and monitoring system using a drone that can predict and manage crop conditions in advance by automating the identification of crop growth problems and outbreaks of pests.
본 발명은 상술한 문제점을 해결하기 위해서 안출한 것으로서, 드론을 활용하여 작물의 최적 생육을 관리할 수 있는 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a smart farm crop monitoring method and monitoring system using a drone that can manage the optimal growth of crops using the drone.
또한, 본 발명은 드론에 장착되는 센서를 이용한 타겟 추적으로 작물의 위치별 생장 상태를 파악하고 병해충의 발생을 선제적으로 분석 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is to provide a smart farm crop monitoring method and monitoring system using a drone capable of identifying the growth status of crops by location by tracking a target using a sensor mounted on a drone and preemptively analyzing the occurrence of pests and pests. There is this.
또한, 본 발명은 작물 구역 내에서 작물 감시 가능한 복수의 드론을 이용하여 작물 구역 내 생장 상태 이상이나 병해충 이상의 위치를 특정하고 특정된 위치에서 촬영된 이미지 분석으로 작물의 생장을 감시 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention uses a plurality of drones capable of monitoring crops within the crop area to specify the location of abnormal growth conditions or pests in the crop area, and a smart drone using a drone capable of monitoring the growth of crops by analyzing images taken at the specified location An object of the present invention is to provide a method and a monitoring system for monitoring a farm crop.
또한, 본 발명은 작물 구역 내에서 지정된 스케줄에 따라 작물 감시 가능하고 작물 감시 완료 후 안전하게 지정된 도킹 스테이션에 착륙하고 이후 무선 충전 가능한 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is capable of monitoring crops according to a specified schedule within the crop area, and after completion of crop monitoring, safely landing at a designated docking station, and thereafter to provide a smart farm crop monitoring method and monitoring system using a drone capable of wireless charging. there is.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
본 발명에 일 양상에 따른 작물 감시 방법은 드론이 작물 구역내의 지정된 복수의 이동 포인트에 따른 비행을 시작하는 단계, 드론이 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하는 단계, 드론이 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하는 단계 및 드론이 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계를 포함한다.Crop monitoring method according to an aspect of the present invention comprises the steps of starting a flight according to a plurality of designated movement points in a crop area by a drone, and monitoring crops provided while the drone moves from a first point to a second point of the plurality of movement points Detecting an abnormal target using a sensor, the drone flying to the abnormal target from the current flight position between the first point and the second point according to the detection of the abnormal target, and the image captured by the drone including the abnormal target and and transmitting crop abnormality information including location information through wireless communication.
상기한 작물 감시 방법에 있어서, 이상 타겟을 검출하는 단계는 비행중 드론의 센싱 방향을 변경하고 근적외선 센서 또는 열화상 센서인 작물 모니터링 센서에 의해 변경된 센싱 방향에서 노출된 데이터 영역을 센싱하고 센싱된 데이터 영역에서 지정된 임계치 이상의 데이터를 포함하는 지로 이상 타겟을 검출한다. In the above-described crop monitoring method, the detecting of the abnormal target includes changing the sensing direction of the drone during flight and sensing the data area exposed in the sensing direction changed by the crop monitoring sensor, which is a near-infrared sensor or a thermal image sensor, and the sensed data A giro abnormal target including data exceeding a specified threshold value in the area is detected.
상기한 작물 감시 방법에 있어서, 이상 타겟을 검출하는 단계는 센싱된 데이터 영역의 복수의 데이터 중 이웃하는 데이터와의 데이터 차가 지정된 임계치 이상인 데이터를 포함하는 서브 영역을 이상 타겟으로 결정하고, 이상 타겟으로 비행하는 단계는 센싱된 데이터 영역에서의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행한다. In the above-described crop monitoring method, the detecting of the abnormal target comprises determining, as an abnormal target, a sub-region including data in which a data difference with neighboring data among a plurality of data of the sensed data region is equal to or greater than a specified threshold, and as an abnormal target. The flying step flies in a direction determined by the relative position of the sub-region in the sensed data area.
상기한 작물 감시 방법에 있어서, 작물 이상 정보의 전송 이후에, 드론이 현재 비행 위치에 의해 결정되는 비행 위치로 리턴하는 단계 및 작물 감시를 위한 복수의 이동 포인트를 통한 비행 이후에 드론이 무선 충전 가능한 드론 스테이션에 착륙하는 단계를 더 포함한다.In the above crop monitoring method, after the transmission of crop abnormality information, the drone returns to the flight position determined by the current flight position, and the drone can be wirelessly charged after flying through a plurality of moving points for crop monitoring and landing at the drone station.
상기한 작물 감시 방법에 있어서, 드론 스테이션에 착륙하는 단계는 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 드론의 3차원 위치를 변경한다.In the above-described crop monitoring method, the step of landing at the drone station includes moving to the location of the drone station using the provided GPS sensor, identifying the marker of the wireless charging pad from the image taken by the provided vision camera, and selecting the identified marker. It changes the 3D position of the drone according to its position and size.
또한, 본 발명에 일 양상에 따른 작물 감시 시스템은 복수의 드론을 포함하고, 각각의 드론은, 드론별 달리 지정되는 복수의 이동 포인트에 따른 비행을 시작하고 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로 이동 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출하고 이상 타겟의 검출에 따라 제1 포인트로부터 제2 포인트 사이의 현재 비행 위치로부터 이상 타겟으로 비행하고 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송한다.In addition, the crop monitoring system according to an aspect of the present invention includes a plurality of drones, and each drone starts flying according to a plurality of movement points differently designated for each drone, and starts flying from the first point of the plurality of movement points. An abnormal target is detected using the crop monitoring sensor provided while moving to two points, and the image is taken including the abnormal target flying from the current flight position between the first point and the second point according to the detection of the abnormal target and crop abnormality information including location information is transmitted through wireless communication.
상기한 작물 감시 시스템에 있어서, 드론은 비행중 드론의 센싱 방향을 변경하고 근적외선 센서 또는 열화상 센서인 작물 모니터링 센서에 의해 변경된 센싱 방향에서 노출된 데이터 영역을 센싱하고 센싱된 데이터 영역에서 지정된 임계치 이상의 데이터를 포함하는 지로 이상 타겟을 검출한다.In the crop monitoring system described above, the drone changes the sensing direction of the drone during flight and senses the exposed data area in the sensing direction changed by the crop monitoring sensor, which is a near-infrared sensor or a thermal image sensor, and exceeds a specified threshold in the sensed data area. An abnormal target containing data is detected.
상기한 작물 감시 시스템에 있어서, 드론은 센싱된 데이터 영역의 복수의 데이터 중 이웃하는 데이터와의 데이터 차가 지정된 임계치 이상인 데이터를 포함하는 서브 영역을 이상 타겟으로 결정하고, 센싱된 데이터 영역에서의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행한다.In the crop monitoring system described above, the drone determines, as an abnormal target, a sub-region including data in which a data difference with respect to neighboring data is greater than or equal to a specified threshold among a plurality of data in the sensed data region, and the sub-region in the sensed data region Fly in a direction determined by the relative position of
상기한 작물 감시 시스템에 있어서, 마커가 표시된 무선충전패드를 포함하는 드론 스테이션을 더 포함하고, 드론은 복수의 이동 포인트로의 비행을 통한 작물 구역의 작물 감시 이후에 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 무선충전패드에 착륙하기 위해 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 드론의 3차원 위치를 변경한다.In the crop monitoring system described above, further comprising a drone station including a wireless charging pad marked with a marker, wherein the drone uses a GPS sensor provided after crop monitoring in a crop area through flight to a plurality of moving points. It moves to the station's location and identifies the marker of the wireless charging pad from the image taken by the vision camera equipped to land on the wireless charging pad, and changes the three-dimensional position of the drone according to the position and size of the identified marker.
상기한 작물 감시 시스템에 있어서, 드론 스테이션을 통해 드론과 무선통신 가능한 지역관제센터를 더 포함하고, 지역관제센터는 드론으로부터 작물 이상 정보를 수신하고 복수의 작물 이미지로 학습된 AI(Artificial Intelligence)를 통해 작물 이상 정보의 이상을 분류한다.In the crop monitoring system described above, further comprising a regional control center capable of wireless communication with a drone through a drone station, wherein the regional control center receives crop abnormality information from the drone and uses AI (Artificial Intelligence) learned from a plurality of crop images. Classify anomalies in crop anomaly information through
상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 드론을 활용하여 작물의 최적 생육을 관리할 수 있는 효과가 있다.The smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above is effective in managing the optimal growth of crops by using the drone.
또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 드론에 장착되는 센서를 이용한 타겟 추적으로 작물의 위치별 생장 상태를 파악하고 병해충의 발생을 선제적으로 분석 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above is an effect that can identify the growth state of crops by location and preemptively analyze the occurrence of pests by target tracking using a sensor mounted on the drone. there is
또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 작물 구역 내에서 작물 감시 가능한 복수의 드론을 이용하여 작물 구역 내 생장 상태 이상이나 병해충 이상의 위치를 특정하고 특정된 위치에서 촬영된 이미지 분석으로 작물의 생장을 감시 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above uses a plurality of drones capable of monitoring crops in the crop area to specify the location of abnormalities in growth conditions or pests and abnormalities in the crop area and the specified location There is an effect of monitoring the growth of crops by analyzing the images taken in
또한, 상기와 같은 본 발명에 따른 드론을 이용한 스마트 팜 작물 감시 방법 및 감시 시스템은 작물 구역 내에서 지정된 스케줄에 따라 작물 감시 가능하고 작물 감시 완료 후 안전하게 지정된 도킹 스테이션에 착륙하고 이후 무선 충전 가능한 효과가 있다.In addition, the smart farm crop monitoring method and monitoring system using a drone according to the present invention as described above can monitor crops according to a specified schedule within the crop area, land safely at a designated docking station after crop monitoring is completed, and wirelessly charge thereafter. there is.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
도 1은 본 발명에 따른 예시적인 스마트 팜 작물 감시 시스템을 도시한 도면이다.
도 2은 지역관제센터의 예시적인 블록도를 도시한 도면이다.
도 3은 드론 스테이션의 예시적인 구조를 도시한 도면이다.
도 4는 드론의 예시적인 블록도를 도시한 도면이다.
도 5는 본 발명에 따라 구성되는 드론의 예시적인 외형을 도시한 도면이다.
도 6은 드론을 이용하여 작물 감시를 위한 예시적인 제어 흐름을 도시한 도면이다.
도 7은 두 대의 드론을 이용하여 일정한 작물 구역내에서 작물 감시를 행하는 예를 설명하는 도면이다.1 is a diagram illustrating an exemplary smart farm crop monitoring system according to the present invention.
2 is a diagram illustrating an exemplary block diagram of a regional control center.
3 is a diagram illustrating an exemplary structure of a drone station.
4 is a diagram illustrating an exemplary block diagram of a drone.
5 is a view showing an exemplary external appearance of a drone constructed according to the present invention.
6 is a diagram illustrating an exemplary control flow for crop monitoring using a drone.
7 is a view for explaining an example of performing crop monitoring in a certain crop area using two drones.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. The above-described objects, features and advantages will become more clear through the detailed description that will be described later in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can understand the technical spirit of the present invention It will be easy to implement. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 예시적인 스마트 팜 작물 감시 시스템을 도시한 도면이다.1 is a diagram illustrating an exemplary smart farm crop monitoring system in accordance with the present invention.
도 1에 따르면, 드론(300)을 이용하여 스마트 팜(농장)에 재배중인 작물의 생장을 감시하기 위한 시스템은 지역관제센터(200), 하나 이상의 드론(300) 및 드론 스테이션(400)을 포함하고 드론(300) 및 드론 스테이션(400)은 작물이 재배중인 작물 구역(500)(농장) 내에 설치되어 작물 구역(500) 내의 작물의 상태를 주기적으로 및/또는 비주기적으로 감시한다. 작물 감시 시스템은 그 외 중앙관제센터(100)를 더 포함할 수 있다. According to FIG. 1 , a system for monitoring the growth of crops grown in a smart farm (farm) using a
도 1을 통해 작물 감시 시스템을 살펴보면, 중앙관제센터(100)는 하나 이상의 지역관제센터(200)를 관리 및 모니터링한다. 중앙관제센터(100)는 서버, 컴퓨터 등을 구비하고 지역관제센터(200)와 인터넷을 통해 연결된다. 지역관제센터(200)는 각종 정보나 제어 정보를 중앙관제센터(100)로 전송하고 중앙관제센터(100)는 지역관제센터(200)로부터 작물 생장의 이상 정보를 수신할 수 있다. Looking at the crop monitoring system through FIG. 1 , the
중앙관제센터(100)는 예를 들어, 시기별 생장 유의 정보, 현재 유행중인 병해충 정보 등에 관련된 각종 정보를 지역관제센터(200)로 전송할 수 있고 그 외 지역관제센터(200)에서 이용 가능한 프로그램, 드론(300)이나 드론 스테이션(400)에서 이용 가능한 프로그램 등을 지역관제센터(200)로 전송할 수 있다. 중앙관제센터(100)는 특정 광역 지역에 설치되어 있는 여러 지역관제센터(200)를 관리 및 모니터링 가능하다. The
지역관제센터(200)는 작물이 재배되고 있는 작물 구역(500) 내의 드론(300)을 제어하여 작물의 상태를 감시한다. 지역관제센터(200)는 작물 구역(500) 내의 여러 드론(300)의 비행 스케줄, 비행 경로 등을 설정할 수 있고 드론(300)과 무선통신을 통해 비행 중에 생성되는 작물 이상 정보를 수신하여 이를 저장하고 작물 이상 정보를 분석할 수 있다. The
지역관제센터(200)는 무선 AP, 라우터, NVR 및 백엔드 서버 등을 구비하여 드론(300)을 통해 수신되는 작물 이상 정보에 대한 분석으로 관리 대상 작물의 생장이나 병충 발생 여부를 분석할 수 있다. 지역관제센터(200)는 작물 구역(500)내(예를 들어, 유리 등으로 외부와 분리되어 작물 재배 공간을 가지는 농장)의 다수의 드론(300)에 대한 비행 스케줄, 비행 경로를 설정하고 무선통신을 통해 각각의 드론(300)으로 감시 요청을 전송할 수 있다.The
작물 구역(500)내 하나의 드론(300)에 대해 설정되는 비행 경로와 다른 드론(300)에 대해 설정되는 비행 경로는 서로 다를 수 있고 비행 경로는 복수의 이동 포인트(501)로 특정될 수 있다. 즉, 각각의 드론(300)은 감시 요청이나 설정된 주기에 따라 해당 드론(300)에 대해 설정된 복수의 이동 포인트(501)(예를 들어, 위도 및 경도의 GPS좌표)로 비행하고 비행 중에 작물 이상을 감지하여 이를 지역관제센터(200)로 알릴 수 있다. A flight path set for one
지역관제센터(200)는 드론 스테이션(400)을 통해 드론(300)과 무선통신 가능하거나 직접 드론(300)과 무선통신 가능하다. The
지역관제센터(200)에 대해서는 도 2와 도 6에서 좀 더 상세히 살펴보도록 한다. The
드론(300)은 작물 구역(500) 내에 설치되어 설정된 비행 경로에 따라 비행하면서 작물 구역(500) 내의 작물의 상태를 모니터링할 수 있는 기기이다. 작물 구역(500) 내에 설치되어 운영되는 드론(300)들 각각은 설정된 주기에 따라 자동으로 또는 지역관제센터(200)로부터의 감시 요청에 따라 드론 스테이션(400)으로부터 이륙하여 재배중인 작물을 감시하고 감시에 따른 정보를 지역관제센터(200)로 전송 가능하다. The
드론(300)에 대해서는 도 4 이하에서 좀 더 상세히 살펴보도록 한다. The
드론 스테이션(400)은 드론(300)을 보호하기 위한 격납고이다. 드론 스테이션(400)은 무선충전패드(407)를 포함하여 무선충전패드(407)에 안착한 드론(300)의 배터리(313)를 무선충전할 수 있도록 구성된다. 드론 스테이션(400)은 드론(300)의 착륙시에 이용 가능한 마커(407-1)(표시)를 무선충전패드(407) 표면에 포함할 수 있다.The
드론 스테이션(400)에 대해서는 도 3에서 좀 더 상세히 살펴보도록 한다. The
작물 구역(500)은 작물이 재배되는 영역을 나타낸다. 작물 구역(500)은 소위 논, 묘목장, 농장, 과수원 등일 수 있다. 바람직하게는 작물 구역(500)은 유리, 비닐, 플라스틱 등을 이용하여 외부와 분리되고 농장 내에 작물 재배인(농작인)의 이동, 수확을 위한 이동 통로(503)와 작물이 재배되는 작물재배 영역(505)을 포함하여 구성될 수 있다. 작물 구역(500)은 다수의 이동 통로(503)와 다수의 작물재배 영역(505)을 포함하여 이동 통로(503)상에 작물 재배인이 이동하거나 드론(300)이 비행할 수 있다.
도 2은 지역관제센터(200)의 예시적인 블록도를 도시한 도면이다.2 is a diagram illustrating an exemplary block diagram of the
도 2에 따르면, 지역관제센터(200)는 입력부(201), 출력부(203), 통신부(205), 디스플레이부(207), 저장부(209) 및 제어부(211)를 포함한다. 도 2의 블록도는 바람직하게는 기능 블록도를 나타내고 지역관제센터(200)는 다양한 하드웨어 구성을 통해 본 기능 블록을 구성할 수 있다. 예를 들어, 지역관제센터(200)는 무선 AP, 라우터, NVR, 백엔드 서버 및 퍼스널 컴퓨터를 포함하여 각 기능 블록에 정의된 기능을 수행할 수 있다.According to FIG. 2 , the
도 2를 통해 지역관제센터(200)를 살펴보면, 입력부(201)는 지역관제센터(200) 내의 관리자, 농작인 등의 사용자 입력을 수신한다. 입력부(201)는 버튼, 터치패널, 마우스, 키보드, 마이크 등을 구비하여 관리자 등으로부터의 각종 구동 제어, 설정 등의 입력을 수신할 수 있다. Referring to the
출력부(203)는 각종 신호를 출력한다. 출력부(203)는 부저, LED, 스피커 등을 구비하여 관리자 등에게 알리기 위한 각종 신호를 출력할 수 있다. 설계 예에 따라 입력부(201)와 출력부(203) 등의 구성은 지역관제센터(200)에서 생략될 수 있다.The
통신부(205)는 데이터 통신을 수행한다. 통신부(205)는 라우터, 무선 AP, 유선 랜 인터페이스 등을 구비하여 인터넷을 통해 중앙관제센터(100)와 각종 데이터를 송수신하거나 무선랜(와이파이) 및/또는 LTE 등의 이동통신망에 따른 무선통신을 통해 드론 스테이션(400) 및/또는 드론(300)과 각종 데이터를 송수신한다. The
디스플레이부(207)는 LCD, LED, TFT-LCD 디스플레이 모듈 등을 구비하여 제어부(211)로부터 수신되는 비디오 프레임 신호를 출력한다. 디스플레이부(207)는 작물 이상 정보의 시각 이미지를 제어부(211)로부터 수신하여 출력할 수 있다.The
저장부(209)는 휘발성 메모리, 비휘발성 메모리, 하드디스크 등의 대용량 저장매체를 포함하여 각종 데이터와 프로그램 등을 저장한다. 예를 들어, 저장부(209)는 지역관제센터(200)와 나아가 작물 구역(500) 내의 복수의 드론(300)을 제어하기 위한 제어 프로그램, 드론(300)으로부터 수신된 작물 이상 정보로부터 작물 이상 상태를 분석하기 위한 분석 프로그램, 드론(300)으로부터 수신되고 이상 상태로 추정된 이미지(작물 이상 정보의 이미지)를 저장하기 위한 이상 이미지 DB를 저장한다. 작물 이상 정보는 작물의 상태가 발육(생장) 저하, 병해충 인식, 발충해 발생 등과 같이 작물의 비정상적인(abnormal) 상태를 식별할 수 있는 이미지를 포함할 수 있다. The
이상 이미지 DB는 복수의 이상 이미지 아이템으로 구성되고 각각의 이상 이미지 아이템은 촬영 시각, 촬영된 시각(vision) 이미지 및 위치 정보를 포함하고 나아가 센싱 데이터 이미지를 더 포함할 수 있다. 시각 이미지는 시각적으로(비전으로) 분석 가능한 2차원 어레이 데이터일 수 있고 센싱 데이터 이미지는 작물 모니터링 센서에 의해 센싱된 2차원의 센싱 데이터 어레이일 수 있다. 위치 정보는 이미지를 촬영한 드론(300)의 위치를 나타낼 수 있다. The abnormal image DB is composed of a plurality of abnormal image items, and each abnormal image item includes a photographing time, a photographed vision image, and location information, and may further include a sensing data image. The visual image may be a two-dimensional array data that can be analyzed visually (by vision), and the sensing data image may be a two-dimensional sensing data array sensed by a crop monitoring sensor. The location information may indicate the location of the
저장부(209)는 그 외 작물의 상태별로(이상 상태별로) 미리 분류되는 시각 이미지 및 센싱 데이터 이미지를 더 저장할 수 있다. The
제어부(211)는 지역관제센터(200)를 제어한다. 제어부(211)는 프로그램을 수행할 수 있는 하나 이상의 실행 유닛(Execution Unit)을 구비하여 실행 유닛을 통해 저장부(209)의 프로그램을 수행하여 지역관제센터(200)를 제어할 수 있다. 제어부(211)는 CPU, MPU, GPU, 중앙처리장치, 마이컴 등을 하나 이상 포함하거나 이를 나타낼 수 있다. The
예를 들어, 제어 프로그램을 수행하는 제어부(211)는 작물 구역(500) 내의 복수의 드론(300)으로 비행 스케줄, 비행 경로 등을 무선통신을 통해 설정하고 복수의 드론(300)의 비행을 제어(예를 들어, 감시 요청의 전송 등)할 수 있다. 제어부(211)는 클라우드 기반의 제어 플랫폼을 이용하여 작물 구역(500)내의 복수의 드론(300)을 통일적으로 제어 가능하다. 또한, 제어 프로그램을 수행하는 제어부(211)는 임의의 드론(300)으로부터 작물 이상 정보를 수신하고 이상 이미지 아이템을 생성하여 촬영 시각과 함께 작물 이상 정보의 시각 이미지, 센싱 데이터 이미지 및 위치 정보를 저장할 수 있다. For example, the
제어부(211)는 작물 이상 정보의 수신을 출력부(203)를 통해 출력하거나 디스플레이부(207)를 통해 시각 이미지 및 센싱 데이터 이미지를 출력할 수 있다. 제어 프로그램은 프런트 엔드 클라이언트로 동작하는 퍼스널 컴퓨터에서 수행될 수 있다.The
분석 프로그램을 수행하는 제어부(211)는 이상 이미지 DB에 저장된 이상 이미지 아이템에 대한 분석을 수행한다. 단순히, 제어부(211)는 수신된 이상 이미지 아이템의 영상 및 센싱 이미지를 디스플레이부(207)로 출력하고 사용자 입력에 따라 이상 상태를 분류할 수 있다. The
또는, 제어부(211)는 저장부(209)의 이상 상태별로 미리 분류되는 시각 이미지 및 센싱 데이터 이미지와 수신된 이상 이미지 아이템의 시각 이미지 및 센싱 데이터 이미지를 비교하여 이상 상태를 분류하고 분류된 결과를 이상 이미지 아이템에 더 저장할 수 있다. 제어부(211)는 여러 작물 이미지와 각 작물 이미지에 대한 이상 상태 분류로 미리 학습된 인공지능(Artificial Intelligence : AI) 알고리즘을 통해 이상 이미지 아이템의 시각 이미지로부터 이상 상태를 분류하고 그 분류된 결과를 이상 이미지 아이템에 저장할 수 있다. 분석시, 제어부(211)는 시각 이미지만을 이용하여 이상 상태 분류를 수행하거나 센싱 데이터 이미지를 더 이용하여 이상 상태를 분류할 수 있다. Alternatively, the
제어부(211)는 생장 불량, 병충해 발견 등의 이상 상태를 이상 이미지 아이템에 대해 분류 및 저장하고 각각의 이상 이미지 아이템의 이상 상태들을 이상 이미지 아이템들의 위치별로 클러스터링하여 병해충의 발생시작, 병해충 증가, 저생장 초기, 저생장 확산 등의 가능성을 인공지능 기술 등을 이용하여 미리 예측하고 예측 결과를 제어부(211)가 디스플레이부(207)나 출력부(203)를 통해 출력할 수 있다. 제어부(211)는 생장, 병해충 등의 예측 결과와 함께 클러스터링된 위치 영역을 같이 출력할 수 있다. 이에 따라, 관리자 등은 작물 구역(500)내의 여러 위치 영역에서의 주요한 이상 상태를 파악할 수 있다. The
지역관제센터(200)에 대해서는 도 6에서 좀 더 살펴보도록 한다. The
도 3은 드론 스테이션(400)의 예시적인 구조를 도시한 도면이다.3 is a diagram illustrating an exemplary structure of a
도 3의 드론 스테이션(400)은 드론(300)을 내부에 수용하고 드론(300)을 충전하며 필요시 드론(300)으로부터의 각종 데이터를 지역관제센터(200)와 송수신할 수 있도록 구성된다. The
도 3에서 알 수 있는 바와 같이, 드론 스테이션(400)은 무선통신 모듈(401), 드론스테이션 제어 모듈(403), 무선충전 모듈(405) 및 무선충전패드(407)를 포함하고 내부에 드론(300)을 수용하고 외부와 분리하기 위한 벽체(409)와 드론(300)의 착륙을 가이드하는 하나 이상의 슬로프(411)를 더 포함할 수 있다. 3, the
드론 스테이션(400)은 상부가 개방되고 개방된 상부는 직사각형의 형상을 가질 수 있다. 예를 들어, 드론 스테이션(400)의 개방된 상부는 1.3 미터 * 1.3 미터 크기의 개구를 가지고 4개의 측면에 벽체(409)를 가져 드론(300)을 내부에 수용 가능하다. 벽체(409)는 유리, 아크릴, 금속재 등의 재질로 구성될 수 있고 바람직하게는 유리로 구성된다.The
무선통신 모듈(401)은 무선통신을 통해 데이터를 송수신한다. 무선통신 모듈(401)은 무선 AP 및/또는 이동통신망을 통해 무선패킷을 송수신하기 위한 이동통신 모듈일 수 있다. 이동통신 모듈은 예를 들어 LTE 모듈일 수 있다. 무선통신 모듈(401)을 통해 드론 스테이션(400)은 지역관제센터(200)와 각종 데이터를 송수신할 수 있다. 무선통신 모듈(401)은 무선 AP나 LTE 모듈을 통해 중계기로 동작할 수 있어 드론(300)으로부터의 데이터를 지역관제센터(200)로 전송하고 지역관제센터(200)로부터의 데이터를 무선 연결된 드론(300)으로 송신할 수 있다. 무선통신 모듈(401)은 2.4GHz/5.8GHz 대역의 무선통신(예를 들어, 와이파이 통신)이나 LTE, 5G 등의 이동통신을 수행할 수 있도록 구성된다. The
드론스테이션 제어 모듈(403)은 드론 스테이션(400)을 제어한다. 드론스테이션 제어모듈은 알려진 컴퓨팅 보드(예를 들어, 아두이노, 라즈베리 파이 등)를 포함하여 무선충전패드(407)에서의 무선 충전 등을 제어할 수 있다. The drone
무선충전 모듈(405)은 무선충전패드(407)로 무선전력을 공급하거나 차단할 수 있다. 무선충전 모듈(405)은 무선전력을 생성을 위한 트랜스미터를 구비하고 드론스테이션 제어 모듈(403)로부터 수신되는 제어 신호에 따라 트랜스미터를 구동하여 내외부 전원(예를 들어, 드론 스테이션(400)에 내장된 배터리 전원이나 외부로부터 유입되는 교류 전원)을 변환하여 무선충전패드(407)의 송신코일로 출력한다. 무선충전 모듈(405)은 수신되는 제어 신호에 따라 무선전력용 전력 신호를 생성하거나 차단 가능하다. The
무선충전패드(407)는 송신 코일(transmission Coil)을 내부에 구비하고 무선충전패드(407) 위에 위치하는 드론(300)(의 수신코일)에 무선전력을 공급한다. 무선충전패드(407)는 자기공명 또는 자기유도 방식의 무선충전기술을 적용하여 무선충전패드(407) 상의 드론(300)에 무선전력을 공급할 수 있도록 구성된다.The
무선충전패드(407)는 표면에 표시된 마커(407-1)를 포함하여 구성된다. 마커(407-1)(marker)는 드론(300)이 시각 이미지에서 식별 가능한 표시자로서 예를 들어, 패턴 이미지, 크로스바 이미지, 'H' 표시 등 드론(300)과 약속된 형상을 가지는 표시이다. The
슬로프(411)는 착륙을 시도하는 드론(300)에 대해 벽체(409) 위의 개구로부터 무선충전패드(407)로의 착륙을 가이드(안내)할 수 있도록 구성된다. 드론 스테이션(400)은 2개 또는 4개의 슬로프(411)를 가지고 각각의 슬로프(411)는 개구의 한 측면으로부터 무선충전패드(407)의 표면 외곽으로의 일정한 경사(예를 들어, 70도 등)를 가진다. 슬로프(411)는 플라스틱, 고무, 금속재, 또는 직물 재질로 구성될 수 있다. 바람직하게는 슬로프(411)는 천 등의 직물 재질로 구성된다. 드론(300)에 의한 착륙이 오차로 벗어나는 경우에도 슬로프(411)에 의해 드론(300)을 안전하게 무선충전패드(407)에 안착시킬 수 있다. The
도 4는 드론(300)의 예시적인 블록도를 도시한 도면이다.4 is a diagram illustrating an exemplary block diagram of the
도 4에 따르면, 드론(300)은 무선통신부(301), 저장부(303), 카메라부(305), 센싱부(307), 드론 구동부(309), 배터리 충전부(311), 배터리(313) 및 제어부(315)를 포함한다. 도 4의 블록도는 바람직하게는 기능 블록도를 나타내고 드론(300)은 각 기능을 수행하기 위한 대응하는 하드웨어 블록(구성요소)을 가지도록 구성된다. According to FIG. 4 , the
도 4를 통해, 드론(300)을 살펴보면, 무선통신부(301)는 무선 데이터 통신을 수행한다. 무선통신부(301)는 2.4GHz/5.8GHz 대역의 무선통신(예를 들어, 와이파이 통신)이나 LTE, 5G 등의 무선이동통신을 수행하기 위한 통신 칩셋과 회로를 구비하여 각종 데이터를 송수신할 수 있다. 예를 들어, 무선통신부(301)는 지역관제센터(200)로부터 제어 데이터를 수신하고 제어 데이터에 따른 비행에 따라 감지된 작물 이상 정보를 무선통신을 통해 지역관제센터(200)로 전송할 수 있다. 무선통신부(301)는 직접 지역관제센터(200)와 무선통신을 수행하거나 임의의(또는 지정된) 드론 스테이션(400)을 경유하여 지역관제센터(200)와 무선통신을 수행할 수 있다. Referring to the
저장부(303)는 비휘발성 메모리, 휘발성 메모리 등을 포함하여 각종 데이터와 프로그램을 저장한다. 예를 들어, 저장부(303)는 작물 구역(500) 내의 비행을 제어하기 위한 비행제어 프로그램, 비행중 이상 타겟을 검출하기 위한 이상 타겟 추적 프로그램 등과 비행 경로, 비행 주기 등의 설정 데이터를 저장한다. The
카메라부(305)는 구비된 렌즈를 통해 노출되는 시각(영상) 이미지를 촬영한다. 카메라부(305)는 비전 카메라를 구비하여 렌즈에 노출되는 시각(비전) 이미지를 캡쳐링하고 캡쳐링된 비전(시각) 이미지를 제어부(315)로 전송하거나 저장부(303)에 저장 가능하다. The
센싱부(307)는 드론(300) 외부의 각종 외부 환경을 센싱한다. 센싱부(307)는 GPS 센서, 충돌 회피 센서 및 작물 모니터링 센서를 포함하여 드론(300) 외부를 센싱한다. GPS 센서는 GPS 신호를 수신하고 충돌 회피 센서는 비행 중 전방의 물체를 인식할 수 있다. 충돌 회피 센서는 초음파 센서(울트라 소닉 센서), 레이저, 라이다 센서 등일 수 있다. 작물 모니터링 센서는 작물 구역(500) 내의 작물의 상태를 모니터링 가능한 센서이다. 작물 모니터링 센서는 작물에서의 상태 변화가 감지 가능한 근적외선(Near Infrared) 센서(카메라)이거나 열화상 센서(카메라)일 수 있다. 작물 모니터링 센서는 노출된 영역에서의 근적외선값이나 열화상값에 대응하는 데이터값을 센싱하고 노출된 영역의 센싱된 데이터들을 제어부(315)로 출력할 수 있다. 센싱된 데이터는 2차원의 센싱 데이터(이미지)를 구성할 수 있다.The
드론 구동부(309)는 드론(300)의 상,하,좌,우,전, 후의 이동을 위한 하나 이상의 엔진이나 모터를 구비하고 제어부(315)로부터 수신되는 제어 신호에 따라 지정된 엔진이나 모터를 동작 제어하여 드론(300)을 동작시킨다. 드론 구동부(309)를 통해 드론(300)은 비행할 수 있고 특정 위치로 이동 가능하다.The
배터리(313)는 드론(300)의 블록들이 이용 가능한 전원을 저장한다. 배터리(313)는 리튬이온, 리튬폴리머 등의 알려진 전지를 포함하여 무선충전패드(407)로부터 공급되는 전원을 저장하고 저장된 전원을 전원이 필요한 블록들(예를 들어, 제어부(315), 무선통신부(301), 드론 구동부(309), 센싱부(307), 카메라부(305), 저장부(303) 등)에 공급한다.The
배터리 충전부(311)는 배터리(313)에 전원을 충전한다. 배터리 충전부(311)는 수신코일과 수신코일로부터 유도되는 신호로부터 충전 전원을 생성하는 전원생성 회로나 부품을 포함한다. 배터리 충전부(311)는 배터리(313)에 연결되어 배터리(313)로 충전 전원을 공급하거나 충전 전원의 공급을 차단할 수 있다. 배터리 충전부(311)는 배터리(313)의 출력 전원을 측정하고 측정된 전원 데이터를 제어부(315)로 출력 가능하다. 측정되는 전원 데이터는 전류, 전압, 또는 전력 데이터일 수 있고 이로부터 배터리(313) 잔량이 제어부(315)에 의해 측정될 수 있다. The
드론(300)은 배터리 충전부(311)에 포함되는 수신코일을 하나 또는 복수 개 구비할 수 있고 수신코일은 드론(300)의 4 개의 다리 중 하나 또는 복수 개에 부착되거나 내장될 수 있다. 이와 같이 수신코일은 무선충전패드(407)에 접하는 드론(300) 다리(의 하측)에 설치되어 무선충전방식에 따른 무선전력을 무선충전패드(407)로부터 수신할 수 있다.The
제어부(315)는 드론(300)을 제어한다. 제어부(315)는 프로그램을 수행할 수 있는 하나 이상의 실행 유닛을 구비하여 실행 유닛을 통해 저장부(303)의 비행제어 프로그램을 수행하여 지정된 비행 경로에 따라 비행하고 이상 타겟 추적 프로그램을 제어하여 비행 중 작물 구역(500)내 이상 상태를 가지는 타겟을 추적할 수 있다. The
비행제어 프로그램을 수행하는 제어부(315)는 드론 구동부(309)와 약속된 통신 프로토콜에 따라 드론(300)의 비행을 제어할 수 있다. 예를 들어, 제어부(315)는 MAVlink(ROSlink) 프로토콜에 따라 드론 구동부(309)를 제어하여 지정된 비행 경로에 따라 비행할 수 있다. The
드론(300)에서 수행되는 비행 및 타겟 검출을 위한 제어 흐름은 도 6 및 도 7을 통해 좀 더 상세히 살펴보도록 한다. A control flow for flight and target detection performed by the
도 5는 본 발명에 따라 구성되는 드론(300)의 예시적인 외형을 도시한 도면이다. 5 is a diagram illustrating an exemplary external appearance of a
도 5에서 알 수 있는 바와 같이, 본 발명에 따른 드론(300)은 각종 센서와 카메라를 구비한다. 예를 들어, 드론(300)은 각종 처리를 수행하기 위한 컴퓨팅 보드, GPS 센서, 충돌 회피 센서, 작물 모니터링 센서 및 비전 카메라를 구비한다. GPS 센서는 드론(300) 바디로부터 상측을 향해 도출되고 하나 또는 복수의 충돌 회피 센서는 드론(300) 바디 사방(전,후,좌,우)에 설치되어 비행하는 사방을 향해 장애물을 센싱한다. 드론(300) 바디 전방에 설치되는 작물 모니터링 센서는 작물 구역(500)내의 작물의 이상을 센싱할 수 있는 센서이고 드론(300) 바디 전방에 설치되는 비전 카메라는 전방의 영상을 촬영 가능하다. 그 외, 드론(300)은 착륙에 이용되고 컴퓨팅 보드의 보호를 위해 이용되는 다리에 수신 코일을 내장하거나 외부에 구비할 수 있다.As can be seen from FIG. 5 , the
도 6은 드론(300)을 이용하여 작물 감시를 위한 예시적인 제어 흐름을 도시한 도면이다. 6 is a diagram illustrating an exemplary control flow for crop monitoring using the
도 6의 제어 흐름은 드론(300)에서 수행되는 이동과 액션에 대한 제어 흐름을 나타내고 작물 구역(500)내의 다른 드론(300)도 동일한 주요 이동과 액션에 대한 제어 흐름을 가진다. 도 6의 제어 흐름은 드론(300)의 제어부(315)에 의한 제어로 이루어지고 예를 들어, 지역관제센터(200)와 연동하여 수행되는 비행제어 프로그램과 이상 타겟 추적 프로그램의 수행으로 이루어진다. The control flow of FIG. 6 shows the control flow for movement and action performed by the
이하에서는 단일 드론(300)에서 이루어지는 제어 흐름을 주로 설명하나 필요한 경우 도 7과 연동하여 여러 드론(300)에서 이루어지는 동일한 제어 흐름도 함께 설명하도록 한다. Hereinafter, the control flow performed in a
먼저, 작물 구역(500)내의 복수의 드론(300) 각각은 비행과 감시에 관련된 각종 정보를 설정(S101)한다. 예를 들어, 드론(300)은 비행 경로, 비행주기(시각) 등을 설정하고 지역관제센터(200)와 무선통신 채널을 설정한다. 비행 경로는 복수의 이동 포인트(501)를 포함할 수 있다. 이동 포인트(501)는 GPS 좌표(위도와 경도 좌표)를 나타낼 수 있다. First, each of the plurality of
하나의 드론(300)(도 7의 (a))은 특정 드론 스테이션(400)(도 7의 (A))에 착륙한 상태에서 이동 포인트(501)들 {E,F,G,H}로 특정되는 비행 경로로 설정되고 다른 하나의 드론(300)(도 7의 (b))은 다른 특정 드론 스테이션(400)(도 7의 (B))에 착륙한 상태에서 이동 포인트(501)들 {A,B,C,D}로 특정되는 비행 경로로 설정될 수 있다. 비행주기는 예를 들어 특정 비행시작 시각으로 설정되거나 1일 1회, 2회 등으로 설정될 수 있다. 드론(300)은 비행주기에 따라 자동 작물 감시를 수행하거나 지역관제센터(200)로부터의 제어에 따라 작물 감시를 시작할 수 있다. One drone 300 (FIG. 7(a)) moves to the moving points 501 {E, F, G, H} in a state of landing at a specific drone station 400 (FIG. 7(A)). The other drone 300 (FIG. 7(b)) is set to a specified flight path, and the other specific drone station 400 (FIG. 7(B)) is set at the moving
각종 셋팅 정보의 설정 이후에, 드론(300)은 비행 이벤트의 발생을 인식(S103)한다. 예를 들어, 드론(300)은 설정된 비행주기의 도래, 비행시각의 도래 또는 무선통신부(301)를 통해 지역관제센터(200)로부터 감시 요청을 수신함에 따른 비행 이벤트 발생을 인식할 수 있다. After setting various setting information, the
비행 이벤트를 인식한 각각의 드론(300)(드론(300)별 비행 이벤트는 동일하거나 서로 다른 시각에 발생할 수 있음)은 각 드론(300)별 설정된 다수의 이동 포인트(501)에 따른 비행 경로로의 비행을 시작(S105)한다.Each
드론(300)은 복수의 이동 포인트(501) 중에서 시작 이동 포인트(501) 및 종료 이동 포인트(501)를 설정하고 시작 이동 포인트(501)에서 종료 이동 포인트(501)로의 비행을 시작할 수 있다. 예를 들어, 하나의 드론(300)(도 7의 (a))는 E(시작 이동 포인트(501))에서 F(종료 이동 포인트(501))로의 비행을 시작하고 다른 하나의 드론(300)(도 7의 (b))는 A(시작 이동 포인트(501))에서 B(종료 이동 포인트(501))로의 비행을 시작한다. The
시작 이동 포인트(501)로부터 종료 이동 포인트(501)로 비행을 위해 드론(300)의 제어부(315)는 비행제어 프로그램을 통해 드론 구동부(309)를 제어하고 비행 경로 상의 이동 포인트(501)들 중 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 이동(비행) 중에 구비된 작물 모니터링 센서를 이용하여 이상 타겟을 검출(S107)한다. To fly from the
예를 들어, 드론(300)은 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로 설정된 비행속도(초당 10Cm, 20Cm, 1 미터 등)에 따라 비행한다. 시작 이동 포인트(501)로부터 종료 이동 포인트(501) 사이의 이동 통로(503)를 비행중에 드론(300)은 센싱부(307)의 충돌 회피 센서를 통해 전방(나아가 좌우의) 장애물을 회피하면서 비행할 수 있다.For example, the
지정된 속도로 비행 중 드론(300)은 작물 모니터링 센서의 센싱 방향을 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 축(이동 통로(503))으로부터 좌우 일정 각도(예를 들어, 좌측, 우측 30도나 45도 등)로 변경하고 변경된 센싱 방향에서(을 향한) 작물 모니터링 센서에 노출된 작물재배 영역(505)을 센싱한다. 드론(300)은 센싱된 데이터 영역(예를 들어, 센싱 이미지(2차원 어레이))에서 지정된 임계치 이상의 데이터가 포함되는 지로(것으로) 이상 타겟을 검출할 수 있다. 드론(300)은 느린 속도로 시작 이동 포인트(501)로부터 종료 이동 포인트(501)로의 이동 통로(503)를 통한 비행중에 드론(300) 방향을 일정한 각도로 좌측 우측으로 변경하고 변경된 방향에서 작물재배 영역(505)에 대한 센싱 이미지(예를 들어, 2차원 데이터 어레이)를 캡쳐링할 수 있다. During flight at a specified speed, the
나아가(동시에), 드론(300)은 카메라부(305)의 비전 카메라를 통해 변경된 센싱 방향을 향한 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상인 작물(예를 들어, 과실 나무, 농작물 등)을 식별할 수 있다. 드론(300)의 제어부(315)는 캡쳐링된 시각 이미지에 대한 분석(이미지간 비교, 학습된 프로그램에 의한 판단 등)으로 감시 대상 작물인지를 판단할 수 있다. Furthermore (simultaneously), the
드론(300)은 센싱된 데이터 영역의 2차원 데이터 중 이웃하는 데이터와 지정된 임계치 이상의 차이를 가지는 데이터의 위치를 이상 타겟으로 결정할 수 있다. 예를 들어, 드론(300)은 복수의 이웃 위치(좌, 우, 상, 하 등)의 온도값이 지정된 온도차(예를 들어 3도 등) 이상을 가지는 위치를 이상 타겟으로 결정할 수 있다. The
예를 들어, 드론(300)은 센싱된 데이터 영역을 2차원의 일련의 서브 영역(예를 들어, 2*2, 4*4, 8*8 데이터 영역 등)으로 분류하고 각 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상(예를 들어, 3도 등)을 가지는 서브 영역을 이상 타겟으로 결정할 수 있다. For example, the
작물 생장이 저하되고 있는 작물 지점 부위나 병충이 있는 지점 부위나 병충해의 피해가 발생한 지점 부위는 열화상 이미지나 근적외선 이미지에서 주변 부위와 다른 센싱값을 가진다. 예를 들어, 병충이 위치하는 지점의 온도는 다른 작물 부위에서 센싱되는 온도와는 다르고 일반적으로 더 높다. 또한, 작물 잎이 마른 지점에서 센싱된 온도는 정상적으로 생장중인 지점에서의 센싱된 온도와는 서로 다르다. The part of the crop branch where crop growth is declining, the part where there are pests, or the part where the damage by pests has occurred has a different sensing value from the surrounding parts in the thermal image or near-infrared image. For example, the temperature at which a pest is located is different and generally higher than the temperature sensed in other crop areas. In addition, the temperature sensed at the point where the leaves of the crop are dry is different from the temperature sensed at the point during normal growth.
이상 타겟의 결정 과정은 센싱된 데이터 영역에서 감시 대상 작물이 식별되는 경우에만 수행되거나 식별 여부와 상관없이 수행될 수도 있다. The process of determining the abnormal target may be performed only when a crop to be monitored is identified in the sensed data area, or may be performed regardless of whether the crop is identified.
이상 타겟의 검출에 따라, 드론(300)은 시작 이동 포인트(501)로부터 종료 이동 포인트(501) 사이의 이동 통로(503) 상의 현재 드론 위치에서 이상 타겟으로 비행(S109)한다.According to the detection of the abnormal target, the
구체적으로, 드론(300)은 센싱부(307)의 GPS 센서를 통해 결정되는 현재 드론 위치를 저장부(303)에 저장하고 센싱된 데이터 영역에서 이상 타겟의 위치에 의해 결정되는 방향으로 비행을 시작한다. Specifically, the
예를 들어, 드론(300)은 센싱된 데이터 영역에서의 이상 타겟으로 특정된 서브 영역의 상대적 위치에 따라 비행 방향을 변경한다. 이상 타겟이 센싱된 데이터 영역의 중심으로부터 좌측(우측)에 있는 경우 센싱된 데이터 영역의 중심에 이상 타겟(의 서브 영역)이 위치하도록 드론(300)을 좌측(우측)으로 회전할 수 있다. 이 과정에서 드론(300)은 작물 모니터링 센서를 통한 이상 타겟을 계속하여 검출할 수 있다. For example, the
비행 방향이 변경됨에 따라, 드론(300)은 이상 타겟을 향해 일정한 속도(초당 10Cm, 20Cm, 1 미터 등)로 비행한다. 이상 타겟으로의 비행 과정에서 드론(300)은 작물 모니터링 센서를 통해 이상 타겟을 계속 검출하고 이상 타겟의 크기가 센싱된 데이터 영역 내에서 지정된 크기(예를 들어, 25%의 크기) 이내의 범위내에서 비행할 수 있고 지정된 크기를 초과하는 경우 비행을 멈출 수 있다.As the flight direction is changed, the
드론(300)은 이상 타겟으로의 비행 과정에서 시각 이미지를 촬영하고 GPS 센서에 의해 결정되는 위치 정보와 함께 저장부(303)에 저장한다. 예를 들어, 드론(300)은 이상 타겟으로의 비행 과정에서 카메라부(305)에 의해 촬영되는 시각 이미지, 촬영시의 위치 정보, 나아가 촬영 시각 및 작물 모니터링 센서에 의해 센싱된 데이터 영역 이미지를 저장부(303)에 저장할 수 있다. 드론(300)은 1회(이상 타겟으로의 비행 종료 위치에서) 또는 복수 회(예를 들어, 지정된 주기에 따라) 시각 이미지, 위치 정보, 나아가 촬영 시각 및 작물 모니터링 센서에 의해 센싱된 데이터 영역 이미지를 저장부(303)에 저장할 수 있다. The
센싱된 데이터 영역에서의 이상 타겟의 크기 등에 따라 이상 타겟으로의 비행이 종료됨에 따라, 드론(300)은 이상 타겟을 포함하여 촬영된 시각 이미지 및 위치 정보를 포함하는 작물 이상 정보를 구성하여 무선통신을 통해 지역관제센터(200)로 전송(S111)한다. As the flight to the abnormal target is terminated according to the size of the abnormal target in the sensed data area, the
지역관제센터(200)는 근거리 무선통신망이나 이동통신망을 통해 작물 이상 정보를 수신하고 이상 이미지 DB에 신규의 이상 이미지 아이템을 생성하고 작물 이상 정보의 시각 이미지, 위치 정보, 촬영 시각 및 나아가 센싱된 데이터 이미지를 저장한다. 시각 이미지, 위치 정보, 촬영 시각 및 나아가 센싱된 데이터 이미지는 한 개 또는 복수 개가 이상 이미지 아이템에 저장될 수 있다.The
지역관제센터(200)는 이상 이미지 DB의 하나 이상의 이상 이미지 아이템에 대한 분석으로 작물 구역(500) 내의 특징 위치에서의 이상 상태를 분류하고 분류된 결과를 이상 이미지 아이템에 더 저장할 수 있다. 지역관제센터(200)는 미리 학습된 인공지능(Artificial Intelligence : AI) 알고리즘을 통해 이상 상태를 분류하고 그 분류된 결과를 이상 이미지 아이템에 저장할 수 있다.The
작물 이상 정보의 전송 이후에, 드론(300)은 이동 통로(503) 상의 기존 비행 위치로 리턴(S113)한다. 예를 들어, 드론(300)은 GPS 센서를 이용하여 저장부(303)에 저장되어 있는 현재 드론 위치로 리턴하고 이동 통로(503) 상에서 종료 이동 포인트(501)로 비행을 재개한다. After the transmission of the crop abnormality information, the
드론(300)은 GPS 센서를 이용하여 현재 위치 정보를 주기적으로 체크하고 현재 위치 정보가 종료 이동 포인트(501)인지를 판단(S115)할 수 있다. 예를 들어, 드론(300)은 현재 위치 정보가 종료 이동 포인트(501)와 일정한 거리 이내(예를 들어, 50Cm 등)인 경우에 드론(300)이 현재 종료 이동 포인트(501)에 위치하는 것으로 결정할 수 있다. The
이동 통로(503)상의 드론(300)이 아직 종료 이동 포인트(501)에 위치하지 못한 경우, 드론(300)은 종료 이동 포인트(501)로 계속 비행하면서 이상 타겟의 검출(S107), 비행(S109), 정보 전송(S111) 및 리턴(S113) 과정을 반복 진행한다. If the
종료 이동 포인트(501)에 도착한 경우, 드론(300)은 현재 종료 이동 포인트(501)가 최종 이동 포인트(501)인지를 판단(S117)한다. When arriving at the
예를 들어,'E'-'F' 이동 통로(503) 비행 완료에 따라 'F'에 위치하는 드론(300)(도 7의 (a))은 종료 이동 포인트(501) 'F'가 최종 종료 포인트인 'H'와 동일한 지를 판단하고 'A'-'B' 이동 통로(503) 비행 완료에 따라 'B'에 위치하는 드론(300)(도 7의 (b))은 종료 이동 포인트(501) 'B'가 최종 이동 포인트(501) 'D'와 동일한 지를 판단할 수 있다. For example, according to the completion of the flight of the 'E'-'F' moving
종료 이동 포인트(501)와 최종 이동 포인트(501)가 다른 위치인 경우에, 드론(300)은 시작 이동 포인트(501) 및 종료 이동 포인트(501)를 재설정(S119)한다. When the ending
예를 들어, 'E'-'F' 이동 통로(503) 비행을 완료한 드론(300)(도 7의 (a))은 'E'-'F' 이동 통로(503) 다음의 'F'-'G' 이동 통로(503)의 'F'를 시작 이동 포인트(501)로 설정하고 'G'를 종료 이동 포인트(501)로 설정한다. 또한, 'A'-'B' 이동 통로(503) 비행을 완료한 드론(300)(도 7의 (b))은 'A'-'B' 이동 통로(503) 다음의 'B'-'C' 이동 통로(503)의 'B'를 시작 이동 포인트(501)로 설정하고 'C'를 종료 이동 포인트(501)로 설정한다.For example, the drone 300 ((a) of FIG. 7) that has completed the flight of the 'E'-'F'
시작 이동 포인트(501) 및 종료 이동 포인트(501)가 재설정됨에 따라 드론(300)은 재설정된 이동 통로(503)를 비행하면서 이상 타겟을 검출하고 작물 이상 정보를 전송하는 과정(S107 내지 S115)을 수행한다. As the
작물 감시를 위한 비행 경로에 따라 설정된 여러 이동 포인트(501)를 통한 비행을 완료하여 최종 이동 포인트(501)에 위치하는 드론(300)은 무선 충전 가능한 드론 스테이션(400)에 착륙(S121)한다. 비행 완료의 경우 외에, 드론(300)은 내장된 배터리(313)가 지정된 임계치 이하의 전력을 가지는 경우 드론 스테이션(400)으로 이동하여 착륙하여 무선충전하고 무선충전 완료 후 비행이 중단된 위치로 이동하여 작물 감시 과정을 재수행(S107 내지 S119)할 수 있다. The
드론 스테이션(400)으로의 착륙을 위해, 드론(300)은 착륙을 위해 지정된 드론 스테이션(400)의 위치로 이동한다. 예를 들어, 하나의 드론(300)(도 7의 (a))은 미리 설정된 하나의 드론 스테이션(400)(도 7의 (A))의 위치로 구비된 GPS 센서를 이용하여 이동하고 다른 하나의 드론(300)(도 7의 (b))은 미리 설정된 다른 하나의 드론 스테이션(400)(도 7의 (B))의 위치로 구비된 GPS 센서를 이용하여 이동한다. For landing on the
드론(300)이 지정된 드론 스테이션(400)의 위치로 이동함에 따라, 드론(300)은 카메라부(305)의 비전 카메라를 아래(하측 방향으)로 향하고 비전 카메라를 통해 이미지를 촬영한다. 드론(300)은 촬영된 이미지(시각 이미지)에서 무선충전패드(407)에 포함되는 마커(407-1)를 식별하고 식별된 마커(407-1)의 이미지에서 위치와 그 크기에 따라 드론(300)의 위치(3차원 위치)를 변경하여 착륙을 시도한다. As the
예를 들어, 드론(300)은 아래로 향한 비전 카메라에서 촬영된 시각 이미지에서 약속된 형상의 마커(407-1)를 식별하고 식별된 마커(407-1)가 시각 이미지에서 중앙(중앙 영역)에 위치하도록 드론 구동부(309)를 제어하여 전후좌우 방향으로 드론(300)을 이동시킨다. 드론(300)의 호버링과 이동을 반영하여 시각 이미지에서 마커(407-1)는 일부 오차를 가지고 중앙 영역에 위치하는 것으로 드론(300)은 판단할 수 있다. 드론(300)은 마커(407-1)를 중앙 영역에 위치시키기 위해 드론 구동부(309)를 제어하고 지속적으로 비전 카메라를 통해 이미지를 촬영하고 비교한다.For example, the
식별된 마커(407-1)가 시각 이미지의 중앙 영역에 위치함에 따라, 드론(300)은 마커(407-1)의 크기에 따라 드론 구동부(309)를 제어하여 무선충전패드(407)가 있는 아래(하측) 방향으로 드론(300)을 이동시킨다. 드론(300)은 하측 방향으로 이동함에 따라 카메라부(305)를 제어하여 계속 시각 이미지를 촬영하고 촬영된 이미지에서 마커(407-1)를 중앙 영역에 위치시키기 위한 전후좌우 제어를 더 수행할 수 있다. As the identified marker 407-1 is located in the central region of the visual image, the
중앙에 위치하는 마커(407-1)가 지정된 크기 이상을 가지거나 무선충전패드(407)에 접촉(예를 들어, 센싱부(307)에 구비되고 드론(300)의 다리 하측에 위치하는 압력 센서를 통한 압력 인식)한 경우에, 드론(300)은 드론 구동부(309)를 통해 엔진 구동을 종료하고 무선충전을 시작한다. A marker 407-1 located in the center has a specified size or more or is in contact with the wireless charging pad 407 (eg, a pressure sensor provided in the
드론(300)은 드론 스테이션(400)과 연동하여 무선충전패드(407)를 통한 무선충전을 시작하고 배터리 충전부(311)를 통해 지정된 전력량 이상으로 완충된 경우 드론 스테이션(400)으로 완충상태를 나타내는 데이터를 무선통신 등을 통해 전송할 수 있다. 그에 따라, 드론 스테이션(400)은 무선충전 모듈(405)을 제어하여 무선전력 송출을 중단할 수 있다. The
무선전력의 충전후 드론(300)은 다음 비행 이벤트에 따라 작물의 상태를 감시(S103 내지 S119)할 수 있다. After charging the wireless power, the
이와 같은 제어 흐름과 대응하는 시스템에 의해 재배 작물에 대한 재배인 또는 관리인(농작인)의 빈번한 관리와 감시 없이도 드론(300)에 의해 작물의 생장과 병충해 발생을 조기에 감시하고 예측할 수 있도록 한다.By means of such a control flow and a corresponding system, the growth of crops and the occurrence of pests can be monitored and predicted early by the
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above, for those of ordinary skill in the art to which the present invention pertains, various substitutions, modifications and changes are possible without departing from the technical spirit of the present invention. It is not limited by the drawings.
100 : 중앙관제센터
200 : 지역관제센터
201 : 입력부 203 : 출력부
205 : 통신부 207 : 디스플레이부
209 : 저장부 211 : 제어부
300 : 드론
301 : 무선통신부 303 : 저장부
305 : 카메라부 307 : 센싱부
309 : 드론 구동부 311 : 배터리 충전부
313 : 배터리 315 : 제어부
400 : 드론 스테이션
401 : 무선통신 모듈 403 : 드론스테이션 제어 모듈
405 : 무선충전 모듈
407 : 무선충전패드 407-1 : 마커
409 : 벽체 411 : 슬로프
500 : 작물 구역
501 : 이동 포인트
503 : 이동 통로
505 : 작물재배 영역100: central control center
200: regional control center
201: input unit 203: output unit
205: communication unit 207: display unit
209: storage unit 211: control unit
300 : drone
301: wireless communication unit 303: storage unit
305: camera unit 307: sensing unit
309: drone driving unit 311: battery charging unit
313: battery 315: control unit
400 : drone station
401: wireless communication module 403: drone station control module
405: wireless charging module
407: wireless charging pad 407-1: marker
409: wall 411: slope
500 : crop area
501 : moving point
503: moving passage
505: crop cultivation area
Claims (10)
(a) 상기 드론이 상기 복수의 이동 통로 중 상기 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로의 이동 통로의 이동 중에 구비된 작물 모니터링 센서의 센싱 방향을 상기 이동 통로에 인접하는 좌측 또는 우측의 작물재배 영역을 센싱하도록 상기 이동 통로의 축으로부터 좌측 또는 우측의 지정된 각도로 변경하여 상기 작물재배 영역으로부터 이상 타겟을 검출하는 단계;
(b) 상기 드론이 상기 이상 타겟의 검출에 따라 상기 제1 포인트로부터 상기 제2 포인트 사이의 현재 비행 위치로부터 상기 이상 타겟으로 비행하는 단계;
상기 드론이 상기 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하는 단계; 및
상기 드론이 상기 제2 포인트를 제1 포인트로 설정하고 상기 복수의 이동 포인트 중 상기 제2 포인트에 후속하는 포인트를 제2 포인트로 설정하여 상기 단계 (a) 및 상기 단계 (b)를 반복 수행하는 단계;를 포함하고,
상기 단계 (a)는 열화상 센서인 상기 작물 모니터링 센서에 의해 센싱된 데이터 영역을 2차원의 복수의 서브 영역으로 분류하고 복수의 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상의 온도차를 가지는 서브 영역을 이상 타겟으로 결정하는,
작물 감시 방법.Initiating, by the drone, flying according to a plurality of designated movement points in a crop area that is separated from the outside and includes a plurality of crop growing areas where crops are grown and a plurality of passages for movement or harvesting of crops;
(a) the drone detects the sensing direction of the crop monitoring sensor provided during the movement of the movement passage from the first point to the second point of the plurality of movement points among the plurality of movement passages left or right adjacent to the movement passage detecting an abnormal target from the crop cultivation area by changing it to a specified angle left or right from the axis of the moving passage to sense the crop cultivation area of ;
(b) the drone flying to the abnormal target from a current flight position between the first point and the second point according to the detection of the abnormal target;
transmitting, by the drone, crop abnormality information including a photographed image including the abnormal target and location information through wireless communication; and
The drone sets the second point as a first point and sets a point following the second point among the plurality of movement points as a second point to repeat steps (a) and (b) step; including;
In the step (a), a data area sensed by the crop monitoring sensor, which is a thermal image sensor, is classified into a plurality of two-dimensional sub-regions, an average value of the sensed data for the plurality of sub-regions is calculated, and a neighbor among the plurality of sub-regions. Determining a sub-region having a temperature difference greater than or equal to a specified threshold than a sub-region to be an abnormal target,
Crop monitoring methods.
상기 단계 (a)는 구비된 비전 카메라를 통해 지정된 각도로 변경된 센싱 방향에서 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상 작물이 식별되는 경우에만 상기 이상 타겟을 검출하고,
상기 이상 타겟으로 비행하는 단계는 상기 센싱된 데이터 영역에서의 상기 이상 타겟의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행하는,
작물 감시 방법.According to claim 1,
In the step (a), a visual image is captured in a sensing direction changed to a specified angle through an provided vision camera, and the abnormal target is detected only when a crop to be monitored is identified in the captured visual image,
The step of flying to the abnormal target is flying in a direction determined by the relative position of the sub-region of the abnormal target in the sensed data region,
Crop monitoring methods.
상기 단계 (a) 및 상기 단계 (b)를 반복 수행하는 단계 이후에, 상기 드론이 상기 현재 비행 위치에 의해 결정되는 비행 위치로 리턴하는 단계; 및
작물 감시를 위한 상기 복수의 이동 포인트를 통한 비행 이후에 상기 드론이 무선 충전 가능한 드론 스테이션에 착륙하는 단계;를 더 포함하는,
작물 감시 방법.According to claim 1,
After repeating the steps (a) and (b), returning the drone to a flight position determined by the current flight position; and
After flying through the plurality of moving points for crop monitoring, the drone landing at a drone station capable of wireless charging; further comprising,
Crop monitoring methods.
상기 드론 스테이션에 착륙하는 단계는 구비된 GPS 센서를 이용하여 드론 스테이션의 위치로 이동하고 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 상기 드론의 3차원 위치를 변경하는,
작물 감시 방법.5. The method of claim 4,
In the step of landing at the drone station, the drone moves to the location of the drone station using the provided GPS sensor, identifies the marker of the wireless charging pad from the image taken by the provided vision camera, and according to the location and size of the identified marker, the drone to change the three-dimensional position of
Crop monitoring methods.
각각의 드론은, 드론별 달리 지정되는 복수의 이동 포인트에 따른 비행을 시작하고 상기 복수의 이동 통로 중 상기 복수의 이동 포인트의 제1 포인트로부터 제2 포인트로의 이동 통로의 이동 중에 구비된 작물 모니터링 센서의 센싱 방향을 상기 이동 통로에 인접하는 좌측 또는 우측의 작물재배 영역을 센싱하도록 상기 이동 통로의 축으로부터 좌측 또는 우측의 지정된 각도로 변경하여 상기 작물재배 영역으로부터 이상 타겟을 검출하고 상기 이상 타겟의 검출에 따라 상기 제1 포인트로부터 상기 제2 포인트 사이의 현재 비행 위치로부터 상기 이상 타겟으로 비행하고 상기 이상 타겟을 포함하여 촬영된 이미지 및 위치 정보를 포함하는 작물 이상 정보를 무선통신을 통해 전송하고 상기 제2 포인트를 제1 포인트로 설정하고 상기 복수의 이동 포인트 중 상기 제2 포인트에 후속하는 포인트를 제2 포인트로 설정하여 상기 이상 타겟의 검출과 상기 이상 타겟으로의 비행을 반복 수행하며,
상기 드론은 열화상 센서인 상기 작물 모니터링 센서에 의해 센싱된 데이터 영역을 2차원의 복수의 서브 영역으로 분류하고 복수의 서브 영역에 대한 센싱 데이터의 평균값을 산출하고 복수의 서브 영역 중 이웃하는 서브 영역보다 지정된 임계치 이상의 온도차를 가지는 서브 영역을 이상 타겟으로 결정하는,
작물 감시 시스템. A crop monitoring system for monitoring crops in a crop area including a plurality of drones, including a plurality of crop cultivation areas separated from the outside and where crops are grown, and a plurality of movement paths for movement or harvesting of crops,
Each drone starts flying according to a plurality of movement points that are differently designated for each drone, and monitors crops provided during movement of a movement passage from a first point to a second point of the plurality of movement points among the plurality of movement passages. By changing the sensing direction of the sensor to a designated angle left or right from the axis of the moving passage to sense the left or right crop cultivation area adjacent to the movement passage, an abnormal target is detected from the crop cultivation area, and the abnormal target is According to the detection, from the current flight position between the first point and the second point, fly to the abnormal target, and transmit crop abnormal information including the image and location information taken including the abnormal target through wireless communication, and the A second point is set as a first point and a point subsequent to the second point among the plurality of moving points is set as a second point to repeatedly perform detection of the abnormal target and flight to the abnormal target,
The drone classifies a data area sensed by the crop monitoring sensor, which is a thermal image sensor, into a plurality of two-dimensional sub-regions, calculates an average value of the sensed data for the plurality of sub-regions, and neighboring sub-regions among the plurality of sub-regions. determining a sub-region having a temperature difference greater than or equal to a specified threshold as an abnormal target,
crop monitoring system.
상기 드론은, 구비된 비전 카메라를 통해 지정된 각도로 변경된 센싱 방향에서 시각 이미지를 캡쳐링하고 캡쳐링된 시각 이미지에서 감시 대상 작물이 식별되는 경우에만, 상기 이상 타겟을 검출하고 상기 센싱된 데이터 영역에서의 상기 이상 타겟의 서브 영역의 상대적 위치에 의해 결정되는 방향으로 비행하는,
작물 감시 시스템.7. The method of claim 6,
The drone captures a visual image in a sensing direction changed to a specified angle through an provided vision camera, and detects the abnormal target only when a crop to be monitored is identified in the captured visual image, and in the sensed data area to fly in a direction determined by the relative position of the sub-region of the anomaly of the target,
crop monitoring system.
마커가 표시된 무선충전패드를 포함하는 드론 스테이션;을 더 포함하고,
상기 드론은 상기 복수의 이동 포인트로의 비행을 통한 작물 구역의 작물 감시 이후에 구비된 GPS 센서를 이용하여 상기 드론 스테이션의 위치로 이동하고 상기 무선충전패드에 착륙하기 위해 구비된 비전 카메라에서 촬영된 이미지에서 무선충전패드의 마커를 식별하고 식별된 마커의 위치와 크기에 따라 상기 드론의 3차원 위치를 변경하는,
작물 감시 시스템.7. The method of claim 6,
A drone station including a wireless charging pad marked with a marker; further comprising,
The drone moves to the location of the drone station using a GPS sensor provided after crop monitoring in the crop area through flight to the plurality of movement points and is photographed by a vision camera provided to land on the wireless charging pad. Identifying the marker of the wireless charging pad in the image and changing the three-dimensional position of the drone according to the position and size of the identified marker,
crop monitoring system.
상기 드론 스테이션을 통해 드론과 무선통신 가능한 지역관제센터를 더 포함하고,
상기 지역관제센터는 상기 드론으로부터 작물 이상 정보를 수신하고 복수의 작물 이미지로 학습된 AI(Artificial Intelligence)를 통해 상기 작물 이상 정보의 이상을 분류하는,
작물 감시 시스템.10. The method of claim 9,
Further comprising a regional control center capable of wireless communication with the drone through the drone station,
The regional control center receives the crop abnormality information from the drone and classifies the abnormality of the crop abnormality information through AI (Artificial Intelligence) learned from a plurality of crop images,
crop monitoring system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200030145A KR102371909B1 (en) | 2020-03-11 | 2020-03-11 | Smart farm crop monitoring method and system using drones |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200030145A KR102371909B1 (en) | 2020-03-11 | 2020-03-11 | Smart farm crop monitoring method and system using drones |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210115101A KR20210115101A (en) | 2021-09-27 |
KR102371909B1 true KR102371909B1 (en) | 2022-03-10 |
Family
ID=77926006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200030145A KR102371909B1 (en) | 2020-03-11 | 2020-03-11 | Smart farm crop monitoring method and system using drones |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102371909B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102541165B1 (en) | 2022-11-29 | 2023-06-13 | 주식회사 미드바르 | Integrated management system of smart farm using muti-hop network |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114932965B (en) * | 2022-06-16 | 2023-10-27 | 江苏业派生物科技有限公司 | Plant disease and insect pest monitoring device, remote monitoring system and monitoring method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101793509B1 (en) * | 2016-08-02 | 2017-11-06 | (주)노루기반시스템즈 | Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops |
KR101937597B1 (en) * | 2017-10-25 | 2019-04-10 | 김동원 | Drone for the extermination of harmful animals and their flying method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101914179B1 (en) * | 2016-09-07 | 2018-11-01 | 주식회사 웨이브쓰리디 | Apparatus of detecting charging position for unmanned air vehicle |
KR20180079725A (en) | 2017-01-02 | 2018-07-11 | 주식회사 위츠 | Drone Wireless Charging System |
KR102028622B1 (en) * | 2018-01-31 | 2019-10-04 | 주식회사 에디테크놀로지 | Method and system for automatically tracking object using drone |
-
2020
- 2020-03-11 KR KR1020200030145A patent/KR102371909B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101793509B1 (en) * | 2016-08-02 | 2017-11-06 | (주)노루기반시스템즈 | Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops |
KR101937597B1 (en) * | 2017-10-25 | 2019-04-10 | 김동원 | Drone for the extermination of harmful animals and their flying method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102541165B1 (en) | 2022-11-29 | 2023-06-13 | 주식회사 미드바르 | Integrated management system of smart farm using muti-hop network |
Also Published As
Publication number | Publication date |
---|---|
KR20210115101A (en) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220107298A1 (en) | Systems and methods for crop health monitoring, assessment and prediction | |
US10779472B2 (en) | Robotic fruit picking system | |
US11194348B2 (en) | System and method for drone fleet management for harvesting and dilution | |
KR102371909B1 (en) | Smart farm crop monitoring method and system using drones | |
CA3035074A1 (en) | Systems and methods for identifying pests in crop-containing areas via unmanned vehicles based on crop damage detection | |
KR102265860B1 (en) | Artificial Intelligence Robot System for Unmanned Crop Cultivation and Harvesting | |
WO2020206946A1 (en) | Lodging driving planning system of automatic harvester, and method thereof | |
US20240090395A1 (en) | Method and system for pollination | |
You et al. | Semiautonomous precision pruning of upright fruiting offshoot orchard systems: An integrated approach | |
TW202123152A (en) | Fruits and vegetables monitoring system and method thereof | |
EP4187344B1 (en) | Work machine distance prediction and action control | |
WO2020206940A1 (en) | Planning system and method for residual harvesting path of automatic harvester | |
WO2022091092A1 (en) | System and method for indoor crop management | |
KR20200124109A (en) | Artificial Intelligence Robot System for Unmanned Crop Cultivation and Harvesting | |
KR20210084038A (en) | Agricultural product management system using agricultural product harvest autonomous robot and method thereof | |
KR102523022B1 (en) | Smart farm management device and smart farm management system comprising the device using nueral networks | |
US20240033940A1 (en) | Aerial sensor and manipulation platform for farming and method of using same | |
EP4206848A1 (en) | Virtual safety bubbles for safe navigation of farming machines | |
US20230397521A1 (en) | Automated and directed data gathering for horticultural operations with robotic devices | |
JP2022041829A (en) | Information processing device, information processing system, information processing method, and program | |
BR102022026428A2 (en) | VIRTUAL SAFETY BUBBLES FOR SAFE NAVIGATION OF AGRICULTURAL MACHINERY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |