JP2019158635A - Flight route creation device, and flight route creation method - Google Patents

Flight route creation device, and flight route creation method Download PDF

Info

Publication number
JP2019158635A
JP2019158635A JP2018046527A JP2018046527A JP2019158635A JP 2019158635 A JP2019158635 A JP 2019158635A JP 2018046527 A JP2018046527 A JP 2018046527A JP 2018046527 A JP2018046527 A JP 2018046527A JP 2019158635 A JP2019158635 A JP 2019158635A
Authority
JP
Japan
Prior art keywords
field
flight path
information
target
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018046527A
Other languages
Japanese (ja)
Other versions
JP6914874B2 (en
Inventor
藤原 昇
Noboru Fujiwara
昇 藤原
光昭 小関
Mitsuaki Koseki
光昭 小関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2018046527A priority Critical patent/JP6914874B2/en
Publication of JP2019158635A publication Critical patent/JP2019158635A/en
Application granted granted Critical
Publication of JP6914874B2 publication Critical patent/JP6914874B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To quickly and properly create a flight route of an agriculture-purpose autonomous type UAV enabling a state of a farm field to be appropriately grasped.SOLUTION: A farm field DB 104 is configured to store farm field information including information capable of identifying an existing location, shape and area about one or more farm fields. A photographing range identification unit 112 is configured to identify a photographing range upon photographing the farm field from sky using an UAV2 on the basis of a performance of a camera function of the UAV2. An object farm field identification unit 113 is configured to identify an object farm field serving a photographing object on the basis of instruction information from a user and the farm field information stored in the farm field DB 104. A flight route creation unit 115 is configured to create a flight route of the UAV2 in the sky of the object farm field on the basis of the farm field information on the farm field DB about the object farm field identified by the object farm field identification unit 113, and the photographing range identified by the photographing range identification unit 112.SELECTED DRAWING: Figure 1

Description

この発明は、例えば、圃場上空を飛行して情報を収集する、農業用自律型UAV(Unmanned Aerial Vehicle)の飛行経路を生成する装置及び方法に関する。   The present invention relates to an apparatus and method for generating a flight path of an agricultural autonomous UAV (Unmanned Aerial Vehicle) that, for example, flies over a field and collects information.

農業の分野では、UAVやドローンなどと呼ばれる無人航空機(以下、UAVと記載する。)が活用されている。通常、UAVは、現場において、操作者が目視で確認しながら遠隔操作により運行されるが、目的に応じて、圃場上空を適切に飛行させる必要がある。このため、後に記す特許文献1には、正確なエリアデータを作成して無人ヘリコプターの飛行ルートを設定できるようにする無人ヘリコプター用飛行計画装置に関する発明が開示されている。   In the field of agriculture, unmanned aerial vehicles (hereinafter referred to as UAVs) called UAVs and drones are used. Usually, the UAV is operated by remote operation while visually confirming by an operator at the site, but it is necessary to appropriately fly over the field depending on the purpose. For this reason, Patent Document 1 described later discloses an invention related to an unmanned helicopter flight planning device that can create accurate area data and set a flight route of the unmanned helicopter.

特許文献1に開示された発明は、対象圃場の外周をGPS(Global Positioning System)機能を搭載した飛行計画装置を使用者が持って移動し、当該対象圃場の端点の位置及び高度を測位して、当該対象圃場についての正確なエリアデータを作成する。この正確なエリアデータに基づいた圃場のイメージ図をタッチパネルに表示し、タッチペンを用いて飛行ルートの指示入力を行い、目的とする飛行ルートを設定する。   In the invention disclosed in Patent Document 1, the user moves a flight planning device equipped with a GPS (Global Positioning System) function around the periphery of the target field, and measures the position and altitude of the end point of the target field. Then, accurate area data for the target field is created. An image of a farm field based on this accurate area data is displayed on the touch panel, and a flight route instruction is input using a touch pen to set a target flight route.

この特許文献1に開示された発明により、無人ヘリコプターを自律飛行させる場合の制御に用いる飛行ルートや無線操縦飛行の目安となる飛行エリアや飛行ルートを、適切に設定できる。   According to the invention disclosed in Patent Document 1, it is possible to appropriately set a flight route used for control when an unmanned helicopter autonomously flies and a flight area and a flight route serving as a reference for radio controlled flight.

特開2002−211494号公報JP 2002-2111494 A

多くの農家においては、自己が所有する圃場が1箇所にまとまってある場合は少なく、比較的に広いエリアに飛び飛びに複数の圃場を所有している場合が多い。また、多くの圃場を借りて大規模農業を営むいわゆる農業法人の場合にも、耕作対象は、複数の所有者から借りた飛び飛びに存在する複数の圃場となることがある。   In many farms, there are few cases where the fields owned by oneself are gathered in one place, and in many cases, a plurality of fields are owned in a relatively large area. In addition, even in the case of a so-called agricultural corporation that rents a large number of fields and conducts large-scale agriculture, the cultivation target may be a plurality of fields that exist in the jumps borrowed from a plurality of owners.

このような場合に、上述した特許文献1に開示された発明を適用すると、分散して存在する圃場の1つ1つの外周に沿って飛行計画装置を持って使用者が移動することにより、その1つ1つの圃場について正確なエリアデータを作成する処理を行う必要がある。また、飛行ルート設定のための入力作業も必要になる。このため、圃場ごとに適した飛行ルートを設定するためには、多くの労力と時間を必要とする。   In such a case, when the invention disclosed in the above-mentioned Patent Document 1 is applied, the user moves with the flight planning device along the outer periphery of each field that exists in a dispersed manner. It is necessary to perform processing for creating accurate area data for each field. Also, input work for setting the flight route is required. For this reason, in order to set the suitable flight route for every field, much labor and time are required.

また、近年においては、作物の生育状況や圃場の状況を適切に把握し、適時に適切な対応を行うことにより、高品質の作物を安定して生育できるようにするいわゆる精密農業の実現に、UAVを活用したいとする要求も高くなってきている。すなわち、UAVを活用し、圃場の状況を適切に把握できるようにすることが求められている。   In recent years, in order to realize so-called precision agriculture that enables stable growth of high-quality crops by properly grasping the growth status of the crop and the state of the field and taking appropriate measures in a timely manner, The demand for utilizing UAV is also increasing. That is, it is required to use the UAV so that the situation of the field can be properly grasped.

以上のことに鑑み、この発明は、圃場の状況を適切に把握できるようにする農業用自律型UAVの飛行経路を、適切かつ迅速に生成できるようにすることを目的とする。   In view of the above, an object of the present invention is to enable generation of an agricultural autonomous UAV flight path capable of appropriately grasping the state of an agricultural field appropriately and quickly.

上記課題を解決するため、この発明の飛行経路生成装置は、
1以上の圃場についての所在位置、形状、面積を特定することが可能な情報を含む圃場情報を記憶する圃場情報記憶手段と、
UAV(Unmanned aerial vehicle)に搭載されたカメラ機能の性能に基づいて、当該UAVを用いて圃場を上空から撮影する場合の撮影範囲を特定する撮影範囲特定手段と、
使用者からの指示情報と、前記圃場情報記憶手段に記憶されている前記圃場情報とに基づいて、撮影対象となる対象圃場を特定する対象圃場特定手段と、
前記対象圃場特定手段で特定された前記対象圃場についての前記圃場情報記憶手段の前記圃場情報と、前記撮影範囲特定手段で特定された前記撮影範囲とに基づいて、前記対象圃場上空においての前記UAVの飛行経路を生成する飛行経路生成手段と
を備えることを特徴とする。
In order to solve the above problems, the flight path generation device of the present invention is
Field information storage means for storing field information including information capable of specifying the location, shape, and area of one or more fields;
Based on the performance of a camera function mounted on a UAV (Unmanned aerial vehicle), an imaging range specifying means for specifying an imaging range when shooting the field from above using the UAV;
Target field specifying means for specifying a target field to be imaged based on instruction information from a user and the field information stored in the field information storage means;
The UAV above the target field based on the field information of the field information storage unit for the target field specified by the target field specifying unit and the shooting range specified by the shooting range specifying unit. Flight path generating means for generating a flight path of

この発明によれば、使用者が大きな負荷を負うことなく、農業用自律型UAVの飛行経路を、適切かつ迅速に生成できる。   According to this invention, the flight path of the agricultural autonomous UAV can be generated appropriately and quickly without burdening the user with a large load.

実施の形態のUAV飛行経路生成装置1の構成例と、その周辺環境を説明するための図である。It is a figure for demonstrating the structural example of the UAV flight path | route production | generation apparatus 1 of embodiment, and its surrounding environment. 実施の形態の生成装置が行う処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process which the production | generation apparatus of embodiment performs. UAVを飛行させて情報を収集する圃場について説明するための図である。It is a figure for demonstrating the agricultural field which flies UAV and collects information. UAVを飛行させて情報を収集する圃場について説明するための図である。It is a figure for demonstrating the agricultural field which flies UAV and collects information. UAVを飛行させて情報を収集する圃場について説明するための図である。It is a figure for demonstrating the agricultural field which flies UAV and collects information. 圃場DBの格納データの例を説明するための図である。It is a figure for demonstrating the example of the storage data of agricultural field DB. UAVDBの格納データの例を説明するための図である。It is a figure for demonstrating the example of the storage data of UAVDB. UAVが備えるカメラ機能に応じて撮影範囲を特定する場合の例を説明するための図である。It is a figure for demonstrating the example in the case of specifying an imaging | photography range according to the camera function with which UAV is provided. UAVが備えるカメラ機能に応じて撮影範囲を特定する場合の例を説明するための図である。It is a figure for demonstrating the example in the case of specifying an imaging | photography range according to the camera function with which UAV is provided. UAVにより対象圃場の動画を撮影する場合の飛行経路の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the flight path | route in the case of image | photographing the moving image of a target field by UAV. UAVにより対象圃場の静止画を撮影する場合の飛行経路の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the flight path | route in the case of image | photographing the still image of an object farm field by UAV. 1の農業用エリアに存在する複数の対象圃場の全てについて情報収取を行う場合の飛行経路の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the flight path | route in the case of collecting information about all the some target agricultural fields which exist in one agricultural area. 情報取得レベルと飛行高度等の関係について説明するための図である。It is a figure for demonstrating the relationship between an information acquisition level, flight altitude, etc. FIG. 生成装置で行われるUAVの飛行経路情報の生成処理について説明するためのフローチャートである。It is a flowchart for demonstrating the production | generation process of the flight path information of UAV performed with a production | generation apparatus. 管理装置で用いられる条件情報の入力画面を説明するための図である。It is a figure for demonstrating the input screen of the condition information used with a management apparatus.

以下、図を参照しながら、この発明の装置、方法の一実施の形態について説明する。   Hereinafter, an embodiment of the apparatus and method of the present invention will be described with reference to the drawings.

[UAV飛行経路生成装置1の構成例と周辺環境]
図1は、この実施の形態のUAV飛行経路生成装置(以下、単に生成装置と記載する。)1の構成例と、その周辺環境を説明するための図である。図1に示すように、生成装置1と、複数のUAV2(1)、2(2)、2(3)、…と、UAV運用管理装置(以下、単に管理装置と記載する。)3とが、IoT(Internet of Things)プラットホーム4を通じて接続され、相互に通信が可能になっている。すなわち、生成装置1、UAV2(1)、2(2)、2(3)、…、管理装置3のそれぞれは、通信機能を備えたものである。
[Configuration example and surrounding environment of UAV flight path generator 1]
FIG. 1 is a diagram for explaining a configuration example of a UAV flight path generation device (hereinafter simply referred to as a generation device) 1 of this embodiment and its surrounding environment. As shown in FIG. 1, a generation apparatus 1, a plurality of UAVs 2 (1), 2 (2), 2 (3),..., And a UAV operation management apparatus (hereinafter simply referred to as a management apparatus) 3. Are connected through an IoT (Internet of Things) platform 4 and can communicate with each other. That is, each of the generation device 1, UAV2 (1), 2 (2), 2 (3),..., Management device 3 has a communication function.

生成装置1は、管理装置3を通じて入力された使用者からの指示情報(条件情報)を、IoTプラットホーム4を通じて受け付け、当該指示情報に応じて、指示された圃場上空をUAVが飛行する場合の飛行経路を示す情報(飛行経路情報)を生成する。そして、生成装置1は、生成した飛行経路情報を、IoTプラットホーム4を通じて、UAV2(1)、2(2)、2(3)、…の内の当該圃場上空を飛行させる目的とするUAVに提供する。   The generation device 1 receives instruction information (condition information) input from the user through the management device 3 through the IoT platform 4, and the flight when the UAV flies over the designated field according to the instruction information. Information indicating the route (flight route information) is generated. Then, the generation device 1 provides the generated flight path information to the UAV intended to fly over the field among the UAVs 2 (1), 2 (2), 2 (3), ... through the IoT platform 4. To do.

UAV2(1)、2(2)、2(3)、…は、無人航空機であり、マルチコプター、固定翼機、小型ヘリコプターなどの種々のものが存在する。この実施の形態のUAV2(1)、2(2)、2(3)、…は、マルチコプターのうち、例えば、クワッドローター式のもの(クワッドコプター)である。なお、クワッドコプターにも種々のものがあるが、その基本的な機能は同様であるため、以下においては、特に区別して示す必要がある場合を除き、UAV2(1)、2(2)、2(3)、…を総称して、UAV2と記載する。   UAV2 (1), 2 (2), 2 (3),... Are unmanned aerial vehicles, and there are various types such as multicopters, fixed wing aircraft, and small helicopters. In this embodiment, UAV2 (1), 2 (2), 2 (3),... Are, for example, a quad-rotor type (quad copter) among multicopters. There are various types of quadcopters, but their basic functions are the same. In the following, UAV2 (1), 2 (2), 2 and 2 are used unless otherwise indicated. (3),... Are collectively referred to as UAV2.

そして、UAV2は、GPS機能や、6軸センサ、方位センサ、高度センサなどの種々のセンサなどを備え、自律飛行が可能なものである。また、UAV2は、カメラ機能や近距離無線通信機能を備え、上空から圃場を撮影したり、近距離無線通信機能を通じて情報を収集したりすることができるものである。当該飛行経路情報の提供を受けたUAV2は、当該飛行経路情報に基づいて、使用者が指示した圃場上空を自律飛行して、撮影を行うなどして情報収集を行う。   The UAV 2 includes a GPS function, various sensors such as a six-axis sensor, a direction sensor, and an altitude sensor, and is capable of autonomous flight. The UAV 2 has a camera function and a short-range wireless communication function, and can capture a field from the sky and collect information through the short-range wireless communication function. The UAV 2 that has received the flight path information collects information by autonomously flying over the field instructed by the user based on the flight path information and taking a picture.

管理装置3は、使用者からの情報の入力を受け付けて、これを目的とする相手先に送信したり、相手先からの情報を受信して、これを表示出力したりする。この実施の形態の管理装置3は、UAV2の使用者(運用者)によって用いられ、UAV2に関する必要な情報や上空を飛行して情報収取を行う圃場を特定するための情報などを指示情報(条件情報)として受け付けて、生成装置1に提供する。管理装置3は、例えば、タブレットPC(Personal Computer)やノート型PCによって実現されるが、この実施の形態においては、タブレットPCである。   The management device 3 accepts input of information from the user and transmits it to a destination intended for this purpose, or receives information from the destination and displays it. The management device 3 according to this embodiment is used by a user (operator) of the UAV 2 to provide necessary information about the UAV 2, information for specifying a field to collect information by flying over the sky, etc. Condition information) and provide it to the generation apparatus 1. The management device 3 is realized by, for example, a tablet PC (Personal Computer) or a notebook PC, and in this embodiment, is a tablet PC.

IoTプラットホーム4は、インターネット、携帯電話網、一般公衆電話網、無線LAN(Local Area Network)などを含み、これに接続された機器が、相互に通信を行うことができる環境を提供する。この実施の形態において、無線LANとしては、例えば、Wi−Fi(登録商標)規格のものが利用可能になっている。   The IoT platform 4 includes the Internet, a mobile phone network, a general public telephone network, a wireless local area network (LAN), and the like, and provides an environment in which devices connected thereto can communicate with each other. In this embodiment, as a wireless LAN, for example, a Wi-Fi (registered trademark) standard can be used.

図2は、この実施の形態の生成装置1が行う処理の概要を説明するための図である。この実施の形態の生成装置1は、上述したように、管理装置3を通じて提供される指示情報に基づいて、UAV2の飛行経路情報を生成する。そして、図2(A)に示すように、目的とする対象圃場HJの隅々まで観察可能なように当該圃場の上空から当該圃場を隈なく撮影して必要な精度の画像データを取得できるようにするUAVの飛行経路情報を生成する(第1の目的)。また、図2(B)に示すように、観察対象の圃場にデータセンサSSが設置されている場合には、近距離無線通信を通じて当該データセンサから検出結果を収集できるようにするUAV2の飛行経路情報を生成する(第2の目的)。   FIG. 2 is a diagram for explaining an outline of processing performed by the generation apparatus 1 according to this embodiment. As described above, the generation device 1 of this embodiment generates flight path information of the UAV 2 based on the instruction information provided through the management device 3. Then, as shown in FIG. 2 (A), it is possible to acquire image data with a required accuracy by photographing the field from above the field so that all the target field HJ can be observed. The UAV flight route information to be generated is generated (first object). Further, as shown in FIG. 2B, when the data sensor SS is installed in the field to be observed, the flight path of the UAV 2 that enables collection of detection results from the data sensor through short-range wireless communication Generate information (second purpose).

ここで、データセンサSSは、栽培作物や圃場環境に応じて、種々の情報を検出するセンサ機能と近距離無線通信機能とを備え、検出した情報を近距離無線通信によって送信できるものである。このように、近距離無線通信によって検出結果を送信するのは、大規模な圃場である場合や山間部の圃場である場合など、そもそもIoTプラットホーム4に接続できない場合があるためである。また、IoTプラットホーム4に接続可能であっても、接続には比較的に大きな送信出力が必要になり、消費電力が大きくなるため、容量の大きなバッテリが必要になるなど、必要なだけのデータセンサSSを安価に設置することを阻害する場合があるためである。   Here, the data sensor SS has a sensor function for detecting various information and a short-range wireless communication function according to the cultivated crop and the field environment, and can transmit the detected information by short-range wireless communication. As described above, the detection result is transmitted by the short-range wireless communication because there is a case where it is not possible to connect to the IoT platform 4 in the first place when the field is a large-scale field or a mountain field. In addition, even if connection to the IoT platform 4 is possible, a relatively large transmission output is required for the connection, and power consumption is increased, so that a battery with a large capacity is required. This is because the installation of the SS at a low cost may be hindered.

なお、データセンサSSには、例えば、「温度、湿度、照度、降雨量、風向、風速」の検出センサ、「水位、水温」の検出センサ、「土壌温度、含水率、電気伝導率」の検出センサ、「葉面水分量」の検出センサ、「二酸化炭素濃度」の検出センサなどがある。   The data sensor SS includes, for example, “temperature, humidity, illuminance, rainfall, wind direction, wind speed” detection sensor, “water level, water temperature” detection sensor, “soil temperature, moisture content, electrical conductivity” detection. There are sensors, “leaf water content” detection sensors, “carbon dioxide concentration” detection sensors, and the like.

<生成装置1の具体的な構成>
生成装置1は、図1の上側のブロック図に示した構成を有する。通信I/F101は通信機能を実現する。制御部102は、図示しないが、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリなどを備えたコンピュータ装置部であり、生成装置1の各部を制御する。記憶装置103は、例えばハードディスクなどの大容量記録媒体を備え、当該記録媒体へのデータの書き込み/読み出し/記憶保持/削除などを行う。
<Specific Configuration of Generating Device 1>
The generation device 1 has the configuration shown in the upper block diagram of FIG. The communication I / F 101 realizes a communication function. Although not shown, the control unit 102 is a computer device unit including a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a nonvolatile memory, and the like, and controls each unit of the generation device 1. To do. The storage device 103 includes a large-capacity recording medium such as a hard disk, and performs writing / reading / storing / deleting data on the recording medium.

圃場DB104、UABDB105、リサーチデータDB107のそれぞれは、蓄積・検索・更新などに便利なように有機的に整理された情報の集まりであり、例えばハードディスクなどの大容量記録媒体に作成されている。なお、圃場DB104等における文字「DB」は「database」の略称である。また、飛行経路情報ファイル106は、当該生成装置1で生成されたUAV2ごとの飛行経路情報を記憶保持するものであり、例えばハードディスクなどの大容量記録媒体に作成されている。これらデータベースやファイルについて説明する。   Each of the farm field DB 104, the UAB DB 105, and the research data DB 107 is a collection of information arranged in an organic manner so as to be convenient for accumulation, search, update, and the like, and is created on a large-capacity recording medium such as a hard disk. The character “DB” in the agricultural field DB 104 or the like is an abbreviation for “database”. The flight path information file 106 stores and holds flight path information for each UAV 2 generated by the generating apparatus 1 and is created on a large-capacity recording medium such as a hard disk. These databases and files will be described.

圃場DB104は、UAV2を飛行させて情報を収集する圃場に関する情報を記憶保持する。図3〜図5は、UAV2を飛行させて情報を収集する圃場の管理について説明するための図である。図3に示すように、各圃場は地番によって所在位置を特定できる。しかし、登記されていない圃場が存在する可能性があるし、また、いわゆる一筆の土地が、畔等で区切られた1枚の圃場であるとは限らない。一筆の土地が複数の圃場に分割されて耕作されている場合もあるためである。なお、この明細書において、1枚の圃場とは、畔等で区切られた個々の耕作単位となる圃場を意味する。   The agricultural field DB 104 stores and holds information related to the agricultural field for collecting information by flying the UAV 2. 3-5 is a figure for demonstrating management of the agricultural field which flies UAV2 and collects information. As shown in FIG. 3, the location of each farm can be specified by lot number. However, there is a possibility that there is a farm field that is not registered, and a so-called one-stroke land is not necessarily a single farm field that is divided by a bank or the like. This is because a single land may be divided into a plurality of fields and cultivated. In addition, in this specification, one field means the field used as each cultivation unit divided by the edge etc.

そこで、図3に示すように、道路や建物などの圃場以外の地物を一切含まず、1枚以上の圃場からなる農業用エリアにエリア番号を付して管理する。換言すれば、農業用エリアは、その外周部の内側が圃場のみであり、その外周部の外側は農業用の地物以外で構成されているエリアとなる。なお、この場合、圃場を区切る畔等は圃場の一部と見做す。図3に示した例の場合には、エリア番号が「0001」〜「0006」の6つの農業用エリアが存在し、各エリアの外周の外側には道路が設けられている場合を示している。   Therefore, as shown in FIG. 3, no area features other than the field such as roads and buildings are included, and an agricultural area composed of one or more fields is assigned an area number and managed. In other words, in the agricultural area, the inside of the outer peripheral portion is only the field, and the outer side of the outer peripheral portion is an area configured by other than the agricultural features. In this case, the shores separating the fields are regarded as a part of the fields. In the case of the example shown in FIG. 3, there are six agricultural areas having area numbers “0001” to “0006”, and roads are provided outside the outer periphery of each area. .

そして、各農業用エリア「0001」〜「0006」のそれぞれの外周の内側には、例えば、図3の農業用エリア「0001」において点線で示したように、複数の圃場が存在する。すなわち、図3の農業用エリア「0001」において点線で区切られた1つ1つが、畔等で区切られた圃場の1枚1枚になる。そして、1枚1枚の圃場にも、図3に示したように、圃場番号を付して管理する。これにより、農業用エリア「0001」の圃場「0001」というように、耕作単位となる1枚1枚の圃場を農業用エリア番号と圃場番号とにより特定できる。   A plurality of fields are present inside the outer peripheries of the agricultural areas “0001” to “0006”, for example, as indicated by dotted lines in the agricultural area “0001” in FIG. That is, each of the agricultural fields “0001” in FIG. 3 divided by dotted lines becomes one piece of the farm field divided by the shore. Further, as shown in FIG. 3, the farm number is assigned to each farm field and managed. As a result, each farm field as a farming unit can be identified by the farm area number and the farm field number, such as the farm field "0001" in the farm area "0001".

しかし、圃場1枚1枚が特定可能なだけでは、まだ十分な管理はできない。例えば、図4に示すように、農業用エリア「0001」、「0002」に着目すると、農業用エリア「0001」、「0002」に含まれる圃場は、農家A、B、C、Dのいずれかによって耕作されている。このように、1つの農業用エリア内にある複数の圃場が、1つの農家によって耕作されているという場合は少なく、1つの農業用エリア内にある複数の圃場は異なる農家により耕作されている場合も多い。もちろん、縦方向、あるいは、横方向に連続する圃場を1件の農家が耕作している場合もあるが、各農家が耕作する圃場が、農業用エリア「0001」、「0002」内に飛び飛びに存在している。   However, sufficient management is not possible if only one field can be identified. For example, as shown in FIG. 4, when focusing on the agricultural areas “0001” and “0002”, the farm fields included in the agricultural areas “0001” and “0002” are any one of farmers A, B, C, and D. Has been cultivated by. Thus, there are few cases where a plurality of fields in one agricultural area are cultivated by one farmer, and a plurality of fields in one agricultural area are cultivated by different farmers. There are many. Of course, there is a case where one farmer cultivates a farm field that is continuous in the vertical direction or the horizontal direction, but the farm field that each farmer cultivates jumps into the agricultural areas “0001” and “0002”. Existing.

そして、図5は、農業用エリア「0001」、「0002」において、農家Aが耕作している圃場だけに着目している。このように、農業用エリア「0001」、「0002」において、飛び飛びに存在する農家Aの耕作する圃場のそれぞれの状態を人の目によって隈なく観察し、その状態を適切に把握することは難しい。そこで、この実施の形態では、各農業用エリアの各圃場の管理者が誰であるのかも把握し、管理者ごとの圃場の管理を可能にしている。また、圃場の中には、データセンサSSが設置されているものもあるので、圃場ごとにデータセンサSSの設置の有無と、設置されている場合にはそのデータセンサSSの設置位置も管理している。   FIG. 5 focuses on only the farm fields that are farmed by the farmer A in the agricultural areas “0001” and “0002”. As described above, in the agricultural areas “0001” and “0002”, it is difficult to observe each state of the farm field cultivated by the farmer A, which exists in a flying manner, with the eyes of humans and to appropriately grasp the state. . Therefore, in this embodiment, it is possible to grasp who is the manager of each field in each agricultural area, and to manage the field for each manager. In addition, some farms have a data sensor SS installed, so that the presence or absence of the data sensor SS is installed for each farm, and if installed, the installation position of the data sensor SS is also managed. ing.

図3〜図5を用いて説明したようにして、その1つ1つ(1枚1枚)が特定される圃場のそれぞれについての圃場に関する情報が、圃場DB104で管理される。図6は、圃場DB104の格納データの例を説明するための図である。図6に示すように、圃場に関する情報は、場所ごと、エリアごと、圃場ごとに管理される。場所は、地番によって特定される圃場が存在するおおよその所在範囲を示す情報であり、例えば、「○○県△△市×××町」といった態様で圃場の所在範囲を示す。エリアIDは、当該場所が示す所在範囲に位置し、1以上の圃場からなる農業用エリアを特定する情報である。エリアポリゴンは、エリアIDによって特定される農業用エリアの形状及び面積を特定可能にする位置情報の集合データである。   As described with reference to FIGS. 3 to 5, the field DB 104 manages information related to the field for each of the fields for which each one (one sheet) is specified. FIG. 6 is a diagram for explaining an example of data stored in the agricultural field DB 104. As shown in FIG. 6, information on the farm field is managed for each place, each area, and each farm field. The location is information indicating an approximate location range where the farm field specified by the lot number exists, and indicates the location range of the farm field in the form of “XX prefecture ΔΔ city xxx town”, for example. The area ID is information that identifies an agricultural area that is located in the location range indicated by the place and includes one or more farm fields. The area polygon is a set of position information that makes it possible to specify the shape and area of the agricultural area specified by the area ID.

具体的に、平地に存在する農業用エリアのエリアポリゴンは、当該農業用エリアの形状及び面積を特定可能にする複数の緯度経度情報からなる2D(2-Dimensions)データである。また、傾斜地にある農業用エリアのエリアポリゴンは、当該農業用エリアの形状及び面積を特定可能にする複数の緯度経度情報と標高などの基準位置からの高さの集合からなる3D(3-Dimensions)である。なお、傾斜地にある農業用エリアは、例えば、山の斜面に設けられた複数の圃場からなるエリアや1枚以上の棚田や段々畑からなる農業用エリアなどである。   Specifically, the area polygon of the agricultural area existing on the flat ground is 2D (2-Dimensions) data including a plurality of latitude and longitude information that makes it possible to specify the shape and area of the agricultural area. In addition, the area polygon of the agricultural area on the slope is a 3D (3-Dimensions) composed of a plurality of latitude / longitude information that makes it possible to specify the shape and area of the agricultural area and a height from a reference position such as altitude. ). The agricultural area on the slope is, for example, an area composed of a plurality of farm fields provided on a slope of a mountain, an agricultural area composed of one or more terraced rice fields, and terraced fields.

そして、圃場IDは、図3、図4に示したように、耕作単位である1枚1枚の圃場を特定するための情報である。圃場ポリゴンは、圃場IDによって特定される圃場の形状及び面積を特定可能にする位置情報の集合データである。基本的には、エリアポリゴンの場合と同様に、平地に存在する圃場の圃場ポリゴンは、当該圃場の形状及び面積を特定可能にする複数の緯度経度情報からなる2D(2-Dimensions)データである。また、傾斜地にある圃場の圃場ポリゴンは、当該圃場の形状及び面積を特定することができる複数の緯度経度情報と標高などの基準位置からの高さの集合からなる3D(3-Dimensions)である。   And farm field ID is the information for specifying the farm field of 1 sheet which is a cultivation unit as shown in FIG. 3, FIG. The field polygon is a set of position information that enables the shape and area of the field identified by the field ID to be identified. Basically, as in the case of the area polygon, the field polygon of the field existing on the flat ground is 2D (2-Dimensions) data composed of a plurality of latitude / longitude information that makes it possible to specify the shape and area of the field. . The field polygon of the field on the slope is 3D (3-Dimensions) composed of a plurality of latitude / longitude information that can specify the shape and area of the field and a height from a reference position such as altitude. .

センサフラグは、当該圃場IDによって特定される圃場にデータセンサSSが設置されているか否かを示す情報である。図6に示した例の場合には、圃場「0001」、「0003」、「0004」にはデータセンサSSが設置されているが、圃場「0002」にはデータセンサSSは設置されていないことが示されている。センサ位置は、データセンサSSが設置されている圃場の場合に、その設置位置を示す緯度経度情報である。上述したように、圃場「0002」にはデータセンサSSは設置されていないので、該当なし(N/A(not applicable))であることが示されている。   The sensor flag is information indicating whether or not the data sensor SS is installed in the field identified by the field ID. In the case of the example shown in FIG. 6, the data sensors SS are installed in the farm fields “0001”, “0003”, and “0004”, but the data sensors SS are not installed in the farm field “0002”. It is shown. The sensor position is latitude / longitude information indicating the installation position in the case of a field where the data sensor SS is installed. As described above, since the data sensor SS is not installed in the field “0002”, it is indicated that it is not applicable (N / A (not applicable)).

作付作物は、当該圃場IDによって特定される圃場において栽培されている作物を示す情報である。この実施の形態においては、圃場「0001」、「0002」、「0003」、「0004」のそれぞれでは、水稲が栽培されていることが示されている。すなわち、圃場「0001」、「0002」、「0003」、「0004」のそれぞれは、水田であることが把握できる。   The cropping crop is information indicating a crop cultivated in the field identified by the field ID. In this embodiment, it is shown that paddy rice is cultivated in each of the farm fields “0001”, “0002”, “0003”, and “0004”. That is, it can be understood that each of the farm fields “0001”, “0002”, “0003”, and “0004” is a paddy field.

管理者は、当該圃場IDによって特定される圃場を耕作して管理している管理者を示す情報であり、例えば、管理者の氏名、予め各管理者に割り当てられた管理者コードなどの情報である。なお、管理者は、1件の農家などの私人の場合もあれば、いわゆる農業法人の場合もある。この管理者を示す情報により、同じ管理者が耕作している圃場の全てについて、UAV2により、順番に連続して情報収集することも可能となる。   The manager is information indicating a manager who cultivates and manages the field specified by the field ID, and includes, for example, information such as a manager's name and a manager code assigned to each manager in advance. is there. The manager may be a private person such as a farmer or a so-called agricultural corporation. With the information indicating this manager, it is also possible to collect information sequentially in order by the UAV 2 for all the fields cultivated by the same manager.

代表点は、当該圃場IDによって特定される圃場の代表点の位置を示す緯度経度情報である。当該代表点は、圃場の例えば中心位置や所定の端点が選ばれる。この代表点は、例えば同じ管理者が耕作している圃場を重複なく、しかも効率よく巡回する経路を作成する場合に用いられる。簡単には、同じ管理者が耕作している圃場の代表点を通るようにして巡回経路が作成される。このように、図6を用いて説明した格納データが、圃場DB104に格納されて管理されている。   The representative point is latitude / longitude information indicating the position of the representative point of the field identified by the field ID. As the representative point, for example, the center position or a predetermined end point of the field is selected. This representative point is used, for example, when creating a route that efficiently patrols the farm field cultivated by the same manager without duplication. Briefly, a patrol route is created so as to pass through a representative point of a field that is cultivated by the same manager. As described above, the storage data described with reference to FIG. 6 is stored and managed in the agricultural field DB 104.

UAVDB105は、目的とする圃場上空を飛行して当該圃場についての情報を収取するUAV2に関する情報を記憶保持する。図7は、UAVDB105の格納データの例を説明するための図である。機体IDは、UAV2を一意に特定する識別情報であり、IPアドレスは、機体IDにより特定されるUAV2との間でIoTプラットホーム4を通じて通信を行う場合に、当該UAV2を特定するIoTプラットホーム上の識別情報である。機体種別は、機体IDにより特定されるUAV2が、例えば、クワッドコプターなのか、固定翼機なのか、小型ヘリコプターなのかといった、機体の種別を示す情報である。   The UAVDB 105 stores and holds information related to the UAV 2 that flies over the target field and collects information about the field. FIG. 7 is a diagram for explaining an example of data stored in the UAVDB 105. The aircraft ID is identification information that uniquely identifies the UAV2, and the IP address is the identification on the IoT platform that identifies the UAV2 when communicating with the UAV2 identified by the aircraft ID through the IoT platform 4. Information. The aircraft type is information indicating the type of aircraft, such as whether the UAV 2 specified by the aircraft ID is a quadcopter, a fixed wing aircraft, or a small helicopter.

カメラ性能は、機体IDにより特定されるUAV2が備えるカメラ機能の性能を示す情報であり、用いられているカメラ部のイメージセンサ(撮像素子)の形式、撮影時に通常使用する焦点距離、その他の情報からなる。このカメラ性能を示す情報は、当該UAV2が飛行して圃場を撮影する場合の撮影範囲を特定する場合に用いられる。その他性能は、機体IDにより特定されるUAV2の性能に関する種々の情報からなる。例えば、飛行時間、飛行速度などといった、UAV2の性能に関する種々の情報が格納される。   The camera performance is information indicating the performance of the camera function included in the UAV 2 specified by the machine ID, and the type of the image sensor (imaging device) of the camera unit used, the focal length normally used at the time of shooting, and other information Consists of. The information indicating the camera performance is used when specifying the imaging range when the UAV 2 flies and images the farm field. The other performance includes various pieces of information related to the performance of the UAV 2 specified by the aircraft ID. For example, various information regarding the performance of the UAV 2 such as flight time and flight speed are stored.

このような情報が、例えば、管理装置3を通じて入力され、IoTプラットホーム4を介して生成装置1に送信される。生成装置1では、送信されてきたUAVに関する情報を、通信I/F101を通じて受信し、これをUAV2ごとにUAVDB105に格納して管理する。   Such information is input through the management device 3 and transmitted to the generation device 1 via the IoT platform 4, for example. The generating apparatus 1 receives the transmitted UAV-related information through the communication I / F 101 and stores this information in the UAVDB 105 for each UAV 2 for management.

飛行経路情報ファイル106は、後述する飛行経路生成部115において、UAV2ごとに生成される飛行経路情報を記憶保持する。この飛行経路情報ファイル106に記憶保持されている飛行経路情報が、通信I/F101及びIoTプラットホーム4を通じて目的とするUAV2に提供される。   The flight path information file 106 stores and holds flight path information generated for each UAV 2 in the flight path generation unit 115 described later. The flight path information stored in the flight path information file 106 is provided to the target UAV 2 through the communication I / F 101 and the IoT platform 4.

リサーチデータDB107は、後述する飛行経路生成部115において生成された飛行経路情報に従って飛行したUAV2が収集したリサーチデータを記憶保持する。当該リサーチデータは、UAV2からIoTプラットホーム4を介して生成装置1に送信されてきたものである。生成装置1では、送信されてきたリサーチデータを、通信I/F101を通じて受信して、これをUAVごとにリサーチデータDB107に格納して管理する。   The research data DB 107 stores and holds research data collected by the UAV 2 that flies in accordance with the flight path information generated by the flight path generation unit 115 described later. The research data has been transmitted from the UAV 2 to the generation device 1 via the IoT platform 4. In the generation apparatus 1, the transmitted research data is received through the communication I / F 101, and is stored and managed in the research data DB 107 for each UAV.

そして、条件設定部111、撮影範囲特定部112、対象圃場特定部113、センサ位置特定部114、飛行経路生成部115が、生成装置1において目的とするUAV2に対する飛行経路を生成するための種々の処理を行う処理部である。各部について説明する。まず、条件設定部111は、制御部102の制御の下、IoTプラットホーム4を通じて管理装置3からの情報収集の対象とする圃場を特定するための情報や用いるUAVを特定する機体IDなどの情報を受け付けて、各部に対して必要な情報を提供して設定する処理を行う。   The condition setting unit 111, the imaging range specifying unit 112, the target farm field specifying unit 113, the sensor position specifying unit 114, and the flight path generating unit 115 generate various flight paths for the target UAV 2 in the generating device 1. A processing unit that performs processing. Each part will be described. First, under the control of the control unit 102, the condition setting unit 111 receives information such as information for identifying a field to be collected from the management apparatus 3 through the IoT platform 4 and information such as a machine ID for identifying a UAV to be used. The process of accepting and providing and setting necessary information for each unit is performed.

具体的に、条件設定部111は、管理装置3から受け付けた指示情報(条件情報)の内、用いるUAVの機体IDを撮影範囲特定部112に設定し、撮影範囲を特定するように指示する。また、条件設定部111は、管理装置3から受け付けた情報の内、圃場を特定するための情報、すなわち、場所、農業用エリアID、圃場IDあるいは圃場の管理者を示す情報を、対象圃場特定部113に設定し、UAV2を飛行させる圃場を特定するように指示を出す。   Specifically, the condition setting unit 111 sets the machine ID of the UAV to be used in the instruction information (condition information) received from the management device 3 to the imaging range specifying unit 112 and instructs to specify the imaging range. In addition, the condition setting unit 111 specifies information for specifying the field among the information received from the management device 3, that is, information indicating the location, the area ID for agriculture, the field ID, or the manager of the field. Set in the unit 113 and issue an instruction to specify the field in which the UAV 2 is to fly.

撮影範囲特定部112は、条件設定部111により設定された使用するUAV2の機体IDに基づいて、UAVDB105を参照し、用いるUAV2のカメラ機能に基づいて、撮影範囲を特定する処理を行う。図8、図9は、用いるUAV2が備えるカメラ機能に応じて撮影範囲を特定する場合の例を説明するための図である。カメラで被写体を撮影する場合の撮影範囲については、図8の(A)式、(B)式、(C)式により求められる。   The imaging range specifying unit 112 refers to the UAVDB 105 based on the UAV2 machine ID to be used set by the condition setting unit 111 and performs processing for specifying the imaging range based on the UAV2 camera function to be used. FIG. 8 and FIG. 9 are diagrams for explaining an example in the case where the shooting range is specified according to the camera function of the UAV 2 to be used. The shooting range when the subject is shot with the camera is obtained by the equations (A), (B), and (C) in FIG.

すなわち、水平撮影範囲(m)は、図8の(A)式に示すように、被写体までの距離KR(m)に対して、イメージセンサの水平サイズHS(mm)を掛け算したものを、焦点距離FL(mm)で割り算すれば求められる。なお、(m)、(mm)は、長さの単位である。同様に、垂直撮影範囲(m)は、図8の(B)式に示すように、被写体までの距離KR(m)に対して、イメージセンサの垂直サイズVS(mm)を掛け算したものを、焦点距離FL(mm)で割り算すれば求められる。また、対角撮影範囲(m)は、図8の(C)式に示すように、被写体までの距離KR(m)に対して、イメージセンサの対角サイズDS(mm)を掛け算したものを、焦点距離FL(mm)で割り算すれば求められる。   That is, the horizontal shooting range (m) is obtained by multiplying the distance KR (m) to the subject by the horizontal size HS (mm) of the image sensor as shown in the equation (A) in FIG. It is obtained by dividing by the distance FL (mm). Note that (m) and (mm) are units of length. Similarly, the vertical shooting range (m) is obtained by multiplying the distance KR (m) to the subject by the vertical size VS (mm) of the image sensor as shown in the equation (B) in FIG. It can be obtained by dividing by the focal length FL (mm). Further, the diagonal imaging range (m) is obtained by multiplying the distance KR (m) to the subject by the diagonal size DS (mm) of the image sensor as shown in the equation (C) in FIG. And dividing by the focal length FL (mm).

したがって、UAV2が備えるカメラ機能のイメージセンサの形式が分かれば、そのイメージセンサの水平サイズ、垂直サイズ、対角サイズが分かり、撮影時の焦点距離と、被写体までの距離(撮影時の飛行高度)とが分かれば、撮影範囲は特定できる。そして、ここでは、焦点距離は、イメージセンサごとに予め特定されており、また、被写体までの距離(撮影高度)も目的とする解像度で画像を撮影するために予め決められているものとする。この例では、被写体までの距離(飛行高度)は5mであるものとする。   Therefore, if the format of the image sensor of the camera function provided in the UAV2 is known, the horizontal size, vertical size, and diagonal size of the image sensor can be determined, and the focal length when shooting and the distance to the subject (flying altitude when shooting) If you know, you can specify the shooting range. Here, it is assumed that the focal length is specified in advance for each image sensor, and the distance to the subject (photographing altitude) is also predetermined in order to capture an image with a target resolution. In this example, it is assumed that the distance to the subject (flying altitude) is 5 m.

そして、用いるUAV2のカメラ機能において、図9に示すように、イメージセンサの形式が「APS−C」であるとする。「APS−C」のイメージセンサの水平サイズは23.4mmで、垂直サイズは16.7mmである。そして、目的とする解像度で圃場を撮影する場合に適した焦点距離が「24(mm)」であるとする。この場合、図8の(A)式により水平撮影範囲は「4.875(m)」と算出でき、図8の(B)式により、垂直撮影範囲は「3.479(m)」と算出できる。   In the UAV2 camera function to be used, it is assumed that the format of the image sensor is “APS-C” as shown in FIG. The horizontal size of the “APS-C” image sensor is 23.4 mm, and the vertical size is 16.7 mm. Then, it is assumed that the focal length suitable for photographing a farm field with a target resolution is “24 (mm)”. In this case, the horizontal shooting range can be calculated as “4.875 (m)” from the equation (A) in FIG. 8, and the vertical shooting range is calculated as “3.479 (m)” from the equation (B) in FIG. it can.

このように、この例の場合、撮影範囲特定部112においては、使用されるUAV2のカメラ機能により撮影できる範囲(撮影範囲)Rngは、図9において長方形で示した範囲となると特定される。そして、撮影範囲特定部112は、特定した撮影範囲Rngを示す情報(水平撮影範囲(m)×垂直撮影範囲(m))を、例えば、記憶装置103の所定のエリアに記録する。これにより、記録された撮影範囲Rngを示す情報は、必要に応じて読み出して利用でき、各圃場ごとの飛行経路を生成する際に用いられる。   Thus, in the case of this example, in the shooting range specifying unit 112, the range (shooting range) Rng that can be shot by the camera function of the UAV2 to be used is specified as the range indicated by the rectangle in FIG. Then, the shooting range specifying unit 112 records information indicating the specified shooting range Rng (horizontal shooting range (m) × vertical shooting range (m)), for example, in a predetermined area of the storage device 103. Thereby, the information indicating the recorded photographing range Rng can be read and used as necessary, and is used when generating a flight path for each field.

対象圃場特定部113は、条件設定部111からの場所、農業用エリアID、圃場IDあるいは圃場の管理者を示す情報に基づいて、必要に応じて圃場DB104を参照し、UAV2を飛行させる対象圃場を特定する。この例においては、場所(地域)ごと、農業用エリアごとの、圃場IDが対象圃場を示す情報となる。条件設定部111から、場所、農業用エリアID、圃場IDが提供されている場合には、その情報がUAV2を飛行させる対象圃場を示す情報となる。そして、対象圃場特定部113は、特定した対象保持を示す情報を、例えば、記憶装置103の所定のエリアに記録する。これにより、特定した対象圃場を示す情報は、必要に応じて読み出して利用でき、センサ位置特定部114や飛行経路生成部115により利用される。   The target field specifying unit 113 refers to the field DB 104 as necessary based on information indicating the location, the agricultural area ID, the field ID, or the field manager from the condition setting unit 111 and causes the UAV 2 to fly. Is identified. In this example, the field ID for each place (region) and for each agricultural area is information indicating the target field. When a location, an agricultural area ID, and a field ID are provided from the condition setting unit 111, the information is information indicating a target field on which the UAV 2 is to fly. Then, the target field specifying unit 113 records information indicating the specified target holding in, for example, a predetermined area of the storage device 103. Thereby, the information indicating the specified target farm can be read and used as necessary, and is used by the sensor position specifying unit 114 and the flight path generating unit 115.

センサ位置特定部114は、対象圃場特定部113で特定された対象圃場を示す情報に基づいて、圃場DB104を参照し、対象圃場にデータセンサSSが設置されているか否かを確認する。そして、センサ位置特定部114は、対象圃場にデータセンサSSが設置されている場合には、そのセンサの設置位置(センサ位置)を特定し、記憶装置103の所定のエリアに記録して利用可能にする。   The sensor position specifying unit 114 refers to the field DB 104 based on the information indicating the target field specified by the target field specifying unit 113 and confirms whether the data sensor SS is installed in the target field. Then, when the data sensor SS is installed in the target field, the sensor position specifying unit 114 specifies the installation position (sensor position) of the sensor, and can record and use it in a predetermined area of the storage device 103. To.

飛行経路生成部115は、対象圃場特定部113において特定された1以上の対象圃場の情報収取に用いられるUAV2の飛行経路情報を生成する。具体的に、飛行経路生成部115は、1つの農業用エリアに複数の対象圃場が特定された場合には、その複数の対象圃場をもれなく巡回すると共に、用いられるUAV2のカメラ機能により、各対象圃場の全面を隈なく撮影するUAV2の飛行経路情報を生成する。また、データセンサSSが設置されている対象圃場については、当該データセンサSSと近距離通信により通信が可能な位置まで近づいて検出結果を収集する飛行経路情報も含めて生成する。   The flight path generation unit 115 generates UAV2 flight path information used for collecting information of one or more target farm fields identified by the target farm field identification unit 113. Specifically, when a plurality of target fields are specified in one agricultural area, the flight path generation unit 115 circulates all the target fields without fail and uses each UAV2 camera function to UAV2 flight path information for photographing the entire surface of the farm field is generated. In addition, the target farm in which the data sensor SS is installed is generated including flight path information that approaches a position where communication with the data sensor SS is possible by short-range communication and collects detection results.

以下に、飛行経路生成部115の処理について具体的に説明する。まず、1つの対象圃場の上空を飛行する場合の飛行経路情報を生成する場合について説明する。なお、UAV2のカメラ機能を用いて対象圃場を撮影する場合には、動画を撮影する場合と、静止画を撮影する場合とがある。以下においてはそのそれぞれの場合について説明する。   Below, the process of the flight path | route production | generation part 115 is demonstrated concretely. First, the case where the flight path information in the case of flying over one target field is described. In addition, when image | photographing a target agricultural field using the camera function of UAV2, there exists a case where a moving image is image | photographed and a still image. Each case will be described below.

<動画を撮影する場合の飛行経路の生成処理>
図10は、UAV2により対象圃場の動画を撮影する場合の飛行経路の生成処理について説明するための図である。まず、飛行経路生成部115は、図10(A)に示すように、対象圃場特定部113において特定した対象圃場HJについて、圃場DB104の圃場ポリゴンによってその形状及び面積を特定する。そして、飛行経路生成部115は、対象圃場について、UAV2のスタート位置Sとゴール位置Gとを定める。この場合のスタート位置Sとゴール位置Gとは、使用者が例えば管理装置3を通じて入力して設定できる。また、各圃場ごとに、基本となるスタート位置Sとゴール位置Gとを予め設定しておき、これを圃場DB104において管理し、必要に応じて用いるようにしてもよい。
<Flight path generation process when shooting video>
FIG. 10 is a diagram for explaining a flight path generation process when a moving image of the target field is captured by the UAV2. First, as shown in FIG. 10A, the flight path generation unit 115 identifies the shape and area of the target farm field HJ identified by the target farm field identification unit 113 using the farm field polygons in the farm field DB 104. And the flight path | route production | generation part 115 determines the start position S and goal position G of UAV2 about an object agricultural field. In this case, the start position S and the goal position G can be input and set by the user through the management device 3, for example. In addition, a basic start position S and goal position G may be set in advance for each field, and these may be managed in the field DB 104 and used as necessary.

更に、飛行経路生成部115は、形状及び面積を特定した対象圃場HJの全面を覆うように、撮影範囲特定部112で特定した撮影範囲Rngを並べることにより、対象圃場の全面を隈なく撮影できるように撮影範囲Rngの位置を定める。なお、特定された撮影範囲は、通常、図9を用いて説明したように、mm(ミリメートル)単位まで求められるが、例えば、50cm(センチメートル)単位の範囲とし、隣接する撮影範囲同士が若干重なり合うようにしておくことが望ましい。例えば、図9に示した撮影範囲(4.875m×3.479m)の場合、用いる撮影範囲を例えば(4.5m×3m)とすることにより、余裕をもって撮影を行うことができる。   Furthermore, the flight path generation unit 115 can shoot the entire surface of the target field without any problem by arranging the imaging range Rng specified by the imaging range specification unit 112 so as to cover the entire surface of the target field HJ whose shape and area are specified. In this way, the position of the photographing range Rng is determined. Note that, as described with reference to FIG. 9, the specified shooting range is usually obtained up to the mm (millimeter) unit. For example, the range is a unit of 50 cm (centimeter), and the adjacent shooting ranges are slightly different from each other. It is desirable to overlap. For example, in the case of the shooting range shown in FIG. 9 (4.875 m × 3.479 m), the shooting range used can be set to, for example, (4.5 m × 3 m), so that shooting can be performed with a margin.

そして、図10(A)に示した例の場合には、図の横方向に7つの撮影範囲Rngが並べられ、図の縦方向に3つの撮影範囲Rngが並べられることにより、7×3=21個の撮影範囲Rngによって対象圃場HJの全面を隈なく覆うことができると確認できる。そして、飛行経路生成部115は、スタート位置Sから当該スタート位置Sを含む撮影範囲の中心位置P1までを飛行経路RT1として設定する。更に、飛行経路生成部115は、並べた各撮影範囲Rngの中心を一筆書きで通るように飛行経路を設定する。   In the case of the example shown in FIG. 10A, seven shooting ranges Rng are arranged in the horizontal direction in the drawing, and three shooting ranges Rng are arranged in the vertical direction in the drawing, so that 7 × 3 = It can be confirmed that the entire surface of the target field HJ can be covered without any hail by the 21 imaging ranges Rng. Then, the flight path generation unit 115 sets the flight path RT1 from the start position S to the center position P1 of the imaging range including the start position S. Further, the flight path generation unit 115 sets the flight path so as to pass through the centers of the respective imaging ranges Rng arranged in a single stroke.

したがって、図10(A)に示した例の場合、上段の左右両端の撮影範囲の中心位置P1と中心位置P2とを結ぶ経路を飛行経路RT2として設定し、上段と中段の右端の撮影範囲の中心位置P2と中心位置P3とを結ぶ経路を飛行経路RT3として設定する。また、中段の左右両端の撮影範囲の中心位置P3と中心位置P4とを結ぶ経路を飛行経路RT4として設定し、中段と下段の左端側の撮影範囲の中心位置P4と中心位置P5とを結ぶ経路を飛行経路RT5として設定する。また、下段の左右両端の撮影範囲の中心位置P5と中心位置P6とを結ぶ経路を飛行経路RT6として設定する。   Therefore, in the example shown in FIG. 10A, a route connecting the center position P1 and the center position P2 of the imaging range at the left and right ends of the upper stage is set as the flight path RT2, and the imaging range of the right end of the upper stage and the middle stage is set. A route connecting the center position P2 and the center position P3 is set as the flight route RT3. Further, a route connecting the center position P3 and the center position P4 of the shooting range at the left and right ends of the middle stage is set as the flight path RT4, and a route connecting the center position P4 and the center position P5 of the shooting range on the left end side of the middle stage and the lower stage. Is set as the flight path RT5. Further, a route connecting the center position P5 and the center position P6 of the imaging range at the left and right ends of the lower stage is set as the flight route RT6.

更に、飛行経路生成部115は、下段の右端側の撮影範囲の中心位置P6とデータセンサSSのセンサ位置SPとを結ぶ経路を飛行経路RT7として設定し、センサ位置SPとゴール位置Gとを結ぶ経路を飛行経路RT8として設定する。そして、飛行経路生成部115は、設定した各飛行経路について、方向と距離と高さとからなる飛行経路を示す情報を生成する。なお、スタート位置Sとゴール位置Gとは、位置であるので緯度経度により特定する。   Further, the flight path generation unit 115 sets a path connecting the center position P6 of the lower right imaging range and the sensor position SP of the data sensor SS as the flight path RT7, and connects the sensor position SP and the goal position G. The route is set as the flight route RT8. Then, the flight path generation unit 115 generates information indicating a flight path including a direction, a distance, and a height for each set flight path. Since the start position S and the goal position G are positions, they are specified by latitude and longitude.

そして、飛行経路生成部115は、図10(A)を用いて説明したように設定されたスタート位置S及びゴール位置G、各飛行経路R1〜R8に基づいて、図10(B)に示す飛行経路情報を生成し、これを飛行経路情報ファイル106に格納する。図10(B)に示すように、飛行経路情報は、ヘッダ情報として、ファイル名、機体ID、IPアドレスを備える。ファイル名により当該一連の飛行経路情報が格納されたファイルが特定できる。また、機体IDによって管理装置3を通じて指示されたUAV2(情報収集に用いるUAV2)を特定できる。IPアドレスによってIoTプラットホーム4上の当該UAV2を特定し、通信を行うことができる。   Then, the flight path generation unit 115 performs the flight shown in FIG. 10B based on the start position S and goal position G and the flight paths R1 to R8 set as described with reference to FIG. Route information is generated and stored in the flight route information file 106. As shown in FIG. 10B, the flight path information includes a file name, an aircraft ID, and an IP address as header information. The file in which the series of flight path information is stored can be specified by the file name. Further, it is possible to specify UAV2 (UAV2 used for information collection) instructed through the management apparatus 3 by the machine ID. The UAV 2 on the IoT platform 4 can be specified by the IP address, and communication can be performed.

そして、「No.」、「区分」、「移動指示」、「動作指示」からなる1つ1つの飛行経路を示す情報(データ)が複数集まって、飛行経路情報が生成される。「No.」はシーケンス番号である。「区分」は、飛行経路情報を構成する個々のデータの種別を示すものであり、図10(B)に示すように、「スタート位置」なら「0」、「飛行経路」なら「1」、「ゴール位置」なら「9」などのように決められている。「移動指示」は、飛行経路の実体であり、飛行の方向、距離、高さ(高度)からなる情報である。「動作指示」は、UAV2が行うべき動作(処理)を指示するものであり、図10(B)に示すように、「動画撮影開始」、「動画撮影終了」、「センサデータ収集」などを指示することができる。なお、図10(B)の「動作指示」欄に記載した(S)はスタート位置を、(P1)、(P2)、…、(P6)の記載は、各撮影範囲の中心位置を、(SP)の記載はセンサ位置を、(G)の記載はゴール位置を示している。   Then, a plurality of pieces of information (data) indicating each flight path including “No.”, “classification”, “movement instruction”, and “operation instruction” are collected to generate flight path information. “No.” is a sequence number. “Category” indicates the type of individual data constituting the flight path information. As shown in FIG. 10B, “0” for “start position”, “1” for “flight path”, If it is “goal position”, it is determined as “9”. The “movement instruction” is the substance of the flight path, and is information including the direction, distance, and height (altitude) of the flight. The “operation instruction” instructs an operation (process) to be performed by the UAV 2 and, as shown in FIG. 10B, “moving image capturing start”, “moving image capturing end”, “sensor data collection”, and the like. Can be directed. Note that (S) described in the “operation instruction” column of FIG. 10B indicates the start position, and (P1), (P2),..., (P6) indicate the center position of each shooting range. The description of (SP) indicates the sensor position, and the description of (G) indicates the goal position.

したがって、図10(B)に示した飛行経路情報は、図10(A)を用いて説明したように、飛行高度5mで、スタート位置Sから各撮像範囲の中心位置P1→P2→P3→P4→P5→P6→P7→P8を辿って、ゴール位置Gに到達する飛行経路情報になっている。そして、中心位置P1では動画撮影を開始し、撮影範囲の中心位置P6では動画撮影を終了し、センサ位置SPではデータセンサSSから検出結果を収集(受信)する処理を行うように指示するものとなっている。このようにして、対象圃場HJについて、隈なく動画を撮影し、かつ、データセンサSSから検出結果を取集するように、UAV2の飛行経路を指示する飛行経路情報を生成できる。   Therefore, the flight path information shown in FIG. 10B is the center position P1 → P2 → P3 → P4 of each imaging range from the start position S at the flight altitude of 5 m as described with reference to FIG. → P5 → P6 → P7 → P8 followed by flight path information to reach the goal position G. Then, at the center position P1, moving image shooting starts, at the center position P6 of the shooting range, moving image shooting ends, and at the sensor position SP, an instruction is given to collect (receive) detection results from the data sensor SS. It has become. In this way, it is possible to generate flight path information that indicates the flight path of the UAV 2 so that a moving image can be captured without fail and the detection results are collected from the data sensor SS.

なお、UAV2の飛行速度は、高精度の動画を撮影することができる適切な速度となるように予め決められている。もちろん、UAV2の使用者が、飛行速度を設定することもできる。   Note that the flight speed of the UAV 2 is determined in advance so as to be an appropriate speed at which a highly accurate moving image can be captured. Of course, the user of UAV2 can also set the flight speed.

<静止画を撮影する場合の飛行経路の生成処理>
図11は、UAV2により対象圃場の静止画を撮影する場合の飛行経路の生成処理について説明するための図である。図10(A)を用いて説明した動画を撮影する場合の飛行経路の生成処理の場合と同様に、対象圃場の形状及び面積の特定し、当該対象圃場におけるスタート位置及びゴール位置の特定処理を行う。更に、図10(A)を用いて説明した動画を撮影する場合の飛行経路の生成処理の場合と同様に、飛行経路生成部115は、形状及び面積を特定した対象圃場HJの全面を覆うように、撮影範囲特定部112で特定した撮影範囲Rngを並べることにより、対象圃場の全面を隈なく撮影できるように撮影範囲Rngの位置を定める。
<Flight path generation processing when shooting still images>
FIG. 11 is a diagram for explaining a flight path generation process in the case where a still image of the target farm is photographed by the UAV2. As in the case of the flight path generation process when shooting the moving image described with reference to FIG. 10A, the shape and area of the target field are specified, and the start position and goal position specifying process in the target field are performed. Do. Further, as in the case of the flight path generation process when shooting the moving image described with reference to FIG. 10A, the flight path generation unit 115 covers the entire surface of the target farm field HJ whose shape and area are specified. In addition, by arranging the shooting ranges Rng specified by the shooting range specifying unit 112, the position of the shooting range Rng is determined so that the entire surface of the target field can be shot without any hesitation.

これにより、図11(A)に示すように、図の横方向に7つの撮影範囲が並べられ、図の縦方向に3つの撮影範囲が並べられることにより、7×3=21個の撮影範囲によって対象圃場HJの全面を隈なく覆うことができると確認できる。そして、飛行経路生成部115は、21個の撮影範囲のそれぞれの中心位置S1、S2、S3、…、S19、S20、S21を、静止画を撮影する撮影位置として特定する。そして、動画を撮影する場合と同様に、飛行経路生成部115は、並べた各撮影範囲Rngの中心を一筆書きで通るように飛行経路を設定する。   As a result, as shown in FIG. 11A, seven shooting ranges are arranged in the horizontal direction in the figure, and three shooting ranges are arranged in the vertical direction in the figure, so that 7 × 3 = 21 shooting ranges. By this, it can be confirmed that the entire surface of the target field HJ can be covered without any defects. Then, the flight path generation unit 115 specifies the center positions S1, S2, S3,..., S19, S20, and S21 of the 21 shooting ranges as shooting positions for shooting a still image. Then, as in the case of shooting a moving image, the flight path generation unit 115 sets the flight path so that it passes through the centers of the respective shooting ranges Rng arranged with a single stroke.

したがって、図11(A)に示した例の場合には、スタート位置Sと上段の左から1番目の撮影範囲の中心位置S1までを結ぶ経路を飛行経路Raとして設定する。また、上段の左端から1番目の撮影範囲の中心位置P1と同2番目の撮影範囲の中心位置S2とを結ぶ経路を飛行経路Rbとして設定し、同2番目の撮影範囲の中心位置S2と同3番目の撮影範囲の中心位置S3とを結ぶ経路を飛行経路Rcとして設定する。同様にし、並べた各撮影範囲Rngの中心を一筆書きで通るようにした場合の隣り合う撮影範囲の中心位置を順番に接続する経路が、飛行経路となる。そして、各撮影範囲の中心位置S1、S2、S3、…、S19、S20、S21が、静止画を撮影する撮影位置となる。   Therefore, in the example shown in FIG. 11A, a route connecting the start position S and the center position S1 of the first imaging range from the left in the upper stage is set as the flight route Ra. Further, a route connecting the center position P1 of the first shooting range from the left end of the upper stage and the center position S2 of the second shooting range is set as the flight path Rb, and is the same as the center position S2 of the second shooting range. A route connecting the center position S3 of the third imaging range is set as the flight route Rc. Similarly, a route that sequentially connects the center positions of adjacent shooting ranges when the centers of the arranged shooting ranges Rng are drawn with a single stroke is a flight route. Then, the center positions S1, S2, S3,..., S19, S20, S21 of each shooting range are shooting positions for shooting a still image.

そして、図11(A)に示す例の場合にも、飛行経路生成部115は、下段の右端側の撮影範囲の中心位置S21とデータセンサSSのセンサ位置SPとを結ぶ経路を飛行経路Rvとし、センサ位置SPとゴール位置Gとを結ぶ経路を飛行経路Rwとして設定する。そして、飛行経路生成部115は、設定した各飛行経路について、方向と距離と高さと飛行経路を示す情報を生成する。なお、スタート位置とゴール位置とは、位置であるので緯度経度により特定する。   Also in the case of the example shown in FIG. 11A, the flight path generation unit 115 sets the path connecting the center position S21 of the lower right imaging range and the sensor position SP of the data sensor SS as the flight path Rv. The route connecting the sensor position SP and the goal position G is set as the flight route Rw. Then, the flight path generation unit 115 generates information indicating the direction, distance, height, and flight path for each set flight path. Since the start position and the goal position are positions, they are specified by latitude and longitude.

そして、飛行経路生成部115は、図11(A)を用いて説明したように設定されたスタート位置S及びゴール位置G、各飛行経路Ra〜Rvに基づいて、図11(B)に示す飛行経路情報を生成し、これを飛行経路情報ファイル106に格納する。図11(B)に示すように、ヘッダ情報として、ファイル名、機体ID、IPアドレスを備える点は、図10(B)を用いて説明した飛行経路情報の場合と同様である。また、「No.」、「区分」、「移動指示」、「動作指示」からなる1つ1つの飛行経路を示すデータが複数集まって、一連の飛行経路情報が生成される点も、図10(B)を用いて説明した飛行経路情報の場合と同様である。   Then, the flight path generation unit 115 performs the flight shown in FIG. 11B based on the start position S and goal position G and the flight paths Ra to Rv set as described with reference to FIG. Route information is generated and stored in the flight route information file 106. As shown in FIG. 11B, the header information includes a file name, an aircraft ID, and an IP address, as in the case of the flight route information described with reference to FIG. In addition, a plurality of pieces of data indicating each flight path including “No.”, “classification”, “movement instruction”, and “operation instruction” are gathered to generate a series of flight path information. This is similar to the case of the flight route information described using (B).

また、「No.」、「区分」、「移動指示」、「動作指示」の各情報が意味する内容も、図10(B)を用いて説明した飛行経路情報の場合と同様である。ただし、図11(B)に示す飛行経路情報の場合には、「動作指示」において、各撮影範囲の中心位置S1、S2、S3、…において、静止画を撮影するように指示が出される。なお、図11(B)の「動作指示」欄に記載した(S)はスタート位置を、(S1)、(S2)、…、(S21)の記載は、撮影範囲の中心位置を、(SP)の記載はセンサ位置を、(G)の記載はゴール位置を示している。   In addition, the contents of the information “No.”, “classification”, “movement instruction”, and “operation instruction” are the same as those in the case of the flight path information described with reference to FIG. However, in the case of the flight route information shown in FIG. 11B, in the “operation instruction”, an instruction is issued to shoot a still image at the center positions S1, S2, S3,. Note that (S) described in the “operation instruction” column of FIG. 11B indicates the start position, and (S1), (S2),..., (S21) indicate the center position of the shooting range (SP The description of () indicates the sensor position, and the description of (G) indicates the goal position.

したがって、図11(B)に示した飛行経路情報は、図11(A)を用いて説明したように、所定の高度で、スタート位置Sから撮像範囲の中心位置S1→S2→S3→…→S21→SPを辿って、ゴール位置Gに到達する飛行経路情報になっている。そして、各中心位置P1、P2、P3,…、P21のそれぞれでは静止画像を撮影し、センサ位置SPではデータセンサSSから検出結果を収集(受信)する処理を行うように指示するものとなっている。このようにして、対象圃場HJについて、隈なく静止画を撮影し、かつ、データセンサSSから検出結果を取集するように、UAV2の飛行経路を指示する飛行経路情報を生成できる。   Accordingly, the flight path information shown in FIG. 11B is the center position S1 → S2 → S3 →... → of the imaging range from the start position S at a predetermined altitude as described with reference to FIG. It follows flight path information to reach the goal position G following S21 → SP. Then, a still image is taken at each of the center positions P1, P2, P3,..., P21, and an instruction is given to perform processing for collecting (receiving) detection results from the data sensor SS at the sensor position SP. Yes. In this way, flight path information for instructing the flight path of the UAV 2 can be generated so as to capture still images of the target farm field HJ and collect detection results from the data sensor SS.

なお、UAV2の飛行速度は、各撮影範囲の中心の5m上空から圃場の静止画を撮影した場合に、高精度の静止画を撮影することができる適切な速度となるように予め決められている。このため、各撮影範囲の中心の5m上空において、一度静止して圃場の静止画を撮影し、次の撮影範囲に向かうというようにすることもできる。この場合には、飛行経路情報の動作指示の欄に、静止画撮影の際に静止することを指示する情報を入れるようにすればよい。これら飛行速度や撮影時の静止指示などは、UAV2の使用者が設定することもできる。   Note that the flight speed of the UAV 2 is determined in advance so as to be an appropriate speed at which a high-precision still image can be captured when a still image of a farm field is captured from 5 m above the center of each imaging range. . For this reason, in the sky 5 m above the center of each imaging range, it is possible to take a still image of the field and take it to the next imaging range. In this case, information for instructing to stop when taking a still image may be put in the operation instruction field of the flight path information. The user of UAV2 can also set the flight speed and the still instruction at the time of shooting.

このように、対象圃場HJごとに、動画を撮影するのか、静止画を撮影するのかに応じて、図10(B)、図11(B)に示した態様で、飛行経路情報(ルートパス情報)を生成して、飛行経路情報ファイル106に記録し、UAV2に提供する準備を整えられる。   In this manner, depending on whether a moving image is shot or a still image is shot for each target field HJ, flight route information (route path information) is used in the manner shown in FIGS. 10B and 11B. Is recorded in the flight path information file 106 and prepared for provision to the UAV 2.

なお、UAV2の飛行を開始させる位置(飛ばし初めの位置)は、対象圃場の圃場ポリゴンとスタート位置Sとに基づいて演算により求められる。例えば、スタート位置Sを飛ばし初めの位置とすることも可能である。しかし、対象圃場の圃場ポリゴンとスタート位置Sに基づき、飛ばし初めの位置を当該スタート位置Sから当該対象圃場から離れるように5m北側の位置というように、安全に飛行を開始させることができる位置(場所)として特定することができる。   It should be noted that the position at which the flight of UAV 2 is started (the first position to skip) is obtained by calculation based on the field polygon of the target field and the start position S. For example, the start position S can be skipped and set to the initial position. However, based on the field polygon of the target field and the start position S, the flight can be started safely such that the starting position is 5 m north from the start position S so as to be away from the target field ( Location).

また、上述もしたように撮影範囲(撮影可能範囲)は、UAV2のカメラ機能のスペックと飛行高度から演算により求められる。また、撮影開始位置や撮影終了位置は、圃場ポリゴンと撮影範囲とから演算により求められる。また、各飛行経路(ルートパス)は、上述もしたように、圃場ポリゴンと撮影範囲及び撮影範囲の中心位置とに基づいて設定できる。また、静止画を撮影する場合の撮影位置(撮影ポイント)は、圃場ポリゴンと撮影範囲及び撮影範囲の中心位置とに基づいて設定できる。そして、隣り合う撮影位置を繋ぐようにすると飛行経路(ルートパス)が設定できる。   Further, as described above, the shooting range (shootable range) is obtained by calculation from the specifications of the UAV2 camera function and the flight altitude. Further, the shooting start position and the shooting end position are obtained by calculation from the field polygon and the shooting range. Further, as described above, each flight route (route path) can be set based on the field polygon, the shooting range, and the center position of the shooting range. The shooting position (shooting point) when shooting a still image can be set based on the field polygon, the shooting range, and the center position of the shooting range. Then, a flight path (route path) can be set by connecting adjacent shooting positions.

なお、データセンサ(センサユニット)SSへの飛行経路は、圃場の撮影と、データセンサからの検出結果の取得との順序により異なる。図10、図11を説明した例の場合には、まず圃場の撮影を行って、撮影が終了したらデータセンサからの検出結果の取得を行うようにした。この場合、撮影の終了位置と、センサ位置SPと、データセンサとの通信が可能な距離に基づいて、データセンサSSへの飛行経路を特定できる。また、データセンサからの検出結果を先に取得する場合には、スタート位置Sと、センサ位置SPと、データセンサとの通信が可能な距離に基づいて、データセンサSSへの飛行経路を特定できる。   Note that the flight path to the data sensor (sensor unit) SS differs depending on the order of shooting the field and obtaining the detection result from the data sensor. In the case of the example described with reference to FIGS. 10 and 11, the field is first photographed, and when the photographing is completed, the detection result is obtained from the data sensor. In this case, the flight path to the data sensor SS can be specified based on the photographing end position, the sensor position SP, and the distance at which communication with the data sensor is possible. In addition, when the detection result from the data sensor is acquired first, the flight path to the data sensor SS can be specified based on the start position S, the sensor position SP, and the distance at which communication with the data sensor is possible. .

<1つの農業用エリアに複数の対象圃場がある場合の飛行経路>
情報収取の対象が、1つの圃場だけである場合には、図10、図11を用いて説明したように、対象圃場だけについて飛行経路を生成すればよい。しかし、図5を用いて説明したように、農業用エリア「0001」にある、農家Aが管理する13枚の圃場の全てを対象圃場として、一括的に情報収取を行いたい場合もある。このような場合には、1つの農業用エリア内の複数の対象圃場を巡回する飛行経路と、対象圃場ごとの飛行経路とを結合して、一連の飛行経路を生成する。
<Flight path when there are multiple target fields in one agricultural area>
When the information collection target is only one field, as described with reference to FIGS. 10 and 11, the flight path may be generated only for the target field. However, as described with reference to FIG. 5, there is a case where it is desired to collect information collectively with all the 13 fields managed by the farmer A in the agricultural area “0001” as target fields. In such a case, a series of flight paths is generated by combining a flight path that circulates a plurality of target fields within one agricultural area and a flight path for each target field.

図12は、図5に示した場合と同様に、農業用エリア「0001」の農家Aが管理する13枚の圃場を対象圃場とし、この13枚の対象圃場の全てについて情報収取を行う場合の飛行経路の生成処理について説明するための図である。図12に示すように、農業用エリア「0001」には、48枚の圃場(水田)が存在し、その内の網掛けをして示した13枚の圃場が農家Aの管理する圃場であるとする。   FIG. 12 shows a case where 13 fields managed by the farmer A in the agricultural area “0001” are set as target fields and information is collected for all the 13 target fields as in the case shown in FIG. It is a figure for demonstrating the production | generation process of the flight path | route. As shown in FIG. 12, there are 48 farm fields (paddy fields) in the agricultural area “0001”, and 13 farm fields indicated by shading are farm fields managed by the farmer A. And

まず、飛行経路生成部115は、圃場DB104を参照し、農業用エリア「0001」の農家Aが管理する13枚の対象圃場の代表点を特定する。そして、図12において直線矢印で示したように、例えば、農業用エリア「0001」の最上段左端の圃場をスタート圃場Aとし、最上段右端の圃場をゴール圃場Bとして、各対象圃場の代表点の全て一筆書きで通るようにする飛行経路を特定する。これにより、農業用エリア「0001」上空についての大まかな飛行経路が特定でき、かつ、各対象圃場ごとにスタート位置S、ゴール位置Gを特定できる。   First, the flight path generation unit 115 refers to the farm field DB 104 and identifies the representative points of the 13 target farm fields managed by the farmer A in the agricultural area “0001”. Then, as indicated by the straight arrows in FIG. 12, for example, the field at the uppermost left of the agricultural area “0001” is the start field A, the field at the uppermost right is the goal field B, and the representative points of each target field Specify the flight path that you want to pass in a single stroke. Thereby, a rough flight route about the agricultural area “0001” can be specified, and the start position S and the goal position G can be specified for each target farm field.

この場合、各対象圃場において、大まかな飛行経路を示す実線矢印が入ってくる方向にスタート位置Sを設定し、実線矢印が出ていく方向にゴール位置Gを設定する。また、スタート圃場Aのスタート位置Sは、使用者によって設定したり、大まかな飛行経路から特定される当該スタート圃場Aのゴール位置Gから逆算して設定したりできる。また、ゴール圃場Bのゴール位置Gは、使用者によって設定したり、大まかな飛行経路から特定されるゴール圃場Bのスタート位置Sから設定したりできる。   In this case, in each target field, the start position S is set in the direction in which the solid line arrow indicating the rough flight path enters, and the goal position G is set in the direction in which the solid line arrow goes out. Further, the start position S of the start field A can be set by the user, or can be set by calculating backward from the goal position G of the start field A specified from the rough flight path. The goal position G of the goal field B can be set by the user or can be set from the start position S of the goal field B specified from the rough flight path.

そして、各対象圃場について、定められたスタート位置Sとゴール位置Gとを考慮し、図10を説明した方法により、又は、図11に説明した方法により各対象圃場ごとに飛行経路を生成する。これにより、農業用エリア「0001」において、農家Aが管理する13枚の圃場の全ての上空を飛行し、13枚の圃場の全てについて情報収集をすることができる。ここで情報収集は、動画又は静止画の撮影と、設置されたデータセンサから検出結果の収集である。   Then, for each target field, the predetermined start position S and goal position G are taken into consideration, and the flight path is generated for each target field by the method described with reference to FIG. 10 or the method described with reference to FIG. Thus, in the agricultural area “0001”, it is possible to fly over all 13 fields managed by the farmer A and collect information about all 13 fields. Here, the information collection includes capturing a moving image or a still image and collecting detection results from an installed data sensor.

そして、この例の場合、UAV2は、図12に示すように、トラックTKによりまず農業用エリア「0001」の最上段左端の圃場(スタート圃場A)に運んで飛行を開始させる。そして、トラックTKは、農業用エリア「0001」の最上段右端の圃場(ゴール圃場B)近傍に移動させ、生成された飛行経路情報に従って飛行し、情報収集を終了したUAV2を回収することになる。この後、次の対象農業用エリア「0002」に移動して、UAV2による情報収集を行える。このように、農業用エリアごとであって圃場ごとにUAV2による情報収集を行うことができるので、農業用以外の地物に対して、UAV2が影響を及ぼすこともない。   In the case of this example, as shown in FIG. 12, the UAV 2 first carries the truck TK to the farm field (start farm field A) at the uppermost left end of the agricultural area “0001” to start flight. Then, the truck TK moves to the vicinity of the uppermost right field (the goal field B) of the agricultural area “0001”, flies according to the generated flight path information, and collects the UAV 2 that has finished collecting information. . Thereafter, the user moves to the next target agricultural area “0002” and can collect information by UAV2. Thus, since information collection by UAV2 can be performed for each agricultural area and for each field, UAV2 does not affect features other than those for agriculture.

なお、ここでは、飛行経路生成部115が自動的に各対象圃場を巡回する巡回経路(大まかな飛行経路)を生成するものとして説明したが、これに限るものではない。目的とする複数の対象圃場を巡回する順番を、例えば、管理装置3を通じて使用者入力し、生成装置1に指示を提供することもできる。すなわち、巡回経路を使用者の指示に応じて形成することもできる。   In addition, although demonstrated here that the flight path | route production | generation part 115 produces | generates the patrol path | route (rough flight path | route) which patrols each object farm field automatically, it does not restrict to this. The order in which the target plurality of target fields are visited can be input by the user through the management device 3, for example, and an instruction can be provided to the generation device 1. That is, it is possible to form a patrol route according to a user instruction.

[情報取得レベルと飛行高度等]
上述した実施の形態では、UAV2の飛行高度は5mであるものとし、また、UAV2に搭載されたカメラ機能のイメージセンサに応じて、焦点距離も決まっているものとして説明した。しかし、これに限るものではない。実際には、情報取得レベルとイメージセンサとに応じて、飛行高度や焦点距離が定められる。図13は、情報取得レベルと飛行高度等の関係について説明するための図である。
[Information acquisition level and flight altitude, etc.]
In the embodiment described above, it has been described that the flight altitude of the UAV2 is 5 m, and that the focal length is determined according to the image sensor of the camera function mounted on the UAV2. However, it is not limited to this. Actually, the flight altitude and the focal length are determined according to the information acquisition level and the image sensor. FIG. 13 is a diagram for explaining the relationship between the information acquisition level and the flight altitude.

UAV2のカメラ機能を用いて対象圃場を撮影する場合、撮影の目的によりUAV2の飛行高度は異なり、焦点距離も変わってくる。例えば、対象圃場が水田である場合、水稲に病気が発生していないか、害虫が生息していないかを観察したい場合には、水稲の葉の表面の状態や稲穂の状態が明瞭に分かるように、高精度な画像を撮影する必要がある。これに対して、水稲の大まかな生育状態が観察できるだけでよいのであれば、病害虫観察に場合に比べ、高精度な画像の撮影は必要ない。また、圃場で栽培されている作物によっても、情報取得レベルは異なってくる。例えば、水稲を観察する場合と、果樹を観察する場合とでは、作物全体や収穫物の大きさが異なるため、情報取得レベルは異なる。このように、情報取得レベルは、画像情報から目的とする情報を適切に得ることができる必要とされるレベルとなる。   When photographing a target field using the camera function of the UAV2, the flight height of the UAV2 is different depending on the purpose of photographing, and the focal length is also changed. For example, if the target farm is a paddy field and you want to observe whether the rice is not diseased or pests inhabited, you can clearly see the state of the rice leaf surface and the state of the ear. In addition, it is necessary to take highly accurate images. On the other hand, if it is only necessary to observe the rough growth state of paddy rice, it is not necessary to take a highly accurate image as compared to the case of pest observation. The information acquisition level also varies depending on the crops cultivated in the field. For example, the information acquisition level is different between the case of observing paddy rice and the case of observing a fruit tree because the size of the entire crop and the harvest are different. As described above, the information acquisition level is a level required to appropriately obtain target information from the image information.

このため、撮影する画像の情報取得レベル、すなわち、撮影する画像の精細度のレベルに応じて、飛行高度や焦点距離を事前に決めておくようにする。図13(A)は、情報取得レベルと、撮影時の飛行高度の関係について説明するための図である。例えば、病害虫についての観察を行うために高精度の画像の撮影が必要な場合をレベル1とし、大まかな生育状態の観察のためにある程度大まかな精度の画像の撮影でよい場合をレベル2とする。図13(A)においては、レベル1の画像の撮影が必要な場合には、撮影時の飛行高度は5mであり、レベル2の画像の撮影でよい場合には、撮影時の飛行高度は10mであると予め特定できる。なお、レベル1の画像の撮影時の飛行高度は5mであり、レベル2の画像の撮影時の飛行高度は10mであるといった事前の設定は、例えば、実際にUAV2を用いてテスト撮影を行うことによって適切に設定できる。   For this reason, the flight altitude and focal length are determined in advance according to the information acquisition level of the image to be captured, that is, the level of definition of the image to be captured. FIG. 13A is a diagram for explaining the relationship between the information acquisition level and the flight altitude at the time of shooting. For example, a level 1 is set when a high-accuracy image needs to be taken to observe a pest, and a level 2 is set when an image with a somewhat rough accuracy is needed to observe a rough growth state. . In FIG. 13A, when a level 1 image needs to be shot, the flying altitude at the time of shooting is 5 m, and when a level 2 image can be shot, the flying altitude at the time of shooting is 10 m. It can be specified in advance. Note that the advance setting such that the flight altitude at the time of shooting the level 1 image is 5 m and the flight altitude at the time of shooting the level 2 image is 10 m is, for example, actually performing test shooting using the UAV2. Can be set appropriately.

これにより、図13(B)に示すように、例えば、実際にUAV2を用いて撮影した画像に基づいて、UAV2に搭載されたカメラ機能のイメージセンサの形式と、情報取得レベルとに応じて、撮影の飛行高度と焦点距離を決めてテーブルを作成できる。当該テーブルは、記憶装置103の所定のエリアに記録しておき、必要に応じて読み出し利用することができる。   Accordingly, as shown in FIG. 13B, for example, based on the image actually captured using the UAV2, according to the format of the image sensor of the camera function mounted on the UAV2, and the information acquisition level, A table can be created by determining the flight altitude and focal length for shooting. The table can be recorded in a predetermined area of the storage device 103 and read and used as necessary.

そして、図13(B)の例の場合には、病害虫観察を行うレベル1の場合、UAV2に搭載されたイメージセンサが「APS−C」であれば、飛行高度は5m、焦点距離は24mmとされる。同様に、UAV2に搭載されたイメージセンサが「フォーサーズ」であれば、飛行高度は5m、焦点距離は20mmとされる。また、生育観察を行うレベル2の場合、UAV2に搭載されたイメージセンサが「APS−C」であれば、飛行高度は10m、焦点距離は30mmとされる。同様に、UAV2に搭載されたイメージセンサが「フォーサーズ」であれば、飛行高度は10m、焦点距離は25mmとされる。   In the case of the example of FIG. 13B, if the image sensor mounted on the UAV 2 is “APS-C” in the case of level 1 for pest observation, the flight altitude is 5 m and the focal length is 24 mm. Is done. Similarly, if the image sensor mounted on the UAV 2 is “Four Thirds”, the flight altitude is 5 m and the focal length is 20 mm. Further, in the case of level 2 where growth observation is performed, if the image sensor mounted on the UAV 2 is “APS-C”, the flight altitude is 10 m and the focal length is 30 mm. Similarly, if the image sensor mounted on the UAV 2 is “Four Thirds”, the flight altitude is 10 m and the focal length is 25 mm.

このように、情報取得レベルとイメージセンサとに応じて、飛行高度や焦点距離とを定めておき、これをテーブル化して記憶装置103に登録しておく。これにより、必要とされる情報取得レベルと使用するUAV2に応じて、撮影時の飛行高度とカメラ機能の焦点距離とを適切に定められる。   As described above, the flight altitude and the focal length are determined according to the information acquisition level and the image sensor, and these are tabulated and registered in the storage device 103. Thereby, the flight altitude at the time of shooting and the focal length of the camera function can be appropriately determined according to the required information acquisition level and the UAV 2 to be used.

[生成装置1の処理のまとめ]
図14は、生成装置1で行われるUAV2の飛行経路情報の生成処理について説明するためのフローチャートである。図14のフローチャートに示す処理は、管理装置3からIoTプラットホーム4を通じてアクセスがあった場合に、生成装置1の制御部102により実行される処理である。
[Summary of Processing of Generating Device 1]
FIG. 14 is a flowchart for explaining the UAV 2 flight path information generation process performed by the generation apparatus 1. The process illustrated in the flowchart of FIG. 14 is a process executed by the control unit 102 of the generation apparatus 1 when an access is made from the management apparatus 3 through the IoT platform 4.

まず、制御部102は、管理装置3を通じて使用者から必要情報の提供を受けるために、入力画面などを提供して、管理装置3から条件情報(指示情報)を受け付ける処理を行う(ステップS101)。図15は、管理装置で用いられる条件情報の入力画面を説明するための図である。この実施の形態において、当該入力画面は、例えば、生成装置1から管理装置3に提供される。ステップS101において、制御部102は、図15(A)に示す条件情報の第1の入力画面を提供し、管理装置3を通じて場所および農業用エリアの指示入力を受け付ける。次に、制御部102は、図15(B)に示す条件情報の第2の入力画面を提供し、管理装置3を通じて圃場ID、管理者、高度設定、機体ID、画像種別を受け付ける。   First, in order to receive necessary information from the user through the management device 3, the control unit 102 provides an input screen or the like and performs processing for receiving condition information (instruction information) from the management device 3 (step S <b> 101). . FIG. 15 is a diagram for explaining a condition information input screen used in the management apparatus. In this embodiment, the input screen is provided from the generation device 1 to the management device 3, for example. In step S <b> 101, the control unit 102 provides a first input screen for condition information shown in FIG. 15A and receives an instruction input for a place and an agricultural area through the management device 3. Next, the control unit 102 provides a second input screen for the condition information shown in FIG. 15B, and accepts the field ID, manager, altitude setting, machine ID, and image type through the management device 3.

なお、農業用エリアIDは、場所の入力欄に地番に応じた情報を入力することにより、第1の入力画面の下側に表示される農業用エリアに関する地図を通じて入力することもできる。同様に、圃場IDは、入力された農業用エリアIDに応じて、第2の入力画面の下側に表示される圃場に関する地図を通じて入力することもできる。これらの場合の地図は、圃場DB104の圃場に関する情報や必要に応じて、図1には図示しなかったが、生成装置1が備える地図DBやIoTプラットホーム4に接続された地図DBの地図データを用いて形成される。   The agricultural area ID can also be input through a map relating to the agricultural area displayed on the lower side of the first input screen by inputting information corresponding to the lot number in the place input field. Similarly, the field ID can also be input through a map regarding the field displayed on the lower side of the second input screen in accordance with the input agricultural area ID. The maps in these cases are not shown in FIG. 1 according to the information about the fields in the field DB 104 and, if necessary, but map data of the map DB provided in the generation device 1 or the map DB connected to the IoT platform 4 is used. Formed using.

また、圃場IDは、管理者を入力することにより、指示された農業用エリアにおいて、当該管理者が管理している複数の圃場を一括して指示することもできる。高度設定は、例えば、病害虫観察(レベル1)か、生育観察(レベル2)かの選択入力に応じて設定でき、機体IDは、飛行させるUAV2に割り当てられているものが入力される。また、画像種別は、動画を撮影するのか、静止画を撮影するのかを示す情報である。   Further, the farm field ID can also be used to collectively designate a plurality of farm fields managed by the manager in the designated agricultural area by inputting the manager. The altitude setting can be set according to, for example, selection input of pest observation (level 1) or growth observation (level 2), and the aircraft ID assigned to the UAV 2 to be flying is input. The image type is information indicating whether to shoot a moving image or a still image.

そして、制御部102は、対象圃場特定部113を制御して、管理装置3からの条件情報に基づいて、UAV2の飛行対象となる圃場を特定する(ステップS102)。すなわち、どの場所の、どの農業用エリアの、どの圃場が対象圃場となるのかを特定する。また、ステップS102においては、特定された対象圃場にデータセンサSSが設置されている場合には、そのセンサ位置SPも特定される。   Then, the control unit 102 controls the target field specifying unit 113 to specify the field that is the flight target of the UAV 2 based on the condition information from the management device 3 (step S102). That is, it is specified which field and which agricultural field of which place is the target agricultural field. Moreover, in step S102, when the data sensor SS is installed in the specified target field, the sensor position SP is also specified.

この後、制御部102は、撮影範囲特定部112を制御して、用いるUAV2により対象圃場を撮影する場合の撮影範囲を算出して特定する(ステップS103)。このステップS103において、撮影範囲特定部112は、入力された高度設定と機体IDとに基づいて、用いられるUAV2に搭載されたイメージセンサと、飛行高度と、焦点距離とに基づいて、図8、図9を用いて説明した計算により撮影範囲を特定する。   Thereafter, the control unit 102 controls the shooting range specifying unit 112 to calculate and specify a shooting range when shooting the target farm using the UAV 2 to be used (step S103). In this step S103, the imaging range specifying unit 112, based on the input altitude setting and the aircraft ID, based on the image sensor mounted on the UAV 2 used, the flight altitude, and the focal length, FIG. The shooting range is specified by the calculation described with reference to FIG.

そして、制御部102は、ステップS102において特定した対象圃場は、1つか否かを判別する(ステップS104)。ステップS104の判別処理において、対象圃場は1つであると判別したとする。この場合、制御部102の制御の下、飛行経路生成部115が当該1つの対象圃場の上空をUAV2が飛行する場合の飛行経路情報を生成し、飛行経路情報ファイル106に格納する(ステップS105)。ステップS105では、ステップS102で特定した対象圃場の形状と面積と、ステップS103で特定した撮影範囲と、動画と静止画のいずれを撮影するのかを考慮して、飛行経路情報を生成する。また、データセンサSSが設置されている場合にはそのセンサ位置SPも考慮して、データ収集を行うように飛行経路情報を生成する。すなわち、このステップS105の処理は、図10又は図11を用いて説明した処理である。   And the control part 102 discriminate | determines whether the target agricultural field identified in step S102 is one (step S104). It is assumed that it is determined in the determination process in step S104 that there is one target field. In this case, under the control of the control unit 102, the flight path generation unit 115 generates flight path information when the UAV 2 flies over the one target field and stores it in the flight path information file 106 (step S105). . In step S105, flight path information is generated in consideration of the shape and area of the target field identified in step S102, the imaging range identified in step S103, and whether to capture a moving image or a still image. Further, when the data sensor SS is installed, the flight path information is generated so as to collect data in consideration of the sensor position SP. That is, the process in step S105 is the process described with reference to FIG.

また、ステップS104の判別処理において、対象圃場は1つではないと判別したときには、制御部102の制御の下、飛行経路生成部115が、以下のステップS106〜ステップS109の処理を行う。まず、飛行経路生成部115は、圃場DB104を参照し、特定された複数の対象圃場の各代表点を取得し、図12を用いて説明したように、各対象圃場を巡回する飛行経路(大まかな飛行経路)を生成する(ステップS106)。   When it is determined in step S104 that there is not one target field, the flight path generation unit 115 performs the following steps S106 to S109 under the control of the control unit 102. First, the flight path generation unit 115 refers to the farm field DB 104, acquires each representative point of the plurality of identified target farm fields, and, as described with reference to FIG. A simple flight path) is generated (step S106).

次に、飛行経路生成部115は、複数の対象圃場のそれぞれのスタート位置とゴール位置とを特定する(ステップS107)。この後、飛行経路生成部115は、各対象圃場上空の飛行経路情報を生成する(ステップS108)。ステップS108では、ステップS107で特定したスタート位置とゴール位置と、ステップS102で特定した各対象圃場の形状と面積と、ステップS103で特定した撮影範囲と、動画と静止画のいずれを撮影するのかを考慮して、飛行経路情報を生成する。また、データセンサSSが設置されている場合にはそのセンサ位置SPも考慮して、データ収集を行うように飛行経路情報を生成する。すなわち、このステップS108の処理は、複数の対象圃場のそれぞれについて、図10又は図11を用いて説明した処理を行うものである。   Next, the flight path generation unit 115 identifies the start position and the goal position of each of the plurality of target farm fields (step S107). Thereafter, the flight path generation unit 115 generates flight path information over each target farm (step S108). In step S108, the start position and goal position specified in step S107, the shape and area of each target field specified in step S102, the shooting range specified in step S103, and whether a moving image or a still image is to be shot. Considering this, flight path information is generated. Further, when the data sensor SS is installed, the flight path information is generated so as to collect data in consideration of the sensor position SP. That is, the process of step S108 performs the process described with reference to FIG. 10 or FIG. 11 for each of a plurality of target farm fields.

そして、飛行経路生成部115は、1つの農業用エリアの複数の対象圃場の全体を隈なく撮影することが可能な飛行経路情報を生成し、飛行経路情報ファイルに格納する(ステップS109)。具体的に、ステップS109では、ステップS106で特定した各対象圃場を巡回する巡回経路(巡回飛行経路)と、ステップS108で形成した各対象圃場の上空を飛行するための飛行経路とから、一連の飛行経路情報を生成することになる。   Then, the flight path generation unit 115 generates flight path information capable of photographing the whole of the plurality of target fields in one agricultural area, and stores it in the flight path information file (step S109). Specifically, in step S109, a series of routes from the patrol route (patrol flight route) that patrols each target field identified in step S106 and the flight path for flying over each target field formed in step S108 are obtained. Flight route information is generated.

そして、ステップS105の処理と、ステップS109の処理の後においては、制御部102は、飛行対象のUAV2に対して、飛行経路情報ファイル106に格納した飛行経路情報を提供し(ステップS110)、この図14に示す処理を終了する。このようにして、UAV2を使用して目的とする圃場から情報を収集しようとする使用者は、用いるUAV2を適切に飛行させるための飛行経路情報を、所定の条件情報を入力するだけで、簡単かつ迅速に生成して、UAV2にセットできる。   And after the process of step S105 and the process of step S109, the control part 102 provides the flight path information stored in the flight path information file 106 with respect to UAV2 of flight object (step S110). The process shown in FIG. In this way, a user who intends to collect information from a target field using UAV2 can easily input flight path information for appropriately flying UAV2 to be used by inputting predetermined condition information. It can be generated quickly and set in UAV2.

[UAV2の動作]
UAV2は、上述もしたように、GPS機能や、6軸センサ、方位センサ、高度センサなどの種々のセンサなどを備え、自律飛行が可能なものである。また、USV2は、カメラ機能や近距離無線通信機能を備えたものである。また、撮影画像やデータセンサの検出出力を記憶保持する比較的に記憶容量の大きなメモリも備える。このため、生成装置1からIoTプラットホーム4を通じて飛行経路情報の提供を受けたUAV2は、当該飛行経路情報に基づいて、使用者が指示した圃場の上空を自律飛行する。そして、圃場を撮影して圃場の画像情報を得ると共に、圃場に設置されているデータセンサSSから検出結果を収集して、自機のメモリに蓄積する。
[Operation of UAV2]
As described above, the UAV 2 includes a GPS function, various sensors such as a six-axis sensor, a direction sensor, and an altitude sensor, and is capable of autonomous flight. USV2 has a camera function and a short-range wireless communication function. In addition, a memory having a relatively large storage capacity for storing and holding captured images and detection outputs of the data sensors is also provided. Therefore, the UAV 2 that has received the flight path information from the generation device 1 through the IoT platform 4 autonomously flies over the field designated by the user based on the flight path information. Then, the farm field is photographed to obtain image information of the farm field, and the detection results are collected from the data sensor SS installed in the farm field and stored in the memory of the own machine.

UAV2が撮影した圃場の画像情報や収集したデータセンサSSからの検出結果は、IoTプラットホーム4を通じて生成装置1に送信され、リサーチデータDB107に格納される。データリサーチDB107に格納されたデータは、例えば、農家等の圃場の管理者が、管理装置3やパーソナルコンピュータなどの通信装置を用いて、IoTプラットホーム4を通じて生成装置1にアクセスし、参照したり、ダウンロードして保存したりできる。   The field image information captured by the UAV 2 and the collected detection results from the data sensor SS are transmitted to the generation device 1 through the IoT platform 4 and stored in the research data DB 107. The data stored in the data research DB 107 can be referred to, for example, by an administrator of a farm field such as a farmer using the communication device such as the management device 3 or a personal computer to access the generation device 1 through the IoT platform 4. You can download and save.

[圃場が棚田や段々畑と、傾斜である場合]
<圃場が棚田や段々畑である場合>
圃場が棚田や段々畑である場合、各圃場内での標高はほぼ均一である。このため、各圃場内における飛行高度は、当該圃場の地面、水面から例えば5mとなるようにすればよい。但し、圃場間を移動する場合には、現在飛行中の圃場から高い圃場に移動する場合には、現在の圃場から次の圃場に移動する飛行経路(ルートパス)において、上昇する飛行経路を形成する。逆に、現在飛行中の圃場から低い圃場に移動する場合には、現在の圃場から次の圃場に移動する飛行経路(ルートパス)において、下降する飛行経路を形成する。
[When the field is slanted with terraced rice fields and terraced fields]
<When the field is terraced rice fields or terraced fields>
When the field is a terraced rice field or terraced field, the elevation in each field is almost uniform. For this reason, what is necessary is just to make it the flight altitude in each agricultural field be 5 m from the ground and water surface of the said agricultural field. However, when moving from field to field, when moving from the field currently in flight to a higher field, an ascending flight path is formed in the flight path (route path) moving from the current field to the next field. . On the other hand, when moving from a field that is currently flying to a lower field, a flight path that descends is formed in a flight path (route path) that moves from the current field to the next field.

このため、圃場が棚田や段々畑である場合には、各圃場の標高などの基準位置からの高さ情報をも圃場DB104に格納しておくことにより、上昇や下降の程度、どの位の距離で、どの位上昇したり、下降したりすればよいかが特定できる。   For this reason, when the farm field is a terraced rice field or terraced field, the height information from the reference position such as the altitude of each farm field is also stored in the farm field DB 104 so that the degree of ascent and descent can be increased. You can specify how much you should go up or down.

<圃場が傾斜である場合>
圃場が、例えば山の斜面に設けられた傾斜地である場合には、圃場内で標高などの基準位置からの高さが異なることになる。このため、傾斜地である圃場内を例えば数メートル四方に分割することにより、メッシュ構造とし、メッシュごとの標高などの基準位置からの高さ情報を把握して、圃場DB104に格納しておく。そして、飛行経路を生成した場合に、各メッシュの標高などの高さ情報に応じて、飛行高度を調整するようにすればよい。
<When the field is inclined>
For example, when the farm field is an inclined land provided on a slope of a mountain, the height from a reference position such as an altitude is different in the farm field. For this reason, the inside of the agricultural field that is an inclined land is divided into, for example, several meters square, thereby forming a mesh structure, and height information from a reference position such as an altitude for each mesh is grasped and stored in the agricultural field DB 104. Then, when the flight path is generated, the flight altitude may be adjusted according to height information such as the altitude of each mesh.

[実施の形態の効果]
上述した実施の形態の生成装置1は、UAV2を使用する使用者からの指示と、圃場DB104に格納された圃場に関するデータと、使用するUAV2のカメラ性能とに基づいて、圃場から適切に情報を収集するための飛行経路情報を適切かつ迅速に生成できる。これにより、管理すべき圃場の1枚1枚について、その細部まで観察可能な画像情報を得ることができる。従って、病害虫に対する迅速な対応、生育状態のより適切な把握が可能となり、しかも従来よりも短い時間でそれらの情報を把握することができる。
[Effect of the embodiment]
The generation device 1 according to the embodiment described above appropriately receives information from the field based on the instruction from the user who uses the UAV 2, the data regarding the field stored in the field DB 104, and the camera performance of the UAV 2 to be used. Flight route information to be collected can be generated appropriately and quickly. Thereby, it is possible to obtain image information that allows observation of the details of each field to be managed. Accordingly, it is possible to promptly respond to pests and pests and more appropriately grasp the growth state, and it is possible to grasp the information in a shorter time than before.

また、圃場に設置されたデータセンサSSの検出結果についても、UAV2が収集できるので、データセンサSSは、直接にIoTプラットホーム4に接続可能なような高出力の通信機能を備える必要がない。従って、データセンサSSは、近距離無線通信機能を備えた安価なものとすることができ、必要な箇所に漏れなく設置することが可能になる。これにより、従来よりも多くのデータセンサSSを圃場に設置することができるので、きめ細かな管理が可能になる。   Further, since the UAV 2 can also collect the detection results of the data sensor SS installed in the field, the data sensor SS does not need to have a high-output communication function that can be directly connected to the IoT platform 4. Therefore, the data sensor SS can be an inexpensive one having a short-range wireless communication function, and can be installed without omission in a necessary place. Thereby, since more data sensors SS can be installed in the field than before, fine management is possible.

[変形例]
なお、上述した実施の形態においては、飛行高度は、情報取得レベルに応じて、例えば、5m、10mのように決まるものとして説明したが、これに限るものではない。上述もしたように、圃場DB104には、栽培されている作付作物を示す情報も管理されているので、作物に応じて飛行高度を調整することもできる。例えば、水稲などの1年草の場合には、飛行高度の調整は必要ないが、ミカンやリンゴといった樹木(果樹)の場合には、設定された飛行高度に樹木分の高さ、例えば、2mを加算するといった飛行高度の補正処理を行うようにする。
[Modification]
In the above-described embodiment, the flight altitude is described as being determined to be 5 m or 10 m, for example, according to the information acquisition level, but is not limited thereto. As described above, since the field DB 104 also manages information indicating the cultivated crops, the flight altitude can be adjusted according to the crops. For example, in the case of annual grass such as paddy rice, it is not necessary to adjust the flight altitude. However, in the case of a tree (fruit tree) such as a mandarin orange or apple, the height of the tree, for example 2 m, is set at the set flight altitude. The flight altitude correction process such as adding is performed.

また、UAV2のカメラ機能を用いて、圃場を上空から撮影するため、撮影画像に歪が発生する場合がある。このため、例えばオルソ(ortho)などの歪修正技術を用いて、撮影画像について補正を行うようにしてもよい。   Further, since the farm field is photographed from above using the camera function of UAV2, there may be a case where distortion occurs in the photographed image. For this reason, the captured image may be corrected using, for example, a distortion correction technique such as ortho.

また、圃場DB104には、圃場ごとに管理者を示す情報も格納されている。このため、飛行経路情報に管理者を付加すると共に、飛行実施日時を示す情報についても付加する。これにより、生成装置1から飛行経路情報の提供を受けるUAV2の飛行計画を、生成装置1で管理することができる。このため、生成装置1は、同一農業エリアにおいて、複数のUAV2が飛行することがないように、飛行経路情報を生成できる。すなわち、飛行計画を生成装置1で管理できる。   The field DB 104 also stores information indicating the manager for each field. For this reason, an administrator is added to the flight path information, and information indicating the flight execution date is also added. Thereby, the flight plan of the UAV 2 that receives the flight path information from the generation device 1 can be managed by the generation device 1. For this reason, the production | generation apparatus 1 can produce | generate flight path information so that several UAV2 may not fly in the same agricultural area. That is, the flight plan can be managed by the generation device 1.

また、データセンサSSが備える近距離通信機能は、例えば、Bluetooth(登録商標)規格のものを用いることができる。もちろん、その他の規格のものであってもよい。   Moreover, the near field communication function with which data sensor SS is provided can use the thing of a Bluetooth (trademark) specification, for example. Of course, other standards may be used.

また、上述したように、1つの農業用エリアに管理者の異なる複数の圃場が存在する場合であって、同じ管理者の管理する圃場を巡回する場合には、一度に全ての圃場を巡回する必要はない。すなわち、1つの農業エリアを更にいくつかの分割エリアに分けて、その分割エリアについて飛行経路情報を生成するようにしてもよい。分け方としては、K−Means法などを用いることができる。   Further, as described above, when there are a plurality of farm fields with different managers in one agricultural area, and when patroling farm fields managed by the same manager, all the farm fields are visited at once. There is no need. That is, one agricultural area may be further divided into several divided areas, and flight path information may be generated for the divided areas. As a division method, a K-Means method or the like can be used.

また、UAV2の飛行が可能な時間が長い場合、また、将来的に長くなった場合には、複数の農業用エリアに渡って、飛行経路情報を生成することも可能である。   In addition, when the time in which the UAV 2 can fly is long or in the future, the flight path information can be generated over a plurality of agricultural areas.

また、上述した実施の形態では、UAV2が収集した画像情報やデータセンサの検出出力は、生成装置1に送信して記憶保持するようにしたが、これに限るものではない。UAV2が収集した画像情報やデータセンサの検出出力を、UAV2から管理装置3に有線や無線により提供して、収集後すぐに管理装置3を通じて利用可能にすることもできる。   In the above-described embodiment, the image information collected by the UAV 2 and the detection output of the data sensor are transmitted to the generation device 1 and stored therein. However, the present invention is not limited to this. The image information collected by the UAV 2 and the detection output of the data sensor can be provided from the UAV 2 to the management apparatus 3 by wire or wirelessly and can be made available through the management apparatus 3 immediately after collection.

また、飛行経路情報についても、管理装置3からUAV2に提供するように構成することも可能である。   The flight path information can also be provided from the management device 3 to the UAV 2.

また、上述した実施の形態では、UAV2の飛行高度として、5mと10mの場合がある点を説明したが、これに限るものではない。高精度の画像を撮影するためには、3m〜5mが好ましく、必要であれば、更に低い高度とすることも可能である。また、圃場全体の様子を見る必要がある場合には、圃場の形状や面積に応じて、10m以上の高さとすることも可能である。要は、図13(A)を用いて説明したように、目的に応じて適切な飛行高度を選定できる。   In the above-described embodiment, the flight altitude of UAV2 has been described as being 5 m and 10 m, but is not limited thereto. In order to capture a highly accurate image, 3 m to 5 m is preferable, and if necessary, the altitude can be further lowered. Moreover, when it is necessary to look at the state of the entire field, it is possible to set the height to 10 m or more according to the shape and area of the field. In short, as described with reference to FIG. 13A, an appropriate flight altitude can be selected according to the purpose.

また、上述した実施の形態では、圃場の画像を撮影する場合を例にして説明したが、これに限るものではない。すなわち、農薬散布や種子散布の場合にも、この発明を適用できる。この場合には、UAV2に搭載される農薬や種子の散布機能に基づいて、散布範囲を特定し、この散布範囲を上述した撮影範囲として用いて、飛行経路情報を生成すればよい。農薬や種子散布の場合には、その散布範囲を厳密に求め、他の圃場に影響を及ぼすことがないようにする必要がある。この場合にも、飛行高度が散布範囲を定める場合に需要なファクターとなる。   In the above-described embodiment, the case where an image of a farm field is taken has been described as an example. However, the present invention is not limited to this. That is, the present invention can also be applied to agricultural chemical spraying and seed spraying. In this case, a flight range information may be generated by specifying a spraying range based on the spraying function of agricultural chemicals and seeds mounted on the UAV 2 and using the spraying range as the above-described photographing range. In the case of pesticide and seed spraying, it is necessary to strictly determine the spraying range so as not to affect other fields. In this case, too, the flight altitude is a demand factor when determining the spraying range.

また、上述した実施の形態では、生成装置1は、図1に示した構成を有していたが、これに限るものではない。例えば、圃場DB104、UAVDB105、飛行経路情報ファイル106、リサーチデータDB107は、インターネット上に設けられたものであってもよい。また、条件設定部111、撮影範囲特定部112、対象圃場特定部113、センサ位置特定部114、飛行経路生成部115の各機能が、インターネット上の異なるサーバー装置が実現するものであってもよい。すなわち、生成装置1は、いわゆるクラウドシステムとして構成することももちろんできる。   In the above-described embodiment, the generation device 1 has the configuration illustrated in FIG. 1, but is not limited thereto. For example, the farm field DB 104, the UAV DB 105, the flight path information file 106, and the research data DB 107 may be provided on the Internet. In addition, each function of the condition setting unit 111, the imaging range specifying unit 112, the target field specifying unit 113, the sensor position specifying unit 114, and the flight path generating unit 115 may be realized by a different server device on the Internet. . That is, the generation device 1 can of course be configured as a so-called cloud system.

[その他]
上述した実施の形態の説明からも明らかであるように、請求項における圃場情報記憶手段の機能は、実施の形態の生成装置(以下、単に生成装置と記載する。)1の圃場DB104が実現している。また、請求項の撮影範囲特定手段の機能は、生成装置1の撮影範囲特定部112が実現している。また、請求項の対象圃場特定手段の機能は、生成装置1の対象圃場特定部113が実現している。また、請求項の飛行経路生成手段の機能は、生成装置1の飛行経路生成部115が実現している。
[Others]
As is clear from the description of the embodiment described above, the function of the field information storage unit in the claims is realized by the field DB 104 of the generation device (hereinafter simply referred to as a generation device) 1 of the embodiment. ing. Further, the shooting range specifying means of the claims is realized by the shooting range specifying unit 112 of the generating apparatus 1. Moreover, the function of the target field specifying means in the claims is realized by the target field specifying unit 113 of the generating device 1. In addition, the flight path generation unit 115 of the generation device 1 realizes the function of the flight path generation means in the claims.

また、図14のフローチャートに示した処理を行う方法が、この発明による飛行経路生成方法の一実施の形態が適用されたものである。また、図14のフローチャートに示した処理を行うプログラムを作成し、これを情報処理装置に搭載することにより、この発明の飛行経路生成装置を実現することもできる。すなわち、図1に示した生成装置の条件設定部111、撮影範囲特定部112、対象圃場特定部113、センサ位置特定部114、飛行経路生成部115の各機能は、制御部102において実行されるプログラムにより、制御部102の機能として実現することもできる。   A method for performing the process shown in the flowchart of FIG. 14 is the one to which an embodiment of a flight path generation method according to the present invention is applied. Further, the flight path generation apparatus of the present invention can be realized by creating a program for performing the processing shown in the flowchart of FIG. 14 and mounting the program on the information processing apparatus. That is, the functions of the condition setting unit 111, the shooting range specifying unit 112, the target field specifying unit 113, the sensor position specifying unit 114, and the flight path generating unit 115 of the generating apparatus shown in FIG. It can also be realized as a function of the control unit 102 by a program.

1…UAV飛行経路生成装置、101…通信I/F、102…制御部、103…記憶装置、104…圃場DB、105…UAVDB、106…飛行経路情報ファイル、107…リサーチデータDB、111…条件設定部、112…撮影範囲特定部、113…対象圃場特定部、114…センサ位置特定部、115…飛行経路生成部、2…UAV、3…UAV運用管理装置、4…IoTプラットホーム   DESCRIPTION OF SYMBOLS 1 ... UAV flight route production | generation apparatus, 101 ... Communication I / F, 102 ... Control part, 103 ... Memory | storage device, 104 ... Farm field DB, 105 ... UAVDB, 106 ... Flight route information file, 107 ... Research data DB, 111 ... Conditions Setting unit 112 ... Shooting range specifying unit 113 113 Target field specifying unit 114 114 Sensor position specifying unit 115 Flight path generating unit 2 UAV 3 UAV operation management device 4 IoT platform

Claims (6)

1以上の圃場についての所在位置、形状、面積を特定することが可能な情報を含む圃場情報を記憶する圃場情報記憶手段と、
UAV(Unmanned aerial vehicle)に搭載されたカメラ機能の性能に基づいて、当該UAVを用いて圃場を上空から撮影する場合の撮影範囲を特定する撮影範囲特定手段と、
使用者からの指示情報と、前記圃場情報記憶手段に記憶されている前記圃場情報とに基づいて、撮影対象となる対象圃場を特定する対象圃場特定手段と、
前記対象圃場特定手段で特定された前記対象圃場についての前記圃場情報記憶手段の前記圃場情報と、前記撮影範囲特定手段で特定された前記撮影範囲とに基づいて、前記対象圃場上空においての前記UAVの飛行経路を生成する飛行経路生成手段と
を備えることを特徴とする飛行経路生成装置。
Field information storage means for storing field information including information capable of specifying the location, shape, and area of one or more fields;
Based on the performance of a camera function mounted on a UAV (Unmanned aerial vehicle), an imaging range specifying means for specifying an imaging range when shooting the field from above using the UAV;
Target field specifying means for specifying a target field to be imaged based on instruction information from a user and the field information stored in the field information storage means;
The UAV above the target field based on the field information of the field information storage unit for the target field specified by the target field specifying unit and the shooting range specified by the shooting range specifying unit. A flight path generation device comprising: a flight path generation means for generating the flight path.
請求項1に記載の飛行経路生成装置であって、
前記飛行経路生成手段は、前記対象圃場特定手段で複数の対象圃場が特定された場合に、複数の前記対象圃場についての前記圃場情報記憶手段の前記圃場情報に基づいて、複数の前記対象圃場を巡回する巡回経路を生成し、当該巡回経路を考慮して、各対象圃場上空においての飛行経路を生成することにより、複数の前記対象圃場の上空を飛行可能にする飛行経路を生成する
ことを特徴とする飛行経路生成装置。
The flight path generation device according to claim 1,
The flight path generation unit generates a plurality of the target fields based on the field information of the field information storage unit for the plurality of target fields when a plurality of target fields are specified by the target field specifying unit. Generating a flight path that enables flight over a plurality of the target farm fields by generating a patrol path for patrol and generating a flight path over each target farm field in consideration of the tour path. A flight path generator.
請求項1または請求項2に記載の飛行経路生成装置であって、
前記撮影範囲特定手段は、必要とされる情報取得レベルに応じて、撮影高度を特定し、当該撮影高度を用いて前記撮影範囲を特定する
ことを特徴とする飛行経路生成装置。
The flight path generation device according to claim 1 or 2,
The flight range generation device characterized in that the shooting range specifying means specifies a shooting altitude according to a required information acquisition level, and specifies the shooting range using the shooting altitude.
請求項1〜請求項3のいずれかに記載の飛行経路生成装置であって、
前記圃場情報記憶手段には、圃場についての高さ情報が含まれており、
前記飛行経路生成手段は、前記圃場情報記憶手段の前記圃場についての高さ情報を考慮して前記UAVの飛行経路を生成する
ことを特徴とする飛行経路生成装置。
The flight path generation device according to any one of claims 1 to 3,
The field information storage means includes height information about the field,
The flight path generation unit generates the flight path of the UAV in consideration of height information about the field of the field information storage unit.
請求項1〜請求項4のいずれかに記載の飛行経路生成装置であって、
前記圃場情報記憶手段には、圃場の状態を検出すると共に、検出結果を近距離無線通信により送信する機能を備えたセンサ手段が設けられた圃場については、当該センサ手段の設置位置を示す情報が記憶されており、
前記飛行経路生成手段は、前記UAVが近距離無線通信機能を備え、前記センサ手段からの検出結果を収集できるものである場合には、前記圃場情報記憶手段の前記センサ手段の設置位置を考慮して、前記飛行経路を生成する
ことを特徴とする飛行経路生成装置。
The flight path generation device according to any one of claims 1 to 4,
In the field information storage unit, information indicating the installation position of the sensor unit is provided for the field provided with the sensor unit having a function of detecting the state of the field and transmitting the detection result by short-range wireless communication. Remembered,
When the UAV has a short-range wireless communication function and can collect detection results from the sensor means, the flight path generation means considers the installation position of the sensor means of the field information storage means. And generating the flight path.
飛行経路生成装置で行う飛行経路生成方法であって、
UAV(Unmanned aerial vehicle)に搭載されたカメラ機能の性能に基づいて、当該UAVを用いて圃場を上空から撮影する場合の撮影範囲を特定する撮影範囲特定工程と、
入力された使用者からの指示情報と、1以上の圃場についての所在位置、形状、面積を特定することが可能な情報を含む圃場情報を記憶する圃場情報記憶手段に記憶されている情報とに基づいて、撮影対象となる対象圃場を特定する対象圃場特定工程と、
前記対象圃場特定工程で特定した前記対象圃場についての前記圃場情報記憶手段の前記圃場情報と、前記撮影範囲特定工程において特定した前記撮影範囲とに基づいて、前記対象圃場上空においての前記UAVの飛行経路を生成する飛行経路生成工程と
を有することを特徴とする飛行経路生成方法。
A flight path generation method performed by a flight path generation device,
Based on the performance of a camera function mounted on a UAV (Unmanned aerial vehicle), a shooting range specifying step for specifying a shooting range when shooting a field from the sky using the UAV;
The input instruction information from the user and the information stored in the field information storage means for storing the field information including information capable of specifying the location, shape and area of one or more fields Based on the target field identification step for identifying the target field to be imaged,
Flight of the UAV over the target field based on the field information of the field information storage means for the target field specified in the target field specifying step and the shooting range specified in the shooting range specifying step A flight path generation method comprising: a flight path generation step of generating a path.
JP2018046527A 2018-03-14 2018-03-14 Flight route generator and flight route generation method Active JP6914874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018046527A JP6914874B2 (en) 2018-03-14 2018-03-14 Flight route generator and flight route generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046527A JP6914874B2 (en) 2018-03-14 2018-03-14 Flight route generator and flight route generation method

Publications (2)

Publication Number Publication Date
JP2019158635A true JP2019158635A (en) 2019-09-19
JP6914874B2 JP6914874B2 (en) 2021-08-04

Family

ID=67994168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046527A Active JP6914874B2 (en) 2018-03-14 2018-03-14 Flight route generator and flight route generation method

Country Status (1)

Country Link
JP (1) JP6914874B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177192A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Path generation method, path generation device, and program
WO2021205559A1 (en) * 2020-04-08 2021-10-14 株式会社ナイルワークス Display device, drone flight propriety determination device, drone, drone flight propriety determination method, and computer program
JP7000505B1 (en) 2020-06-30 2022-01-24 楽天グループ株式会社 Sensing system, sensing data acquisition method, and unmanned flight aircraft
CN114253286A (en) * 2020-09-24 2022-03-29 乐天集团股份有限公司 Flight system, flight path determination method, and flight path determination device
JP2022112102A (en) * 2021-01-21 2022-08-02 株式会社三井E&Sマシナリー Photographed image classifier and photographed image classification method
KR20220109661A (en) * 2021-01-29 2022-08-05 (주)자이언트드론 Mission Flight Plan Generation System Of Drone
KR102454153B1 (en) * 2022-07-08 2022-10-17 주식회사 긴트 Method for supporting the work of self-driving agricultural vehicles using drone and system thereof
JP7486805B2 (en) 2020-09-16 2024-05-20 国立研究開発法人農業・食品産業技術総合研究機構 Information processing device, system, information processing method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009664A (en) * 2001-06-29 2003-01-14 Minolta Co Ltd Crop growth level measuring system, crop growth level measuring method, crop growth level measuring program, and computer-readable recording medium recorded with the program
JP2014062789A (en) * 2012-09-20 2014-04-10 Topcon Corp Photograph measuring camera and aerial photographing device
US20160050840A1 (en) * 2014-08-22 2016-02-25 The Climate Corporation Methods for agronomic and agricultural monitoring using unmanned aerial systems
WO2017033761A1 (en) * 2015-08-25 2017-03-02 ソニー株式会社 Farm field management system, farm field management method, and agricultural machine system
WO2018003082A1 (en) * 2016-06-30 2018-01-04 株式会社オプティム Mobile body control application and mobile body control method
JP2018005467A (en) * 2016-06-30 2018-01-11 株式会社日立製作所 Farmwork plan support device and farmwork plan support method
JP2018030407A (en) * 2016-08-23 2018-03-01 株式会社日立製作所 Transportation system and transportation method
JP2018169995A (en) * 2017-03-30 2018-11-01 株式会社スカイマティクス System and method for supporting work through use of drone

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009664A (en) * 2001-06-29 2003-01-14 Minolta Co Ltd Crop growth level measuring system, crop growth level measuring method, crop growth level measuring program, and computer-readable recording medium recorded with the program
JP2014062789A (en) * 2012-09-20 2014-04-10 Topcon Corp Photograph measuring camera and aerial photographing device
US20160050840A1 (en) * 2014-08-22 2016-02-25 The Climate Corporation Methods for agronomic and agricultural monitoring using unmanned aerial systems
WO2017033761A1 (en) * 2015-08-25 2017-03-02 ソニー株式会社 Farm field management system, farm field management method, and agricultural machine system
WO2018003082A1 (en) * 2016-06-30 2018-01-04 株式会社オプティム Mobile body control application and mobile body control method
JP2018005467A (en) * 2016-06-30 2018-01-11 株式会社日立製作所 Farmwork plan support device and farmwork plan support method
JP2018030407A (en) * 2016-08-23 2018-03-01 株式会社日立製作所 Transportation system and transportation method
JP2018169995A (en) * 2017-03-30 2018-11-01 株式会社スカイマティクス System and method for supporting work through use of drone

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177192A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Path generation method, path generation device, and program
WO2021205559A1 (en) * 2020-04-08 2021-10-14 株式会社ナイルワークス Display device, drone flight propriety determination device, drone, drone flight propriety determination method, and computer program
JPWO2021205559A1 (en) * 2020-04-08 2021-10-14
JP7412039B2 (en) 2020-04-08 2024-01-12 株式会社ナイルワークス Display device, computer program
JP2022024214A (en) * 2020-06-30 2022-02-09 楽天グループ株式会社 Sensing system, sensing data acquisition method, and unmanned flyable aircraft
JP7000505B1 (en) 2020-06-30 2022-01-24 楽天グループ株式会社 Sensing system, sensing data acquisition method, and unmanned flight aircraft
JP7486805B2 (en) 2020-09-16 2024-05-20 国立研究開発法人農業・食品産業技術総合研究機構 Information processing device, system, information processing method, and program
CN114253286A (en) * 2020-09-24 2022-03-29 乐天集团股份有限公司 Flight system, flight path determination method, and flight path determination device
JP2022053235A (en) * 2020-09-24 2022-04-05 楽天グループ株式会社 Flight system, flight route determination method, and flight route determination device
JP7165703B2 (en) 2020-09-24 2022-11-04 楽天グループ株式会社 Flight system, flight path determination method, and flight path determination device
US11990051B2 (en) 2020-09-24 2024-05-21 Rakuten Group, Inc. Flight system, flight route determination method, and flight route determination device
JP2022112102A (en) * 2021-01-21 2022-08-02 株式会社三井E&Sマシナリー Photographed image classifier and photographed image classification method
JP7442467B2 (en) 2021-01-21 2024-03-04 株式会社三井E&S Photographed image classification device and photographed image classification method
KR20220109661A (en) * 2021-01-29 2022-08-05 (주)자이언트드론 Mission Flight Plan Generation System Of Drone
KR102454943B1 (en) * 2021-01-29 2022-10-17 (주)자이언트드론 Mission Flight Plan Generation System Of Drone
KR102454153B1 (en) * 2022-07-08 2022-10-17 주식회사 긴트 Method for supporting the work of self-driving agricultural vehicles using drone and system thereof

Also Published As

Publication number Publication date
JP6914874B2 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
JP6914874B2 (en) Flight route generator and flight route generation method
Shi et al. Unmanned aerial vehicles for high-throughput phenotyping and agronomic research
KR101793509B1 (en) Remote observation method and system by calculating automatic route of unmanned aerial vehicle for monitoring crops
Namani et al. Smart agriculture based on IoT and cloud computing
JP6357140B2 (en) Image judgment method
Rasmussen et al. Potential uses of small unmanned aircraft systems (UAS) in weed research
CA2957081C (en) Methods for agronomic and agricultural monitoring using unmanned aerial systems
ES2898892T3 (en) Unmanned Aerial Vehicle for Agricultural Field Assessment
Laliberte et al. UAS remote sensing missions for rangeland applications
Urbahs et al. Features of the use of unmanned aerial vehicles for agriculture applications
EP3959978A1 (en) Detection of arthropods
WO2018198313A1 (en) Unmanned aerial vehicle action plan creation system, method and program
DE102010046479A1 (en) Method for collecting data for site-specific treatment or processing of agricultural land
Faraji et al. Toys or tools? Utilization of unmanned aerial systems in mosquito and vector control programs
US20220009631A1 (en) Methods and Systems for Cloud-Based Management of Images Captured by Aerial Vehicles
Tumlisan Monitoring growth development and yield estimation of maize using very high-resolution UAV-images in Gronau, Germany
CN114064737B (en) Unmanned aerial vehicle-based large whale space-time distribution investigation method and system
Suhas et al. AgrOne: an agricultural drone using internet of things, data analytics and cloud computing features
WO2023233832A1 (en) Method, program, and information processing device
Izere Plant Height Estimation Using RTK-GNSS Enabled Unmanned Aerial Vehicle (UAV) Photogrammetry
JP7474031B2 (en) Field information management device, field information management system, control method for field information management device, and field information management program
JP7376198B1 (en) Mosquito breeding control program, computer-readable recording medium on which the mosquito breeding control program is recorded, mosquito breeding control system, and mosquito breeding control method
Poudel et al. Assessing Red Pine Seedlings Using Uav Point Clouds and Field-Verified Data
Delparte et al. sUAS for Wildlife Conservation–Assessing Habitat Quality of the Endangered Black-Footed Ferret
Phillips The sky’s no limit: using drones for precision farming

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210714

R150 Certificate of patent or registration of utility model

Ref document number: 6914874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250