JP7169022B2 - Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system - Google Patents

Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system Download PDF

Info

Publication number
JP7169022B2
JP7169022B2 JP2021507304A JP2021507304A JP7169022B2 JP 7169022 B2 JP7169022 B2 JP 7169022B2 JP 2021507304 A JP2021507304 A JP 2021507304A JP 2021507304 A JP2021507304 A JP 2021507304A JP 7169022 B2 JP7169022 B2 JP 7169022B2
Authority
JP
Japan
Prior art keywords
crop
yield
curvature
length
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507304A
Other languages
Japanese (ja)
Other versions
JPWO2020189553A1 (en
Inventor
洋 柳下
大介 鈴木
千大 和氣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nileworks Inc
Original Assignee
Nileworks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nileworks Inc filed Critical Nileworks Inc
Publication of JPWO2020189553A1 publication Critical patent/JPWO2020189553A1/ja
Application granted granted Critical
Publication of JP7169022B2 publication Critical patent/JP7169022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Mining & Mineral Resources (AREA)
  • Animal Husbandry (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Agronomy & Crop Science (AREA)
  • Strategic Management (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本願発明は、収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システムに関する。 The present invention relates to a harvest amount prediction system, a harvest amount prediction method, a harvest amount prediction program, and a harvest time prediction system.

成育する農作物の収穫量を予測するシステムが必要とされている。例えば、圃場の作物を人工衛星、ドローン、または、上空に設置されたカメラ等から撮影し、特に近赤外線領域のスペクトラムを分析することで、窒素の吸収量を推定する方法が提案されている(特許文献1)。しかしながら、カメラの撮影範囲や作物の向き等により、農作物に結実している収穫対象物、例えば稲における籾が撮影範囲に十分映っていない地点に関しては、収穫量を精度良く予測することが困難であった。より具体的には、籾が画像の死角になっている場合には、1株あたりの収穫量の予測が困難であった。そこで、籾が画像に十分映っていない場合であっても、収穫量を精度良く予測することができる収穫量予測システムが必要とされている。 There is a need for a system that predicts the yield of growing crops. For example, a method has been proposed for estimating the amount of nitrogen absorbed by photographing crops in a field from satellites, drones, or cameras installed in the sky, and analyzing the spectrum, especially in the near-infrared region ( Patent document 1). However, it is difficult to accurately predict the harvest volume at locations where crops bearing crops, such as rice grains, are not sufficiently captured within the camera range and orientation of the crops. there were. More specifically, when the paddy is in the blind spot of the image, it was difficult to predict the yield per plant. Therefore, there is a need for a harvest amount prediction system that can accurately predict the harvest amount even when the grain is not sufficiently captured in the image.

特許文献2には、植物の画像データを取得し、植物への給水の要否等を決定する情報処理装置が開示されている。特許文献3には、プラグトレイに植え付けられている苗の色、葉の枚数、葉面積、葉の長さ等に基づいて、植物の良、不良等を判別する植物要否判別制御装置が開示されている。特許文献4には、陸上に固定したカメラを用いて畝線および作物の上端部分を検出し、農作物の高さを算出する農作物画像処理プログラムが開示されている。 Patent Literature 2 discloses an information processing device that acquires image data of a plant and determines whether or not the plant needs to be watered. Patent Document 3 discloses a plant necessity determination control device that determines whether plants are good or bad based on the color of seedlings planted in a plug tray, the number of leaves, the leaf area, the length of leaves, and the like. It is Patent Literature 4 discloses a crop image processing program that detects ridges and the top of crops using a camera fixed on land and calculates the height of crops.

特許公開公報 特開2003-339238Patent publication publication JP 2003-339238 特許公開公報 特開2018-108041Patent Publication JP 2018-108041 特許公開公報 特開平6-138041Japanese patent publication JP-A-6-138041 特許公開公報 特開2012-198688Patent publication publication JP 2012-198688

農作物の収穫量を精度良く予測する収穫量予測システムを提供する。 Provided is a yield prediction system that accurately predicts the yield of agricultural crops.

上記目的を達成するため、本発明の一の観点に係る収穫量予測システムは、生育する作物の画像を取得する撮影部と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、を備える。 In order to achieve the above object, a yield prediction system according to one aspect of the present invention includes an imaging unit that acquires an image of a growing crop, a crop length of the crop based on the image, and a curvature of the crop in the length direction. and a harvest amount prediction unit that predicts a harvest amount from the crop based on the crop length and the curvature.

前記収穫量予測部は、前記作物長が長く、かつ前記曲率が大きいほど、前記収穫量が多いと予測するものとしてもよい。 The harvest amount prediction unit may predict that the harvest amount increases as the crop length increases and the curvature increases.

前記作物形状取得部は、前記画像に基づいて前記作物の茎の太さをさらに取得し、
前記収穫量予測部は、前記作物長、前記曲率、および前記茎の太さに基づいて前記収穫量を予測するものとしてもよい。
The crop shape acquisition unit further acquires the thickness of the stem of the crop based on the image,
The yield prediction unit may predict the yield based on the crop length, the curvature, and the stem thickness.

前記作物に吹き付ける風を検知する強風検知部をさらに備え、前記収穫量予測部は、前記強風検知部が強風を検知しているか否かで、前記収穫量の予測結果を異ならせるものとしてもよい。 A strong wind detection unit that detects wind blowing on the crops may be further provided, and the harvest amount prediction unit may vary the harvest amount prediction result depending on whether the strong wind detection unit detects a strong wind. .

前記収穫量予測部は、前記強風検知部により強風が検知されている時点の予測値を、下方へ補正するものとしてもよい。 The harvest amount prediction unit may downwardly correct the prediction value at the time when the strong wind is detected by the strong wind detection unit.

前記収穫量予測部は、前記強風検知部により強風が検知されているとき、当該強風が検知される地点における前記収穫量の予測を中止するものとしてもよい。 When the strong wind is detected by the strong wind detection unit, the harvest amount prediction unit may stop the prediction of the harvest amount at a point where the strong wind is detected.

前記強風が検知された履歴がある場合において、前記強風を検知しないときに、当該強風が検知される地点の前記作物の画像を再取得する再撮影部をさらに備えるものとしてもよい。 The apparatus may further include a re-capturing unit that re-obtains an image of the crop at a point where the strong wind is detected when the strong wind is not detected when there is a history of the strong wind being detected.

前記作物は前記長さ方向上部に籾が結実する稲であり、籾の数を計数する籾計数部をさらに備え、前記収穫量予測部は、前記作物長、前記曲率、および前記籾の数に基づいて、前記収穫量を予測するものとしてもよい。 The crop is rice that bears husks in the upper part in the length direction, and further includes a husk counting unit that counts the number of husks. Based on this, the harvest amount may be predicted.

前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正するものとしてもよい。 The harvest amount prediction unit calculates an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested from the harvest amount predicted based on the number of the paddy, and obtains the crop shape. When the acquired value of at least one of the crop length and the curvature acquired by the unit is not included in the assumed range, the harvest amount may be corrected based on the acquired value.

前記作物長および前記曲率の取得値が前記想定範囲よりも大きいとき、前記収穫量を上方に補正するものとしてもよい。 When the obtained values of the crop length and the curvature are larger than the assumed range, the harvest amount may be corrected upward.

前記作物長および前記曲率の取得値が前記想定範囲よりも小さいとき、前記収穫量を下方に補正するものとしてもよい。 When the acquired values of the crop length and the curvature are smaller than the assumed range, the harvest amount may be corrected downward.

前記収穫量予測部は、前記長さおよび前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定するものとしてもよい。 The harvest amount prediction unit calculates a first harvest amount predicted based on the length and the curvature, and a second harvest amount predicted based on the number of the unhulled grains, and calculates the second harvest amount. Based on the value, it may be determined whether or not to adopt the first yield as the prediction result.

前記収穫量予測部は、前記第2収穫量が、前記第1収穫量より所定以上大きい場合、前記第2収穫量を予測結果として採用するものとしてもよい。 When the second harvested amount is larger than the first harvested amount by a predetermined amount or more, the harvested amount prediction unit may adopt the second harvested amount as the prediction result.

少なくとも前記撮影部は飛行体に搭載されているものとしてもよい。 At least the imaging unit may be mounted on an aircraft.

上記目的を達成するため、本発明の別の観点に係る収穫量予測システムは、生育する作物の画像を取得する撮影部と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、前記作物に結実する籾の数を計数する籾計数部と、前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測部と、を備え、前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する。 In order to achieve the above object, a yield prediction system according to another aspect of the present invention includes an imaging unit that acquires an image of a growing crop, a crop length of the crop based on the image, and a curvature of the crop in the length direction. a crop shape acquisition unit that acquires the crop shape acquisition unit, a paddy counting unit that counts the number of grains that bear fruit on the crop, and a yield prediction unit that predicts the yield from the crop based on the number of grains, The harvest amount prediction unit calculates an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested from the harvest amount predicted based on the number of the paddy, and obtains the crop shape. When the acquired value of at least one of the crop length and the curvature acquired by the unit is not included in the assumed range, the harvested amount is corrected based on the acquired value.

上記目的を達成するため、本発明のさらに別の観点に係る収穫量予測方法は、生育する作物の画像を取得するステップと、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得するステップと、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測するステップと、を備える。 In order to achieve the above object, a yield prediction method according to still another aspect of the present invention comprises the steps of: obtaining an image of a growing crop; and predicting yield from the crop based on the crop length and the curvature.

上記目的を達成するため、本発明のさらに別の観点に係る収穫量予測プログラムは、生育する作物の画像を取得する命令と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する命令と、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する命令と、をコンピュータに実行させる。
なお、コンピュータプログラムは、インターネット等のネットワークを介したダウンロードによって提供したり、CD-ROMなどのコンピュータ読取可能な各種の記録媒体に記録して提供したりすることができる。
To achieve the above object, a yield prediction program according to still another aspect of the present invention includes a command to obtain an image of a growing crop, and a crop length and a curvature of the crop in the longitudinal direction based on the image. and predicting yield from the crop based on the crop length and the curvature.
The computer program can be provided by downloading via a network such as the Internet, or can be provided by being recorded on various computer-readable recording media such as a CD-ROM.

農作物の収穫量を精度良く予測することができる。 It is possible to accurately predict the yield of agricultural products.

本願発明に係るドローンの平面図である。1 is a plan view of a drone according to the present invention; FIG. 上記ドローンの正面図である。It is a front view of the said drone. 上記ドローンの右側面図である。It is a right view of the said drone. 上記ドローンの背面図である。It is a rear view of the said drone. 上記ドローンの斜視図である。It is a perspective view of the said drone. 上記ドローンが有する薬剤散布システムの全体概念図である。1 is an overall conceptual diagram of a chemical spraying system that the drone has. FIG. 上記ドローンが有する薬剤散布システムの別の例を示す全体概念図である。FIG. 4 is an overall conceptual diagram showing another example of a chemical spraying system that the drone has. 上記ドローンが有する薬剤散布システムのさらに別の例を示す全体概念図である。FIG. 11 is an overall conceptual diagram showing still another example of a chemical spraying system that the drone has. 上記ドローンの制御機能を表した模式図である。It is a schematic diagram showing the control function of the said drone. 上記ドローンが有する機能ブロック図である。It is a functional block diagram which the said drone has. 上記ドローンが収穫量を予測するフローチャートである。It is a flow chart in which the drone predicts the yield. 上記ドローンが収穫量を予測する第2実施形態を示すフローチャートである。Fig. 10 is a flow chart showing a second embodiment in which the drone predicts yield. 上記ドローンが収穫量を予測する第3実施形態を示すフローチャートである。FIG. 11 is a flow chart showing a third embodiment in which the drone predicts harvest yield. FIG. 上記ドローンが強風を検知するときの様子を示すフローチャートである。It is a flowchart which shows a state when the said drone detects a strong wind.

以下、図を参照しながら、本願発明を実施するための形態について説明する。図はすべて例示である。以下の詳細な説明では、説明のために、開示された実施形態の完全な理解を促すために、ある特定の詳細について述べられている。しかしながら、実施形態は、これらの特定の詳細に限られない。また、図面を単純化するために、周知の構造および装置については概略的に示されている。 Embodiments for carrying out the present invention will be described below with reference to the drawings. All figures are illustrative. In the following detailed description, for purposes of explanation, certain details are set forth in order to provide a thorough understanding of the disclosed embodiments. However, embodiments are not limited to these specific details. Also, well-known structures and devices are schematically shown to simplify the drawings.

まず、本発明にかかるドローンの構成について説明する。本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、自律飛行型であるか手動操縦型であるか等)を問わず、複数の回転翼を有する飛行体全般を指すこととする。 First, the configuration of the drone according to the present invention will be described. In the specification of the present application, a drone refers to a power means (electric power, prime mover, etc.), a control method (wireless or wired, and whether it is an autonomous flight type or a manually operated type, etc.), It refers to an aircraft in general that has a plurality of rotor blades.

図1乃至図5に示すように、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b(ローターとも呼ばれる)は、ドローン100を飛行させるための手段であり、飛行の安定性、機体サイズ、および、電力消費量のバランスを考慮し、8機(2段構成の回転翼が4セット)備えられている。各回転翼101は、ドローン100の本体110からのび出たアームにより本体110の四方に配置されている。すなわち、進行方向左後方に回転翼101-1a、101-1b、左前方に回転翼101-2a、101-2b、右後方に回転翼101-3a、101-3b、右前方に回転翼101-4a、101-4bがそれぞれ配置されている。なお、ドローン100は図1における紙面下向きを進行方向とする。回転翼101の回転軸から下方には、それぞれ棒状の足107-1,107-2,107-3,107-4が伸び出ている。 As shown in FIGS. 1 to 5, the rotor blades 101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b, 101-4a, 101-4b (also called rotors) are: It is a means to fly the drone 100, and considering the balance of flight stability, aircraft size, and power consumption, it is equipped with 8 aircraft (4 sets of two-stage rotor blades). Each rotor 101 is arranged on the four sides of the main body 110 of the drone 100 by means of arms protruding from the main body 110 of the drone 100 . That is, rotor blades 101-1a and 101-1b are on the left rear in the traveling direction, rotor blades 101-2a and 101-2b are on the left front, rotor blades 101-3a and 101-3b are on the right rear, and rotor blades 101- on the right front. 4a and 101-4b are arranged respectively. In addition, the drone 100 makes the downward direction of the paper surface in FIG. 1 the advancing direction. Rod-shaped legs 107-1, 107-2, 107-3, and 107-4 extend downward from the rotating shaft of rotor blade 101, respectively.

モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、102-4a、102-4bは、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4bを回転させる手段(典型的には電動機だが発動機等であってもよい)であり、一つの回転翼に対して1機設けられている。モーター102は、推進器の例である。1セット内の上下の回転翼(たとえば、101-1aと101-1b)、および、それらに対応するモーター(たとえば、102-1aと102-1b)は、ドローンの飛行の安定性等のために軸が同一直線上にあり、かつ、互いに反対方向に回転する。図2、および、図3に示されるように、ローターが異物と干渉しないよう設けられたプロペラガードを支えるための放射状の部材は水平ではなくやぐら状の構造である。衝突時に当該部材が回転翼の外側に座屈することを促し、ローターと干渉することを防ぐためである。 Motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 102-4a, 102-4b are equipped with rotors 101-1a, 101-1b, 101-2a, 101- Means for rotating 2b, 101-3a, 101-3b, 101-4a, 101-4b (typically an electric motor, but may be a motor, etc.), one machine provided for one rotor blade It is Motor 102 is an example of a propeller. The upper and lower rotors in one set (e.g. 101-1a and 101-1b) and their corresponding motors (e.g. 102-1a and 102-1b) are used for drone flight stability etc. The axes are collinear and rotate in opposite directions. As shown in FIGS. 2 and 3, the radial members for supporting the propeller guard provided to prevent the rotor from interfering with foreign objects are not horizontal but have a scaffold-like structure. This is to prevent the member from interfering with the rotor by promoting the buckling of the member to the outside of the rotor blade at the time of collision.

薬剤ノズル103-1、103-2、103-3、103-4は、薬剤を下方に向けて散布するための手段であり4機備えられている。なお、本願明細書において、薬剤とは、農薬、除草剤、液肥、殺虫剤、種、および、水などの圃場に散布される液体または粉体を一般的に指すこととする。 Four drug nozzles 103-1, 103-2, 103-3, and 103-4 are provided and are means for spraying the drug downward. In the present specification, chemicals generally refer to liquids or powders such as pesticides, herbicides, liquid fertilizers, insecticides, seeds, and water that are applied to fields.

薬剤タンク104は散布される薬剤を保管するためのタンクであり、重量バランスの観点からドローン100の重心に近い位置でかつ重心より低い位置に設けられている。薬剤ホース105-1、105-2、105-3、105-4は、薬剤タンク104と各薬剤ノズル103-1、103-2、103-3、103-4とを接続する手段であり、硬質の素材から成り、当該薬剤ノズルを支持する役割を兼ねていてもよい。ポンプ106は、薬剤をノズルから吐出するための手段である。 The drug tank 104 is a tank for storing the sprayed drug, and is provided at a position close to and lower than the center of gravity of the drone 100 from the viewpoint of weight balance. The drug hoses 105-1, 105-2, 105-3, 105-4 are means for connecting the drug tank 104 and the drug nozzles 103-1, 103-2, 103-3, 103-4, and are hard material, and may also serve to support the drug nozzle. A pump 106 is means for ejecting a drug from a nozzle.

図6に本願発明に係るドローン100の薬剤散布用途の実施例を使用したシステムの全体概念図を示す。本図は模式図であって、縮尺は正確ではない。同図において、ドローン100、操作器401、小型携帯端末401a、基地局404は、営農クラウド405にそれぞれ接続されている。これらの接続は、Wi-Fiや移動通信システム等による無線通信を行ってもよいし、一部又は全部が有線接続されていてもよい。 FIG. 6 shows an overall conceptual diagram of a system using an embodiment of the drone 100 for chemical spraying according to the present invention. This figure is a schematic diagram and not to scale. In the figure, a drone 100, a controller 401, a small portable terminal 401a, and a base station 404 are connected to a farming cloud 405, respectively. These connections may be wireless communication using Wi-Fi, a mobile communication system, or the like, or may be partially or wholly wired.

操作器401は、使用者402の操作によりドローン100に指令を送信し、また、ドローン100から受信した情報(たとえば、位置、薬剤量、電池残量、カメラ映像等)を表示するための手段であり、コンピューター・プログラムを稼働する一般的なタブレット端末等の携帯情報機器によって実現されてよい。本願発明に係るドローン100は自律飛行を行なうよう制御されるが、離陸や帰還などの基本操作時、および、緊急時にはマニュアル操作が行なえるようになっていてもよい。携帯情報機器に加えて、緊急停止専用の機能を有する非常用操作器(図示していない)を使用してもよい。非常用操作器は緊急時に迅速に対応が取れるよう大型の緊急停止ボタン等を備えた専用機器であってもよい。さらに、操作器401とは別に、操作器401に表示される情報の一部又は全部を表示可能な小型携帯端末401a、例えばスマートホンがシステムに含まれていてもよい。また、小型携帯端末401aから入力される情報に基づいて、ドローン100の動作が変更される機能を有していてもよい。小型携帯端末401aは、例えば基地局404と接続されていて、基地局404を介して営農クラウド405からの情報等を受信可能である。 The operation device 401 is a means for transmitting commands to the drone 100 by the operation of the user 402 and displaying information received from the drone 100 (for example, position, drug amount, remaining battery level, camera image, etc.). Yes, and may be implemented by a portable information device such as a general tablet terminal that runs a computer program. The drone 100 according to the present invention is controlled to fly autonomously, but manual operation may be performed during basic operations such as takeoff and return, and in an emergency. In addition to the portable information device, an emergency operator (not shown) having a dedicated emergency stop function may be used. The emergency operation device may be a dedicated device equipped with a large emergency stop button or the like so that a quick response can be taken in case of emergency. Furthermore, apart from the operation device 401, the system may include a small portable terminal 401a, such as a smart phone, capable of displaying part or all of the information displayed on the operation device 401. FIG. Further, it may have a function of changing the operation of the drone 100 based on information input from the small portable terminal 401a. The small portable terminal 401a is connected to a base station 404, for example, and can receive information and the like from the farming cloud 405 via the base station 404. FIG.

圃場403は、ドローン100による薬剤散布の対象となる田圃や畑等である。実際には、圃場403の地形は複雑であり、事前に地形図が入手できない場合、あるいは、地形図と現場の状況が食い違っている場合がある。通常、圃場403は家屋、病院、学校、他の作物圃場、道路、鉄道等と隣接している。また、圃場403内に、建築物や電線等の侵入者が存在する場合もある。 A farm field 403 is a rice field, a field, or the like to which the drone 100 sprays chemicals. In reality, the topography of the farm field 403 is complicated, and there are cases where a topographic map cannot be obtained in advance, or there are cases where the topographic map differs from the situation of the field. Fields 403 are usually adjacent to houses, hospitals, schools, other crop fields, roads, railroads, and the like. Moreover, there may be intruders such as buildings and electric wires in the field 403 .

基地局404は、Wi-Fi通信の親機機能等を提供する装置であり、RTK-GPS基地局としても機能し、ドローン100の正確な位置を提供できるようになっていてもよい(Wi-Fi通信の親機機能とRTK-GPS基地局が独立した装置であってもよい)。また、基地局404は、3G、4G、およびLTE等の移動通信システムを用いて、営農クラウド405と互いに通信可能であってもよい。 The base station 404 is a device that provides a Wi-Fi communication base unit function, etc., and may also function as an RTK-GPS base station and provide an accurate position of the drone 100 (Wi-Fi Fi communication master unit function and RTK-GPS base station may be independent devices). Also, the base station 404 may be able to communicate with the farming cloud 405 using a mobile communication system such as 3G, 4G, and LTE.

営農クラウド405は、典型的にはクラウドサービス上で運営されているコンピュータ群と関連ソフトウェアであり、操作器401と携帯電話回線等で無線接続されていてもよい。営農クラウド405は、ドローン100が撮影した圃場403の画像を分析し、作物の生育状況を把握して、飛行ルートを決定するための処理を行ってよい。また、保存していた圃場403の地形情報等をドローン100に提供してよい。加えて、ドローン100の飛行および撮影映像の履歴を蓄積し、様々な分析処理を行ってもよい。 The farming cloud 405 is typically a group of computers and related software operated on a cloud service, and may be wirelessly connected to the operation device 401 via a mobile phone line or the like. The farming cloud 405 may analyze the image of the field 403 captured by the drone 100, grasp the growth status of crops, and perform processing for determining the flight route. In addition, the drone 100 may be provided with topographical information and the like of the field 403 that has been saved. In addition, a history of flight and captured images of the drone 100 may be accumulated and various analysis processes may be performed.

小型携帯端末401aは例えばスマートホン等である。小型携帯端末401aの表示部には、ドローン100の運転に関し予測される動作の情報、より具体的にはドローン100が発着地点406に帰還する予定時刻や、帰還時に使用者402が行うべき作業の内容等の情報が適宜表示される。また、小型携帯端末401aからの入力に基づいて、ドローン100および移動体406aの動作を変更してもよい。小型携帯端末401aは、ドローン100および移動体406aのいずれからでも情報を受信可能である。また、ドローン100からの情報は、移動体406aを介して小型携帯端末401aに送信されてもよい。 The small portable terminal 401a is, for example, a smart phone. The display unit of the small portable terminal 401a displays information about the expected operation of the drone 100, more specifically, the scheduled time for the drone 100 to return to the departure/arrival point 406, and the work to be done by the user 402 when returning. Information such as the content is displayed as appropriate. Also, the operations of the drone 100 and the moving object 406a may be changed based on the input from the small portable terminal 401a. The small portable terminal 401a can receive information from both the drone 100 and the moving object 406a. Information from the drone 100 may also be transmitted to the small portable terminal 401a via the mobile object 406a.

通常、ドローン100は圃場403の外部にある発着地点406から離陸し、圃場403に薬剤を散布した後に、あるいは、薬剤補充や充電等が必要になった時に発着地点406に帰還する。発着地点406から目的の圃場403に至るまでの飛行経路(侵入経路)は、営農クラウド405等で事前に保存されていてもよいし、使用者402が離陸開始前に入力してもよい。発着地点406は、ドローン100に記憶されている座標により規定される仮想の地点であってもよいし、物理的な発着台があってもよい。 Normally, the drone 100 takes off from the departure/arrival point 406 outside the field 403 and returns to the departure/arrival point 406 after spraying the chemical on the field 403 or when replenishment of the chemical, charging, or the like is required. The flight path (entry path) from the departure/arrival point 406 to the target field 403 may be stored in advance in the farming cloud 405 or the like, or may be input by the user 402 before starting takeoff. Landing point 406 may be a virtual point defined by coordinates stored in drone 100, or may be a physical landing pad.

なお、図7に示す例のように、ドローン100、操作器401、小型携帯端末401a、営農クラウド405が、それぞれ基地局404と接続されている構成であってもよい。 Note that the drone 100, the operation device 401, the small portable terminal 401a, and the farming cloud 405 may each be connected to the base station 404, as in the example shown in FIG.

また、図8に示す例のように、ドローン100、操作器401、小型携帯端末401aが、それぞれ基地局404と接続されていて、操作器401のみが営農クラウド405と接続されている構成であってもよい。 Further, as in the example shown in FIG. 8, the drone 100, the controller 401, and the small portable terminal 401a are each connected to the base station 404, and only the controller 401 is connected to the farming cloud 405. may

ドローン100は、圃場403の上空を飛行し、圃場内の作業を遂行する。本実施形態においては、1個の圃場403(作業エリアの例)1個のドローン100が飛行し、作業を行うが、1個の圃場403において複数のドローンが飛行および作業してもよい。ドローン100は、圃場403内にあらかじめ計画される運転経路に沿って飛行しながら、薬剤を散布したり、圃場403内を撮影したりする。運転経路は、例えば圃場403内を往復して、走査するように飛行する経路であるが、どのような経路であってもよい。 The drone 100 flies over the field 403 and performs work in the field. In this embodiment, one drone 100 flies and works in one farm field 403 (example of work area), but a plurality of drones may fly and work in one farm field 403 . The drone 100 flies along a driving route planned in advance in the farm field 403 to spray chemicals and photograph the inside of the farm field 403 . The driving route is, for example, a route that flies back and forth in the farm field 403 so as to scan, but may be any route.

図9に本願発明に係る薬剤散布用ドローンの実施例の制御機能を表したブロック図を示す。フライトコントローラー501は、ドローン全体の制御を司る構成要素であり、具体的にはCPU、メモリー、関連ソフトウェア等を含む組み込み型コンピュータであってよい。フライトコントローラー501は、操作器401から受信した入力情報、および、後述の各種センサーから得た入力情報に基づき、ESC(Electronic Speed Control)等の制御手段を介して、モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの回転数を制御することで、ドローン100の飛行を制御する。モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの実際の回転数はフライトコントローラー501にフィードバックされ、正常な回転が行なわれているかを監視できる構成になっている。あるいは、回転翼101に光学センサー等を設けて回転翼101の回転がフライトコントローラー501にフィードバックされる構成でもよい。 FIG. 9 shows a block diagram showing control functions of an embodiment of the chemical spraying drone according to the present invention. The flight controller 501 is a component that controls the entire drone, and specifically may be an embedded computer including a CPU, memory, related software, and the like. Flight controller 501 controls motors 102-1a and 102-1b via control means such as ESC (Electronic Speed Control) based on input information received from operation device 401 and input information obtained from various sensors described later. , 102-2a, 102-2b, 102-3a, 102-3b, 104-a, and 104-b, the flight of the drone 100 is controlled. The actual rotation speeds of motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, and 104-b are fed back to flight controller 501 to ensure normal rotation. It is configured to be able to monitor whether or not Alternatively, an optical sensor or the like may be provided on the rotor blade 101 and the rotation of the rotor blade 101 may be fed back to the flight controller 501 .

フライトコントローラー501が使用するソフトウェアは、機能拡張・変更、問題修正等のために記憶媒体等を通じて、または、Wi-Fi通信やUSB等の通信手段を通じて書き換え可能になっている。この場合において、不正なソフトウェアによる書き換えが行なわれないように、暗号化、チェックサム、電子署名、ウィルスチェックソフト等による保護が行われている。また、フライトコントローラー501が制御に使用する計算処理の一部が、操作器401上、または、営農クラウド405上や他の場所に存在する別のコンピュータによって実行されてもよい。フライトコントローラー501は重要性が高いため、その構成要素の一部または全部が二重化されていてもよい。 The software used by the flight controller 501 is rewritable through a storage medium or the like, or through communication means such as Wi-Fi communication or USB, in order to extend/change functions or correct problems. In this case, protection is provided by encryption, checksum, electronic signature, virus check software, etc. to prevent rewriting by unauthorized software. Also, part of the calculation processing used for control by the flight controller 501 may be executed by another computer existing on the operation device 401, on the farming cloud 405, or at another location. Due to the high importance of flight controller 501, some or all of its components may be duplicated.

フライトコントローラー501は、Wi-Fi子機機能503を介して、さらに、基地局404を介して操作器401とやり取りを行ない、必要な指令を操作器401から受信すると共に、必要な情報を操作器401に送信できる。この場合に、通信には暗号化を施し、傍受、成り済まし、機器の乗っ取り等の不正行為を防止できるようにしておいてもよい。基地局404は、Wi-Fiによる通信機能に加えて、RTK-GPS基地局の機能も備えている。RTK基地局の信号とGPS測位衛星からの信号を組み合わせることで、フライトコントローラー501により、ドローン100の絶対位置を数センチメートル程度の精度で測定可能となる。フライトコントローラー501は重要性が高いため、二重化・多重化されていてもよく、また、特定のGPS衛星の障害に対応するため、冗長化されたそれぞれのフライトコントローラー501は別の衛星を使用するよう制御されていてもよい。 The flight controller 501 communicates with the controller 401 via the Wi-Fi slave device function 503 and via the base station 404, receives necessary commands from the controller 401, and sends necessary information to the controller. You can send to 401. In this case, the communication may be encrypted to prevent fraudulent acts such as interception, impersonation, and device hijacking. The base station 404 also has a function of an RTK-GPS base station in addition to a Wi-Fi communication function. By combining the signals from the RTK base station and the signals from the GPS positioning satellite, the flight controller 501 can measure the absolute position of the drone 100 with an accuracy of several centimeters. Due to the high importance of the flight controller 501, it may be duplicated or multiplexed, and each redundant flight controller 501 should use a different satellite in order to cope with the failure of a particular GPS satellite. may be controlled.

6軸ジャイロセンサー505はドローン機体の互いに直交する3方向の加速度を測定する手段であり、さらに、加速度の積分により速度を計算する手段である。6軸ジャイロセンサー505は、上述の3方向におけるドローン機体の姿勢角の変化、すなわち角速度を測定する手段である。地磁気センサー506は、地磁気の測定によりドローン機体の方向を測定する手段である。気圧センサー507は、気圧を測定する手段であり、間接的にドローンの高度も測定することもできる。レーザーセンサー508は、レーザー光の反射を利用してドローン機体と地表との距離を測定する手段であり、IR(赤外線)レーザーであってもよい。ソナー509は、超音波等の音波の反射を利用してドローン機体と地表との距離を測定する手段である。これらのセンサー類は、ドローンのコスト目標や性能要件に応じて取捨選択してよい。また、機体の傾きを測定するためのジャイロセンサー(角速度センサー)、風力を測定するための風力センサーなどが追加されていてもよい。また、これらのセンサー類は、二重化または多重化されていてもよい。同一目的複数のセンサーが存在する場合には、フライトコントローラー501はそのうちの一つのみを使用し、それが障害を起こした際には、代替のセンサーに切り替えて使用するようにしてもよい。あるいは、複数のセンサーを同時に使用し、それぞれの測定結果が一致しない場合には障害が発生したと見なすようにしてもよい。 The 6-axis gyro sensor 505 is means for measuring the acceleration of the drone body in three mutually orthogonal directions, and is means for calculating the velocity by integrating the acceleration. The 6-axis gyro sensor 505 is means for measuring changes in the attitude angle of the drone body in the three directions described above, that is, angular velocity. The geomagnetic sensor 506 is a means of determining the direction of the drone body by measuring geomagnetism. The air pressure sensor 507 is a means of measuring air pressure, and can also indirectly measure the altitude of the drone. The laser sensor 508 is means for measuring the distance between the drone body and the ground surface using reflection of laser light, and may be an IR (infrared) laser. Sonar 509 is a means of measuring the distance between the drone body and the ground using the reflection of sound waves such as ultrasonic waves. These sensors may be selected according to the drone's cost targets and performance requirements. Also, a gyro sensor (angular velocity sensor) for measuring the inclination of the airframe, a wind sensor for measuring wind force, etc. may be added. Also, these sensors may be duplicated or multiplexed. If there are multiple sensors for the same purpose, the flight controller 501 may use only one of them and switch to an alternative sensor if it fails. Alternatively, multiple sensors may be used at the same time and a failure is assumed to occur if their measurements do not match.

流量センサー510は薬剤の流量を測定するための手段であり、薬剤タンク104から薬剤ノズル103に至る経路の複数の場所に設けられている。液切れセンサー511は薬剤の量が所定の量以下になったことを検知するセンサーである。マルチスペクトルカメラ512は圃場403を撮影し、画像分析のためのデータを取得する手段である。侵入者検知カメラ513はドローン侵入者を検知するためのカメラであり、画像特性とレンズの向きがマルチスペクトルカメラ512とは異なるため、マルチスペクトルカメラ512とは別の機器である。スイッチ514はドローン100の使用者402が様々な設定を行なうための手段である。侵入者接触センサー515はドローン100、特に、そのローターやプロペラガード部分が電線、建築物、人体、立木、鳥、または、他のドローン等の侵入者に接触したことを検知するためのセンサーである。なお、侵入者接触センサー515は、6軸ジャイロセンサー505で代用してもよい。カバーセンサー516は、ドローン100の操作パネルや内部保守用のカバーが開放状態であることを検知するセンサーである。薬剤注入口センサー517は薬剤タンク104の注入口が開放状態であることを検知するセンサーである。これらのセンサー類はドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。また、ドローン100外部の基地局404、操作器401、または、その他の場所にセンサーを設けて、読み取った情報をドローンに送信してもよい。たとえば、基地局404に風力センサーを設け、風力・風向に関する情報をWi-Fi通信経由でドローン100に送信するようにしてもよい。 Flow rate sensors 510 are means for measuring the flow rate of the drug, and are provided at multiple locations along the path from drug tank 104 to drug nozzle 103 . A liquid shortage sensor 511 is a sensor that detects when the amount of medicine has fallen below a predetermined amount. Multispectral camera 512 is a means of photographing field 403 and acquiring data for image analysis. The intruder detection camera 513 is a camera for detecting drone intruders, and is a separate device from the multispectral camera 512 because its image characteristics and lens orientation are different from those of the multispectral camera 512 . Switch 514 is a means for user 402 of drone 100 to make various settings. The intruder contact sensor 515 is a sensor for detecting that the drone 100, especially its rotor or propeller guard portion, has come into contact with an intruder such as an electric wire, building, human body, standing tree, bird, or other drone. . Note that the intruder contact sensor 515 may be replaced by the 6-axis gyro sensor 505. The cover sensor 516 is a sensor that detects that the operation panel of the drone 100 and the internal maintenance cover are open. A drug inlet sensor 517 is a sensor that detects that the inlet of the drug tank 104 is open. These sensors may be selected, duplicated or multiplexed depending on the drone's cost targets and performance requirements. Also, a sensor may be provided outside the drone 100 at the base station 404, the controller 401, or at another location to transmit the read information to the drone. For example, a wind sensor may be provided in the base station 404 to transmit information on wind power and wind direction to the drone 100 via Wi-Fi communication.

フライトコントローラー501はポンプ106に対して制御信号を送信し、薬剤吐出量の調整や薬剤吐出の停止を行なう。ポンプ106の現時点の状況(たとえば、回転数等)は、フライトコントローラー501にフィードバックされる構成となっている。 The flight controller 501 transmits a control signal to the pump 106 to adjust the medicine ejection amount and stop the medicine ejection. The current status of the pump 106 (eg, number of revolutions, etc.) is configured to be fed back to the flight controller 501 .

LED107は、ドローンの操作者に対して、ドローンの状態を知らせるための表示手段である。LEDに替えて、または、それに加えて液晶ディスプレイ等の表示手段を使用してもよい。ブザー518は、音声信号によりドローンの状態(特にエラー状態)を知らせるための出力手段である。Wi-Fi子機機能519は操作器401とは別に、たとえば、ソフトウェアの転送などのために外部のコンピューター等と通信するためのオプショナルな構成要素である。Wi-Fi子機機能に替えて、または、それに加えて、赤外線通信、Bluetooth(登録商標)、ZigBee(登録商標)、NFC等の他の無線通信手段、または、USB接続などの有線通信手段を使用してもよい。また、Wi-Fi子機機能に替えて、3G、4G、およびLTE等の移動通信システムにより相互に通信可能であってもよい。スピーカー520は、録音した人声や合成音声等により、ドローンの状態(特にエラー状態)を知らせる出力手段である。天候状態によっては飛行中のドローン100の視覚的表示が見にくいことがあるため、そのような場合には音声による状況伝達が有効である。警告灯521はドローンの状態(特にエラー状態)を知らせるストロボライト等の表示手段である。これらの入出力手段は、ドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。 The LED 107 is display means for informing the operator of the drone of the state of the drone. Display means such as a liquid crystal display may be used in place of or in addition to LEDs. The buzzer 518 is an output means for informing the state of the drone (especially error state) by means of an audio signal. A Wi-Fi slave device function 519 is an optional component for communicating with an external computer or the like for transferring software, for example, separately from the operation device 401 . In place of or in addition to the Wi-Fi slave unit function, infrared communication, Bluetooth (registered trademark), ZigBee (registered trademark), other wireless communication means such as NFC, or wired communication means such as USB connection may be used. Also, instead of the Wi-Fi slave device function, it may be possible to communicate with each other by mobile communication systems such as 3G, 4G, and LTE. The speaker 520 is output means for notifying the state of the drone (especially error state) by means of recorded human voice, synthesized voice, or the like. Weather conditions can make it difficult to see the visual display of the drone 100 in flight, and in such cases, audible status communication is effective. A warning light 521 is a display means such as a strobe light that indicates the state of the drone (especially an error state). These input/output means may be selected, duplicated or multiplexed according to the drone's cost targets and performance requirements.

●収穫量予測システムの概要
図10に示すように、収穫量予測システム500は、主にドローン100および収穫量予測装置300により構成される。ドローン100および収穫量予測装置300は無線又は有線により接続され、情報を送受信可能になっていて、ネットワークを通じて接続されていてもよい。なお、収穫量予測装置300の構成がドローン100に組み込まれていてもよい。
●Overview of Harvest Volume Prediction System As shown in FIG. The drone 100 and the yield prediction device 300 may be wirelessly or wiredly connected, capable of transmitting and receiving information, and connected via a network. Note that the configuration of the yield prediction device 300 may be incorporated in the drone 100. FIG.

●ドローン100の構成
ドローン100は、飛行制御部21、撮影部22、強風検知部23、再撮影部24を有する。
●Configuration of drone 100 The drone 100 has a flight control unit 21, an imaging unit 22, a strong wind detection unit 23, and a re-imaging unit .

飛行制御部21は、ドローン100が有するモータ102を稼働させ、ドローン100の飛行および離着陸を制御する機能部である。飛行制御部21は、例えばフライトコントローラー501の機能によって実現される。 The flight control unit 21 is a functional unit that operates the motor 102 of the drone 100 and controls flight, takeoff and landing of the drone 100 . The flight control unit 21 is implemented by the functions of the flight controller 501, for example.

撮影部22は、生育する作物の画像を取得する機能部であり、例えばマルチスペクトルカメラ512等のカメラにより実現される。撮影部22は、特に作物の生育状況を分析できる画像を取得する。撮影部22は、圃場403に対して特定の波長の光線を照射する照射部をさらに備え、当該光線の圃場403からの反射光を受光可能になっていてもよい。特定の波長の光線は、例えば赤色光(波長約650nm)と近赤外光(波長約774nm)であってもよい。当該光線の反射光を分析することで、作物の窒素吸収量を推定し、ひいては作物の生育状況を分析することができる。 The imaging unit 22 is a functional unit that acquires images of growing crops, and is realized by a camera such as the multispectral camera 512, for example. The photographing unit 22 acquires an image that can be used to analyze the growing conditions of crops. The photographing unit 22 may further include an irradiating unit that irradiates the field 403 with a light beam of a specific wavelength, and may be capable of receiving reflected light of the light beam from the farm field 403 . Light rays of specific wavelengths may be, for example, red light (wavelength about 650 nm) and near-infrared light (wavelength about 774 nm). By analyzing the reflected light of the light beam, it is possible to estimate the amount of nitrogen absorbed by the crop, and thus to analyze the growth state of the crop.

また、撮影部22は、作物の形状を分析可能な画像を取得することができる。 In addition, the photographing unit 22 can acquire an image from which the shape of the crop can be analyzed.

強風検知部23は、作物に吹き付ける所定の条件を満たす風を検知する機能部である。一時的な強い風により、作物が風で倒伏すると、以前の診断との比較が困難になったり、倒伏方向によっては診断精度が低下したりする。そこで、強風検知部23は、計画通りの撮影ができない風を検知して、当該検知地点を記憶する。 The strong wind detection unit 23 is a functional unit that detects wind that blows against crops and that satisfies a predetermined condition. When crops are lodged by the wind due to temporary strong winds, it becomes difficult to compare with previous diagnoses, and the accuracy of diagnosis decreases depending on the direction of lodging. Therefore, the strong wind detection unit 23 detects a wind that prevents shooting as planned, and stores the detection point.

強風検知部23は、風速測定部231、風向測定部232、強風判定部233および検知地点記憶部234を備える。 The strong wind detection unit 23 includes a wind speed measurement unit 231 , a wind direction measurement unit 232 , a strong wind determination unit 233 and a detection point storage unit 234 .

風速測定部231は、ドローン100およびその周辺に吹く風の風速を測定する機能部である。風速測定部231は、測定される風速を時間と共に記録してもよい。 The wind speed measurement unit 231 is a functional unit that measures the wind speed of the wind that blows around the drone 100 . The wind speed measurement unit 231 may record the measured wind speed along with time.

風速測定部231は、例えば接触検知機により風によって発生する応力を測定することで風速を算出する測定部である。また、風速測定部231は、風杯型、風車型などの風速計を有していてもよい。風速測定部231は、風速を直接検知する別途のセンサを有していてもよい。風速測定部231は、現在の姿勢角と無風状態の姿勢角との差に基づいて風速を算出してもよい。 The wind speed measurement unit 231 is a measurement unit that calculates the wind speed by measuring the stress generated by the wind using, for example, a contact detector. Further, the anemometer 231 may have an anemometer such as a cup type or windmill type. The wind speed measurement unit 231 may have a separate sensor that directly detects the wind speed. The wind speed measuring unit 231 may calculate the wind speed based on the difference between the current attitude angle and the attitude angle in the windless state.

風速測定部231は、ドローン100に吹きつける全方向からの風の風速を測定可能に構成されている。また、風速測定部231は、特に、ドローン100の通常飛行状態における前後方向および左右方向の風速を測定可能に構成されていてもよい。 The wind speed measurement unit 231 is configured to be able to measure wind speeds of wind blowing against the drone 100 from all directions. In addition, the wind speed measurement unit 231 may be configured to be able to measure the wind speed in the front-rear direction and the left-right direction, particularly in the normal flight state of the drone 100 .

風速測定部231は、対気速度から対地速度を差し引くことにより、ドローン100に吹き付ける進行方向の風速を求めてもよい。対地速度は、地面に対して実際に実現されるドローン100の速度である。対気速度は、ドローン100の推進器が所定の対地速度を実現するために、風の影響を加味して発揮する稼働力を、無風状態における速度に変換したときの速度である。ドローン100の進行方向に直交する方向の対気速度は0であるから、対地速度を求めることで進行方向に直交する風の風速を求めることができる。風速測定部231は、対地速度および対気速度を、方向を加味してベクトルとして計算することにより、ドローン100に吹き付ける風の方向を求めることができる。 The wind speed measurement unit 231 may obtain the wind speed in the traveling direction that blows against the drone 100 by subtracting the ground speed from the air speed. Ground speed is the actual realized speed of the drone 100 relative to the ground. The airspeed is the speed when the operating force exerted by the propulsion device of the drone 100 in consideration of the effect of the wind is converted into the speed in a no-wind condition in order to achieve a predetermined ground speed. Since the airspeed in the direction perpendicular to the direction of travel of the drone 100 is 0, the wind speed perpendicular to the direction of travel can be obtained by obtaining the ground speed. The wind speed measurement unit 231 can determine the direction of the wind blowing against the drone 100 by calculating the ground speed and the air speed as a vector with the direction taken into account.

風速測定部231は、重量推定部231-1と、対地速度を算出する対地速度算出部231-2と、対気速度を算出する対気速度算出部231-3と、を備える。 The wind speed measurement unit 231 includes a weight estimation unit 231-1, a ground speed calculation unit 231-2 that calculates the ground speed, and an air speed calculation unit 231-3 that calculates the air speed.

重量推定部231-1は、ドローン100の総重量mを推定する機能部である。重量推定部231-1は、積載物の積載重量を含むドローン100の総重量mを推定してもよいし、変化し得る積載物の積載重量を推定した上で、重量が変化しない構成、例えばドローン100のフライトコントローラー501、回転翼101、モーター102その他補機の重量を加算することにより、積載物を含むドローン100の総重量mを推定してもよい。重量が変化し得る積載物は、本実施形態においては薬剤である。 The weight estimation unit 231 - 1 is a functional unit that estimates the total weight m of the drone 100 . The weight estimating unit 231-1 may estimate the total weight m of the drone 100 including the load weight of the load, or estimate the load weight of the load that can change, and then configure a configuration in which the weight does not change, such as By adding the weights of the flight controller 501, rotors 101, motors 102 and other accessories of the drone 100, the total weight m of the drone 100 including payload may be estimated. The variable weight payload is a drug in this embodiment.

重量推定部231-1は、ドローン100の高度が変化しない状態において推進器が発揮する高さ方向の推力Tに基づいて、積載物の積載重量を含むドローン100の総重量mを推定してもよい。ドローン100の推進器が発揮する高さ方向の推力Tは、ドローン100の高度が変化しない状態において、ドローン100が受ける重力加速度gと釣り合っているためである。 The weight estimating unit 231-1 estimates the total weight m of the drone 100 including the load weight of the cargo based on the thrust T in the height direction exerted by the propulsion device when the altitude of the drone 100 does not change. good. This is because the thrust T in the height direction exerted by the propulsion device of the drone 100 is balanced with the gravitational acceleration g that the drone 100 receives when the altitude of the drone 100 does not change.

重量推定部231-1は、流量センサー510によって測定される薬剤タンク104からの吐出流量を積算して薬剤吐出量を求め、当初積載された薬剤量から薬剤吐出量を減算することにより、薬剤タンク104の重量を推定してもよい。本構成によれば、ドローン100の飛行状態に関わらず薬剤タンク104の重量を推定することができる。また、重量推定部231-1は、例えば薬剤タンク104内の液面高さを推定する機能を有していてもよい。重量推定部231-1は、薬剤タンク104内に配置される液面計又は水圧センサー等を用いて重量を推定してもよい。 Weight estimator 231-1 obtains the amount of medicine ejected by integrating the discharge flow rate from medicine tank 104 measured by flow rate sensor 510, and subtracts the amount of medicine ejected from the amount of initially loaded medicine. 104 weight may be estimated. According to this configuration, the weight of the medicine tank 104 can be estimated regardless of the flight state of the drone 100 . Also, the weight estimation unit 231-1 may have a function of estimating the liquid level in the medicine tank 104, for example. The weight estimator 231-1 may estimate the weight using a liquid level gauge, a water pressure sensor, or the like placed inside the drug tank 104. FIG.

対地速度算出部231-2は、GPSモジュール504から空間の絶対速度を求めることで対地速度を算出できる。また、対地速度測定部242-1は、ドローン100が有するGPSモジュールRTK504-1,504-2により求めることができる。さらに、対地速度測定部242-2は、6軸ジャイロセンサー505により取得されるドローン100の加速度を積分することによっても求めることが可能である。すなわち、本構成によれば、ドローン100に別途の風速測定手段を搭載することなく、簡易な構成で、ドローン100に吹き付ける風の風速を求めることができる。 The ground speed calculator 231-2 can calculate the ground speed by obtaining the absolute speed in space from the GPS module 504. FIG. Also, the ground speed measurement unit 242-1 can be determined by the GPS modules RTK504-1 and 504-2 that the drone 100 has. Further, the ground speed measuring unit 242-2 can also be obtained by integrating the acceleration of the drone 100 acquired by the 6-axis gyro sensor 505. That is, according to this configuration, the wind speed of the wind blowing against the drone 100 can be obtained with a simple configuration without installing a separate wind speed measurement means on the drone 100 .

対気速度算出部231-3は、ドローン100の姿勢角θおよび重量に基づいて対気速度を求めることができる。ドローン100が地面からの高度L、姿勢角0度で飛行しているときの薬剤投下点と、姿勢角θで飛行しているときの薬剤投下点との変位量Dは、以下の式の通り求められる。
D=L×tanθ (1)
ドローン100が等速移動中又はホバリング中において、空気抵抗による抗力Fdと、対気速度vaとは、以下の式が成り立つ。
Fd=(1/2) × ρva 2 S×Cd (2)
なお、空気密度ρ、空気抵抗係数Cdである。前方投影面積等の代表面積Sは、ドローン100の大きさおよび形状に基づいてあらかじめ求められる値である。
また、姿勢角θは、抗力Fdとの間に、以下の式が成り立つ。
Fd=mg tanθ (3)
なお、mはドローン100の重量である。ドローン100が等速移動中又はホバリング中において、対気速度vaは、式(1)および(2)を解くことで、以下の式により求めることができる。

Figure 0007169022000001
(4)
gは、重力加速度である。このように、ドローン100の姿勢角θおよび重量mに基づいて、ドローン100の対気速度vaを求めることができる。The airspeed calculator 231-3 can obtain the airspeed based on the attitude angle θ and the weight of the drone 100. FIG. The displacement amount D between the drug dropping point when the drone 100 is flying at an altitude L from the ground and an attitude angle of 0 degrees and the drug dropping point when flying at an attitude angle θ is as follows: Desired.
D=L×tanθ (1)
While the drone 100 is moving at a constant speed or hovering, the following equation holds for the drag force Fd due to air resistance and the airspeed v a .
Fd=(1/2)×ρv a 2S×Cd ( 2 )
Note that the air density ρ and the air resistance coefficient Cd. The representative area S such as the front projected area is a value obtained in advance based on the size and shape of the drone 100 .
In addition, the following formula holds between the posture angle θ and the drag force Fd.
Fd=mg tanθ (3)
Note that m is the weight of the drone 100 . While the drone 100 is moving at a constant speed or hovering, the airspeed v a can be obtained by the following formula by solving the formulas (1) and (2).
Figure 0007169022000001
(4)
g is the gravitational acceleration. Thus, the airspeed v a of the drone 100 can be obtained based on the attitude angle θ and the weight m of the drone 100 .

風向測定部232は、ドローン100およびその周辺に吹く風の風向を測定する機能部である。風向測定部232は、測定される風向を時間と共に記録してもよい。 The wind direction measurement unit 232 is a functional unit that measures the wind direction of the wind blowing on the drone 100 and its surroundings. The wind direction measurement unit 232 may record the measured wind direction along with time.

強風判定部233は、風速および風向きに基づいて、強風を判定する機能部である。強風判定部233は、一時的な強い風をリアルタイムに判定してもよいし、事後的に判定してもよい。強風判定部233は、測定される風速が所定以上の風速である場合に、強風と判定する。強風判定部233は、強風を検知しないとき、通常撮影可能な状態であると判定する。強風が検知されるとき、ドローン100は飛行を中断して退避行動を取ってもよい。退避行動は、例えば発着地点406への帰還であってもよいし、その場に着陸する緊急着陸動作であってもよい。 The strong wind determination unit 233 is a functional unit that determines a strong wind based on wind speed and wind direction. The strong wind determination unit 233 may determine a temporary strong wind in real time or after the fact. The strong wind determination unit 233 determines that there is a strong wind when the measured wind speed is equal to or higher than a predetermined wind speed. The strong wind determination unit 233 determines that normal shooting is possible when strong wind is not detected. When high winds are detected, the drone 100 may suspend flight and take shelter action. The evacuation action may be, for example, a return to the departure/arrival point 406, or an emergency landing action to land on the spot.

検知地点記憶部234は、強風が検知される検知地点を記憶する機能部である。検知した地点は、例えば3次元座標により記憶される。 The detection point storage unit 234 is a functional unit that stores detection points where strong winds are detected. The detected points are stored, for example, by three-dimensional coordinates.

再撮影部24は、強風判定部233により強風が検知された地点を再飛行し、再撮影を行う機能部である。補完撮影部241の各構成は、撮影部221と同様である。補完撮影部241は、強風判定部233が強風を検知していないとき、言い換えれば通常撮影可能な状態を検知しているときに、再撮影を行う。 The re-capturing unit 24 is a functional unit that flies again to the point where the strong wind is detected by the strong wind determination unit 233 and performs re-capturing. Each configuration of the complementary photographing unit 241 is the same as that of the photographing unit 221. FIG. Complementary photographing unit 241 performs re-photographing when strong wind determination unit 233 does not detect strong wind, in other words, when normal photographing is possible.

●収穫量予測装置300の構成
収穫量予測装置300は、作物形状取得部31および収穫量予測部32を備える。
●Configuration of yield prediction device 300 The yield prediction device 300 includes a crop shape acquisition unit 31 and a yield prediction unit 32 .

作物形状取得部31は、撮影部221により取得される画像を分析して、作物の形状に関する情報を取得する機能部である。より具体的には、作物形状取得部31は、籾計数部311、作物長取得部312、および曲率取得部313を備える。 The crop shape acquisition unit 31 is a functional unit that analyzes the image acquired by the imaging unit 221 and acquires information about the shape of the crop. More specifically, the crop shape acquisition unit 31 includes a paddy counting unit 311 , a crop length acquisition unit 312 and a curvature acquisition unit 313 .

籾計数部311は、撮影部221により取得される画像に基づいて、結実している籾の数を計数する機能部である。籾計数部311は、例えば、赤色光(波長約650nm)と近赤外光(波長約774nm)の反射光の割合に基づくNDVI解析によりクロロフィルを分析することにより、籾の個数を計数する。籾計数部311は、計数される籾の個数から、当該茎に結実している実際の籾の個数に変換する計算処理を行ってもよい。 The paddy counting unit 311 is a functional unit that counts the number of fruiting paddy based on the image acquired by the imaging unit 221 . The paddy counting unit 311 counts the number of paddy by analyzing chlorophyll by, for example, NDVI analysis based on the ratio of reflected light of red light (about 650 nm wavelength) and near-infrared light (about 774 nm wavelength). The paddy counting unit 311 may perform a calculation process for converting the counted number of paddy into the actual number of paddy bearing on the stalk.

作物長取得部312は、作物の地表からの長さを取得する機能部である。作物長取得部312は、例えば画像解析により土と作物とを判別し、作物長を算出する。 The crop length acquisition unit 312 is a functional unit that acquires the length of the crop from the ground surface. The crop length acquisition unit 312 distinguishes between soil and crops by image analysis, for example, and calculates the crop length.

曲率取得部313は、作物の長さ方向の曲率を取得する機能部である。 The curvature acquisition unit 313 is a functional unit that acquires the curvature of the crop in the length direction.

なお、作物形状取得部31は、上述に加えて、茎の太さを取得し、後述する収穫量予測部32は、長さ、曲率、および茎の太さに基づいて収穫量を予測してもよい。茎の太さを取得することで、籾が結実してたわんでいる作物を判別するパターンマッチングの精度が向上し、形状に基づく収穫量予測の精度がより向上する。 In addition to the above, the crop shape acquisition unit 31 acquires the thickness of the stem, and the yield prediction unit 32, which will be described later, predicts the yield based on the length, curvature, and thickness of the stem. good too. Acquiring the thickness of the stem improves the accuracy of pattern matching for identifying crops with sagging rice, and improves the accuracy of crop yield prediction based on shape.

収穫量予測部32は、作物形状取得部31により取得される情報、すなわち長さ、曲率および籾の数に基づいて、作物からの収穫量を予測する機能部である。作物は、成長するに従い地表から上方へ伸び上がるため、作物の長さが長くなるほど、成長している蓋然性が高い。作物、特に稲は、茎の長さ方向上部に籾が結実する。そのため、籾が膨らんでいくと、籾の重さで稲茎がたわむ。また、1つの茎に結実する籾の数が多いほど、稲茎のたわみが大きくなる。したがって、稲の長さ方向の曲率を求めることで、作物から収穫される籾の量を予測することができる。例えば、収穫量予測部32は、作物の長さが長く、かつ曲率が大きいほど、収穫量が多いと予測する。この構成によれば、撮影される画像に籾が十分映っていなくても、茎の形状に基づいて籾の量を予測することができる。 The yield prediction unit 32 is a functional unit that predicts the yield from the crop based on the information acquired by the crop shape acquisition unit 31, ie, the length, curvature and number of grains. Since crops grow upward from the ground as they grow, the longer the crop, the higher the probability that it is growing. Crops, especially rice, bear seeds at the top of the stem in the lengthwise direction. Therefore, when the paddy swells, the rice stem bends under the weight of the paddy. In addition, the greater the number of rice seeds that bear fruit on one stem, the greater the deflection of the rice stem. Therefore, the amount of paddy harvested from the crop can be predicted by obtaining the curvature of the rice plant in the longitudinal direction. For example, the yield prediction unit 32 predicts that the longer the length of the crop and the greater the curvature, the greater the yield. According to this configuration, the amount of rice can be predicted based on the shape of the stalk, even if the captured image does not show enough rice.

また、長さおよび曲率のみに基づいて収穫量予測に用いるとすると、籾の重さ以外の要因で茎がたわんでいる株に関しては正確な収穫量予測が困難である。収穫量予測部32が、長さ、曲率および籾の数に基づいて収穫量を予測する構成によれば、複数の観点の指標に基づいて収穫量を予測することができるので、より正確な収穫量予測が実現できる。 Moreover, if only the length and curvature are used to predict the yield, it is difficult to accurately predict the yield for strains whose stems are bent due to factors other than the weight of the paddy. According to the configuration in which the harvest amount prediction unit 32 predicts the harvest amount based on the length, curvature, and number of grains, the harvest amount can be predicted based on indicators from a plurality of viewpoints. Quantity prediction can be realized.

なお、作物形状取得部31が、作物長、作物の長さ方向の曲率および茎の太さのいずれか1つを取得した上で、収穫量予測部32は、作物形状取得部31が取得する作物長、作物の長さ方向の曲率および茎の太さのいずれか1つに基づいて、当該作物の収穫量を予測してもよい。また、作物形状取得部31は、作物長、作物の長さ方向の曲率および茎の太さのいずれか2つを取得してもよく、より具体的には、作物長および茎の太さを取得してもよいし、茎の太さおよび曲率を取得してもよい。そして、収穫量予測部32は、作物形状取得部31により取得される作物長および茎の太さ、又は茎の太さおよび曲率に基づいて、当該作物からの収穫量を予測してもよい。 In addition, after the crop shape acquisition unit 31 acquires any one of the crop length, the curvature in the length direction of the crop, and the thickness of the stem, the yield prediction unit 32 acquires The yield of the crop may be predicted based on any one of the crop length, the curvature of the crop in the longitudinal direction, and the thickness of the stem. In addition, the crop shape acquisition unit 31 may acquire any two of the crop length, the curvature in the longitudinal direction of the crop, and the stem thickness. Alternatively, the thickness and curvature of the stem may be obtained. Then, the yield prediction unit 32 may predict the yield from the crop based on the crop length and stem thickness, or the stem thickness and curvature acquired by the crop shape acquisition unit 31 .

収穫量予測部32は、強風検知部23が当該地点において強風を検知しているか否かで、収穫量の予測結果を異ならせる。圃場403に強風が吹いていると、作物が倒伏され、無風又は弱風の状態とは異なる状態になる。したがって、収穫量予測部32は、強風が検知されている時点の予測値を補正することで、収穫量をより正確に予測することができる。より具体的には、強風時においては、作物の曲率は風により大きくなることから、収穫量予測部32は、曲率に基づいて得られる予測値を下方へ補正する。 The harvest amount prediction unit 32 makes the harvest amount prediction result different depending on whether or not the strong wind detection unit 23 detects a strong wind at the point. If there is a strong wind blowing in the field 403, the crop will be lodged and will be in a state different from the no wind or low wind conditions. Therefore, the harvest amount prediction unit 32 can more accurately predict the harvest amount by correcting the predicted value when the strong wind is detected. More specifically, when the wind is strong, the curvature of crops increases due to the wind, so the yield prediction unit 32 corrects downward the prediction value obtained based on the curvature.

また、収穫量予測部32は、強風が検知されているとき、当該地点における収穫量の予測を中止してもよい。このとき、予測を中止した旨を、操作器401等を通じて使用者402に通知してもよい。操作器401は、予測ができなかった地点を圃場403の地図上に重ね合わせて表示してもよい。収穫量の予測を中止した履歴情報は、検知地点記憶部234によりその地点の位置とともに記憶される。 Moreover, the yield prediction unit 32 may stop predicting the yield at the point when a strong wind is detected. At this time, the user 402 may be notified through the operation device 401 or the like that the prediction has been stopped. The operation device 401 may superimpose and display the unpredictable points on the map of the farm field 403 . The history information about the abortion of harvest amount prediction is stored by the detection point storage unit 234 together with the position of the point.

収穫量予測部32は、風の程度に応じて、収穫量の予測値に補正を行うか、予測を中止するかを判別してもよい。収穫量予測部32は、風の風速が、強風の閾値である第1閾値以上であって、第1閾値より大きい第2閾値未満であるときには予測値を補正し、風速が第2閾値以上であるときには予測を中止してもよい。 The harvest amount prediction unit 32 may determine whether to correct the predicted value of the harvest amount or stop the prediction, depending on the degree of the wind. The harvest amount prediction unit 32 corrects the predicted value when the wind speed is greater than or equal to a first threshold that is a strong wind threshold and less than a second threshold that is greater than the first threshold, and corrects the predicted value when the wind speed is greater than or equal to the second threshold. Prediction may be stopped at some point.

収穫量予測部32は、籾の数に基づいて予測される第2収穫量を算出し、長さおよび曲率に基づいて第2収穫量を補正してもよい。例えば、収穫量予測部32は、第2収穫量と、第2収穫量が収穫される株の長さおよび曲率の想定範囲とが互いに対応づけられるテーブルを保持している。収穫量予測部32は、第2収穫量に基づいて、想定される当該株の作物長および曲率の範囲を計算する。収穫量予測部32は、作物長取得部312により取得される作物長と、曲率取得部313により取得される曲率が、想定される作物長および曲率の範囲に含まれているか判定する。 The yield prediction unit 32 may calculate a second yield predicted based on the number of grains and correct the second yield based on the length and curvature. For example, the yield prediction unit 32 holds a table in which the second yield and the expected range of the length and curvature of the strain from which the second yield is harvested are associated with each other. The yield prediction unit 32 calculates the assumed crop length and curvature range of the strain based on the second yield. The harvest amount prediction unit 32 determines whether the crop length acquired by the crop length acquisition unit 312 and the curvature acquired by the curvature acquisition unit 313 are included in the ranges of the expected crop length and curvature.

作物長および曲率の取得値が、作物長および曲率の想定範囲に含まれている場合、第2収穫量は正しく予測できていると判定され、収穫量予測部32は、第2収穫量の値を予測結果に採用する。作物長および曲率の取得値が、作物長および曲率の想定範囲に含まれていない場合、長さおよび曲率の取得値に基づいて、第2収穫量を補正する。具体的には、長さおよび曲率の取得値が、想定範囲よりも大きい場合、収穫量予測部32は、第2収穫量を上方に補正する。長さおよび曲率の取得値が、想定範囲よりも小さい場合、収穫量予測部32は、第2収穫量を下方に補正する。 If the obtained values of the crop length and curvature are included in the assumed ranges of the crop length and curvature, it is determined that the second harvest amount has been correctly predicted, and the harvest amount prediction unit 32 calculates the value of the second harvest amount is adopted as the prediction result. If the obtained crop length and curvature values are not within the expected range of crop length and curvature, the second crop is corrected based on the obtained length and curvature values. Specifically, when the obtained values of the length and curvature are larger than the assumed ranges, the yield prediction unit 32 corrects the second yield upward. If the obtained values of the length and curvature are smaller than the assumed range, the yield prediction unit 32 corrects the second yield downward.

収穫量予測部32は、長さおよび曲率に基づいて予測される第1収穫量と、籾の数に基づいて予測される第2収穫量とを算出し、第2収穫量の値に基づいて、第1収穫量を予測結果として採用するか否かを決定してもよい。例えば、第1収穫量と第2収穫量の差が所定未満であるとき、第2収穫量は正確な予測がなされていると判断し、第2収穫量を予測結果に採用する。第1収穫量と第2収穫量の差が大きいとき、第1収穫量が第2収穫量より大きい場合は、籾が他の物体の影になって映らなかったと判断し、第1収穫量を予測結果に採用する。また、第1収穫量に対して極端に第2収穫量が小さい場合は、籾の重さ以外の要因で稲がたわんでいる蓋然性が高いと判断し、第2収穫量を予測結果に採用してもよい。第2収穫量が第1収穫量より所定以上大きい場合は、第2収穫量を予測結果に採用する。第1収穫量および第2収穫量の予測結果は、それぞれ操作器401等を通じて使用者402に提供されてもよい。また、いずれの収穫量を予測結果として採用したかの情報を、地点ごとに使用者402に通知してもよい。 The harvest amount prediction unit 32 calculates a first harvest amount predicted based on the length and curvature and a second harvest amount predicted based on the number of unhulled grains, and based on the value of the second harvest amount , whether or not to adopt the first yield as the prediction result. For example, when the difference between the first harvested amount and the second harvested amount is less than a predetermined amount, it is determined that the second harvested amount has been accurately predicted, and the second harvested amount is adopted as the prediction result. When the difference between the first harvested amount and the second harvested amount is large, if the first harvested amount is larger than the second harvested amount, it is judged that the paddy was not seen because it was shadowed by other objects, and the first harvested amount is reduced. Adopted for prediction results. In addition, if the second harvest is extremely small compared to the first harvest, it is judged that there is a high probability that the rice is warped due to factors other than the weight of the paddy, and the second harvest is adopted as the prediction result. may If the second harvested amount is larger than the first harvested amount by a predetermined amount or more, the second harvested amount is adopted as the prediction result. The predicted results of the first yield and the second yield may be provided to the user 402 through the operator 401 or the like. In addition, the user 402 may be notified of information on which harvest amount was adopted as the prediction result for each point.

●ドローンが収穫量を予測するフローチャート(1)
図11に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S11)。次いで、撮影される画像に基づいて、作物の長さおよび曲率を算出する(S12)。次いで、作物の長さおよび曲率に基づいて、収穫量を予測する(S13)。
●Flowchart for drone prediction of yield (1)
As shown in FIG. 11, first, the drone 100 flies in the field 403 and photographs crops (S11). Next, the crop length and curvature are calculated based on the captured image (S12). The yield is then predicted (S13) based on the length and curvature of the crop.

●ドローンが収穫量を予測するフローチャート(2)
図12に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S21)。次いで、籾の数を計数して、第2収穫量を算出する(S22)。第2収穫量に基づいて、想定される作物長および曲率の範囲を計算する(S23)。この計算は、例えば、あらかじめ保持されている第2収穫量と作物長および曲率の想定範囲とのテーブルを参照して行う。また、画像に映り込んでいる茎の様子から、作物長および曲率を算出する(S24)。ステップS22およびS23と、ステップS24は順不同であり、同時に行われてもよい。
●Flowchart for drone prediction of yield (2)
As shown in FIG. 12, first, the drone 100 flies in the field 403 and photographs crops (S21). Next, the number of unhulled rice is counted to calculate the second yield (S22). Based on the second yield, the assumed crop length and curvature range are calculated (S23). This calculation is performed, for example, by referring to a pre-stored table of the second harvest amount and assumed crop length and curvature ranges. Also, the crop length and curvature are calculated from the state of the stem reflected in the image (S24). Steps S22 and S23 and step S24 may be performed in any order and may be performed simultaneously.

次いで、算出される作物長および曲率が、第2収穫量に基づく想定の範囲内か否か判定する(S25)。想定範囲内である場合、第2収穫量を予測結果に採用する(S26)。想定範囲内ではない場合、算出される作物長および曲率が、想定範囲より大きいか否か判定する(S27)。想定範囲より大きい場合、第2収穫量を上方に補正する(S28)。想定範囲より小さい場合、第2収穫量を下方に補正する(S29)。補正量は、一定であってもよいし、算出される作物長および曲率と想定範囲との差に応じて異なっていてもよい。 Next, it is determined whether or not the calculated crop length and curvature are within the expected range based on the second harvest (S25). If it is within the expected range, the second yield is adopted as the prediction result (S26). If not within the assumed range, it is determined whether or not the calculated crop length and curvature are greater than the assumed range (S27). If it is larger than the assumed range, the second harvest amount is corrected upward (S28). If it is smaller than the assumed range, the second harvest amount is corrected downward (S29). The correction amount may be constant, or may vary according to the difference between the calculated crop length and curvature and the assumed range.

●ドローンが収穫量を予測するフローチャート(3)
図13に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S31)。次いで、長さおよび曲率を取得して第1収穫量を算出する(S32)。籾の数を計数して第2収穫量を算出する(S33)。なお、ステップS32およびS33は順不同であり、同時に行われてもよい。第1収穫量と第2収穫量の差が所定以上か否か判定する(S34)。第1収穫量と第2収穫量の差が所定未満であるとき、第2収穫量を予測結果に採用する(S35)。第1収穫量と第2収穫量の差が所定以上である場合であって、第1収穫量が第2収穫量より大きい場合は、第1収穫量を予測結果に採用する(S37)。第2収穫量が第1収穫量より大きい場合は、第2収穫量を予測結果に採用する(S38)。
●Flowchart for drone prediction of yield (3)
As shown in FIG. 13, first, the drone 100 flies in the field 403 and photographs crops (S31). Next, the length and curvature are acquired to calculate the first yield (S32). The number of paddy is counted to calculate the second yield (S33). The order of steps S32 and S33 is random and may be performed simultaneously. It is determined whether or not the difference between the first harvested amount and the second harvested amount is equal to or greater than a predetermined value (S34). When the difference between the first harvested amount and the second harvested amount is less than the predetermined amount, the second harvested amount is adopted as the prediction result (S35). If the difference between the first harvested amount and the second harvested amount is greater than or equal to the predetermined amount and the first harvested amount is greater than the second harvested amount, the first harvested amount is adopted as the prediction result (S37). If the second harvested amount is greater than the first harvested amount, the second harvested amount is adopted as the prediction result (S38).

●強風を検知して再飛行を行うフローチャート
図14に示すように、まず、ドローン100は、圃場403を飛行し、圃場内を撮影する(S41)。圃場403の飛行中に強風を検知すると(S42)、強風の検知地点を記憶する(S43)。強風検知部23は、継続的に又は定期的に強風の有無を検知し、強風が停止を判定する(S44)。強風の停止が判定されるとき、検知地点を再飛行し、再撮影を行う(S45)。ステップS44は、圃場403内の飛行中に随時行ってもよいし、圃場403内の飛行が完了した後に行ってもよい。
Flowchart for Detecting Strong Wind and Re-flying As shown in FIG. 14, first, the drone 100 flies over the field 403 and takes an image of the field (S41). When a strong wind is detected while flying over the field 403 (S42), the strong wind detection point is stored (S43). The strong wind detection unit 23 continuously or periodically detects whether there is a strong wind, and determines whether the strong wind has stopped (S44). When it is determined that the strong wind has stopped, the aircraft flies over the detection point again and takes pictures again (S45). Step S44 may be performed at any time during the flight within the farm field 403, or may be performed after the flight within the farm field 403 is completed.

なお、本説明においては、圃場に生育する稲の収穫量予測を中心に説明したが、本システムは稲に限られず、他の作物にも適用可能である。特に、作物の長さ方向上部に結実、又は蕾がつき、当該実又は蕾の重さで茎又は幹がたわむような種々の作物に適用可能である。 In this explanation, the yield prediction of rice growing in fields has been mainly explained, but this system is not limited to rice and can be applied to other crops. In particular, the present invention can be applied to various crops in which fruits or buds are formed in the upper part of the crop in the longitudinal direction, and the weight of the fruits or buds causes the stem or trunk to bend.

●収穫時期予測システム
なお、作物長、曲率、および茎の太さの少なくともいずれかに基づいて当該作物が収穫される収穫時期を予測する収穫時期予測部を備え、撮影部211および作物形状取得部31とともに収穫時期予測システムを構成してもよい。作物長、曲率、および茎の太さなどの成長の程度を分析することで、収穫できる時期が予測できる。例えば、収穫時期予測部は、作物長、曲率、又は茎の太さと、予測される収穫時期と、が対応付けられるテーブルを参照し、収穫時期を予測してもよい。
収穫時期予測システムは、作物長および茎の太さ、茎の太さおよび曲率、作物長および曲率、のいずれかの組み合わせに基づいて収穫時期を予測してもよい。また、収穫時期予測システムは、作物長、曲率、および茎の太さに基づいて収穫時期を予測してもよい。
Harvest time prediction system A harvest time prediction unit that predicts the harvest time of the crop based on at least one of crop length, curvature, and stem thickness, and includes an imaging unit 211 and a crop shape acquisition unit. A harvest time prediction system may be configured together with 31. By analyzing the extent of growth, such as crop length, curvature, and stem thickness, it is possible to predict when the plant will be ready for harvest. For example, the harvest time prediction unit may predict the harvest time by referring to a table in which crop lengths, curvatures, or stem thicknesses are associated with predicted harvest times.
The harvest time prediction system may predict the harvest time based on any combination of crop length and stem thickness, stem thickness and curvature, and crop length and curvature. The harvest time prediction system may also predict harvest time based on crop length, curvature, and stem thickness.

また、本説明においては、農業用ドローンを例に説明したが、本発明の技術的思想はこれに限られるものではなく、陸上、水上又は水中から圃場を撮影し、分析する装置であってもよい。また、撮影部が動体に搭載されるものに限られず、移動しないものであってもよい。 In addition, in this description, an agricultural drone has been described as an example, but the technical idea of the present invention is not limited to this, and even if it is a device that photographs and analyzes a field from land, water, or water good. Also, the imaging unit is not limited to being mounted on a moving object, and may be one that does not move.

(本願発明による技術的に顕著な効果)
本発明にかかるドローンにおいては、農作物の収穫量を精度良く予測することができる。

(Technically Remarkable Effects of the Present Invention)
The drone according to the present invention can accurately predict crop yields.

Claims (21)

生育する作物の画像を取得する撮影部と、
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得部と、
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、
前記作物に吹き付ける風を検知する強風検知部と、
を備え
前記収穫量予測部は、前記強風検知部が強風を検知しているか否かで、前記収穫量の予測結果を異ならせる、
収穫量予測システム。
an imaging unit that acquires images of growing crops;
a crop shape obtaining unit that obtains a crop length of the crop and a curvature in the length direction of the crop based on the image;
a yield prediction unit that predicts a yield from the crop based on the crop length and the curvature;
a strong wind detection unit that detects the wind blowing on the crops;
with
The harvest amount prediction unit varies the harvest amount prediction result depending on whether the strong wind detection unit detects a strong wind.
Yield prediction system.
前記収穫量予測部は、前記作物長が長く、かつ前記曲率が大きいほど、前記収穫量が多いと予測する、
請求項1記載の収穫量予測システム。
The harvest amount prediction unit predicts that the longer the crop length and the larger the curvature, the larger the harvest amount.
The yield prediction system according to claim 1.
前記作物形状取得部は、前記画像に基づいて前記作物の茎の太さをさらに取得し、
前記収穫量予測部は、前記作物長、前記曲率、および前記茎の太さに基づいて前記収穫量を予測する、
請求項1又は2記載の収穫量予測システム。
The crop shape acquisition unit further acquires the thickness of the stem of the crop based on the image,
The yield prediction unit predicts the yield based on the crop length, the curvature, and the stem thickness.
The yield prediction system according to claim 1 or 2.
前記収穫量予測部は、前記強風検知部により強風が検知されている時点の予測値を、下方へ補正する、
請求項1乃至3のいずれかに記載の収穫量予測システム。
The harvest amount prediction unit downwardly corrects the predicted value at the time when the strong wind is detected by the strong wind detection unit.
A yield prediction system according to any one of claims 1 to 3 .
前記収穫量予測部は、前記強風検知部により強風が検知されているとき、当該強風が検知される地点における前記収穫量の予測を中止する、
請求項1乃至4のいずれかに記載の収穫量予測システム。
When the strong wind is detected by the strong wind detection unit, the harvest amount prediction unit stops predicting the harvest amount at a point where the strong wind is detected.
A yield prediction system according to any one of claims 1 to 4 .
前記強風が検知された履歴がある場合において、前記強風を検知しないときに、当該強風が検知される地点の前記作物の画像を再取得する再撮影部をさらに備える、
請求項乃至のいずれかに記載の収穫量予測システム。
further comprising a re-capturing unit that re-acquires an image of the crop at a point where the strong wind is detected when the strong wind is not detected when there is a history of the strong wind being detected;
A yield prediction system according to any one of claims 1 to 5 .
前記作物は前記長さ方向上部に籾が結実する稲であり、
籾の数を計数する籾計数部をさらに備え、
前記収穫量予測部は、前記作物長、前記曲率、および前記籾の数に基づいて、前記収穫量を予測する、
請求項1乃至のいずれかに記載の収穫量予測システム。
The crop is a rice plant bearing husks in the upper part in the longitudinal direction,
Further comprising a paddy counting unit for counting the number of paddy,
The harvest amount prediction unit predicts the harvest amount based on the crop length, the curvature, and the number of the grains.
A yield prediction system according to any one of claims 1 to 6 .
前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、
請求項記載の収穫量予測システム。
The harvest amount prediction unit calculates an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested from the harvest amount predicted based on the number of the paddy, and obtains the crop shape. correcting the harvest amount based on the obtained value when the obtained value of at least one of the crop length and the curvature obtained by the unit is not included in the assumed range;
The yield prediction system according to claim 7 .
生育する作物の画像を取得する撮影部と、
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得部と、
前記作物に結実する籾の数を計数する籾計数部と、
前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測部と、
を備え、
前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、
収穫量予測システム。
an imaging unit that acquires images of growing crops;
a crop shape obtaining unit that obtains a crop length of the crop and a curvature in the length direction of the crop based on the image;
a paddy counting unit that counts the number of paddies that bear fruit on the crop;
a yield prediction unit that predicts the yield from the crop based on the number of the unhulled rice;
with
The harvest amount prediction unit calculates an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested from the harvest amount predicted based on the number of the paddy, and obtains the crop shape. correcting the harvest amount based on the obtained value when the obtained value of at least one of the crop length and the curvature obtained by the unit is not included in the assumed range;
Yield prediction system.
前記作物長又は前記曲率の取得値が前記想定範囲よりも大きいとき、前記収穫量を上方に補正する、
請求項8又は9記載の収穫量予測システム。
correcting the harvest amount upward when the acquired value of the crop length or the curvature is greater than the assumed range;
The yield prediction system according to claim 8 or 9 .
前記作物長又は前記曲率の取得値が前記想定範囲よりも小さいとき、前記収穫量を下方に補正する、
請求項8乃至10のいずれかに記載の収穫量予測システム。
correcting the harvest amount downward when the acquired value of the crop length or the curvature is smaller than the assumed range;
A yield prediction system according to any one of claims 8 to 10 .
前記収穫量予測部は、前記作物長および前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定する、
請求項乃至11のいずれかに記載の収穫量予測システム。
The harvest amount prediction unit calculates a first harvest amount predicted based on the crop length and the curvature, and a second harvest amount predicted based on the number of the unhulled grains, and calculates the second harvest amount. determining whether to adopt the first yield as a prediction result based on the value;
A yield prediction system according to any one of claims 8 to 11 .
生育する作物の画像を取得する撮影部と、an imaging unit that acquires images of growing crops;
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得部と、a crop shape obtaining unit that obtains a crop length of the crop and a curvature in the length direction of the crop based on the image;
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、a yield prediction unit that predicts a yield from the crop based on the crop length and the curvature;
前記作物に結実する籾の数を計数する籾計数部と、a paddy counting unit that counts the number of paddies that bear fruit on the crop;
を備え、with
前記収穫量予測部は、前記作物長および前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定する、The harvest amount prediction unit calculates a first harvest amount predicted based on the crop length and the curvature, and a second harvest amount predicted based on the number of the unhulled grains, and calculates the second harvest amount. determining whether to adopt the first yield as a prediction result based on the value;
収穫量予測システム。Yield prediction system.
前記収穫量予測部は、前記第2収穫量が、前記第1収穫量より所定以上大きい場合、前記第2収穫量を予測結果として採用する、
請求項12又は13記載の収穫量予測システム。
When the second harvested amount is greater than the first harvested amount by a predetermined amount or more, the harvested amount prediction unit adopts the second harvested amount as a prediction result.
The yield prediction system according to claim 12 or 13 .
少なくとも前記撮影部は飛行体に搭載されている、
請求項1乃至14のいずれかに記載の収穫量予測システム。
At least the imaging unit is mounted on an aircraft,
A yield prediction system according to any one of claims 1 to 14 .
生育する作物の画像を取得するステップと、
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得ステップと、
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測するステップと、
前記作物に吹き付ける風を検知する強風検知ステップと、
を備え
前記収穫量を予測するステップでは、前記強風検知ステップで強風を検知しているか否かで、前記収穫量の予測結果を異ならせる、
収穫量予測方法。
obtaining an image of the growing crop;
a crop shape obtaining step of obtaining a crop length of the crop and a curvature in the length direction of the crop based on the image;
predicting yield from the crop based on the crop length and the curvature;
a strong wind detection step of detecting the wind blowing on the crops;
with
In the step of predicting the amount of harvest, the result of predicting the amount of harvest varies depending on whether or not strong wind is detected in the step of detecting strong wind.
Yield prediction method.
生育する作物の画像を取得する撮影ステップと、a photographing step of acquiring an image of the growing crop;
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得ステップと、a crop shape obtaining step of obtaining a crop length of the crop and a curvature in the length direction of the crop based on the image;
前記作物に結実する籾の数を計数する籾計数ステップと、a paddy counting step of counting the number of paddies that bear fruit on the crop;
前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測ステップと、a yield prediction step of predicting the yield from the crop based on the number of the paddy;
を備え、with
前記収穫量予測ステップでは、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得ステップにより取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、In the harvest amount prediction step, an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested is calculated from the harvest amount predicted based on the number of the paddy, and the crop shape is acquired. when the acquired value of at least one of the crop length and the curvature acquired in the step is not included in the assumed range, correcting the harvested amount based on the acquired value;
収穫量予測方法。Yield prediction method.
生育する作物の画像を取得する撮影ステップと、a photographing step of acquiring an image of the growing crop;
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得ステップと、a crop shape obtaining step of obtaining a crop length of the crop and a curvature in the length direction of the crop based on the image;
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測ステップと、a yield prediction step of predicting a yield from the crop based on the crop length and the curvature;
前記作物に結実する籾の数を計数する籾計数ステップと、a paddy counting step of counting the number of paddies that bear fruit on the crop;
を備え、with
前記収穫量予測ステップは、前記作物長および前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定する、The yield prediction step calculates a first yield predicted based on the crop length and the curvature, and a second yield predicted based on the number of unhulled grains, and calculates the second yield predicted based on the number of grains. determining whether to adopt the first yield as a prediction result based on the value;
収穫量予測方法。Yield prediction method.
生育する作物の画像を取得する命令と、
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する命令と、
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する命令と、
前記作物に吹き付ける風を検知する強風検知命令と、
をコンピュータに実行させ
前記収穫量を予測する命令では、前記強風検知命令により強風を検知しているか否かで、前記収穫量の予測結果を異ならせる、
収穫量予測プログラム。
an instruction to obtain an image of a growing crop;
obtaining a crop length of the crop and a curvature along the length of the crop based on the image;
instructions for predicting yield from said crop based on said crop length and said curvature;
a strong wind detection command for detecting the wind blowing on the crops;
on the computer, and
In the command for predicting the harvest amount, the result of predicting the harvest amount differs depending on whether or not the strong wind is detected by the strong wind detection instruction.
Yield forecasting program.
生育する作物の画像を取得する撮影命令と、a photographing command for acquiring an image of the growing crop;
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得命令と、a crop shape acquisition command for acquiring a crop length of the crop and a curvature in the length direction of the crop based on the image;
前記作物に結実する籾の数を計数する籾計数命令と、a paddy counting instruction for counting the number of paddies that bear fruit on the crop;
前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測命令と、a yield prediction instruction for predicting a yield from the crop based on the number of the paddy;
をコンピュータに実行させ、on the computer, and
前記収穫量予測命令では、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得命令により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、In the harvest amount prediction command, an assumed range of at least one of the crop length and the curvature in which the harvest amount is harvested is calculated from the harvest amount predicted based on the number of the paddy, and the crop shape acquisition is performed. correcting the harvest amount based on the obtained value when the obtained value of at least one of the crop length and the curvature obtained by the command is not included in the assumed range;
収穫量予測プログラム。Yield forecasting program.
生育する作物の画像を取得する撮影命令と、a photographing command for acquiring an image of the growing crop;
前記画像に基づいて前記作物の作物長および前記作物の長さ方向における曲率を取得する作物形状取得命令と、a crop shape acquisition command for acquiring a crop length of the crop and a curvature in the length direction of the crop based on the image;
前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測命令と、a yield prediction instruction for predicting a yield from the crop based on the crop length and the curvature;
前記作物に結実する籾の数を計数する籾計数命令と、a paddy counting instruction for counting the number of paddies that bear fruit on the crop;
をコンピュータに実行させ、on the computer, and
前記収穫量予測命令は、前記作物長および前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定する、The yield prediction instruction calculates a first yield predicted based on the crop length and the curvature, and a second yield predicted based on the number of the unhulled grains. determining whether to adopt the first yield as a prediction result based on the value;
収穫量予測プログラム。Yield forecasting program.
JP2021507304A 2019-03-18 2020-03-13 Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system Active JP7169022B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019049395 2019-03-18
JP2019049395 2019-03-18
PCT/JP2020/011086 WO2020189553A1 (en) 2019-03-18 2020-03-13 Harvest amount prediction system, harvest amount prediction method, harvest amount prediction program, and harvest period prediction system

Publications (2)

Publication Number Publication Date
JPWO2020189553A1 JPWO2020189553A1 (en) 2020-09-24
JP7169022B2 true JP7169022B2 (en) 2022-11-10

Family

ID=72519320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021507304A Active JP7169022B2 (en) 2019-03-18 2020-03-13 Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system

Country Status (2)

Country Link
JP (1) JP7169022B2 (en)
WO (1) WO2020189553A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045286A (en) 2009-08-27 2011-03-10 Institute Of National Colleges Of Technology Japan Device and method for controlling growth of plant
JP2011167163A (en) 2010-02-22 2011-09-01 Pasuko:Kk Method of generating paddy rice crop yield forecasting model, and method of forecasting crop yield of paddy rice
JP2012055207A (en) 2010-09-07 2012-03-22 Nikon Corp System and plant for cultivating plant, harvesting device, and method for cultivating plant
JP2012191903A (en) 2011-03-17 2012-10-11 Nikon Corp Plant sorting device, robot, plant cultivation system, plant sorting method, and program
JP2012198688A (en) 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
CN102778212A (en) 2012-08-02 2012-11-14 浙江大学 Method and device for utilizing digital camera to obtain rice canopy leaf area index
CN107092891A (en) 2017-04-25 2017-08-25 无锡中科智能农业发展有限责任公司 A kind of paddy rice yield estimation system and method based on machine vision technique

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045286A (en) 2009-08-27 2011-03-10 Institute Of National Colleges Of Technology Japan Device and method for controlling growth of plant
JP2011167163A (en) 2010-02-22 2011-09-01 Pasuko:Kk Method of generating paddy rice crop yield forecasting model, and method of forecasting crop yield of paddy rice
JP2012055207A (en) 2010-09-07 2012-03-22 Nikon Corp System and plant for cultivating plant, harvesting device, and method for cultivating plant
JP2012191903A (en) 2011-03-17 2012-10-11 Nikon Corp Plant sorting device, robot, plant cultivation system, plant sorting method, and program
JP2012198688A (en) 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
CN102778212A (en) 2012-08-02 2012-11-14 浙江大学 Method and device for utilizing digital camera to obtain rice canopy leaf area index
CN107092891A (en) 2017-04-25 2017-08-25 无锡中科智能农业发展有限责任公司 A kind of paddy rice yield estimation system and method based on machine vision technique

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平井康丸 ほか,稲稈の収穫時初期姿勢に関する力学的考察,農業機械学会誌,2003年04月01日,第65巻,Supplement号,p. 285-286,ISSN 1884-6025

Also Published As

Publication number Publication date
JPWO2020189553A1 (en) 2020-09-24
WO2020189553A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6752481B2 (en) Drones, how to control them, and programs
JP6762629B2 (en) Field crop photography method and drone for photography
JP6733948B2 (en) Drone, its control method, and control program
JP7176785B2 (en) Drone, drone control method, and drone control program
JP6733949B2 (en) Unmanned multi-copter for drug spraying, and control method and control program therefor
JP7353630B2 (en) Drone control system, drone control method, and drone
JP6913979B2 (en) Drone
JP6982908B2 (en) Driving route generator, driving route generation method, and driving route generation program, and drone
JP7270265B2 (en) Driving route generation device, driving route generation method, driving route generation program, and drone
JP7359464B2 (en) Crop growing system
JP6973829B2 (en) Field photography camera
JP6887142B2 (en) Field image analysis method
JP2022084735A (en) Drone, drone control method, and drone control program
JP7169022B2 (en) Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system
WO2021224970A1 (en) Positioning system, mobile body, speed estimating system, positioning method, and speed estimating method
WO2021255885A1 (en) Spraying system, spraying method, and drone
WO2021152741A1 (en) Crop-growing system
JP7411259B2 (en) Plant pathology diagnosis system, plant pathology diagnosis method, plant pathology diagnosis device, and drone
JP7011233B2 (en) Spraying system and spraying management device
JP7387195B2 (en) Field management system, field management method and drone
JP6996791B2 (en) Drones, drone control methods, and drone control programs
JP6806403B2 (en) Drones, drone control methods, and drone control programs
JP7075127B2 (en) Field analysis method, field analysis program, field analysis device, drone system and drone
WO2021205501A1 (en) Resurvey necessity determination device, survey system, drone system, and resurvey necessity determination method
WO2021199243A1 (en) Positioning system, drone, surveying machine, and positioning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7169022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150