JPWO2020040063A1 - Field crop photography method and photography drone - Google Patents

Field crop photography method and photography drone Download PDF

Info

Publication number
JPWO2020040063A1
JPWO2020040063A1 JP2019570163A JP2019570163A JPWO2020040063A1 JP WO2020040063 A1 JPWO2020040063 A1 JP WO2020040063A1 JP 2019570163 A JP2019570163 A JP 2019570163A JP 2019570163 A JP2019570163 A JP 2019570163A JP WO2020040063 A1 JPWO2020040063 A1 JP WO2020040063A1
Authority
JP
Japan
Prior art keywords
crop
altitude
flight mode
drone
exposure range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019570163A
Other languages
Japanese (ja)
Other versions
JP6762629B2 (en
Inventor
千大 和氣
千大 和氣
洋 柳下
洋 柳下
西片 丈晴
丈晴 西片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nileworks Inc
Original Assignee
Nileworks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nileworks Inc filed Critical Nileworks Inc
Publication of JPWO2020040063A1 publication Critical patent/JPWO2020040063A1/en
Application granted granted Critical
Publication of JP6762629B2 publication Critical patent/JP6762629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • B64U30/24Coaxial rotors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • B64U30/29Constructional aspects of rotors or rotor supports; Arrangements thereof
    • B64U30/299Rotor guards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors

Abstract

【課題】圃場の作物の株元、葉の側面、および、穂先を適切に撮影できるドローン(無人飛行体)を提供する。【解決策】ドローンの進行方向に向かって後方に向けられたカメラをドローン下部に設置し、ドローンの回転翼の下降気流によって一時的に倒された作物を撮影することで、株元、側面、および、穂先を適切に撮影可能とする高度と速度の撮影モードを備え、各モードの切り替えを可能とする。求める部位が撮影可能なように、カメラの方向、および、機体の飛行速度・高度を調整可能としてもよい。また、倒された作物の葉の曲率等に基づいて自動的に撮影モードの切り替えを可能にしてもよい。【選択図】図6PROBLEM TO BE SOLVED: To provide a drone (unmanned aerial vehicle) capable of appropriately photographing the root of a crop in a field, the side surface of a leaf, and the tip of an ear. SOLUTION: A camera pointed backward in the direction of travel of the drone is installed at the lower part of the drone, and a crop temporarily knocked down by the downdraft of the rotary blade of the drone is photographed. In addition, it is equipped with an altitude and speed shooting mode that enables appropriate shooting of the tip of the ear, and each mode can be switched. The direction of the camera and the flight speed / altitude of the aircraft may be adjustable so that the desired part can be photographed. In addition, the shooting mode may be automatically switched based on the curvature of the leaves of the fallen crop. [Selection diagram] Fig. 6

Description

本願発明は、画像解析による圃場の作物生育状況把握のための作物の撮影方法、および、その撮影に適した無人飛行体(ドローン)に関する。 The present invention relates to a crop photographing method for grasping a crop growth situation in a field by image analysis, and an unmanned air vehicle (drone) suitable for the photographing.

作物の生育状況を把握するためにドローン(無人飛行体、マルチコプター)等によって上空から圃場を撮影し、撮影した画像を解析する手法が知られている(たとえば、特許文献1)。圃場上を飛行するドローンを使用することで、衛星写真等を使用した場合と比較して精度が高い画像情報が得られるが、それでも正確な分析のために十分な情報が得られないという課題があった。 A method is known in which a field is photographed from the sky by a drone (unmanned air vehicle, multicopter) or the like and the photographed image is analyzed in order to grasp the growth situation of a crop (for example, Patent Document 1). By using a drone that flies over the field, it is possible to obtain more accurate image information than when using satellite images, etc., but there is still the problem that sufficient information cannot be obtained for accurate analysis. there were.

たとえば、ウンカ等の作物の害虫は株元部分に発生することが多いが、上空からの撮影では株元部分を適切に撮影することは困難であった。同様に、株元に発生する病斑、および、水面に発生している雑草の撮影も困難であった。また、特に稲の場合には、風を受けた時の葉の形状の画像が得られればケイ素の蓄積量を把握でき、それに基づいて稲の育成度を推定し、肥料計画を最適化することが可能だが、上空からの撮影ではそれを適切に把握することが困難であった。 For example, insect pests of crops such as planthoppers often occur in the root portion of the plant, but it was difficult to properly photograph the root portion of the plant from above. Similarly, it was difficult to photograph lesions occurring on the root and weeds occurring on the water surface. In addition, especially for rice, if the image of the leaf shape when it receives wind can be obtained, the amount of silicon accumulated can be grasped, and the growth rate of rice can be estimated based on this to optimize the fertilizer plan. It is possible, but it was difficult to grasp it properly when shooting from above.

特許公開公報 特開2003−9664Japanese Patent Laid-Open Publication No. 2003-9664

圃場の作物の株元、穂先、および、葉の側面を適切に撮影できるドローン(無人飛行体)を提供する。 (EN) A drone (unmanned aerial vehicle) that can appropriately capture the origin, tip, and side of leaves of a crop in a field.

本願発明は、カメラと回転翼と飛行制御手段とを備えた圃場撮影用の無人飛行体であって、前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元を前記カメラが撮影可能な高度と速度で、前記飛行制御手段が前記無人飛行体を飛行させる第一の飛行モードと、前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の穂先を前記カメラが撮影可能な高度と速度で、前記飛行制御手段が前記無人飛行体を飛行させる第二の飛行モードとを備える無人飛行体を提供することで上記課題を解決する。 The present invention is an unmanned aerial vehicle for field photography, which includes a camera, a rotary wing, and flight control means, and shows the crop stock exposed by the downdraft generated by the rotary wing causing the crop to fall. A first flight mode in which the flight control unit flies the unmanned aerial vehicle at an altitude and a speed that can be captured by the camera, and the crop exposed by the descending airflow generated by the rotor blades. The above problem is solved by providing an unmanned aerial vehicle having a second flight mode in which the flight control means flies the unmanned aerial vehicle at an altitude and speed at which the camera can capture the tip of the ear.

また、本願発明は、前記第二の飛行モードにおける高度は前記第一の飛行モードにおける高度よりも高い段落0006に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention solves the above problem by providing an unmanned aerial vehicle according to paragraph 0006, in which the altitude in the second flight mode is higher than the altitude in the first flight mode.

また、本願発明は、前記第二の飛行モードにおける高度が前記第一の飛行モードにおける高度と同一であり、前記第二の飛行モードにおける速度が前記第一の飛行モードにおける速度より速い、段落0006に記載の無人飛行体を提供することで上記課題を解決する。 Also, in the present invention, the altitude in the second flight mode is the same as the altitude in the first flight mode, and the speed in the second flight mode is higher than the speed in the first flight mode. The above problem is solved by providing an unmanned aerial vehicle according to item 1.

また、本願発明は、さらに、前記作物の前記下降気流による露出範囲測定手段を備え、前記露出範囲測定手段が測定した前記作物の露出範囲に応じて、前記飛行制御手段が前記第一の飛行モードと前記第二の飛行モードとの切り替えを行なう段落0006、段落0007、または、段落0008に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention further comprises an exposure range measuring means for the crop due to the descending air flow, and the flight control means uses the first flight mode according to the exposure range of the crop measured by the exposure range measuring means. The above problem is solved by providing an unmanned aerial vehicle according to paragraph 0006, paragraph 0007, or paragraph 0008 for switching between the second flight mode and the second flight mode.

また、本願発明は、前記露出範囲測定手段は倒された作物の葉の曲率を測定することで、作物の露出範囲を測定する段落0009に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention solves the above problems by providing the unmanned air vehicle according to paragraph 0009, in which the exposure range measuring unit measures the exposure range of the crop by measuring the curvature of the leaves of the crop that has been laid down. To do.

また、本願発明は、前記露出範囲測定手段は、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定する段落0009に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention provides the unmanned air vehicle according to paragraph 0009, wherein the exposure range measuring means measures the exposure range of the crop by hue, lightness, or saturation of the image of the crop that has been fallen down. Solve the problem.

また、本願発明は、さらに、第三の飛行モードを備え、前記第三の飛行モードにおける下降気流は前記第二の飛行モードにおける下降気流よりも弱く、前記カメラが撮影を行なっていない時には、前記飛行制御手段が自動的に前記第三の飛行モードへの切り替えを行なう段落0006、段落0007、段落0008、段落0009、段落0010、または、段落0011に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention further comprises a third flight mode, wherein the downdraft in the third flight mode is weaker than the downdraft in the second flight mode, and when the camera is not taking a picture, The above problem is solved by providing an unmanned air vehicle according to paragraph 0006, paragraph 0007, paragraph 0008, paragraph 0009, paragraph 0010, or paragraph 0011, in which flight control means automatically switches to the third flight mode. To solve.

また、本願発明は、前記第三の飛行モードにおける高度は前記第二の飛行モードにおける高度よりも高い段落0012に記載の無人飛行体を提供することで上記課題を解決する。 Further, the present invention solves the above problem by providing an unmanned aerial vehicle according to paragraph 0012, in which the altitude in the third flight mode is higher than the altitude in the second flight mode.

また、本願発明は、前記第三の飛行モードにおける高度が前記第二の飛行モードにおける高度と同一であり、前記第三の飛行モードにおける速度が前記第二の飛行モードにおける速度より速い、段落0012に記載の無人飛行体を提供することで上記課題を解決する。 Further, in the present invention, the altitude in the third flight mode is the same as the altitude in the second flight mode, and the speed in the third flight mode is higher than the speed in the second flight mode. The above problem is solved by providing an unmanned aerial vehicle according to item 1.

また、本願発明は、圃場の作物の株元、葉の側面、または穂先の撮影方法であって、カメラと回転翼とを備えた圃場撮影用の無人飛行体を使用し、前記カメラに前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元、葉の側面、または穂先を撮影させるステップを含む方法を提供することで上記課題を解決する。 Further, the present invention is a method of photographing a plant origin, a side surface of a leaf, or a tip of a crop in a field, using an unmanned air vehicle for field photography, which includes a camera and a rotary wing, and uses the camera for the rotation. The problem is solved by providing a method that includes a step of photographing a plant base, a side surface of a leaf, or a tip of the crop exposed when the crop is laid down by a downdraft generated by a wing.

また、本願発明は、さらに、作物の露出範囲を測定するステップと、前記測定された露出範囲に応じて、機体の高度または速度を調整するステップとを含む段落0015に記載の方法を提供することで上記課題を解決する。 Further, the present invention provides the method according to paragraph 0015, further comprising the steps of measuring the exposure range of the crop and adjusting the altitude or speed of the airframe according to the measured exposure range. Solves the above problem.

また、本願発明は、前記作物の露出範囲を測定するステップは、倒された作物の葉の曲率を測定するステップを含む段落0016に記載の方法を提供することで上記課題を解決する。 Further, the present invention solves the above-mentioned problems by providing the method according to paragraph 0016, wherein the step of measuring the exposure range of the crop includes the step of measuring the curvature of the leaves of the crop that has fallen.

また、本願発明は、前記作物の露出範囲を測定するステップは、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定するステップを含む段落0016に記載の方法を提供することで上記課題を解決する。 Further, the present invention provides the method according to paragraph 0016, wherein the step of measuring the exposure range of the crop includes the step of measuring the exposure range of the crop by the hue, lightness, or saturation of the image of the crop that has been collapsed. The above problems can be solved by providing them.

また、本願発明は、カメラと回転翼とを備えた圃場撮影用の無人飛行体に圃場の作物の株元、葉の側面、または穂を撮影させるプログラムであって、前記カメラに前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元、葉の側面、または穂先を撮影させる命令群をコンピューターに実行させるプログラムを提供することで上記課題を解決する。 Further, the present invention is a program for causing an unmanned aerial vehicle for field photography equipped with a camera and a rotor to photograph a crop plant in the field, side surfaces of leaves, or ears, and the camera includes the rotor. The above problem is solved by providing a program that causes a computer to execute a group of instructions for photographing a plant origin, a side surface of a leaf, or a tip of a crop exposed when the crop is laid down by the generated downdraft.

また、本願発明は、さらに、作物の露出範囲を測定する命令群と、前記測定された露出範囲に応じて機体の高度または速度を調整する命令群とをコンピューターに実行させる段落0019に記載のプログラムを提供することで上記課題を解決する。 Further, the present invention is a program according to paragraph 0019, which further causes a computer to execute an instruction group for measuring an exposure range of a crop and an instruction group for adjusting an altitude or a speed of an airframe according to the measured exposure range. The above problem is solved by providing

また、本願発明は、前記作物の露出範囲を測定する命令群は、倒された作物の葉の曲率を測定する命令群を含む段落0020に記載のプログラムを提供することで上記課題を解決する。 Further, the present invention solves the above problem by providing the program according to paragraph 0020, in which the command group for measuring the exposure range of the crop includes a command group for measuring the curvature of the leaves of the crop that has fallen.

また、本願発明は、前記作物の露出範囲を測定する命令群は、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定する命令群を含む段落0020に記載のプログラムを提供することで上記課題を解決する。 In the present invention, the instruction group for measuring the exposure range of the crop is described in paragraph 0020, which includes a group of instructions for measuring the crop exposure range according to hue, lightness, or saturation of an image of a crop that has been knocked down. The above problems are solved by providing a program.

圃場の作物の株元、穂先、および、葉の側面を適切に撮影できるドローン(無人飛行体)が提供される。 Provided is a drone (unmanned aerial vehicle) capable of appropriately photographing the plant origin, the tip of a crop, and the side surface of leaves in a field.

本願発明に係る圃場撮影用ドローンの実施例の平面図である。It is a top view of the Example of the drone for field photography which concerns on this invention. 本願発明に係る圃場撮影用ドローンの実施例の正面図である。It is a front view of the Example of the drone for field photography which concerns on this invention. 本願発明に係る圃場撮影用ドローンの実施例の右側面図、背面図、および、斜視図である。It is a right side view, a rear view, and a perspective view of an example of a field photography drone concerning the present invention. 本願発明に係る圃場撮影用ドローンの実施例を使用した圃場撮影システムの全体概念図の例である。1 is an example of an overall conceptual view of a field photography system using an embodiment of a field photography drone according to the present invention. 本願発明に係る圃場撮影用ドローンの実施例の制御機能を表した模式図である。It is a schematic diagram showing the control function of the Example of the drone for field photography which concerns on this invention. 本願発明に係る圃場撮影用ドローンの実施例による撮影モードの基本的考え方を示す図である。It is a figure which shows the basic idea of the photography mode by the Example of the drone for farmland photography which concerns on this invention. 本願発明に係る圃場撮影用ドローンの実施例による作物の株元部分撮影における高度制御の基本的考え方を示す図である。It is a figure which shows the basic idea of the altitude control in the plant root partial photography by the Example of the drone for farmland photography which concerns on this invention. 本願発明に係る圃場撮影用ドローンの実施例の方向転換時における制御の基本的考え方を示す図である。It is a figure which shows the basic way of thinking of control at the time of a direction change of the Example of the drone for field photography which concerns on this invention.

以下、図を参照しながら、本願発明を実施するための形態について説明する。図はすべて例示である。 Hereinafter, modes for carrying out the present invention will be described with reference to the drawings. The figures are all examples.

図1に本願発明に係るドローン(100)の実施例の平面図を、図2にその底面図を、図3−aにその(進行方向側から見た)正面図、図3−bにその右側面図、図3−cに斜視図を示す。なお、本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、自律飛行型であるか手動操縦型であるか等)を問わず、複数の回転翼または飛行手段を有する飛行体全般を指すものとする。 FIG. 1 is a plan view of an embodiment of a drone (100) according to the present invention, FIG. 2 is a bottom view thereof, FIG. 3-a is a front view thereof (as seen from the traveling direction side), and FIG. A right side view and a perspective view are shown in FIG. In the specification of the present application, the drone means any power means (electric power, prime mover, etc.) and control method (whether wireless or wired, autonomous flight type or manual control type, etc.). Instead, it refers to an entire flying body having a plurality of rotors or flight means.

回転翼(101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b)(ローターとも呼ばれる)は、ドローン(100)を飛行させるための手段であり、飛行の安定性、機体サイズ、および、バッテリー消費量のバランスを考慮し、8機(2段構成の回転翼が4セット)備えられていることが望ましい。 Rotors (101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b, 101-4a, 101-4b) (also called rotors) are used to fly the drone (100). Considering the balance of flight stability, airframe size, and battery consumption, it is desirable to have 8 aircraft (4 sets of two-stage rotary blades).

モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、102-4a、102-4b)は、回転翼(101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b)を回転させる手段(典型的には電動機だが発動機等であってもよい)であり、一つの回転翼に対して1機設けられていることが望ましい。1セット内の上下の回転翼(たとえば、101-1aと101-1b)、および、それらに対応するモーター(たとえば、102-1aと102-1b)は、ドローンの飛行の安定性等のために軸が同一直線上にあり、かつ、互いに反対方向に回転することが望ましい。 The motors (102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 102-4a, 102-4b) are rotary blades (101-1a, 101-1b, 101-2a). , 101-2b, 101-3a, 101-3b, 101-4a, 101-4b) is a means for rotating (typically an electric motor, but may be an engine, etc.) It is desirable to have one. The upper and lower rotor blades (eg 101-1a and 101-1b) and their corresponding motors (eg 102-1a and 102-1b) in one set are for drone flight stability etc. It is desirable that the axes be collinear and rotate in opposite directions.

薬剤ノズル(103-1、103-2、103-3、103-4)は、薬剤を下方に向けて散布するための手段であり4機備えられていることが望ましい。薬剤タンク(104)は散布される薬剤を保管するためのタンクであり、重量バランスの観点からドローン(100)の重心に近い位置でかつ重心より低い位置に設けられていることが望ましい。薬剤ホース(105-1、105-2、105-3、105-4)は、薬剤タンク(104)と各薬剤ノズル(103-1、103-2、103-3、103-4)とを接続する手段であり、硬質の素材から成り、当該薬剤ノズルを支持する役割を兼ねていてもよい。ポンプ(106)は、薬剤をノズルから吐出するための手段である。 The drug nozzles (103-1, 103-2, 103-3, 103-4) are means for spraying the drug downward, and are preferably provided with four machines. The chemical|medical agent tank (104) is a tank for storing the chemical|medical agent sprayed, and it is desirable to be provided in the position close|similar to the gravity center of a drone (100), and a position lower than a gravity center from a viewpoint of a weight balance. The drug hose (105-1, 105-2, 105-3, 105-4) connects the drug tank (104) with each drug nozzle (103-1, 103-2, 103-3, 103-4). It may be made of a hard material and may also serve to support the medicine nozzle. The pump (106) is a means for discharging the medicine from the nozzle.

圃場撮影カメラ(107)は、ドローン(100)から圃場(農地)を撮影するためのカメラであり、機体の進行方向に対して後方にある圃場を撮影する向きに設置されていることが望ましい。また、圃場撮影カメラ(107)と機体の角度はステッピングモーター等の手段により可変となっていることが望ましい。 The farm field photographing camera (107) is a camera for photographing the farm field (farmland) from the drone (100), and is preferably installed in a direction for photographing the farm field behind the traveling direction of the machine body. Further, it is desirable that the angle between the field photographing camera (107) and the machine body be variable by means of a stepping motor or the like.

図4に本願発明に係るドローン(100)を使用した圃場撮影用システムの実施例の全体概念図を示す。本図は模式図であって、縮尺は正確ではない。操縦器(401)は、使用者(402)の操作によりドローン(100)に指令を送信し、また、ドローン(100)から受信した情報(たとえば、位置、薬剤量、電池残量、圃場撮影カメラ映像等)を表示するための手段であり、コンピューター・プログラムを稼働する一般的なタブレット端末等の携帯情報機器によって実現されてよい。本願発明に係るドローン(100)は自律飛行を行なうよう制御されることが望ましいが、離陸や帰還などの基本操作時、および、緊急時にはマニュアル操作が行なえるようになっていることが望ましい。操縦器(401)とドローン(100)はWi-Fi等による無線通信を行なうことが望ましい。 FIG. 4 shows an overall conceptual diagram of an embodiment of a field photography system using the drone (100) according to the present invention. This figure is a schematic diagram and the scale is not accurate. The pilot (401) sends a command to the drone (100) by the operation of the user (402), and also receives information (for example, position, drug amount, remaining battery level, field photography camera) received from the drone (100). It is a means for displaying images and the like, and may be realized by a portable information device such as a general tablet terminal that runs a computer program. It is desirable that the drone (100) according to the present invention be controlled to perform autonomous flight, but it is desirable that it can be manually operated during basic operations such as takeoff and return, and in an emergency. It is desirable that the pilot (401) and the drone (100) perform wireless communication by Wi-Fi or the like.

圃場(403)は、ドローン(100)による撮影の対象となる田圃や畑等である。実際には、圃場(403)の地形は複雑であり、事前に地形図が入手できない場合、あるいは、地形図と現場の状況が食い違っている場合がある。通常、圃場(403)は家屋、病院、学校、他作物圃場、道路、鉄道等と隣接している。また、圃場(403)内に、建築物や電線等の障害物が存在する場合もある。 The farm field (403) is a rice field, a field or the like to be imaged by the drone (100). In reality, the topography of the farm field (403) is complicated, and there are cases where the topographic map cannot be obtained in advance, or the topographic map and the situation at the site are inconsistent. Normally, the field (403) is adjacent to a house, a hospital, a school, a field for other crops, a road, a railroad, or the like. In addition, there may be obstacles such as buildings and electric wires in the field (403).

基地局(404)は、Wi-Fi通信の親機機能等を提供する装置であり、RTK-GPS基地局としても機能し、ドローン(100)の正確な位置を提供できるようにすることが望ましい(Wi-Fi通信の親機機能とRTK-GPS基地局が独立した装置であってもよい)。営農クラウド(405)は、典型的にはクラウドサービス上で運営されているコンピューター群と関連ソフトウェアであり、操縦器(401)と携帯電話回線等で無線接続されていることが望ましい。営農クラウド(405)は、ドローン(100)が撮影した圃場(403)の画像を分析し、作物の生育状況を把握して、飛行ルートを決定するための処理を行なってよい。また、保存していた圃場(403)の地形情報等をドローン(100)に提供してよい。加えて、ドローン(100)の飛行および撮影映像の履歴を蓄積し、様々な分析処理を行なってもよい。 The base station (404) is a device that provides a master device function of Wi-Fi communication, etc. It is desirable that it also functions as an RTK-GPS base station and can provide an accurate position of the drone (100). (Wi-Fi communication master function and RTK-GPS base station may be independent devices). The farm cloud (405) is typically a group of computers operated on a cloud service and related software, and it is desirable that the farm cloud (405) be wirelessly connected to the control unit (401) by a mobile phone line or the like. The farming cloud (405) may analyze the image of the field (403) captured by the drone (100), grasp the growing condition of the crop, and perform a process for determining a flight route. Further, the drone (100) may be provided with the stored topographical information of the field (403). In addition, the history of the drone (100) flight and captured images may be accumulated and various analysis processes may be performed.

通常、ドローン(100)は圃場(403)の外部にある発着地点(406)から離陸し、圃場(403)に薬剤を散布した後に、あるいは、薬剤補充や充電等が必要になった時に発着地点(406)に帰還する。発着地点(406)から目的の圃場(403)に至るまでの飛行経路(侵入経路)は、営農クラウド(405)等で事前に保存されていてもよいし、使用者(402)が離陸開始前に入力してもよい。 Usually, the drone (100) takes off from the landing point (406) outside the field (403) and sprays the drug on the field (403), or when it becomes necessary to replenish or recharge the drug. Return to (406). The flight route (entry route) from the landing point (406) to the target field (403) may be stored in advance in the farm cloud (405), etc., or before the user (402) starts taking off. You may enter in.

図5に本願発明に係る薬剤散布用ドローンの実施例の制御機能を表した模式図を示す。フライトコントローラー(501)は、ドローン全体の制御を司る構成要素であり、具体的にはCPU、メモリー、関連ソフトウェア等を含む組み込み型コンピューターであってよい。フライトコントローラー(501)は、操縦器(401)から受信した入力情報、および、後述の各種センサーから得た入力情報に基づき、ESC(Electronic Speed Control)等の制御手段を介して、モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-b)の回転数を制御することで、ドローン(100)の飛行を制御する。モーター(102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-b)の実際の回転数はフライトコントローラー(501)にフィードバックされ、正常な回転が行なわれているかを監視できる構成になっている。あるいは、回転翼(101)に光学センサー等を設けて回転翼(101)の回転がフライトコントローラー(501)にフィードバックされる構成でもよい。 FIG. 5 is a schematic view showing the control function of the embodiment of the drug spraying drone according to the present invention. The flight controller (501) is a component that controls the entire drone, and specifically may be an embedded computer that includes a CPU, memory, related software, and the like. The flight controller (501) uses a control means such as an ESC (Electronic Speed Control) to control the motor (102-) based on the input information received from the flight controller (401) and the input information obtained from various sensors described later. 1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b) to control the flight of the drone (100). The actual rotation speed of the motor (102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b) is fed back to the flight controller (501) and is normal. It is configured so that it can be monitored whether it is rotating normally. Alternatively, the rotary blade (101) may be provided with an optical sensor or the like so that the rotation of the rotary blade (101) is fed back to the flight controller (501).

フライトコントローラー(501)が使用するソフトウェアは、機能拡張・変更、問題修正等のために記憶媒体等を通じて、または、Wi-Fi通信やUSB等の通信手段を通じて書き換え可能になっていることが望ましい。また、フライトコントローラー(501)が制御に使用する計算処理の一部が、操縦器(401)上、または、営農支援クラウド(405)上や他の場所に存在する別のコンピューターによって実行されてもよい。フライトコントローラー(501)は重要性が高いため、その構成要素の一部または全部が二重化されていてもよい。 The software used by the flight controller (501) is preferably rewritable through a storage medium or the like for function expansion/change, problem correction, or the like, or through communication means such as Wi-Fi communication or USB. In addition, a part of the calculation process used by the flight controller (501) for control may be executed by another computer existing on the flight controller (401), the farming support cloud (405), or elsewhere. Good. Since the flight controller (501) is highly important, some or all of its constituent elements may be duplicated.

バッテリー(502)は、フライトコントローラー(501)、および、ドローンのその他の構成要素に電力を供給する手段であり、例えば充電式である。バッテリー(502)はヒューズ、または、サーキットブレーカー等を含む電源ユニットを介してフライトコントローラー(501)に接続されている。バッテリー(502)は電力供給機能に加えて、その内部状態(蓄電量、積算使用時間等)をフライトコントローラー(501)に伝達する機能を有するスマートバッテリーであってもよい。 The battery (502) is a means for supplying power to the flight controller (501) and other components of the drone, and is, for example, rechargeable. The battery (502) is connected to the flight controller (501) via a fuse or a power supply unit including a circuit breaker and the like. The battery (502) may be a smart battery having a function of transmitting its internal state (amount of stored electricity, accumulated usage time, etc.) to the flight controller (501) in addition to the power supply function.

フライトコントローラー(501)は、Wi-Fi子機機能(503)を介して、さらに、基地局(404)を介して操縦器(401)とやり取りを行ない、必要な指令を操縦器(401)から受信すると共に、必要な情報を操縦器(401)に送信できる。基地局(404)は、Wi-Fiによる通信機能に加えて、RTK-GPS基地局の機能も備えていてもよい。RTK基地局の信号とGPS測位衛星からの信号を組み合わせることで、GPSモジュール(504)により、ドローン(100)の絶対位置を数センチメートル程度の精度で測定可能となる。GPSモジュール(504)は重要性が高いため、二重化・多重化しており、また、特定のGPS衛星の障害に対応するため、冗長化されたそれぞれのGPSモジュール(504)は別の衛星を使用するよう制御されている。 The flight controller (501) communicates with the control device (401) via the Wi-Fi slave device function (503) and further via the base station (404), and sends necessary commands from the control device (401). It is possible to receive and send necessary information to the pilot (401). The base station (404) may have the function of the RTK-GPS base station in addition to the communication function by Wi-Fi. By combining the signal from the RTK base station and the signal from the GPS positioning satellite, the GPS module (504) can measure the absolute position of the drone (100) with an accuracy of a few centimeters. Since the GPS module (504) is of high importance, it is duplicated and multiplexed, and each redundant GPS module (504) uses a different satellite to cope with the failure of a specific GPS satellite. Controlled.

6軸ジャイロセンサー(505)はドローン機体の互いに直交する3方向の加速度を測定する手段(さらに、加速度の積分により速度を計算する手段)である。また、6軸ジャイロセンサー(505)は、上述の3方向におけるドローン機体の姿勢角の変化、すなわち角速度を測定する手段である。地磁気センサー(506)は、地磁気の測定によりドローン機体の方向を測定する手段である。気圧センサー(507)は、気圧を測定する手段であり、間接的にドローンの高度も測定することもできる。レーザーセンサー(508)は、レーザー光の反射を利用してドローン機体と地表との距離を測定する手段であり、例えばIR(赤外線)レーザーを使用してよい。ソナー(509)は、超音波等の音波の反射を利用してドローン機体と地表との距離を測定する手段である。これらのセンサー類は、ドローンのコスト目標や性能要件に応じて取捨選択してよい。また、機体の傾きを測定するためのジャイロセンサー(角速度センサー)、風力を測定するための風力センサーなどが追加されていてもよい。また、これらのセンサー類は二重化または多重化されていることが望ましい。 The 6-axis gyro sensor (505) is means for measuring accelerations of the drone body in three directions orthogonal to each other (further, means for calculating velocity by integration of accelerations). The 6-axis gyro sensor (505) is a means for measuring the change in the attitude angle of the drone aircraft in the three directions described above, that is, the angular velocity. The geomagnetic sensor (506) is a means for measuring the direction of the drone body by measuring the geomagnetic field. The barometric pressure sensor (507) is a means for measuring the barometric pressure, and can indirectly measure the altitude of the drone. The laser sensor (508) is a means for measuring the distance between the drone body and the ground surface by utilizing the reflection of laser light, and for example, an IR (infrared) laser may be used. The sonar (509) is a means for measuring the distance between the drone body and the ground surface by utilizing the reflection of sound waves such as ultrasonic waves. These sensors may be selected depending on the drone's cost goals and performance requirements. Further, a gyro sensor (angular velocity sensor) for measuring the tilt of the machine body, a wind force sensor for measuring wind force, and the like may be added. Further, it is desirable that these sensors are duplicated or multiplexed.

流量センサー(510)は薬剤の流量を測定するための手段であり、薬剤タンク(104)から薬剤ノズル(103)に至る経路の複数の場所に設けられている。液切れセンサー(511)は薬剤の量が所定の量以下になったことを検知するセンサーである。圃場撮影カメラ(107)は圃場(403)を撮影し、画像分析を行なうためのデータを取得する手段であり、マルチスペクトルカメラであることが望ましい。障害物検知カメラ(513)はドローン障害物を検知するためのカメラであり、画像特性とレンズの向きが圃場撮影カメラ(107)とは異なるため、圃場撮影カメラ(106)とは別の機器であることが望ましい。スイッチ(514)はドローン(100)の使用者(402)が様々な設定を行なうための手段である。障害物接触センサー(515)はドローン(100)、特に、そのローターやプロペラガード部分が電線、建築物、人体、立木、鳥、または、他のドローン等の障害物に接触したことを検知するためのセンサーである。カバーセンサー(516)は、ドローン(100)の操作パネルや内部保守用のカバーが開放状態であることを検知するセンサーである。薬剤注入口センサー(517)は薬剤タンク(104)の注入口が開放状態であることを検知するセンサーである。これらのセンサー類はドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。 The flow rate sensor (510) is a means for measuring the flow rate of the medicine, and is provided at a plurality of places in the path from the medicine tank (104) to the medicine nozzle (103). The liquid shortage sensor (511) is a sensor that detects that the amount of the medicine has become equal to or less than a predetermined amount. The field shooting camera (107) is a means for shooting the field (403) and acquiring data for image analysis, and is preferably a multi-spectral camera. The obstacle detection camera (513) is a camera for detecting an obstacle of the drone. Since the image characteristics and the direction of the lens are different from those of the field photography camera (107), it is a device different from the field photography camera (106). Is desirable. The switch (514) is a means for the user (402) of the drone (100) to make various settings. The obstacle contact sensor (515) is used to detect that the drone (100), in particular its rotor and propeller guards, has come into contact with obstacles such as electric wires, buildings, human bodies, trees, birds or other drones. Sensor of. The cover sensor (516) is a sensor that detects that the operation panel of the drone (100) and the cover for internal maintenance are open. The drug injection port sensor (517) is a sensor that detects that the injection port of the drug tank (104) is open. These sensors may be selected according to the drone's cost targets and performance requirements, and may be duplicated or multiplexed.

フライトコントローラー(501)はポンプ(106)に対して制御信号を送信し、薬剤吐出量の調整や薬剤吐出の停止を行なう。ポンプ(106)の現時点の状況(たとえば、回転数等)は、フライトコントローラー(501)にフィードバックされる構成となっていることが望ましい。 The flight controller (501) sends a control signal to the pump (106) to adjust the medicine ejection amount and stop the medicine ejection. It is desirable that the current status (for example, the number of revolutions) of the pump (106) be fed back to the flight controller (501).

LED(517)は、ドローンの操作者に対して、ドローンの状態を知らせるための表示手段である。LEDに替えて、または、それに加えて液晶ディスプレイ等の表示手段を使用してもよい。ブザー(518)は、音声信号によりドローンの状態(特にエラー状態)を知らせるための出力手段である。Wi-Fi子機機能(519)は操縦器(401)とは別に、たとえば、ソフトウェアの転送などのために外部のコンピューター等と通信するためのオプショナルな構成要素である。Wi-Fi子機機能に替えて、または、それに加えて、赤外線通信、Bluetooth(登録商標)、ZigBee(登録商標)、NFC等の他の無線通信手段、または、USB接続などの有線通信手段を使用してもよい。スピーカー(520)は、録音した人声や合成音声等により、ドローンの状態(特にエラー状態)を知らせる出力手段である。天候状態によっては飛行中のドローン(100)の視覚的表示が見にくいことがあるため、そのような場合には音声による状況伝達が有効である。警告灯(521)はドローンの状態(特にエラー状態)を知らせるストロボライト等の表示手段である。これらの入出力手段は、ドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。 The LED (517) is a display means for informing the drone operator of the status of the drone. Display means such as a liquid crystal display may be used instead of or in addition to the LEDs. The buzzer (518) is an output means for notifying a drone state (especially an error state) by an audio signal. The Wi-Fi slave device function (519) is an optional component for communicating with an external computer or the like for the transfer of software, for example, separately from the control device (401). In addition to or in addition to the Wi-Fi cordless handset function, other wireless communication means such as infrared communication, Bluetooth (registered trademark), ZigBee (registered trademark), NFC, or wired communication means such as USB connection May be used. The speaker (520) is an output means for notifying the drone state (particularly an error state) by the recorded human voice or synthetic voice. Depending on the weather conditions, it may be difficult to see the visual display of the drone (100) in flight. In such a case, it is effective to communicate the situation by voice. The warning light (521) is a display means such as a strobe light for indicating the state of the drone (in particular, an error state). These input/output means may be selected according to the cost target and performance requirements of the drone, or may be duplicated/multiplexed.

本願発明に係るドローン(100)は、圃場の作物の株元部分の撮影に適した株元撮影モード、圃場の作物の穂先部分の撮影に適した穂先撮影モード、または、その両方を備えることが望ましい。株元部分の撮影は、1株当たりの分蘖(出穂の数)の測定、1株当たりの総収穫量の推定、および、根本付近の病理診断や生育診断等に有効であり、穂先部分の撮影は、単位穂数当たりの収穫量、および、葉先付近の病理診断等に有効であることから、単に上空から作物全体を撮影する場合と比較して画像分析の価値を大幅に向上することができる。 The drone (100) according to the present invention may be provided with a shoot-source shooting mode suitable for shooting a shoot-base part of a field crop, a tip-shooting mode suitable for shooting a shoot-head part of a crop in the field, or both. desirable. Shooting the root part is effective for measuring the number of sprouts (heading number) per stock, estimating the total yield per stock, and for pathological diagnosis and growth diagnosis near the root. Is effective for yield per unit number of ears and pathological diagnosis near leaf tips, etc., and can significantly improve the value of image analysis compared to the case of simply photographing the entire crop from the sky. it can.

特に稲の場合、出穂後から分蘖が終わるまでの時期は、株元撮影と穂先撮影の両方を行なうことが望ましい。穂丈が十分長くなった後は、穂先撮影を頻繁に行ないつつ、定期的には株元撮影を実施し病理生育診断を行なうべきである。収穫が近づいた時期には穂先撮影を中心に行なう必要がある。したがって、本願発明に係るドローン(100)は、ユーザーの指令により、または、自動で株元撮影モードと穂先撮影モードを切り替えられることが望ましい。 Especially in the case of rice, it is desirable to perform both shoot-source and tip-shooting from the heading to the end of tillering. After the height of the spikes is sufficiently long, the shoots should be photographed frequently and the shoots should be photographed regularly to diagnose pathological growth. It is necessary to mainly shoot the tips when the harvest is approaching. Therefore, it is desirable for the drone (100) according to the present invention to be able to switch between the stock shoot mode and the tip shoot mode by a user's command or automatically.

図6に本願発明に係る圃場撮影用ドローンの実施例による撮影モードの基本的考え方を示す(本図は概念図であり、縮尺は正確ではない)。一般的にドローン(100)では、回転翼による気流(601)は機体の進行方向の後ろ方向に流れる。回転翼による気流は圃場の作物を一時的になぎ倒す効果を生じさせる。ドローンの回転翼が作り出す気流の影響を最も受ける作物はドローンの進行方向に対して後方であって、俯角約60度の方向にあることが発明者の実験により明らかになっているため、圃場撮影カメラ(107)をこの方向が撮影可能な位置に設置することが望ましい。これに対して、仮にカメラがドローンの直下方向しか撮影できない設計であると、葉の株元や側面の撮影のためにドローンをきわめて低速で移動させる、あるいは、ホバリング状態で撮影を行なう等の手順が必要となり、効率的な撮影を行なうことは不可能になってしまう。 FIG. 6 shows the basic idea of the shooting mode according to the embodiment of the field shooting drone according to the present invention (this drawing is a conceptual diagram, and the scale is not accurate). Generally, in a drone (100), the air flow (601) by the rotor blades flows backward in the traveling direction of the aircraft. The airflow from the rotor blades has the effect of temporarily pulling down the crops in the field. The crop that is most affected by the air flow created by the drone's rotor blades is behind the drone's direction of travel, and its depression angle is about 60 degrees. It is desirable to install the camera (107) at a position where the image can be taken in this direction. On the other hand, if the camera is designed to be able to shoot only in the direction directly below the drone, the drone moves at a very low speed to shoot the roots and sides of the leaves, or procedures such as shooting in the hovering state. Becomes necessary, and it becomes impossible to perform efficient shooting.

図6-aは株元撮影モードを表わす。ドローン(100)の進行方向の後方に、下降気流によって生じた作物(602)の株元部分、および、葉の側面が上空に対して露出した領域(604)を圃場撮影カメラ(107)によって選択的に撮影する、あるいは、この領域より広い領域を撮影して画像処理により求める領域(604)を抽出することにより、作物の株元、および、葉の側面の画像を取得可能である。葉の側面が上空に対して露出した領域(604)の画像はそれ以外の領域と比較して明度や彩度が大きく異なるため画像処理による抽出は容易である。加えて、風を受けた時の作物の葉の湾曲形状から葉の厚みや硬度が推定できる。 FIG. 6-a shows the stock shooting mode. Behind the direction of the drone (100), select the plant base of the crop (602) caused by the downdraft and the area (604) where the side of the leaf is exposed to the sky with the field photography camera (107). It is possible to acquire the image of the plant base of the crop and the side surface of the leaf by capturing the image, or by extracting a region (604) obtained by image processing by capturing a region wider than this region. The image of the region (604) in which the side surface of the leaf is exposed to the sky has a great difference in lightness and saturation as compared with the other regions, and therefore extraction by image processing is easy. In addition, the thickness and hardness of the leaves can be estimated from the curved shape of the leaves of the crop when exposed to the wind.

図6-bは穂先撮影モードを表わす。基本的な考え方は、株元撮影モードと同様であるが、株元撮影モードの場合よりもドローン(100)の高度を高めて、作物(602)に向かう下降気流(601)の影響を弱めることで、作物(602)の穂先部分が上空に対して露出した領域(605)を創ることができ、株元撮影モードの場合と同様に、穂先部分のみの画像を効果的に取得することができる。 FIG. 6-b shows the tip shooting mode. The basic idea is the same as in the stock shooting mode, but the altitude of the drone (100) is raised more than in the stock shooting mode to reduce the influence of the downdraft (601) toward the crop (602). With this, it is possible to create an area (605) in which the tip portion of the crop (602) is exposed to the sky, and it is possible to effectively acquire an image of only the tip portion as in the case of the stock shooting mode. ..

図6-cは通常移動モードを表わす。通常移動モードは、穂先撮影モードよりも、さらに高度を高めるため、作物(602)を倒す効果は小さい。株元や穂先の撮影を行なわない場合には、下降流による倒伏や稲穂へのダメージを最小化するために、ドローン(100)を通常移動モードで飛行させることが望ましい。また、撮影中のバッテリー切れの交換等に伴う飛行の中断・再開の際の移動も同様に通常移動モードとすることが望ましい。この場合には、フライトコントローラー(501)に搭載されたプログラム等により、自動的に通常移動モードへの切り替え、および、株元撮影モード、または、穂先撮影モードへの復帰を行なうことが望ましい。 FIG. 6-c shows the normal movement mode. Since the normal movement mode is higher than the tip shooting mode, the effect of defeating the crop (602) is small. If you do not shoot the roots or tips, it is advisable to fly the drone (100) in normal transfer mode to minimize lodging and damage to the rice ears due to downdraft. Also, it is desirable that the movement when suspending/restarting the flight due to replacement of the dead battery during shooting is similarly set to the normal movement mode. In this case, it is desirable to automatically switch to the normal movement mode and return to the stock-source shooting mode or the tip shooting mode by a program installed in the flight controller (501).

図6の各モードの切り替えは、ドローン(100)の高度を制御することによって行なうことが望ましい。株元撮影モード時の高度は地面からおよそ0.9メートル、あるいは、穂先から0.1メートルとし、穂先撮影モード時の高度は地面から1.1メートルから2.0メートル、あるいは、穂先から0.3メートルから1.2メートル、通常移動モード時の高度は2メートルから2.5メートル、あるいは、穂先から1.2メートルから1.7メートルとなるようにドローン(100)を制御することが望ましいことが発明者の実験により明らかになっている。この高度制御は、フライトコントローラー(501)に搭載されたプログラム等により自動的に行なうことが望ましい。 It is desirable to switch the modes shown in FIG. 6 by controlling the altitude of the drone (100). The altitude in the stock shooting mode is approximately 0.9 m from the ground or 0.1 m from the tip, while the altitude in the tip shooting mode is 1.1 m to 2.0 m from the ground, or 0.3 m to 1.2 m from the tip, normal movement mode Experiments by the inventor have shown that it is desirable to control the drone (100) so that the altitude at time is 2 meters to 2.5 meters, or 1.2 meters to 1.7 meters from the tips. It is desirable that this altitude control be automatically performed by a program installed in the flight controller (501).

ドローン(100)の高度の調整に代えて、または、ドローン(100)の高度の調整に合わせて飛行速度の変化により撮影モードを切り替えるようにしてもよい。ドローン(100)は進行方向に向けて機体を傾けることで飛行するため、飛行速度を下げるにより下降気流が機体の真下に向かうことになり、作物を倒す効果が増す。したがって、穂先撮影モードでの飛行速度を株元撮影モードでの速度より速め、通常飛行モードでの飛行速度を穂先撮影モードでの飛行速度より速めてもよい。たとえば、ドローン(100)の高度を対地2メートルで固定した場合に、速度を株元撮影モードでは時速約7キロメートルに、穂先撮影モードでは時速約20キロメートル、通常飛行モードでは時速約27キロメートルになるように制御することが望ましいことが発明者の実験により明らかになっている。 Instead of adjusting the altitude of the drone (100), or in accordance with the adjustment of the altitude of the drone (100), the shooting mode may be switched by changing the flight speed. Since the drone (100) flies by tilting the aircraft toward the direction of travel, lowering the flight speed will cause the downdraft to go directly below the aircraft, increasing the effect of defeating the crop. Therefore, the flight speed in the tip shooting mode may be faster than that in the stock shooting mode, and the flight speed in the normal flight mode may be faster than that in the tip shooting mode. For example, if the altitude of the drone (100) is fixed at 2 meters above ground, the speed will be about 7 kilometers per hour in the stock shooting mode, about 20 kilometers per hour in the tip shooting mode, and about 27 kilometers per hour in normal flight mode. Experiments by the inventor have revealed that such control is desirable.

上記の各モードの高度や速度の数値は例示であり、作物の種類やドローン(100)が採用するテクノロジの変化に合わせて調整できることが望ましい。各撮影モードの目標高度と速度を事前に設定しておき、ユーザーが撮影モードの切り替えを指示するだけで、フライトコントローラー(501)に搭載されたプログラム等により制御を自動的に行なえるようにすることが望ましい。 The altitude and speed values in each mode above are examples, and it is desirable that they can be adjusted according to changes in the crop type and the technology adopted by the drone (100). The target altitude and speed of each shooting mode are set in advance, and the user can simply control the shooting mode to be automatically controlled by the program installed in the flight controller (501). Is desirable.

株元を効果的に撮影できるカメラの向きは移動速度に依存して変わるためドローン(100)の速度センサーにより、圃場撮影カメラ(107)の撮影方向をステッピングモーター等により可変として、移動速度に合わせて調整可能としてもよい。加えて、一時的になぎ倒される作物のドローン機体に対する相対位置は、風力と風向の影響を受けるため、ドローン(100)に風力・風向センサーを設けて、圃場撮影カメラ(107)の撮影方向を自動調整可能としてもよい。また、ドローン(100)の遠隔操縦装置に圃場撮影カメラ(107)が撮影した画像をリアルタイムで表示し、操作者が画像を確認しながら手動で圃場撮影カメラ(103)の方向を微調整可能としてもよい。株元部分、および、穂先部分が上空に対して露出した圃場の領域は他の領域との明度・色調の相違により、画像認識により区別できるため、当該領域が、撮影範囲の中心近くとなるように、圃場撮影カメラ(107)を自動的に調整してもよい。ドローン(100)がホバリング時、あるいは、低速(たとえば、毎秒約3メートル以下)で飛行中である時には圃場撮影カメラ(107)による撮影を行なわないような制御を行なってもよい。 The direction of the camera that can effectively shoot the stock changes depending on the moving speed, so the speed sensor of the drone (100) can be used to change the shooting direction of the field shooting camera (107) with a stepping motor etc. to match the moving speed. It may be adjustable. In addition, the relative position of the crop that is temporarily cut down to the drone aircraft is affected by the wind force and wind direction. Therefore, a wind force/wind direction sensor is installed on the drone (100) to automatically set the shooting direction of the field shooting camera (107). It may be adjustable. Also, the image captured by the field shooting camera (107) is displayed in real time on the remote control device of the drone (100), and the operator can finely adjust the direction of the field shooting camera (103) while checking the image. Good. The field of the field where the plant base and the tip of the ear are exposed to the sky can be distinguished by image recognition due to the difference in brightness and color tone from other areas, so that the area should be near the center of the shooting range. In addition, the field shooting camera (107) may be automatically adjusted. When the drone (100) is hovering or is flying at a low speed (for example, about 3 meters or less per second), control may be performed such that the field shooting camera (107) does not shoot.

各モードにおけるドローン(100)の目標高度を予め設定した固定値ではなく、圃場撮影カメラ(107)が撮影する圃場の作物の画像に基づいてリアルタイムで制御するようにしてもよい。図7−aに示すようになぎ倒された作物の茎(701)の曲率(1/r)を画像分析により測定することで、作物が株元撮影に十分なほど倒されているかを推定してもよい。画像分析により得られた曲率が、事前の実験等によって得られた望ましい曲率になっていない場合には、所定の曲率になるまで、高度をさらに低下、または、速度をさら増すようにドローン(100)を制御することが望ましい。 The target altitude of the drone (100) in each mode may be controlled in real time based on an image of a crop of a field photographed by the field photographing camera (107) instead of a preset fixed value. By measuring the curvature (1/r) of the stalk (701) of the crop that has been cropped down as shown in Fig. 7-a by image analysis, it can be estimated whether the crop has been collapsed enough to shoot the plant. Good. If the curvature obtained by image analysis is not the desired curvature obtained by previous experiments, etc., the drone (100 ) Is desirable.

図9−bに示すように、圃場全体の画像(902)において、作物の茎が露出した領域(903)、および、穂先が露出した領域(904)の面積が、事前の実験等によって得られた望ましい値の範囲になっていない場合に、当該望ましい範囲になるよう、ドローン(100)の高度、速度、またはその両方を制御してもよい。なお、領域(903)と領域(904)は、圃場全体の画像(902)と比較して、色相、明度、または、彩度が大きく異なるため、画像分析によりその範囲をリアルタイムで特定することが可能である。 As shown in FIG. 9-b, in the image (902) of the entire field, the areas of the region (903) where the stem of the crop is exposed and the region (904) where the tip of the crop are exposed are obtained by a preliminary experiment or the like. If the desired range is not reached, the drone (100) altitude, speed, or both may be controlled so as to be within the desired range. Note that the area (903) and the area (904) are significantly different in hue, lightness, or saturation compared with the image (902) of the entire field, so that the range can be specified in real time by image analysis. It is possible.

圃場撮影カメラ(106)により撮影された株元の画像データを分析することで従来は得ることができなかった様々な情報が得られる。たとえば、近赤外線画像(たとえば、波長780nm近辺)の分析によりクロロフィルの存在を検知でき、これにより画像から作物部分のみを抽出できる。作物部分の画像にエッジ検出を適用し、葉の輪郭線を抽出することで、風を受けた時の葉の曲がり具合が測定できる。これにより、葉厚が推定でき、作物の生育状況を推定できる。特に、作物が稲の場合には、ケイ素の蓄積量を把握することもできる(ケイ素が多ければ葉の硬度が増すからである)。また、近赤外線画像の分析により判明した、作物部分がない部分である水面領域から(エッジ検出処理によって検出された)直線部分が密集している部分は株元であると推定できる。株元に対して近赤外線量が低下している部分をエッジ検出し、斑点状の領域が見られた時はウンカが付着していることが推定できる。株元に赤色が濃い領域が存在する場合には紋枯病が発生していることが推定できる。また、通常、株は20センチメートルから30センチメートルの等間隔で植えられているため、画像上で水面領域が等間隔に現われない場合は、雑草が発生していることが推定できる。また、これらの従来型画像解析に加えて、多数の画像データ例をニューラルネット(望ましくは、ディープ・ニューラルネット)の入力として機械学習を行なわせることで効率的に精度の高い分析を行なえることが発明者の実験により明らかになっている。 By analyzing the image data of the stock origin photographed by the field photographing camera (106), various information which could not be obtained in the past can be obtained. For example, the presence of chlorophyll can be detected by analysis of near-infrared images (eg, around 780 nm wavelength), which allows extraction of only crop parts from the image. By applying edge detection to the image of the crop part and extracting the contour line of the leaf, it is possible to measure the degree of bending of the leaf when it receives wind. This makes it possible to estimate the leaf thickness and the growth status of the crop. In particular, when the crop is rice, it is possible to grasp the amount of silicon accumulated (because the amount of silicon increases the hardness of the leaves). Further, it can be presumed that the portion where the straight line portion (detected by the edge detection processing) is dense from the water surface area, which is the portion without the crop portion, which is found by the analysis of the near infrared image, is the stock origin. Edge detection is performed on the part where the amount of near-infrared rays is lower than that of the plant, and when a spotted area is seen, it can be estimated that the planter is attached. It can be presumed that the bacterial wilt disease is occurring when there is a deep red area in the stock. Moreover, since the plants are usually planted at equal intervals of 20 to 30 cm, it can be estimated that weeds are occurring when the water surface regions do not appear at equal intervals on the image. In addition to these conventional image analysis methods, a large number of image data examples can be used as input to a neural network (preferably deep neural network) for machine learning to enable efficient and highly accurate analysis. Has been clarified by the inventor's experiment.

同様に、穂先の画像についても、ディープラーニングを用いた穂先形状認識やマルチスペクトルカメラを用いたNDVI解析を飛行中にリアルタイムで実行することで、従来の単なる上空からの撮影と比較してはるかに有用な情報が取得可能である。 Similarly, with regard to the image of the tip, by performing the tip shape recognition using deep learning and the NDVI analysis using the multispectral camera in real time in flight, it is possible to achieve much better results compared to conventional mere shooting from the sky. Useful information can be obtained.

図8に、本願発明に係る圃場撮影用ドローンの方向転換時の動作の例を示す(本図は概念図であり縮尺は正確ではない)。なお、図8におけるドローン(800)は、図1、図2、および、図3に示したドローンを、機体の向きをわかりやすくするよう簡略化して模式的に示したものである。通常、ドローンが飛行方向を転換する際は、図8−aに示すように、機体の絶対的方向は変化させずに移動方向だけを変化させるような制御を行なう。しかし、このような方向転換方式では、圃場撮影カメラ(107)が常にドローン(800)の進行方向の後ろ側を撮影できるようにするために、複数(典型的には4機)の圃場撮影カメラ(107)を設けて適宜切り替えて撮影を行なう、あるいは、ステッピングモーター等の手段により機体の進行方向に合わせて、圃場撮影カメラ(107)の位置を変化させることなどが必要になり、機体の重量増、コスト増、制御の複雑性増などの点で好ましくない。 FIG. 8 shows an example of the operation of the drone for field photography according to the present invention when changing the direction (this figure is a conceptual diagram and the scale is not accurate). The drone (800) in FIG. 8 is a simplified schematic representation of the drone shown in FIGS. 1, 2 and 3 so that the orientation of the aircraft can be easily understood. Normally, when the drone changes its flight direction, as shown in FIG. 8-A, control is performed such that only the moving direction is changed without changing the absolute direction of the airframe. However, in such a direction changing method, in order to allow the field shooting camera (107) to always shoot the rear side of the traveling direction of the drone (800), a plurality of fields (typically four) are used. It is necessary to provide (107) and switch appropriately for shooting, or to change the position of the field shooting camera (107) according to the traveling direction of the machine by means of a stepping motor or the like. It is not preferable because of increase in cost, cost, and control complexity.

代替の方法として、図8−bのように、方向転換の際には機体の絶対的向きそのものを変えることが望ましい。このような方式を採ることで、1機の圃場撮影カメラ(107)をドローン(800)に設置するだけで、常にドローン(800)の進行方向の後方を撮影することができる。前述のように、俯角の調整が必要となることはあり得るが、複数のカメラを設ける方法やカメラの方向自体を変化させる方法と比較して、コスト、重量、および、正確性の点で有利である。 As an alternative method, it is desirable to change the absolute orientation of the aircraft itself when changing directions, as shown in FIG. By adopting such a method, it is possible to always photograph the rear side in the traveling direction of the drone (800) simply by installing one field photographing camera (107) on the drone (800). Although the depression angle may need to be adjusted as described above, it is advantageous in terms of cost, weight, and accuracy as compared with the method of providing a plurality of cameras or the method of changing the camera directions themselves. Is.

(本願発明による技術的に顕著な効果)
本願発明に係るドローンにより、圃場の作物全体の株元、葉の側面、穂先の画像を効率的に取得可能である。得られた結果を分析することで効果的かつ効率的な害虫対策や施肥計画に結び付けることができる。また、作物が稲である場合には、風を受けた時の葉の形状の画像によってケイ素の蓄積量を把握し、それに基づいて稲の育成度を推定し、肥料計画を最適化することが可能となる。

(Technically remarkable effect of the present invention)
With the drone according to the present invention, it is possible to efficiently acquire the image of the plant origin, the leaf side surface, and the tip of the entire crop in the field. Analyzing the obtained results can lead to effective and efficient pest control and fertilization planning. In addition, when the crop is rice, it is possible to optimize the fertilizer plan by grasping the amount of silicon accumulated from the image of the shape of the leaves when exposed to wind, estimating the growth rate of rice based on that It will be possible.

Claims (17)

カメラと回転翼と飛行制御手段とを備えた圃場撮影用の無人飛行体であって、
前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元を前記カメラが撮影可能な高度と速度で、前記飛行制御手段が前記無人飛行体を飛行させる第一の飛行モードと、
前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の穂先を前記カメラが撮影可能な高度と速度で、前記飛行制御手段が前記無人飛行体を飛行させる第二の飛行モードとを備える
無人飛行体。
An unmanned aerial vehicle for field photography, comprising a camera, a rotary wing, and flight control means,
A first flight in which the flight control means causes the unmanned air vehicle to fly at an altitude and a speed at which the camera can photograph the plant origin of the crop exposed by the downdraft of the crop caused by the descending airflow generated by the rotary wing. Mode,
A second flight mode in which the flight control means causes the unmanned aerial vehicle to fly at an altitude and speed at which the camera can shoot the tip of the crop exposed by the descending airflow generated by the rotor blades causing the crop to fall. An unmanned aerial vehicle equipped with.
前記第二の飛行モードにおける高度は前記第一の飛行モードにおける高度よりも高い
請求項1に記載の無人飛行体。
The unmanned air vehicle according to claim 1, wherein the altitude in the second flight mode is higher than the altitude in the first flight mode.
前記第二の飛行モードにおける高度が前記第一の飛行モードにおける高度と同一であり、
前記第二の飛行モードにおける速度が前記第一の飛行モードにおける速度より速い、
請求項1に記載の無人飛行体。
The altitude in the second flight mode is the same as the altitude in the first flight mode,
The speed in the second flight mode is faster than the speed in the first flight mode,
The unmanned aerial vehicle according to claim 1.
さらに、前記作物の前記下降気流による露出範囲測定手段を備え、
前記露出範囲測定手段が測定した前記作物の露出範囲に応じて、前記飛行制御手段が前記第一の飛行モードと前記第二の飛行モードとの切り替えを行なう請求項1、請求項2、または、請求項3に記載の無人飛行体。
Furthermore, the exposure range measurement means by the downdraft of the crop is provided,
The flight control means performs switching between the first flight mode and the second flight mode according to the exposure range of the crop measured by the exposure range measuring means. The unmanned aerial vehicle according to claim 3.
前記露出範囲測定手段は倒された作物の葉の曲率を測定することで、作物の露出範囲を測定する請求項4に記載の無人飛行体。 The unmanned air vehicle according to claim 4, wherein the exposure range measuring means measures the exposure range of the crop by measuring the curvature of the leaves of the crop that has fallen over. 前記露出範囲測定手段は、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定する請求項4に記載の無人飛行体。 The unmanned air vehicle according to claim 4, wherein the exposure range measuring unit measures the exposure range of the crop based on the hue, lightness, or saturation of the image of the crop that has been fallen down. さらに、第三の飛行モードを備え、
前記第三の飛行モードにおける下降気流は前記第二の飛行モードにおける下降気流よりも弱く、
前記カメラが撮影を行なっていない時には、前記飛行制御手段が自動的に前記第三の飛行モードへの切り替えを行なう請求項1、請求項2、請求項3、請求項4、請求項5、またたは、請求項6に記載の無人飛行体。
In addition, with a third flight mode,
The downdraft in the third flight mode is weaker than the downdraft in the second flight mode,
The flight control means automatically switches to the third flight mode when the camera is not shooting, claim 1, claim 2, claim 3, claim 4, claim 5, or Alternatively, the unmanned aerial vehicle according to claim 6.
前記第三の飛行モードにおける高度は前記第二の飛行モードにおける高度よりも高い
請求項7に記載の無人飛行体。
The unmanned air vehicle according to claim 7, wherein the altitude in the third flight mode is higher than the altitude in the second flight mode.
前記第三の飛行モードにおける高度が前記第二の飛行モードにおける高度と同一であり、
前記第三の飛行モードにおける速度が前記第二の飛行モードにおける速度より速い、
請求項7に記載の無人飛行体。
The altitude in the third flight mode is the same as the altitude in the second flight mode,
The speed in the third flight mode is faster than the speed in the second flight mode,
The unmanned aerial vehicle according to claim 7.
圃場の作物の株元、葉の側面、または穂先の撮影方法であって、
カメラと回転翼とを備えた圃場撮影用の無人飛行体を使用し、
前記カメラに前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元、葉の側面、または穂先を撮影させるステップを含む方法。
A method for photographing a plant origin, a side surface of a leaf, or a tip of a field crop,
Using an unmanned aerial vehicle for field photography equipped with a camera and a rotary wing,
A method comprising: causing the camera to photograph a plant origin, a leaf side surface, or a tip of the crop exposed by the descending airflow generated by the rotor blades causing the crop to fall.
さらに、作物の露出範囲を測定するステップと、
前記測定された露出範囲に応じて、機体の高度または速度を調整するステップとを含む
請求項10に記載の方法。
Further, measuring the exposure range of the crop,
Adjusting the altitude or speed of the airframe in response to the measured exposure range.
前記作物の露出範囲を測定するステップは、倒された作物の葉の曲率を測定するステップを含む請求項11に記載の方法。 13. The method of claim 11, wherein measuring the exposed area of the crop comprises measuring the curvature of the leaves of a fallen crop. 前記作物の露出範囲を測定するステップは、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定するステップを含む請求項11に記載の方法。 12. The method of claim 11, wherein measuring the crop exposure range comprises measuring the crop exposure range by hue, lightness, or saturation of an image of the crop that has been collapsed. カメラと回転翼とを備えた圃場撮影用の無人飛行体に圃場の作物の株元、葉の側面、または穂を撮影させるプログラムであって、
前記カメラに前記回転翼が発生する下降気流により作物が倒されることにより露出した前記作物の株元、葉の側面、または穂先を撮影させる命令群をコンピューターに実行させるプログラム。
A program for making an unmanned aerial vehicle for field shooting equipped with a camera and a rotary wing image a plant origin of a field, a side surface of a leaf, or an ear,
A program that causes a computer to execute a group of instructions for causing the camera to photograph a plant origin, a leaf side surface, or a tip of the crop exposed by the descending airflow generated by the rotary wing causing the crop to fall.
さらに、作物の露出範囲を測定する命令群と、
前記測定された露出範囲に応じて機体の高度または速度を調整する命令群とをコンピューターに実行させる
請求項14に記載のプログラム。
In addition, a group of commands to measure the exposure range of the crop,
The program according to claim 14, which causes a computer to execute a group of instructions for adjusting an altitude or a speed of an aircraft according to the measured exposure range.
前記作物の露出範囲を測定する命令群は、倒された作物の葉の曲率を測定する命令群を含む請求項15に記載のプログラム。 The program according to claim 15, wherein the instruction group for measuring the exposure range of the crop includes a group of instructions for measuring the curvature of the leaves of the crop that has fallen. 前記作物の露出範囲を測定する命令群は、倒された作物の画像の色相、明度、または、彩度によって作物の露出範囲を測定する命令群を含む請求項15に記載のプログラム。

16. The program according to claim 15, wherein the command group for measuring the exposure range of the crop includes a group of commands for measuring the crop exposure range according to the hue, lightness, or saturation of the image of the crop that has been collapsed.

JP2019570163A 2018-08-20 2019-08-16 Field crop photography method and drone for photography Active JP6762629B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018153952 2018-08-20
JP2018153952 2018-08-20
PCT/JP2019/032186 WO2020040063A1 (en) 2018-08-20 2019-08-16 Field crop photographing method and photographing drone

Publications (2)

Publication Number Publication Date
JPWO2020040063A1 true JPWO2020040063A1 (en) 2020-08-27
JP6762629B2 JP6762629B2 (en) 2020-09-30

Family

ID=69592962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570163A Active JP6762629B2 (en) 2018-08-20 2019-08-16 Field crop photography method and drone for photography

Country Status (2)

Country Link
JP (1) JP6762629B2 (en)
WO (1) WO2020040063A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112129757A (en) * 2020-10-15 2020-12-25 安阳工学院 Plant disease and insect pest self-adaptive detection system and method
CN112399052A (en) * 2020-11-06 2021-02-23 深圳慧源创新科技有限公司 Picture switching method and device and electronic equipment
JP7370087B2 (en) 2021-05-25 2023-10-27 国立研究開発法人農業・食品産業技術総合研究機構 Information processing device, information processing method, and program
CN113628186A (en) * 2021-08-09 2021-11-09 海南青峰生物科技有限公司 System for measuring rice spike number based on 5G communication and image recognition
CN114706410A (en) * 2022-04-02 2022-07-05 深圳市道通智能航空技术股份有限公司 Flight control method, unmanned aerial vehicle and readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006264573A (en) * 2005-03-25 2006-10-05 Yamaha Motor Co Ltd Unmanned helicopter
JP2017036011A (en) * 2015-08-12 2017-02-16 ヒロボー株式会社 Multiple rotor type helicopter and chemical agent aerial spraying method using the same
JP2018082648A (en) * 2016-11-22 2018-05-31 コニカミノルタ株式会社 Fertilization design method, fertilization design program, and fertilization design system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006264573A (en) * 2005-03-25 2006-10-05 Yamaha Motor Co Ltd Unmanned helicopter
JP2017036011A (en) * 2015-08-12 2017-02-16 ヒロボー株式会社 Multiple rotor type helicopter and chemical agent aerial spraying method using the same
JP2018082648A (en) * 2016-11-22 2018-05-31 コニカミノルタ株式会社 Fertilization design method, fertilization design program, and fertilization design system

Also Published As

Publication number Publication date
WO2020040063A1 (en) 2020-02-27
JP6762629B2 (en) 2020-09-30

Similar Documents

Publication Publication Date Title
JP6762629B2 (en) Field crop photography method and drone for photography
CN111566006B (en) Unmanned aerial vehicle, manipulator, control method of unmanned aerial vehicle, and computer-readable recording medium
JP6889502B2 (en) Drones, drone control methods, and drone control programs
JPWO2019168047A1 (en) Drone, drone control method, and drone control program
JP7353630B2 (en) Drone control system, drone control method, and drone
JP7311146B2 (en) Field management system
JP6913979B2 (en) Drone
JP7008999B2 (en) Driving route generation system, driving route generation method, and driving route generation program, and drone
JP6887142B2 (en) Field image analysis method
JP6982908B2 (en) Driving route generator, driving route generation method, and driving route generation program, and drone
JP7359464B2 (en) Crop growing system
CN111683873A (en) Unmanned aerial vehicle for agent scattering
JP6973829B2 (en) Field photography camera
WO2021255940A1 (en) Drone for diagnosing crop growth, and camera system for same
JP7045122B2 (en) Drone, drone control method, and drone control program
JP7411259B2 (en) Plant pathology diagnosis system, plant pathology diagnosis method, plant pathology diagnosis device, and drone
JP7011233B2 (en) Spraying system and spraying management device
WO2021255885A1 (en) Spraying system, spraying method, and drone
JP2022088441A (en) Drone steering device and steering program
WO2021166175A1 (en) Drone system, controller, and method for defining work area
JP7169022B2 (en) Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system
JP7387195B2 (en) Field management system, field management method and drone
JP2021082173A (en) Farming support system, farming support method and computer program
WO2021220409A1 (en) Area editing system, user interface device, and work area editing method
WO2021166101A1 (en) Operation device and drone operation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200903

R150 Certificate of patent or registration of utility model

Ref document number: 6762629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250