WO2020189553A1 - 収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム - Google Patents

収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム Download PDF

Info

Publication number
WO2020189553A1
WO2020189553A1 PCT/JP2020/011086 JP2020011086W WO2020189553A1 WO 2020189553 A1 WO2020189553 A1 WO 2020189553A1 JP 2020011086 W JP2020011086 W JP 2020011086W WO 2020189553 A1 WO2020189553 A1 WO 2020189553A1
Authority
WO
WIPO (PCT)
Prior art keywords
crop
yield
curvature
length
unit
Prior art date
Application number
PCT/JP2020/011086
Other languages
English (en)
French (fr)
Inventor
洋 柳下
鈴木 大介
千大 和氣
Original Assignee
株式会社ナイルワークス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ナイルワークス filed Critical 株式会社ナイルワークス
Priority to JP2021507304A priority Critical patent/JP7169022B2/ja
Publication of WO2020189553A1 publication Critical patent/WO2020189553A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining

Definitions

  • the present invention relates to a yield prediction system, a yield prediction method, a yield prediction program, and a harvest time prediction system.
  • Patent Document 2 discloses an information processing device that acquires image data of a plant and determines the necessity of water supply to the plant.
  • Patent Document 3 discloses a plant necessity determination control device that determines whether a plant is good or bad based on the color of seedlings planted in a plug tray, the number of leaves, the leaf area, the length of leaves, and the like. Has been done.
  • Patent Document 4 discloses an agricultural product image processing program that calculates the height of an agricultural product by detecting the ridge line and the upper end portion of the crop using a camera fixed on land.
  • the yield prediction system includes a photographing unit that acquires an image of a growing crop, and the crop length of the crop and the curvature in the length direction based on the image. It is provided with a crop shape acquisition unit for acquiring the above, and a yield prediction unit for predicting the yield from the crop based on the crop length and the curvature.
  • the yield prediction unit may predict that the longer the crop length and the larger the curvature, the larger the yield.
  • the crop shape acquisition unit further acquires the thickness of the stem of the crop based on the image.
  • the yield prediction unit may predict the yield based on the crop length, the curvature, and the thickness of the stem.
  • a strong wind detection unit for detecting the wind blowing on the crop may be further provided, and the yield prediction unit may make the prediction result of the yield different depending on whether or not the strong wind detection unit detects the strong wind. ..
  • the harvest amount prediction unit may correct the predicted value at the time when a strong wind is detected by the strong wind detection unit downward.
  • the harvest amount prediction unit may stop the prediction of the harvest amount at the point where the strong wind is detected.
  • a rephotographing unit for reacquiring the image of the crop at the point where the strong wind is detected may be further provided when the strong wind is not detected.
  • the crop is rice in which paddy bears on the upper part in the length direction, and further includes a paddy counting unit for counting the number of paddy, and the yield predicting unit determines the crop length, the curvature, and the number of paddy. Based on this, the yield may be predicted.
  • the harvest amount prediction unit calculates at least one of the assumed range of the crop length and the curvature from which the harvest amount is harvested from the harvest amount predicted based on the number of paddy, and acquires the crop shape.
  • the yield may be corrected based on the acquired values.
  • the yield may be corrected upward.
  • the yield may be corrected downward.
  • the harvest amount prediction unit calculates a first harvest amount predicted based on the length and the curvature and a second harvest amount predicted based on the number of the paddy, and of the second harvest amount. Based on the value, it may be decided whether or not to adopt the first yield as a prediction result.
  • the harvest amount prediction unit may adopt the second harvest amount as a prediction result.
  • At least the photographing unit may be mounted on the flying object.
  • the yield prediction system includes a photographing unit that acquires an image of a growing crop, and the crop length of the crop and the curvature in the length direction based on the image. It is provided with a crop shape acquisition unit for acquiring the crop shape, a paddy counting unit for counting the number of paddy that bears on the crop, and a harvest amount prediction unit for predicting the yield from the crop based on the number of paddy.
  • the harvest amount prediction unit calculates at least one of the assumed range of the crop length and the curvature from which the harvest amount is harvested from the harvest amount predicted based on the number of paddy, and acquires the crop shape. When at least one of the acquired values of the crop length and the curvature acquired by the unit is not included in the assumed range, the yield is corrected based on the acquired values.
  • the yield prediction method includes a step of acquiring an image of a growing crop and a crop length of the crop and a curvature in the length direction based on the image. It is provided with a step of obtaining the crop and a step of predicting the yield from the crop based on the crop length and the curvature.
  • the yield prediction program includes an instruction to acquire an image of a growing crop and a crop length of the crop and a curvature in the length direction based on the image. And an instruction to predict the yield from the crop based on the crop length and the curvature, the computer is made to execute.
  • the computer program can be provided by downloading via a network such as the Internet, or can be recorded and provided on various computer-readable recording media such as a CD-ROM.
  • the yield of agricultural products can be predicted accurately.
  • the drone is regardless of the power means (electric power, prime mover, etc.) and the maneuvering method (wireless or wired, autonomous flight type, manual maneuvering type, etc.). It refers to all air vehicles with multiple rotor blades.
  • the rotor blades 101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b, 101-4a, 101-4b are It is a means for flying the Drone 100, and is equipped with eight aircraft (four sets of two-stage rotor blades) in consideration of the balance of flight stability, aircraft size, and power consumption.
  • Each rotor 101 is arranged on all sides of the main body 110 by an arm protruding from the main body 110 of the drone 100.
  • the rotors 101-1a and 101-1b are left rearward in the direction of travel, the rotors 101-2a and 101-2b are forward left, the rotors 101-3a and 101-3b are rearward right, and the rotor 101- 4a and 101-4b are arranged respectively.
  • the drone 100 has the traveling direction facing downward on the paper in FIG.
  • Rod-shaped legs 107-1, 107-2, 107-3, 107-4 extend downward from the rotation axis of the rotary blade 101, respectively.
  • Motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 102-4a, 102-4b are rotary blades 101-1a, 101-1b, 101-2a, 101- It is a means to rotate 2b, 101-3a, 101-3b, 101-4a, 101-4b (typically, it is an electric motor, but it may be a motor, etc.), and one is provided for one rotor. Has been done.
  • the motor 102 is an example of a propulsion device.
  • the upper and lower rotors (eg, 101-1a and 101-1b) in one set, and the corresponding motors (eg, 102-1a and 102-1b), are used for drone flight stability, etc.
  • the axes are on the same straight line and rotate in opposite directions.
  • the radial member for supporting the propeller guard provided so that the rotor does not interfere with foreign matter has a rather wobbling structure instead of horizontal. This is to encourage the member to buckle outside the rotor in the event of a collision and prevent it from interfering with the rotor.
  • the drug nozzles 103-1, 103-2, 103-3, 103-4 are means for spraying the drug downward and are equipped with four machines.
  • the term “drug” generally refers to a liquid or powder sprayed in a field such as a pesticide, a herbicide, a liquid fertilizer, an insecticide, a seed, and water.
  • the drug tank 104 is a tank for storing the sprayed drug, and is provided at a position close to the center of gravity of the drone 100 and at a position lower than the center of gravity from the viewpoint of weight balance.
  • the drug hoses 105-1, 105-2, 1053, 105-4 are means for connecting the drug tank 104 and the drug nozzles 103-1, 103-2, 103-3, 103-4, and are rigid. It may be made of the above material and also serve to support the drug nozzle.
  • the pump 106 is a means for discharging the drug from the nozzle.
  • FIG. 6 shows an overall conceptual diagram of a system using an embodiment of the drone 100 for chemical spraying according to the present invention.
  • This figure is a schematic diagram, and the scale is not accurate.
  • the drone 100, the actuator 401, the small mobile terminal 401a, and the base station 404 are connected to the farming cloud 405, respectively. These connections may be wireless communication by Wi-Fi, mobile communication system, or the like, or may be partially or wholly connected by wire.
  • the actuator 401 is a means for transmitting a command to the drone 100 by the operation of the user 402 and displaying information received from the drone 100 (for example, position, amount of medicine, remaining battery level, camera image, etc.).
  • a portable information device such as a general tablet terminal that runs a computer program.
  • the drone 100 according to the present invention is controlled to perform autonomous flight, but may be capable of manual operation during basic operations such as takeoff and return, and in an emergency.
  • an emergency operation device (not shown) having a function dedicated to emergency stop may be used.
  • the emergency manipulator may be a dedicated device provided with a large emergency stop button or the like so that an emergency response can be taken quickly.
  • the system may include a small mobile terminal 401a capable of displaying a part or all of the information displayed on the actuator 401, for example, a smart phone. Further, it may have a function of changing the operation of the drone 100 based on the information input from the small mobile terminal 401a.
  • the small mobile terminal 401a is connected to, for example, the base station 404, and can receive information and the like from the farming cloud 405 via the base station 404.
  • Field 403 is a rice field or field that is the target of chemical spraying by the drone 100. In reality, the terrain of field 403 is complicated, and the topographic map may not be available in advance, or the topographic map and the situation at the site may differ. Field 403 is usually adjacent to houses, hospitals, schools, other crop fields, roads, railroads, etc. In addition, intruders such as buildings and electric wires may exist in the field 403.
  • the base station 404 is a device that provides a master unit function for Wi-Fi communication, etc., and may also function as an RTK-GPS base station so that it can provide an accurate position of the drone 100 (Wi-).
  • the base unit function of Fi communication and the RTK-GPS base station may be independent devices).
  • the base station 404 may be able to communicate with the farming cloud 405 using mobile communication systems such as 3G, 4G, and LTE.
  • the farming cloud 405 is typically a group of computers operated on a cloud service and related software, and may be wirelessly connected to the actuator 401 by a mobile phone line or the like.
  • the farming cloud 405 may analyze the image of the field 403 taken by the drone 100, grasp the growing condition of the crop, and perform a process for determining the flight route.
  • the topographical information of the stored field 403 may be provided to the drone 100.
  • the history of the flight and captured images of the drone 100 may be accumulated and various analysis processes may be performed.
  • the small mobile terminal 401a is, for example, a smart phone or the like. On the display of the small mobile terminal 401a, information on expected operations regarding the operation of the drone 100, more specifically, the scheduled time when the drone 100 will return to the departure / arrival point 406, and the work to be performed by the user 402 at the time of return Information such as contents is displayed as appropriate. Further, the operation of the drone 100 and the mobile body 406a may be changed based on the input from the small mobile terminal 401a.
  • the small mobile terminal 401a can receive information from either the drone 100 or the mobile body 406a. Further, the information from the drone 100 may be transmitted to the small mobile terminal 401a via the mobile body 406a.
  • the drone 100 takes off from the departure / arrival point 406 outside the field 403 and returns to the departure / arrival point 406 after spraying the chemicals on the field 403 or when it becomes necessary to replenish or charge the chemicals.
  • the flight route (invasion route) from the departure / arrival point 406 to the target field 403 may be stored in advance in the farming cloud 405 or the like, or may be input by the user 402 before the start of takeoff.
  • the departure / arrival point 406 may be a virtual point defined by the coordinates stored in the drone 100, or may have a physical departure / arrival platform.
  • the drone 100, the actuator 401, the small mobile terminal 401a, and the farming cloud 405 may each be connected to the base station 404.
  • the drone 100, the actuator 401, and the small mobile terminal 401a are each connected to the base station 404, and only the actuator 401 is connected to the farming cloud 405. You may.
  • Drone 100 flies over field 403 and carries out work in the field.
  • one field 403 (example of work area), one drone 100 flies and works, but a plurality of drones may fly and work in one field 403.
  • the drone 100 sprays chemicals and photographs the inside of the field 403 while flying along a predetermined driving route in the field 403.
  • the driving route is, for example, a route that reciprocates in the field 403 and flies so as to scan, but any route may be used.
  • FIG. 9 shows a block diagram showing a control function of an embodiment of the drug spraying drone according to the present invention.
  • the flight controller 501 is a component that controls the entire drone, and may be an embedded computer including a CPU, memory, related software, and the like.
  • the flight controller 501 uses the input information received from the controller 401 and the input information obtained from various sensors described later, and the motors 102-1a and 102-1b via a control means such as ESC (Electronic Speed Control). , 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b to control the flight of the drone 100.
  • ESC Electronic Speed Control
  • the actual rotation speeds of the motors 102-1a, 102-1b, 102-2a, 102-2b, 102-3a, 102-3b, 104-a, 104-b are fed back to the flight controller 501, and normal rotation is performed. It is configured so that it can be monitored.
  • the rotary blade 101 may be provided with an optical sensor or the like so that the rotation of the rotary blade 101 is fed back to the flight controller 501.
  • the software used by the flight controller 501 can be rewritten through a storage medium for function expansion / change, problem correction, etc., or through communication means such as Wi-Fi communication or USB. In this case, protection is performed by encryption, checksum, electronic signature, virus check software, etc. so that rewriting by unauthorized software is not performed.
  • a part of the calculation process used by the flight controller 501 for control may be executed by another computer located on the controller 401, the farming cloud 405, or somewhere else. Due to the high importance of the flight controller 501, some or all of its components may be duplicated.
  • the flight controller 501 communicates with the actuator 401 via the Wi-Fi slave unit function 503 and further via the base station 404, receives necessary commands from the actuator 401, and receives necessary information from the actuator 401. Can be sent to 401. In this case, the communication may be encrypted so as to prevent fraudulent acts such as interception, spoofing, and device hijacking.
  • the base station 404 has the function of an RTK-GPS base station in addition to the communication function by Wi-Fi. By combining the signal from the RTK base station and the signal from the GPS positioning satellite, the flight controller 501 can measure the absolute position of the drone 100 with an accuracy of about several centimeters. Since the flight controller 501 is so important, it may be duplicated / multiplexed, and each redundant flight controller 501 should use a different satellite to cope with the failure of a specific GPS satellite. It may be controlled.
  • the 6-axis gyro sensor 505 is a means for measuring the acceleration of the drone aircraft in three directions orthogonal to each other, and further, a means for calculating the velocity by integrating the acceleration.
  • the 6-axis gyro sensor 505 is a means for measuring the change in the attitude angle of the drone aircraft in the above-mentioned three directions, that is, the angular velocity.
  • the geomagnetic sensor 506 is a means for measuring the direction of the drone body by measuring the geomagnetism.
  • the barometric pressure sensor 507 is a means for measuring barometric pressure, and can also indirectly measure the altitude of the drone.
  • the laser sensor 508 is a means for measuring the distance between the drone body and the ground surface by utilizing the reflection of the laser light, and may be an IR (infrared) laser.
  • the sonar 509 is a means for measuring the distance between the drone aircraft and the ground surface by utilizing the reflection of sound waves such as ultrasonic waves. These sensors may be selected according to the cost target and performance requirements of the drone. In addition, a gyro sensor (angular velocity sensor) for measuring the inclination of the aircraft, a wind power sensor for measuring wind power, and the like may be added. Moreover, these sensors may be duplicated or multiplexed.
  • the flight controller 501 may use only one of them, and if it fails, it may switch to an alternative sensor for use. Alternatively, a plurality of sensors may be used at the same time, and if the measurement results do not match, it may be considered that a failure has occurred.
  • the flow rate sensor 510 is a means for measuring the flow rate of the drug, and is provided at a plurality of locations on the route from the drug tank 104 to the drug nozzle 103.
  • the liquid drain sensor 511 is a sensor that detects that the amount of the drug has fallen below a predetermined amount.
  • the multispectral camera 512 is a means of photographing the field 403 and acquiring data for image analysis.
  • the intruder detection camera 513 is a camera for detecting a drone intruder, and is a device different from the multispectral camera 512 because the image characteristics and the orientation of the lens are different from those of the multispectral camera 512.
  • the switch 514 is a means for the user 402 of the drone 100 to make various settings.
  • the intruder contact sensor 515 is a sensor for detecting that the drone 100, in particular, its rotor or propeller guard part, has come into contact with an intruder such as an electric wire, a building, a human body, a tree, a bird, or another drone. ..
  • the intruder contact sensor 515 may be replaced by a 6-axis gyro sensor 505.
  • the cover sensor 516 is a sensor that detects that the operation panel of the drone 100 and the cover for internal maintenance are in the open state.
  • the drug inlet sensor 517 is a sensor that detects that the inlet of the drug tank 104 is in an open state. These sensors may be selected according to the cost target and performance requirements of the drone, and may be duplicated or multiplexed.
  • a sensor may be provided at the base station 404, the actuator 401, or some other place outside the drone 100, and the read information may be transmitted to the drone.
  • a wind power sensor may be provided in the base station 404 to transmit information on the wind power and the wind direction to the drone 100 via Wi-Fi communication.
  • the flight controller 501 sends a control signal to the pump 106 to adjust the drug discharge amount and stop the drug discharge.
  • the current status of the pump 106 (for example, the number of revolutions, etc.) is fed back to the flight controller 501.
  • the LED107 is a display means for notifying the drone operator of the drone status.
  • Display means such as a liquid crystal display may be used in place of or in addition to the LED.
  • the buzzer 518 is an output means for notifying the state of the drone (particularly the error state) by an audio signal.
  • the Wi-Fi slave unit function 519 is an optional component for communicating with an external computer or the like for transferring software, for example, in addition to the actuator 401.
  • other wireless communication means such as infrared communication, Bluetooth (registered trademark), ZigBee (registered trademark), NFC, or wired communication means such as USB connection You may use it.
  • the Wi-Fi slave unit function it may be possible to communicate with each other by a mobile communication system such as 3G, 4G, and LTE.
  • the speaker 520 is an output means for notifying the state of the drone (particularly the error state) by means of recorded human voice, synthetic voice, or the like. Depending on the weather conditions, it may be difficult to see the visual display of the drone 100 in flight. In such cases, voice communication is effective.
  • the warning light 521 is a display means such as a strobe light for notifying the state of the drone (particularly the error state). These input / output means may be selected according to the cost target and performance requirements of the drone, and may be duplicated / multiplexed.
  • the yield prediction system 500 is mainly composed of the drone 100 and the yield prediction device 300.
  • the drone 100 and the yield predictor 300 are connected wirelessly or by wire, can transmit and receive information, and may be connected via a network.
  • the configuration of the yield prediction device 300 may be incorporated in the drone 100.
  • Drone 100 has a flight control unit 21, a photographing unit 22, a strong wind detection unit 23, and a re-imaging unit 24.
  • the flight control unit 21 is a functional unit that operates the motor 102 of the drone 100 and controls the flight and takeoff and landing of the drone 100.
  • the flight control unit 21 is realized by, for example, the function of the flight controller 501.
  • the photographing unit 22 is a functional unit that acquires an image of a growing crop, and is realized by a camera such as a multispectral camera 512, for example.
  • the photographing unit 22 acquires an image capable of analyzing the growth state of the crop in particular.
  • the photographing unit 22 may further include an irradiation unit that irradiates the field 403 with light rays having a specific wavelength, and may be capable of receiving the reflected light of the light rays from the field 403.
  • the light rays having a specific wavelength may be, for example, red light (wavelength of about 650 nm) and near-infrared light (wavelength of about 774 nm).
  • the photographing unit 22 can acquire an image capable of analyzing the shape of the crop.
  • the strong wind detection unit 23 is a functional unit that detects wind that satisfies a predetermined condition to be blown on the crop. When a crop falls down due to a temporary strong wind, it becomes difficult to compare it with the previous diagnosis, and the diagnosis accuracy decreases depending on the direction of the fall. Therefore, the strong wind detection unit 23 detects a wind that cannot be photographed as planned and stores the detection point.
  • the strong wind detection unit 23 includes a wind speed measurement unit 231, a wind direction measurement unit 232, a strong wind determination unit 233, and a detection point storage unit 234.
  • the wind speed measurement unit 231 is a functional unit that measures the wind speed of the wind blowing in and around the drone 100.
  • the wind speed measuring unit 231 may record the measured wind speed over time.
  • the wind speed measuring unit 231 is a measuring unit that calculates the wind speed by measuring the stress generated by the wind with, for example, a contact detector. Further, the wind speed measuring unit 231 may have an anemometer such as a wind cup type or a wind turbine type. The wind speed measuring unit 231 may have a separate sensor that directly detects the wind speed. The wind speed measuring unit 231 may calculate the wind speed based on the difference between the current attitude angle and the attitude angle in the windless state.
  • the wind speed measuring unit 231 is configured to be able to measure the wind speed of the wind blowing on the drone 100 from all directions. Further, the wind speed measuring unit 231 may be configured to be capable of measuring the wind speed in the front-rear direction and the left-right direction in the normal flight state of the drone 100.
  • the wind speed measuring unit 231 may obtain the wind speed in the traveling direction to be blown on the drone 100 by subtracting the ground speed from the airspeed.
  • Ground speed is the speed of the drone 100 that is actually achieved relative to the ground.
  • the airspeed is the speed at which the propeller of the drone 100 converts the operating force exerted in consideration of the influence of the wind into the speed in a windless state in order to achieve a predetermined ground speed. Since the airspeed in the direction orthogonal to the traveling direction of the drone 100 is 0, the wind speed of the wind orthogonal to the traveling direction can be obtained by obtaining the ground speed.
  • the wind speed measuring unit 231 can obtain the direction of the wind blowing on the drone 100 by calculating the ground speed and the airspeed as a vector in consideration of the direction.
  • the wind speed measurement unit 231 includes a weight estimation unit 231-1, a ground speed calculation unit 231-2 for calculating the ground speed, and an airspeed calculation unit 231-3 for calculating the airspeed.
  • the weight estimation unit 231-1 is a functional unit that estimates the total weight m of the drone 100.
  • the weight estimation unit 231-1 may estimate the total weight m of the drone 100 including the load weight of the load, or after estimating the load weight of the load that can change, the weight does not change, for example.
  • the total weight m of the drone 100 including the load may be estimated by adding the weights of the flight controller 501, the rotor blade 101, the motor 102 and other accessories of the drone 100.
  • the load of variable weight is a drug in this embodiment.
  • the weight estimation unit 231-1 estimates the total weight m of the drone 100 including the load weight of the load based on the thrust T in the height direction exerted by the propulsion unit when the altitude of the drone 100 does not change. Good. This is because the thrust T in the height direction exerted by the propeller of the drone 100 is in balance with the gravitational acceleration g received by the drone 100 when the altitude of the drone 100 does not change.
  • the weight estimation unit 231-1 integrates the discharge flow rate from the drug tank 104 measured by the flow rate sensor 510 to obtain the drug discharge amount, and subtracts the drug discharge amount from the initially loaded drug amount to obtain the drug discharge amount.
  • the weight of 104 may be estimated. According to this configuration, the weight of the drug tank 104 can be estimated regardless of the flight state of the drone 100. Further, the weight estimation unit 231-1 may have a function of estimating the liquid level in the medicine tank 104, for example.
  • the weight estimation unit 231-1 may estimate the weight by using a liquid level gauge, a water pressure sensor, or the like arranged in the medicine tank 104.
  • the ground speed calculation unit 231-2 can calculate the ground speed by obtaining the absolute speed of space from the GPS module 504. Further, the ground speed measuring unit 242-1 can be obtained by the GPS modules RTK504-1,504-2 of the drone 100. Furthermore, the ground speed measuring unit 244-2 can also be obtained by integrating the acceleration of the drone 100 acquired by the 6-axis gyro sensor 505. That is, according to this configuration, it is possible to obtain the wind speed of the wind blown on the drone 100 with a simple configuration without mounting a separate wind speed measuring means on the drone 100.
  • the airspeed calculation unit 231-3 can obtain the airspeed based on the attitude angle ⁇ and the weight of the drone 100.
  • Fd (1/2) ⁇ ⁇ v a 2 S ⁇ Cd (2)
  • the air density ⁇ and the air resistance coefficient Cd is the air density ⁇ and the air resistance coefficient Cd.
  • the representative area S such as the front projected area is a value obtained in advance based on the size and shape of the drone 100.
  • the posture angle ⁇ holds the following equation with the drag force Fd.
  • Fd mg tan ⁇ (3)
  • m is the weight of the drone 100.
  • the airspeed v a can be obtained by the following equation by solving equations (1) and (2).
  • (4) g is the gravitational acceleration. In this way, the airspeed v a of the drone 100 can be obtained based on the attitude angle ⁇ and the weight m of the drone 100.
  • the wind direction measuring unit 232 is a functional unit that measures the wind direction of the wind blowing in and around the drone 100.
  • the wind direction measuring unit 232 may record the measured wind direction over time.
  • the strong wind determination unit 233 is a functional unit that determines strong winds based on the wind speed and direction.
  • the strong wind determination unit 233 may determine a temporary strong wind in real time or may determine it after the fact.
  • the strong wind determination unit 233 determines that the wind is strong when the measured wind speed is equal to or higher than a predetermined value.
  • the strong wind determination unit 233 does not detect the strong wind, it determines that the normal shooting is possible.
  • the drone 100 may suspend the flight and take refuge action.
  • the evacuation action may be, for example, a return to the departure / arrival point 406, or an emergency landing action of landing on the spot.
  • the detection point storage unit 234 is a functional unit that stores the detection point where a strong wind is detected.
  • the detected points are stored, for example, in three-dimensional coordinates.
  • the re-shooting unit 24 is a functional unit that re-flies at a point where a strong wind is detected by the strong wind determination unit 233 and re-shoots.
  • Each configuration of the complementary photographing unit 241 is the same as that of the photographing unit 221.
  • the complementary shooting unit 241 performs re-shooting when the strong wind determination unit 233 does not detect a strong wind, in other words, when it detects a state in which normal shooting is possible.
  • the yield amount prediction device 300 includes a crop shape acquisition unit 31 and a yield amount prediction unit 32.
  • the crop shape acquisition unit 31 is a functional unit that analyzes the image acquired by the photographing unit 221 and acquires information on the shape of the crop. More specifically, the crop shape acquisition unit 31 includes a paddy counting unit 311, a crop length acquisition unit 312, and a curvature acquisition unit 313.
  • the paddy counting unit 311 is a functional unit that counts the number of fruiting paddy based on the image acquired by the photographing unit 221.
  • the paddy counting unit 311 counts the number of paddy by analyzing chlorophyll by NDVI analysis based on the ratio of reflected light of red light (wavelength about 650 nm) and near infrared light (wavelength about 774 nm), for example.
  • the paddy counting unit 311 may perform a calculation process for converting the number of paddy to be counted into the actual number of paddy that bears fruit on the stem.
  • the crop length acquisition unit 312 is a functional unit that acquires the length of the crop from the ground surface.
  • the crop length acquisition unit 312 discriminates between soil and crops by, for example, image analysis, and calculates the crop length.
  • the curvature acquisition unit 313 is a functional unit that acquires the curvature in the length direction of the crop.
  • the crop shape acquisition unit 31 acquires the stem thickness, and the yield prediction unit 32, which will be described later, predicts the yield based on the length, curvature, and stem thickness. May be good.
  • the yield prediction unit 32 predicts the yield based on the length, curvature, and stem thickness. May be good.
  • the yield prediction unit 32 is a functional unit that predicts the yield from the crop based on the information acquired by the crop shape acquisition unit 31, that is, the length, curvature, and the number of paddy.
  • the crop shape acquisition unit 31 that is, the length, curvature, and the number of paddy.
  • paddy bears on the upper part in the length direction of the stem. Therefore, as the paddy swells, the rice stalk bends due to the weight of the paddy.
  • the greater the number of paddy seeds that bear fruit on one stem the greater the deflection of the rice stem. Therefore, the amount of paddy harvested from the crop can be predicted by obtaining the curvature of the rice in the length direction.
  • the yield prediction unit 32 predicts that the longer the crop and the larger the curvature, the higher the yield. According to this configuration, the amount of paddy can be predicted based on the shape of the stem even if the paddy is not sufficiently reflected in the captured image.
  • the yield prediction unit 32 predicts the yield based on the length, curvature, and the number of paddy, the yield can be predicted based on the indicators from multiple viewpoints, so that the yield is more accurate. Quantity prediction can be realized.
  • the crop shape acquisition unit 31 acquires the yield prediction unit 32.
  • the yield of the crop may be predicted based on any one of the crop length, the curvature in the length direction of the crop, and the thickness of the stem.
  • the crop shape acquisition unit 31 may acquire any two of the crop length, the curvature in the length direction of the crop, and the stem thickness, and more specifically, obtain the crop length and the stem thickness. It may be obtained, or the thickness and curvature of the stem may be obtained.
  • the yield prediction unit 32 may predict the yield from the crop based on the crop length and stem thickness acquired by the crop shape acquisition unit 31 or the stem thickness and curvature.
  • the yield prediction unit 32 makes a difference in the yield prediction result depending on whether or not the strong wind detection unit 23 detects a strong wind at the relevant point.
  • the yield prediction unit 32 can predict the yield more accurately by correcting the predicted value at the time when the strong wind is detected. More specifically, since the curvature of the crop becomes larger due to the wind in a strong wind, the yield prediction unit 32 corrects the predicted value obtained based on the curvature downward.
  • the yield prediction unit 32 may stop the prediction of the yield at the relevant point when a strong wind is detected. At this time, the user 402 may be notified through the actuator 401 or the like that the prediction has been stopped. The actuator 401 may superimpose and display the unpredictable points on the map of the field 403. The history information at which the prediction of the yield is stopped is stored together with the position of the point by the detection point storage unit 234.
  • the yield prediction unit 32 may determine whether to correct the predicted value of the yield or cancel the prediction according to the degree of wind.
  • the yield prediction unit 32 corrects the predicted value when the wind speed is equal to or higher than the first threshold value, which is the threshold value for strong wind, and is less than the second threshold value, which is greater than the first threshold value. At some point, the prediction may be stopped.
  • the yield prediction unit 32 may calculate the predicted second yield based on the number of paddy and correct the second yield based on the length and curvature. For example, the yield prediction unit 32 holds a table in which the second yield and the assumed range of the length and curvature of the strain from which the second harvest is harvested are associated with each other. The yield prediction unit 32 calculates the range of expected crop length and curvature of the strain based on the second yield. The yield prediction unit 32 determines whether the crop length acquired by the crop length acquisition unit 312 and the curvature acquired by the curvature acquisition unit 313 are within the range of the assumed crop length and curvature.
  • the yield prediction unit 32 determines the value of the second yield. Is adopted as the prediction result. If the crop length and curvature gains are not within the expected range of crop length and curvature, the second yield is corrected based on the length and curvature gains. Specifically, when the acquired values of the length and the curvature are larger than the assumed range, the yield prediction unit 32 corrects the second yield upward. When the acquired values of the length and the curvature are smaller than the assumed range, the yield prediction unit 32 corrects the second yield downward.
  • the yield prediction unit 32 calculates the first yield predicted based on the length and curvature and the second yield predicted based on the number of paddy, and is based on the value of the second yield. , You may decide whether or not to adopt the first yield as the prediction result. For example, when the difference between the first yield and the second yield is less than a predetermined value, it is determined that the second yield is accurately predicted, and the second yield is adopted as the prediction result. When the difference between the first yield and the second yield is large, if the first yield is larger than the second yield, it is judged that the paddy was not reflected in the shadow of other objects, and the first yield is determined. Adopt for prediction results.
  • the second yield is extremely small compared to the first yield, it is highly probable that the rice is flexing due to factors other than the weight of the paddy, and the second yield is adopted as the prediction result. You may. When the second yield is larger than the first yield by a predetermined value or more, the second yield is adopted as the prediction result.
  • the prediction results of the first yield and the second yield may be provided to the user 402 through the actuator 401 or the like, respectively. In addition, the user 402 may be notified of the information on which yield was adopted as the prediction result for each point.
  • Flowchart for drones to predict yield (1) As shown in FIG. 11, the drone 100 first flies in the field 403 and photographs the crops (S11). The crop length and curvature are then calculated based on the captured image (S12). The yield is then predicted based on the length and curvature of the crop (S13).
  • Steps S22 and S23 and steps S24 are in no particular order and may be performed at the same time.
  • the second yield is adopted as the prediction result (S26). If it is not within the expected range, determine whether the calculated crop length and curvature are larger than the expected range (S27). If it is larger than the expected range, the second yield is corrected upward (S28). If it is smaller than the expected range, the second yield is corrected downward (S29). The amount of correction may be constant or may differ depending on the difference between the calculated crop length and curvature and the assumed range.
  • Flow chart where the drone predicts the yield (3) As shown in FIG. 13, the drone 100 first flies in the field 403 and photographs the crops (S31). The length and curvature are then obtained to calculate the first yield (S32). The second yield is calculated by counting the number of paddy (S33). Note that steps S32 and S33 are in no particular order and may be performed at the same time. It is determined whether or not the difference between the first yield and the second yield is equal to or greater than a predetermined value (S34). When the difference between the first yield and the second yield is less than a predetermined value, the second yield is adopted as the prediction result (S35).
  • the first yield is adopted as the prediction result (S37).
  • the second yield is adopted as the prediction result (S38).
  • Step S44 may be performed at any time during the flight in the field 403 or after the flight in the field 403 is completed.
  • this explanation focused on the prediction of the yield of rice growing in the field, but this system is not limited to rice and can be applied to other crops. In particular, it can be applied to various crops in which fruit set or buds are attached to the upper part in the length direction of the crop and the stem or trunk bends due to the weight of the fruit or bud.
  • ⁇ Harvest time prediction system It is equipped with a harvest time prediction unit that predicts the harvest time when the crop is harvested based on at least one of the crop length, curvature, and stem thickness.
  • a harvest time prediction system may be configured together with 31. By analyzing the degree of growth such as crop length, curvature, and stem thickness, the time of harvest can be predicted.
  • the harvest time prediction unit may predict the harvest time by referring to a table in which the crop length, curvature, or stem thickness is associated with the predicted harvest time.
  • the harvest time prediction system may predict the harvest time based on any combination of crop length and stem thickness, stem thickness and curvature, and crop length and curvature.
  • the harvest time prediction system may also predict the harvest time based on crop length, curvature, and stem thickness.
  • an agricultural drone has been described as an example, but the technical idea of the present invention is not limited to this, and even a device for photographing and analyzing a field from land, water or water. Good.
  • the photographing unit is not limited to the one mounted on the moving body, and may not move.

Abstract

【課題】農作物の収穫量を精度良く予測する。 【解決策】 生育する作物の画像を取得する撮影部22と、画像に基づいて作物の作物長および長さ方向における曲率を取得する作物形状取得部31と、作物長および曲率に基づいて作物からの収穫量を予測する収穫量予測部32と、を備える、収穫量予測システム500。また、作物に結実する籾の数を計数する籾計数部311と、籾の数に基づいて作物からの収穫量を予測する収穫量予測部と、を備え、収穫量予測部は、籾の数に基づいて予測される収穫量から、収穫量が収穫される作物長および曲率の少なくともいずれかの想定範囲を算出し、作物形状取得部により取得される作物長および曲率の少なくともいずれかの取得値が想定範囲に含まれていないとき、取得値に基づいて前記収穫量を補正する。

Description

収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム
 本願発明は、収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システムに関する。
 成育する農作物の収穫量を予測するシステムが必要とされている。例えば、圃場の作物を人工衛星、ドローン、または、上空に設置されたカメラ等から撮影し、特に近赤外線領域のスペクトラムを分析することで、窒素の吸収量を推定する方法が提案されている(特許文献1)。しかしながら、カメラの撮影範囲や作物の向き等により、農作物に結実している収穫対象物、例えば稲における籾が撮影範囲に十分映っていない地点に関しては、収穫量を精度良く予測することが困難であった。より具体的には、籾が画像の死角になっている場合には、1株あたりの収穫量の予測が困難であった。そこで、籾が画像に十分映っていない場合であっても、収穫量を精度良く予測することができる収穫量予測システムが必要とされている。
 特許文献2には、植物の画像データを取得し、植物への給水の要否等を決定する情報処理装置が開示されている。特許文献3には、プラグトレイに植え付けられている苗の色、葉の枚数、葉面積、葉の長さ等に基づいて、植物の良、不良等を判別する植物要否判別制御装置が開示されている。特許文献4には、陸上に固定したカメラを用いて畝線および作物の上端部分を検出し、農作物の高さを算出する農作物画像処理プログラムが開示されている。
特許公開公報 特開2003-339238 特許公開公報 特開2018-108041 特許公開公報 特開平6-138041 特許公開公報 特開2012-198688
 農作物の収穫量を精度良く予測する収穫量予測システムを提供する。
 上記目的を達成するため、本発明の一の観点に係る収穫量予測システムは、生育する作物の画像を取得する撮影部と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、を備える。
 前記収穫量予測部は、前記作物長が長く、かつ前記曲率が大きいほど、前記収穫量が多いと予測するものとしてもよい。
 前記作物形状取得部は、前記画像に基づいて前記作物の茎の太さをさらに取得し、
 前記収穫量予測部は、前記作物長、前記曲率、および前記茎の太さに基づいて前記収穫量を予測するものとしてもよい。
 前記作物に吹き付ける風を検知する強風検知部をさらに備え、前記収穫量予測部は、前記強風検知部が強風を検知しているか否かで、前記収穫量の予測結果を異ならせるものとしてもよい。
 前記収穫量予測部は、前記強風検知部により強風が検知されている時点の予測値を、下方へ補正するものとしてもよい。
 前記収穫量予測部は、前記強風検知部により強風が検知されているとき、当該強風が検知される地点における前記収穫量の予測を中止するものとしてもよい。
 前記強風が検知された履歴がある場合において、前記強風を検知しないときに、当該強風が検知される地点の前記作物の画像を再取得する再撮影部をさらに備えるものとしてもよい。
 前記作物は前記長さ方向上部に籾が結実する稲であり、籾の数を計数する籾計数部をさらに備え、前記収穫量予測部は、前記作物長、前記曲率、および前記籾の数に基づいて、前記収穫量を予測するものとしてもよい。
 前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正するものとしてもよい。
 前記作物長および前記曲率の取得値が前記想定範囲よりも大きいとき、前記収穫量を上方に補正するものとしてもよい。
 前記作物長および前記曲率の取得値が前記想定範囲よりも小さいとき、前記収穫量を下方に補正するものとしてもよい。
 前記収穫量予測部は、前記長さおよび前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定するものとしてもよい。
 前記収穫量予測部は、前記第2収穫量が、前記第1収穫量より所定以上大きい場合、前記第2収穫量を予測結果として採用するものとしてもよい。
 少なくとも前記撮影部は飛行体に搭載されているものとしてもよい。
 上記目的を達成するため、本発明の別の観点に係る収穫量予測システムは、生育する作物の画像を取得する撮影部と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、前記作物に結実する籾の数を計数する籾計数部と、前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測部と、を備え、前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する。
 上記目的を達成するため、本発明のさらに別の観点に係る収穫量予測方法は、生育する作物の画像を取得するステップと、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得するステップと、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測するステップと、を備える。
 上記目的を達成するため、本発明のさらに別の観点に係る収穫量予測プログラムは、生育する作物の画像を取得する命令と、前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する命令と、前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する命令と、をコンピュータに実行させる。
 なお、コンピュータプログラムは、インターネット等のネットワークを介したダウンロードによって提供したり、CD-ROMなどのコンピュータ読取可能な各種の記録媒体に記録して提供したりすることができる。
 農作物の収穫量を精度良く予測することができる。
本願発明に係るドローンの平面図である。 上記ドローンの正面図である。 上記ドローンの右側面図である。 上記ドローンの背面図である。 上記ドローンの斜視図である。 上記ドローンが有する薬剤散布システムの全体概念図である。 上記ドローンが有する薬剤散布システムの別の例を示す全体概念図である。 上記ドローンが有する薬剤散布システムのさらに別の例を示す全体概念図である。 上記ドローンの制御機能を表した模式図である。 上記ドローンが有する機能ブロック図である。 上記ドローンが収穫量を予測するフローチャートである。 上記ドローンが収穫量を予測する第2実施形態を示すフローチャートである。 上記ドローンが収穫量を予測する第3実施形態を示すフローチャートである。 上記ドローンが強風を検知するときの様子を示すフローチャートである。
 以下、図を参照しながら、本願発明を実施するための形態について説明する。図はすべて例示である。以下の詳細な説明では、説明のために、開示された実施形態の完全な理解を促すために、ある特定の詳細について述べられている。しかしながら、実施形態は、これらの特定の詳細に限られない。また、図面を単純化するために、周知の構造および装置については概略的に示されている。
 まず、本発明にかかるドローンの構成について説明する。本願明細書において、ドローンとは、動力手段(電力、原動機等)、操縦方式(無線であるか有線であるか、および、自律飛行型であるか手動操縦型であるか等)を問わず、複数の回転翼を有する飛行体全般を指すこととする。
 図1乃至図5に示すように、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4b(ローターとも呼ばれる)は、ドローン100を飛行させるための手段であり、飛行の安定性、機体サイズ、および、電力消費量のバランスを考慮し、8機(2段構成の回転翼が4セット)備えられている。各回転翼101は、ドローン100の本体110からのび出たアームにより本体110の四方に配置されている。すなわち、進行方向左後方に回転翼101-1a、101-1b、左前方に回転翼101-2a、101-2b、右後方に回転翼101-3a、101-3b、右前方に回転翼101-4a、101-4bがそれぞれ配置されている。なお、ドローン100は図1における紙面下向きを進行方向とする。回転翼101の回転軸から下方には、それぞれ棒状の足107-1,107-2,107-3,107-4が伸び出ている。
 モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、102-4a、102-4bは、回転翼101-1a、101-1b、101-2a、101-2b、101-3a、101-3b、101-4a、101-4bを回転させる手段(典型的には電動機だが発動機等であってもよい)であり、一つの回転翼に対して1機設けられている。モーター102は、推進器の例である。1セット内の上下の回転翼(たとえば、101-1aと101-1b)、および、それらに対応するモーター(たとえば、102-1aと102-1b)は、ドローンの飛行の安定性等のために軸が同一直線上にあり、かつ、互いに反対方向に回転する。図2、および、図3に示されるように、ローターが異物と干渉しないよう設けられたプロペラガードを支えるための放射状の部材は水平ではなくやぐら状の構造である。衝突時に当該部材が回転翼の外側に座屈することを促し、ローターと干渉することを防ぐためである。
 薬剤ノズル103-1、103-2、103-3、103-4は、薬剤を下方に向けて散布するための手段であり4機備えられている。なお、本願明細書において、薬剤とは、農薬、除草剤、液肥、殺虫剤、種、および、水などの圃場に散布される液体または粉体を一般的に指すこととする。
 薬剤タンク104は散布される薬剤を保管するためのタンクであり、重量バランスの観点からドローン100の重心に近い位置でかつ重心より低い位置に設けられている。薬剤ホース105-1、105-2、105-3、105-4は、薬剤タンク104と各薬剤ノズル103-1、103-2、103-3、103-4とを接続する手段であり、硬質の素材から成り、当該薬剤ノズルを支持する役割を兼ねていてもよい。ポンプ106は、薬剤をノズルから吐出するための手段である。
 図6に本願発明に係るドローン100の薬剤散布用途の実施例を使用したシステムの全体概念図を示す。本図は模式図であって、縮尺は正確ではない。同図において、ドローン100、操作器401、小型携帯端末401a、基地局404は、営農クラウド405にそれぞれ接続されている。これらの接続は、Wi-Fiや移動通信システム等による無線通信を行ってもよいし、一部又は全部が有線接続されていてもよい。
 操作器401は、使用者402の操作によりドローン100に指令を送信し、また、ドローン100から受信した情報(たとえば、位置、薬剤量、電池残量、カメラ映像等)を表示するための手段であり、コンピューター・プログラムを稼働する一般的なタブレット端末等の携帯情報機器によって実現されてよい。本願発明に係るドローン100は自律飛行を行なうよう制御されるが、離陸や帰還などの基本操作時、および、緊急時にはマニュアル操作が行なえるようになっていてもよい。携帯情報機器に加えて、緊急停止専用の機能を有する非常用操作器(図示していない)を使用してもよい。非常用操作器は緊急時に迅速に対応が取れるよう大型の緊急停止ボタン等を備えた専用機器であってもよい。さらに、操作器401とは別に、操作器401に表示される情報の一部又は全部を表示可能な小型携帯端末401a、例えばスマートホンがシステムに含まれていてもよい。また、小型携帯端末401aから入力される情報に基づいて、ドローン100の動作が変更される機能を有していてもよい。小型携帯端末401aは、例えば基地局404と接続されていて、基地局404を介して営農クラウド405からの情報等を受信可能である。
 圃場403は、ドローン100による薬剤散布の対象となる田圃や畑等である。実際には、圃場403の地形は複雑であり、事前に地形図が入手できない場合、あるいは、地形図と現場の状況が食い違っている場合がある。通常、圃場403は家屋、病院、学校、他の作物圃場、道路、鉄道等と隣接している。また、圃場403内に、建築物や電線等の侵入者が存在する場合もある。
 基地局404は、Wi-Fi通信の親機機能等を提供する装置であり、RTK-GPS基地局としても機能し、ドローン100の正確な位置を提供できるようになっていてもよい(Wi-Fi通信の親機機能とRTK-GPS基地局が独立した装置であってもよい)。また、基地局404は、3G、4G、およびLTE等の移動通信システムを用いて、営農クラウド405と互いに通信可能であってもよい。
 営農クラウド405は、典型的にはクラウドサービス上で運営されているコンピュータ群と関連ソフトウェアであり、操作器401と携帯電話回線等で無線接続されていてもよい。営農クラウド405は、ドローン100が撮影した圃場403の画像を分析し、作物の生育状況を把握して、飛行ルートを決定するための処理を行ってよい。また、保存していた圃場403の地形情報等をドローン100に提供してよい。加えて、ドローン100の飛行および撮影映像の履歴を蓄積し、様々な分析処理を行ってもよい。
 小型携帯端末401aは例えばスマートホン等である。小型携帯端末401aの表示部には、ドローン100の運転に関し予測される動作の情報、より具体的にはドローン100が発着地点406に帰還する予定時刻や、帰還時に使用者402が行うべき作業の内容等の情報が適宜表示される。また、小型携帯端末401aからの入力に基づいて、ドローン100および移動体406aの動作を変更してもよい。小型携帯端末401aは、ドローン100および移動体406aのいずれからでも情報を受信可能である。また、ドローン100からの情報は、移動体406aを介して小型携帯端末401aに送信されてもよい。
 通常、ドローン100は圃場403の外部にある発着地点406から離陸し、圃場403に薬剤を散布した後に、あるいは、薬剤補充や充電等が必要になった時に発着地点406に帰還する。発着地点406から目的の圃場403に至るまでの飛行経路(侵入経路)は、営農クラウド405等で事前に保存されていてもよいし、使用者402が離陸開始前に入力してもよい。発着地点406は、ドローン100に記憶されている座標により規定される仮想の地点であってもよいし、物理的な発着台があってもよい。
 なお、図7に示す例のように、ドローン100、操作器401、小型携帯端末401a、営農クラウド405が、それぞれ基地局404と接続されている構成であってもよい。
 また、図8に示す例のように、ドローン100、操作器401、小型携帯端末401aが、それぞれ基地局404と接続されていて、操作器401のみが営農クラウド405と接続されている構成であってもよい。
 ドローン100は、圃場403の上空を飛行し、圃場内の作業を遂行する。本実施形態においては、1個の圃場403(作業エリアの例)1個のドローン100が飛行し、作業を行うが、1個の圃場403において複数のドローンが飛行および作業してもよい。ドローン100は、圃場403内にあらかじめ計画される運転経路に沿って飛行しながら、薬剤を散布したり、圃場403内を撮影したりする。運転経路は、例えば圃場403内を往復して、走査するように飛行する経路であるが、どのような経路であってもよい。
 図9に本願発明に係る薬剤散布用ドローンの実施例の制御機能を表したブロック図を示す。フライトコントローラー501は、ドローン全体の制御を司る構成要素であり、具体的にはCPU、メモリー、関連ソフトウェア等を含む組み込み型コンピュータであってよい。フライトコントローラー501は、操作器401から受信した入力情報、および、後述の各種センサーから得た入力情報に基づき、ESC(Electronic Speed Control)等の制御手段を介して、モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの回転数を制御することで、ドローン100の飛行を制御する。モーター102-1a、102-1b、102-2a、102-2b、102-3a、102-3b、104-a、104-bの実際の回転数はフライトコントローラー501にフィードバックされ、正常な回転が行なわれているかを監視できる構成になっている。あるいは、回転翼101に光学センサー等を設けて回転翼101の回転がフライトコントローラー501にフィードバックされる構成でもよい。
 フライトコントローラー501が使用するソフトウェアは、機能拡張・変更、問題修正等のために記憶媒体等を通じて、または、Wi-Fi通信やUSB等の通信手段を通じて書き換え可能になっている。この場合において、不正なソフトウェアによる書き換えが行なわれないように、暗号化、チェックサム、電子署名、ウィルスチェックソフト等による保護が行われている。また、フライトコントローラー501が制御に使用する計算処理の一部が、操作器401上、または、営農クラウド405上や他の場所に存在する別のコンピュータによって実行されてもよい。フライトコントローラー501は重要性が高いため、その構成要素の一部または全部が二重化されていてもよい。
 フライトコントローラー501は、Wi-Fi子機機能503を介して、さらに、基地局404を介して操作器401とやり取りを行ない、必要な指令を操作器401から受信すると共に、必要な情報を操作器401に送信できる。この場合に、通信には暗号化を施し、傍受、成り済まし、機器の乗っ取り等の不正行為を防止できるようにしておいてもよい。基地局404は、Wi-Fiによる通信機能に加えて、RTK-GPS基地局の機能も備えている。RTK基地局の信号とGPS測位衛星からの信号を組み合わせることで、フライトコントローラー501により、ドローン100の絶対位置を数センチメートル程度の精度で測定可能となる。フライトコントローラー501は重要性が高いため、二重化・多重化されていてもよく、また、特定のGPS衛星の障害に対応するため、冗長化されたそれぞれのフライトコントローラー501は別の衛星を使用するよう制御されていてもよい。
 6軸ジャイロセンサー505はドローン機体の互いに直交する3方向の加速度を測定する手段であり、さらに、加速度の積分により速度を計算する手段である。6軸ジャイロセンサー505は、上述の3方向におけるドローン機体の姿勢角の変化、すなわち角速度を測定する手段である。地磁気センサー506は、地磁気の測定によりドローン機体の方向を測定する手段である。気圧センサー507は、気圧を測定する手段であり、間接的にドローンの高度も測定することもできる。レーザーセンサー508は、レーザー光の反射を利用してドローン機体と地表との距離を測定する手段であり、IR(赤外線)レーザーであってもよい。ソナー509は、超音波等の音波の反射を利用してドローン機体と地表との距離を測定する手段である。これらのセンサー類は、ドローンのコスト目標や性能要件に応じて取捨選択してよい。また、機体の傾きを測定するためのジャイロセンサー(角速度センサー)、風力を測定するための風力センサーなどが追加されていてもよい。また、これらのセンサー類は、二重化または多重化されていてもよい。同一目的複数のセンサーが存在する場合には、フライトコントローラー501はそのうちの一つのみを使用し、それが障害を起こした際には、代替のセンサーに切り替えて使用するようにしてもよい。あるいは、複数のセンサーを同時に使用し、それぞれの測定結果が一致しない場合には障害が発生したと見なすようにしてもよい。
 流量センサー510は薬剤の流量を測定するための手段であり、薬剤タンク104から薬剤ノズル103に至る経路の複数の場所に設けられている。液切れセンサー511は薬剤の量が所定の量以下になったことを検知するセンサーである。マルチスペクトルカメラ512は圃場403を撮影し、画像分析のためのデータを取得する手段である。侵入者検知カメラ513はドローン侵入者を検知するためのカメラであり、画像特性とレンズの向きがマルチスペクトルカメラ512とは異なるため、マルチスペクトルカメラ512とは別の機器である。スイッチ514はドローン100の使用者402が様々な設定を行なうための手段である。侵入者接触センサー515はドローン100、特に、そのローターやプロペラガード部分が電線、建築物、人体、立木、鳥、または、他のドローン等の侵入者に接触したことを検知するためのセンサーである。なお、侵入者接触センサー515は、6軸ジャイロセンサー505で代用してもよい。カバーセンサー516は、ドローン100の操作パネルや内部保守用のカバーが開放状態であることを検知するセンサーである。薬剤注入口センサー517は薬剤タンク104の注入口が開放状態であることを検知するセンサーである。これらのセンサー類はドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。また、ドローン100外部の基地局404、操作器401、または、その他の場所にセンサーを設けて、読み取った情報をドローンに送信してもよい。たとえば、基地局404に風力センサーを設け、風力・風向に関する情報をWi-Fi通信経由でドローン100に送信するようにしてもよい。
 フライトコントローラー501はポンプ106に対して制御信号を送信し、薬剤吐出量の調整や薬剤吐出の停止を行なう。ポンプ106の現時点の状況(たとえば、回転数等)は、フライトコントローラー501にフィードバックされる構成となっている。
 LED107は、ドローンの操作者に対して、ドローンの状態を知らせるための表示手段である。LEDに替えて、または、それに加えて液晶ディスプレイ等の表示手段を使用してもよい。ブザー518は、音声信号によりドローンの状態(特にエラー状態)を知らせるための出力手段である。Wi-Fi子機機能519は操作器401とは別に、たとえば、ソフトウェアの転送などのために外部のコンピューター等と通信するためのオプショナルな構成要素である。Wi-Fi子機機能に替えて、または、それに加えて、赤外線通信、Bluetooth(登録商標)、ZigBee(登録商標)、NFC等の他の無線通信手段、または、USB接続などの有線通信手段を使用してもよい。また、Wi-Fi子機機能に替えて、3G、4G、およびLTE等の移動通信システムにより相互に通信可能であってもよい。スピーカー520は、録音した人声や合成音声等により、ドローンの状態(特にエラー状態)を知らせる出力手段である。天候状態によっては飛行中のドローン100の視覚的表示が見にくいことがあるため、そのような場合には音声による状況伝達が有効である。警告灯521はドローンの状態(特にエラー状態)を知らせるストロボライト等の表示手段である。これらの入出力手段は、ドローンのコスト目標や性能要件に応じて取捨選択してよく、二重化・多重化してもよい。
●収穫量予測システムの概要
 図10に示すように、収穫量予測システム500は、主にドローン100および収穫量予測装置300により構成される。ドローン100および収穫量予測装置300は無線又は有線により接続され、情報を送受信可能になっていて、ネットワークを通じて接続されていてもよい。なお、収穫量予測装置300の構成がドローン100に組み込まれていてもよい。
●ドローン100の構成
 ドローン100は、飛行制御部21、撮影部22、強風検知部23、再撮影部24を有する。
 飛行制御部21は、ドローン100が有するモータ102を稼働させ、ドローン100の飛行および離着陸を制御する機能部である。飛行制御部21は、例えばフライトコントローラー501の機能によって実現される。
 撮影部22は、生育する作物の画像を取得する機能部であり、例えばマルチスペクトルカメラ512等のカメラにより実現される。撮影部22は、特に作物の生育状況を分析できる画像を取得する。撮影部22は、圃場403に対して特定の波長の光線を照射する照射部をさらに備え、当該光線の圃場403からの反射光を受光可能になっていてもよい。特定の波長の光線は、例えば赤色光(波長約650nm)と近赤外光(波長約774nm)であってもよい。当該光線の反射光を分析することで、作物の窒素吸収量を推定し、ひいては作物の生育状況を分析することができる。
 また、撮影部22は、作物の形状を分析可能な画像を取得することができる。
 強風検知部23は、作物に吹き付ける所定の条件を満たす風を検知する機能部である。一時的な強い風により、作物が風で倒伏すると、以前の診断との比較が困難になったり、倒伏方向によっては診断精度が低下したりする。そこで、強風検知部23は、計画通りの撮影ができない風を検知して、当該検知地点を記憶する。
 強風検知部23は、風速測定部231、風向測定部232、強風判定部233および検知地点記憶部234を備える。
 風速測定部231は、ドローン100およびその周辺に吹く風の風速を測定する機能部である。風速測定部231は、測定される風速を時間と共に記録してもよい。
 風速測定部231は、例えば接触検知機により風によって発生する応力を測定することで風速を算出する測定部である。また、風速測定部231は、風杯型、風車型などの風速計を有していてもよい。風速測定部231は、風速を直接検知する別途のセンサを有していてもよい。風速測定部231は、現在の姿勢角と無風状態の姿勢角との差に基づいて風速を算出してもよい。
 風速測定部231は、ドローン100に吹きつける全方向からの風の風速を測定可能に構成されている。また、風速測定部231は、特に、ドローン100の通常飛行状態における前後方向および左右方向の風速を測定可能に構成されていてもよい。
 風速測定部231は、対気速度から対地速度を差し引くことにより、ドローン100に吹き付ける進行方向の風速を求めてもよい。対地速度は、地面に対して実際に実現されるドローン100の速度である。対気速度は、ドローン100の推進器が所定の対地速度を実現するために、風の影響を加味して発揮する稼働力を、無風状態における速度に変換したときの速度である。ドローン100の進行方向に直交する方向の対気速度は0であるから、対地速度を求めることで進行方向に直交する風の風速を求めることができる。風速測定部231は、対地速度および対気速度を、方向を加味してベクトルとして計算することにより、ドローン100に吹き付ける風の方向を求めることができる。
 風速測定部231は、重量推定部231-1と、対地速度を算出する対地速度算出部231-2と、対気速度を算出する対気速度算出部231-3と、を備える。
 重量推定部231-1は、ドローン100の総重量mを推定する機能部である。重量推定部231-1は、積載物の積載重量を含むドローン100の総重量mを推定してもよいし、変化し得る積載物の積載重量を推定した上で、重量が変化しない構成、例えばドローン100のフライトコントローラー501、回転翼101、モーター102その他補機の重量を加算することにより、積載物を含むドローン100の総重量mを推定してもよい。重量が変化し得る積載物は、本実施形態においては薬剤である。
 重量推定部231-1は、ドローン100の高度が変化しない状態において推進器が発揮する高さ方向の推力Tに基づいて、積載物の積載重量を含むドローン100の総重量mを推定してもよい。ドローン100の推進器が発揮する高さ方向の推力Tは、ドローン100の高度が変化しない状態において、ドローン100が受ける重力加速度gと釣り合っているためである。
 重量推定部231-1は、流量センサー510によって測定される薬剤タンク104からの吐出流量を積算して薬剤吐出量を求め、当初積載された薬剤量から薬剤吐出量を減算することにより、薬剤タンク104の重量を推定してもよい。本構成によれば、ドローン100の飛行状態に関わらず薬剤タンク104の重量を推定することができる。また、重量推定部231-1は、例えば薬剤タンク104内の液面高さを推定する機能を有していてもよい。重量推定部231-1は、薬剤タンク104内に配置される液面計又は水圧センサー等を用いて重量を推定してもよい。
 対地速度算出部231-2は、GPSモジュール504から空間の絶対速度を求めることで対地速度を算出できる。また、対地速度測定部242-1は、ドローン100が有するGPSモジュールRTK504-1,504-2により求めることができる。さらに、対地速度測定部242-2は、6軸ジャイロセンサー505により取得されるドローン100の加速度を積分することによっても求めることが可能である。すなわち、本構成によれば、ドローン100に別途の風速測定手段を搭載することなく、簡易な構成で、ドローン100に吹き付ける風の風速を求めることができる。
 対気速度算出部231-3は、ドローン100の姿勢角θおよび重量に基づいて対気速度を求めることができる。ドローン100が地面からの高度L、姿勢角0度で飛行しているときの薬剤投下点と、姿勢角θで飛行しているときの薬剤投下点との変位量Dは、以下の式の通り求められる。
D=L×tanθ          (1)
ドローン100が等速移動中又はホバリング中において、空気抵抗による抗力Fdと、対気速度vaとは、以下の式が成り立つ。
Fd=(1/2) × ρva 2 S×Cd           (2)
 なお、空気密度ρ、空気抵抗係数Cdである。前方投影面積等の代表面積Sは、ドローン100の大きさおよび形状に基づいてあらかじめ求められる値である。
 また、姿勢角θは、抗力Fdとの間に、以下の式が成り立つ。
Fd=mg tanθ                   (3)
 なお、mはドローン100の重量である。ドローン100が等速移動中又はホバリング中において、対気速度vaは、式(1)および(2)を解くことで、以下の式により求めることができる。
Figure JPOXMLDOC01-appb-I000001
               (4)
 gは、重力加速度である。このように、ドローン100の姿勢角θおよび重量mに基づいて、ドローン100の対気速度vaを求めることができる。
 風向測定部232は、ドローン100およびその周辺に吹く風の風向を測定する機能部である。風向測定部232は、測定される風向を時間と共に記録してもよい。
 強風判定部233は、風速および風向きに基づいて、強風を判定する機能部である。強風判定部233は、一時的な強い風をリアルタイムに判定してもよいし、事後的に判定してもよい。強風判定部233は、測定される風速が所定以上の風速である場合に、強風と判定する。強風判定部233は、強風を検知しないとき、通常撮影可能な状態であると判定する。強風が検知されるとき、ドローン100は飛行を中断して退避行動を取ってもよい。退避行動は、例えば発着地点406への帰還であってもよいし、その場に着陸する緊急着陸動作であってもよい。
 検知地点記憶部234は、強風が検知される検知地点を記憶する機能部である。検知した地点は、例えば3次元座標により記憶される。
 再撮影部24は、強風判定部233により強風が検知された地点を再飛行し、再撮影を行う機能部である。補完撮影部241の各構成は、撮影部221と同様である。補完撮影部241は、強風判定部233が強風を検知していないとき、言い換えれば通常撮影可能な状態を検知しているときに、再撮影を行う。
●収穫量予測装置300の構成
 収穫量予測装置300は、作物形状取得部31および収穫量予測部32を備える。
 作物形状取得部31は、撮影部221により取得される画像を分析して、作物の形状に関する情報を取得する機能部である。より具体的には、作物形状取得部31は、籾計数部311、作物長取得部312、および曲率取得部313を備える。
 籾計数部311は、撮影部221により取得される画像に基づいて、結実している籾の数を計数する機能部である。籾計数部311は、例えば、赤色光(波長約650nm)と近赤外光(波長約774nm)の反射光の割合に基づくNDVI解析によりクロロフィルを分析することにより、籾の個数を計数する。籾計数部311は、計数される籾の個数から、当該茎に結実している実際の籾の個数に変換する計算処理を行ってもよい。
 作物長取得部312は、作物の地表からの長さを取得する機能部である。作物長取得部312は、例えば画像解析により土と作物とを判別し、作物長を算出する。
 曲率取得部313は、作物の長さ方向の曲率を取得する機能部である。
 なお、作物形状取得部31は、上述に加えて、茎の太さを取得し、後述する収穫量予測部32は、長さ、曲率、および茎の太さに基づいて収穫量を予測してもよい。茎の太さを取得することで、籾が結実してたわんでいる作物を判別するパターンマッチングの精度が向上し、形状に基づく収穫量予測の精度がより向上する。
 収穫量予測部32は、作物形状取得部31により取得される情報、すなわち長さ、曲率および籾の数に基づいて、作物からの収穫量を予測する機能部である。作物は、成長するに従い地表から上方へ伸び上がるため、作物の長さが長くなるほど、成長している蓋然性が高い。作物、特に稲は、茎の長さ方向上部に籾が結実する。そのため、籾が膨らんでいくと、籾の重さで稲茎がたわむ。また、1つの茎に結実する籾の数が多いほど、稲茎のたわみが大きくなる。したがって、稲の長さ方向の曲率を求めることで、作物から収穫される籾の量を予測することができる。例えば、収穫量予測部32は、作物の長さが長く、かつ曲率が大きいほど、収穫量が多いと予測する。この構成によれば、撮影される画像に籾が十分映っていなくても、茎の形状に基づいて籾の量を予測することができる。
 また、長さおよび曲率のみに基づいて収穫量予測に用いるとすると、籾の重さ以外の要因で茎がたわんでいる株に関しては正確な収穫量予測が困難である。収穫量予測部32が、長さ、曲率および籾の数に基づいて収穫量を予測する構成によれば、複数の観点の指標に基づいて収穫量を予測することができるので、より正確な収穫量予測が実現できる。
 なお、作物形状取得部31が、作物長、作物の長さ方向の曲率および茎の太さのいずれか1つを取得した上で、収穫量予測部32は、作物形状取得部31が取得する作物長、作物の長さ方向の曲率および茎の太さのいずれか1つに基づいて、当該作物の収穫量を予測してもよい。また、作物形状取得部31は、作物長、作物の長さ方向の曲率および茎の太さのいずれか2つを取得してもよく、より具体的には、作物長および茎の太さを取得してもよいし、茎の太さおよび曲率を取得してもよい。そして、収穫量予測部32は、作物形状取得部31により取得される作物長および茎の太さ、又は茎の太さおよび曲率に基づいて、当該作物からの収穫量を予測してもよい。
 収穫量予測部32は、強風検知部23が当該地点において強風を検知しているか否かで、収穫量の予測結果を異ならせる。圃場403に強風が吹いていると、作物が倒伏され、無風又は弱風の状態とは異なる状態になる。したがって、収穫量予測部32は、強風が検知されている時点の予測値を補正することで、収穫量をより正確に予測することができる。より具体的には、強風時においては、作物の曲率は風により大きくなることから、収穫量予測部32は、曲率に基づいて得られる予測値を下方へ補正する。
 また、収穫量予測部32は、強風が検知されているとき、当該地点における収穫量の予測を中止してもよい。このとき、予測を中止した旨を、操作器401等を通じて使用者402に通知してもよい。操作器401は、予測ができなかった地点を圃場403の地図上に重ね合わせて表示してもよい。収穫量の予測を中止した履歴情報は、検知地点記憶部234によりその地点の位置とともに記憶される。
 収穫量予測部32は、風の程度に応じて、収穫量の予測値に補正を行うか、予測を中止するかを判別してもよい。収穫量予測部32は、風の風速が、強風の閾値である第1閾値以上であって、第1閾値より大きい第2閾値未満であるときには予測値を補正し、風速が第2閾値以上であるときには予測を中止してもよい。
 収穫量予測部32は、籾の数に基づいて予測される第2収穫量を算出し、長さおよび曲率に基づいて第2収穫量を補正してもよい。例えば、収穫量予測部32は、第2収穫量と、第2収穫量が収穫される株の長さおよび曲率の想定範囲とが互いに対応づけられるテーブルを保持している。収穫量予測部32は、第2収穫量に基づいて、想定される当該株の作物長および曲率の範囲を計算する。収穫量予測部32は、作物長取得部312により取得される作物長と、曲率取得部313により取得される曲率が、想定される作物長および曲率の範囲に含まれているか判定する。
 作物長および曲率の取得値が、作物長および曲率の想定範囲に含まれている場合、第2収穫量は正しく予測できていると判定され、収穫量予測部32は、第2収穫量の値を予測結果に採用する。作物長および曲率の取得値が、作物長および曲率の想定範囲に含まれていない場合、長さおよび曲率の取得値に基づいて、第2収穫量を補正する。具体的には、長さおよび曲率の取得値が、想定範囲よりも大きい場合、収穫量予測部32は、第2収穫量を上方に補正する。長さおよび曲率の取得値が、想定範囲よりも小さい場合、収穫量予測部32は、第2収穫量を下方に補正する。
 収穫量予測部32は、長さおよび曲率に基づいて予測される第1収穫量と、籾の数に基づいて予測される第2収穫量とを算出し、第2収穫量の値に基づいて、第1収穫量を予測結果として採用するか否かを決定してもよい。例えば、第1収穫量と第2収穫量の差が所定未満であるとき、第2収穫量は正確な予測がなされていると判断し、第2収穫量を予測結果に採用する。第1収穫量と第2収穫量の差が大きいとき、第1収穫量が第2収穫量より大きい場合は、籾が他の物体の影になって映らなかったと判断し、第1収穫量を予測結果に採用する。また、第1収穫量に対して極端に第2収穫量が小さい場合は、籾の重さ以外の要因で稲がたわんでいる蓋然性が高いと判断し、第2収穫量を予測結果に採用してもよい。第2収穫量が第1収穫量より所定以上大きい場合は、第2収穫量を予測結果に採用する。第1収穫量および第2収穫量の予測結果は、それぞれ操作器401等を通じて使用者402に提供されてもよい。また、いずれの収穫量を予測結果として採用したかの情報を、地点ごとに使用者402に通知してもよい。
●ドローンが収穫量を予測するフローチャート(1)
 図11に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S11)。次いで、撮影される画像に基づいて、作物の長さおよび曲率を算出する(S12)。次いで、作物の長さおよび曲率に基づいて、収穫量を予測する(S13)。
●ドローンが収穫量を予測するフローチャート(2)
 図12に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S21)。次いで、籾の数を計数して、第2収穫量を算出する(S22)。第2収穫量に基づいて、想定される作物長および曲率の範囲を計算する(S23)。この計算は、例えば、あらかじめ保持されている第2収穫量と作物長および曲率の想定範囲とのテーブルを参照して行う。また、画像に映り込んでいる茎の様子から、作物長および曲率を算出する(S24)。ステップS22およびS23と、ステップS24は順不同であり、同時に行われてもよい。
 次いで、算出される作物長および曲率が、第2収穫量に基づく想定の範囲内か否か判定する(S25)。想定範囲内である場合、第2収穫量を予測結果に採用する(S26)。想定範囲内ではない場合、算出される作物長および曲率が、想定範囲より大きいか否か判定する(S27)。想定範囲より大きい場合、第2収穫量を上方に補正する(S28)。想定範囲より小さい場合、第2収穫量を下方に補正する(S29)。補正量は、一定であってもよいし、算出される作物長および曲率と想定範囲との差に応じて異なっていてもよい。
●ドローンが収穫量を予測するフローチャート(3)
 図13に示すように、まず、ドローン100が圃場403内を飛行し、作物を撮影する(S31)。次いで、長さおよび曲率を取得して第1収穫量を算出する(S32)。籾の数を計数して第2収穫量を算出する(S33)。なお、ステップS32およびS33は順不同であり、同時に行われてもよい。第1収穫量と第2収穫量の差が所定以上か否か判定する(S34)。第1収穫量と第2収穫量の差が所定未満であるとき、第2収穫量を予測結果に採用する(S35)。第1収穫量と第2収穫量の差が所定以上である場合であって、第1収穫量が第2収穫量より大きい場合は、第1収穫量を予測結果に採用する(S37)。第2収穫量が第1収穫量より大きい場合は、第2収穫量を予測結果に採用する(S38)。
●強風を検知して再飛行を行うフローチャート
 図14に示すように、まず、ドローン100は、圃場403を飛行し、圃場内を撮影する(S41)。圃場403の飛行中に強風を検知すると(S42)、強風の検知地点を記憶する(S43)。強風検知部23は、継続的に又は定期的に強風の有無を検知し、強風が停止を判定する(S44)。強風の停止が判定されるとき、検知地点を再飛行し、再撮影を行う(S45)。ステップS44は、圃場403内の飛行中に随時行ってもよいし、圃場403内の飛行が完了した後に行ってもよい。
 なお、本説明においては、圃場に生育する稲の収穫量予測を中心に説明したが、本システムは稲に限られず、他の作物にも適用可能である。特に、作物の長さ方向上部に結実、又は蕾がつき、当該実又は蕾の重さで茎又は幹がたわむような種々の作物に適用可能である。
●収穫時期予測システム
 なお、作物長、曲率、および茎の太さの少なくともいずれかに基づいて当該作物が収穫される収穫時期を予測する収穫時期予測部を備え、撮影部211および作物形状取得部31とともに収穫時期予測システムを構成してもよい。作物長、曲率、および茎の太さなどの成長の程度を分析することで、収穫できる時期が予測できる。例えば、収穫時期予測部は、作物長、曲率、又は茎の太さと、予測される収穫時期と、が対応付けられるテーブルを参照し、収穫時期を予測してもよい。
 収穫時期予測システムは、作物長および茎の太さ、茎の太さおよび曲率、作物長および曲率、のいずれかの組み合わせに基づいて収穫時期を予測してもよい。また、収穫時期予測システムは、作物長、曲率、および茎の太さに基づいて収穫時期を予測してもよい。
 また、本説明においては、農業用ドローンを例に説明したが、本発明の技術的思想はこれに限られるものではなく、陸上、水上又は水中から圃場を撮影し、分析する装置であってもよい。また、撮影部が動体に搭載されるものに限られず、移動しないものであってもよい。
(本願発明による技術的に顕著な効果)
 本発明にかかるドローンにおいては、農作物の収穫量を精度良く予測することができる。

 

Claims (23)

  1.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、
     前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、
    を備える、
    収穫量予測システム。
  2.  前記収穫量予測部は、前記作物長が長く、かつ前記曲率が大きいほど、前記収穫量が多いと予測する、
    請求項1記載の収穫量予測システム。
  3.  前記作物形状取得部は、前記画像に基づいて前記作物の茎の太さをさらに取得し、
     前記収穫量予測部は、前記作物長、前記曲率、および前記茎の太さに基づいて前記収穫量を予測する、
    請求項1又は2記載の収穫量予測システム。
  4.  前記作物に吹き付ける風を検知する強風検知部をさらに備え、
     前記収穫量予測部は、前記強風検知部が強風を検知しているか否かで、前記収穫量の予測結果を異ならせる、
    請求項1乃至3のいずれかに記載の収穫量予測システム。
  5.  前記収穫量予測部は、前記強風検知部により強風が検知されている時点の予測値を、下方へ補正する、
    請求項4記載の収穫量予測システム。
  6.  前記収穫量予測部は、前記強風検知部により強風が検知されているとき、当該強風が検知される地点における前記収穫量の予測を中止する、
    請求項4又は5記載の収穫量予測システム。
  7.  前記強風が検知された履歴がある場合において、前記強風を検知しないときに、当該強風が検知される地点の前記作物の画像を再取得する再撮影部をさらに備える、
    請求項4乃至6のいずれかに記載の収穫量予測システム。
  8.  前記作物は前記長さ方向上部に籾が結実する稲であり、
     籾の数を計数する籾計数部をさらに備え、
     前記収穫量予測部は、前記作物長、前記曲率、および前記籾の数に基づいて、前記収穫量を予測する、
    請求項1乃至7のいずれかに記載の収穫量予測システム。
  9.  前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、
    請求項8記載の収穫量予測システム。
  10.  前記作物長および前記曲率の取得値が前記想定範囲よりも大きいとき、前記収穫量を上方に補正する、
    請求項9記載の収穫量予測システム。
  11.  前記作物長および前記曲率の取得値が前記想定範囲よりも小さいとき、前記収穫量を下方に補正する、
    請求項9又は10記載の収穫量予測システム。
  12.  前記収穫量予測部は、前記長さおよび前記曲率に基づいて予測される第1収穫量と、前記籾の数に基づいて予測される第2収穫量とを算出し、前記第2収穫量の値に基づいて、前記第1収穫量を予測結果として採用するか否かを決定する、
    請求項8乃至11のいずれかに記載の収穫量予測システム。
  13.  前記収穫量予測部は、前記第2収穫量が、前記第1収穫量より所定以上大きい場合、前記第2収穫量を予測結果として採用する、
    請求項12のいずれかに記載の収穫量予測システム。
  14.  少なくとも前記撮影部は飛行体に搭載されている、
    請求項1乃至13のいずれかに記載の収穫量予測システム。
  15.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する作物形状取得部と、
     前記作物に結実する籾の数を計数する籾計数部と、
     前記籾の数に基づいて前記作物からの収穫量を予測する収穫量予測部と、
    を備え、
    前記収穫量予測部は、前記籾の数に基づいて予測される前記収穫量から、前記収穫量が収穫される前記作物長および前記曲率の少なくともいずれかの想定範囲を算出し、前記作物形状取得部により取得される前記作物長および前記曲率の少なくともいずれかの取得値が前記想定範囲に含まれていないとき、前記取得値に基づいて前記収穫量を補正する、
    収穫量予測システム。
  16.  生育する作物の画像を取得するステップと、
     前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得するステップと、
     前記作物長および前記曲率に基づいて前記作物からの収穫量を予測するステップと、
    を備える、
    収穫量予測方法。
  17.  生育する作物の画像を取得する命令と、
     前記画像に基づいて前記作物の作物長および前記長さ方向における曲率を取得する命令と、
     前記作物長および前記曲率に基づいて前記作物からの収穫量を予測する命令と、
    をコンピュータに実行させる、
    収穫量予測プログラム。
  18.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の作物長、前記作物の長さ方向における曲率、前記作物の茎の太さのいずれか1つを取得する作物形状取得部と、
     前記作物長、前記曲率、前記茎の太さのいずれか1つに基づいて前記作物からの収穫量を予測する収穫量予測部と、
    を備える、
    収穫量予測システム。
  19.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の作物長および前記作物の茎の太さを取得する作物形状取得部と、
     前記作物長および前記茎の太さに基づいて前記作物からの収穫量を予測する収穫量予測部と、
    を備える、
    収穫量予測システム。
  20.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の茎の太さおよび前記作物の長さ方向における曲率を取得する作物形状取得部と、
     前記茎の太さおよび前記曲率に基づいて前記作物からの収穫量を予測する収穫量予測部と、
    を備える、
    収穫量予測システム。
  21.  生育する作物の画像を取得する撮影部と、
     前記画像に基づいて前記作物の作物長、前記作物の長さ方向における曲率、前記作物の茎の太さの少なくともいずれかを取得する作物形状取得部と、
     前記作物長、前記曲率、前記茎の太さの少なくともいずれかに基づいて前記作物からの収穫時期を予測する収穫時期予測部と、
    を備える、
    収穫時期予測システム。
  22.  前記収穫時期予測部は、前記作物長および前記茎の太さ、前記茎の太さおよび前記曲率、前記作物長および前記曲率のいずれかに基づいて前記収穫時期を予測する、
    請求項21に記載の収穫時期予測システム。
  23.  前記収穫時期予測部は、前記茎の太さおよび前記曲率および前記茎の太さに基づいて前記収穫時期を予測する、
    請求項21に記載の収穫時期予測システム。

     
PCT/JP2020/011086 2019-03-18 2020-03-13 収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム WO2020189553A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021507304A JP7169022B2 (ja) 2019-03-18 2020-03-13 収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019049395 2019-03-18
JP2019-049395 2019-03-18

Publications (1)

Publication Number Publication Date
WO2020189553A1 true WO2020189553A1 (ja) 2020-09-24

Family

ID=72519320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011086 WO2020189553A1 (ja) 2019-03-18 2020-03-13 収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム

Country Status (2)

Country Link
JP (1) JP7169022B2 (ja)
WO (1) WO2020189553A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045286A (ja) * 2009-08-27 2011-03-10 Institute Of National Colleges Of Technology Japan 植物の成長制御装置およびその方法
JP2011167163A (ja) * 2010-02-22 2011-09-01 Pasuko:Kk 水稲収量予測モデル生成方法、及び水稲収量予測方法
JP2012055207A (ja) * 2010-09-07 2012-03-22 Nikon Corp 植物栽培システム、植物栽培プラント、収穫装置及び植物栽培方法
JP2012191903A (ja) * 2011-03-17 2012-10-11 Nikon Corp 植物選別装置、ロボット、植物栽培システム、植物選別方法、及びプログラム
JP2012198688A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置
CN102778212A (zh) * 2012-08-02 2012-11-14 浙江大学 一种利用数码相机获取水稻冠层叶面积指数的方法及装置
CN107092891A (zh) * 2017-04-25 2017-08-25 无锡中科智能农业发展有限责任公司 一种基于机器视觉技术的水稻估产系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045286A (ja) * 2009-08-27 2011-03-10 Institute Of National Colleges Of Technology Japan 植物の成長制御装置およびその方法
JP2011167163A (ja) * 2010-02-22 2011-09-01 Pasuko:Kk 水稲収量予測モデル生成方法、及び水稲収量予測方法
JP2012055207A (ja) * 2010-09-07 2012-03-22 Nikon Corp 植物栽培システム、植物栽培プラント、収穫装置及び植物栽培方法
JP2012191903A (ja) * 2011-03-17 2012-10-11 Nikon Corp 植物選別装置、ロボット、植物栽培システム、植物選別方法、及びプログラム
JP2012198688A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置
CN102778212A (zh) * 2012-08-02 2012-11-14 浙江大学 一种利用数码相机获取水稻冠层叶面积指数的方法及装置
CN107092891A (zh) * 2017-04-25 2017-08-25 无锡中科智能农业发展有限责任公司 一种基于机器视觉技术的水稻估产系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIRAI YASUMARU ET AL.: "Mechanical consideration on an initial posture of rice culm at harvest", JOURNAL OF THE JAPANESE SOCIETY OF AGRICULTURAL MACHINERY, vol. 65, 1 April 2003 (2003-04-01), pages 285 - 286, ISSN: 1884-6025 *

Also Published As

Publication number Publication date
JP7169022B2 (ja) 2022-11-10
JPWO2020189553A1 (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6752481B2 (ja) ドローン、その制御方法、および、プログラム
JP6762629B2 (ja) 圃場作物撮影方法および撮影用ドローン
JP6733948B2 (ja) ドローン、その制御方法、および、制御プログラム
JP7176785B2 (ja) ドローン、ドローンの制御方法、および、ドローン制御プログラム
JP7353630B2 (ja) ドローンの制御システム、ドローンの制御方法およびドローン
JP6913979B2 (ja) ドローン
JP7008999B2 (ja) 運転経路生成システム、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP7359464B2 (ja) 農作物育成システム
JP6973829B2 (ja) 圃場撮影用カメラ
JP6982908B2 (ja) 運転経路生成装置、運転経路生成方法、および運転経路生成プログラム、ならびにドローン
JP2022084735A (ja) ドローン、ドローンの制御方法、および、ドローンの制御プログラム
WO2020189553A1 (ja) 収穫量予測システム、収穫量予測方法、および収穫量予測プログラム、ならびに収穫時期予測システム
WO2021255885A1 (ja) 散布システム、散布方法、およびドローン
WO2021152741A1 (ja) 農作物育成システム
JP7011233B2 (ja) 散布システムおよび散布管理装置
JP6996791B2 (ja) ドローン、ドローンの制御方法、および、ドローン制御プログラム
JP7411259B2 (ja) 植物の病理診断システム、植物の病理診断方法、植物の病理診断装置、およびドローン
JP6806403B2 (ja) ドローン、ドローンの制御方法、および、ドローン制御プログラム
WO2021166175A1 (ja) ドローンシステム、操作器および作業エリアの定義方法
WO2021205559A1 (ja) 表示装置、ドローンの飛行可否判定装置、ドローン、ドローンの飛行可否判定方法、およびコンピュータプログラム
WO2021224970A1 (ja) 測位システム、移動体、速度推定システム、測位方法、および速度推定方法
JP7075127B2 (ja) 圃場分析方法、圃場分析プログラム、圃場分析装置、ドローンシステムおよびドローン
WO2021205501A1 (ja) 再測量要否判定装置、測量システム、ドローンシステム、および再測量要否判定方法
WO2021199243A1 (ja) 測位システム、ドローン、測量機、および測位方法
JP7387195B2 (ja) 圃場管理システム、圃場管理方法およびドローン

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20774454

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021507304

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20774454

Country of ref document: EP

Kind code of ref document: A1