WO2018181041A1 - 圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2018181041A1
WO2018181041A1 PCT/JP2018/011828 JP2018011828W WO2018181041A1 WO 2018181041 A1 WO2018181041 A1 WO 2018181041A1 JP 2018011828 W JP2018011828 W JP 2018011828W WO 2018181041 A1 WO2018181041 A1 WO 2018181041A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
failure
phenomenon caused
facility
field
Prior art date
Application number
PCT/JP2018/011828
Other languages
English (en)
French (fr)
Inventor
恒輔 石田
石川 肇
真二 大湊
俊祐 秋元
眞太郎 松本
雅美 坂口
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2019509728A priority Critical patent/JP7099723B2/ja
Priority to EP18776388.3A priority patent/EP3605435A4/en
Priority to US16/496,644 priority patent/US11461884B2/en
Publication of WO2018181041A1 publication Critical patent/WO2018181041A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/02Investigating fluid-tightness of structures by using fluid or vacuum
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G25/00Watering gardens, fields, sports grounds or the like
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/38Investigating fluid-tightness of structures by using light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/24Earth materials
    • G01N33/246Earth materials for water content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G25/00Watering gardens, fields, sports grounds or the like
    • A01G25/16Control of watering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N22/00Investigating or analysing materials by the use of microwaves or radio waves, i.e. electromagnetic waves with a wavelength of one millimetre or more
    • G01N22/04Investigating moisture content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Definitions

  • the present invention relates to an agricultural field management apparatus and an agricultural field management method for managing an agricultural field, and further relates to a computer-readable recording medium in which a program for realizing these is recorded.
  • Patent Document 1 discloses an agricultural system that collects various data using a camera, a multispectral sensor, a sap flow sensor, a temperature sensor, a soil temperature sensor, an unmanned airplane that collects image data, and the like installed in a farm field. Is disclosed.
  • the agricultural system disclosed in Patent Literature 1 supports producers by applying various collected data to a learning model and specifying actions to be taken by producers. For example, the agricultural system disclosed in Patent Literature 1 can warn a producer to maintain within a few days if there is a problem with an irrigation facility based on the collected data. As a result, the producer can notice the failure of the irrigation facility, and can operate the farm stably.
  • Patent Document 2 also discloses a system that supports the producer based on sensor data output by various sensors installed in the field.
  • it is difficult to determine whether there is an abnormality simply by collecting sensor data. Therefore, attributes are defined according to the installation location, and various sensors are classified into the attributes. And the system disclosed by patent document 2 detects abnormality of a farm field by comparing sensor data for every attribute.
  • An example of the object of the present invention is to provide an agricultural field management apparatus, an agricultural field management method, and a computer-readable recording medium that can solve the above-described problems and can detect abnormalities in an agricultural field facility without increasing the number of sensors. There is.
  • a field management device includes: A learning model is obtained by learning a feature amount of an image of a phenomenon caused by a failure of the field facility using an image of a phenomenon caused by the failure of the field facility and an image of a phenomenon caused by normal operation of the field facility.
  • a learning model generation unit for generating An image acquisition unit that acquires an aerial image of the target area; Applying the sky image acquired by the image acquisition unit to the learning model generated by the learning model generation unit, and a phenomenon caused by a failure of the field facility in the sky image acquired by the image acquisition unit
  • An image specifying unit for specifying an image;
  • a failure location identifying unit that identifies a failure location of the field facility in the target area based on an image of a phenomenon caused by the failure of the field facility identified by the image identification unit; It is characterized by having.
  • a field management method includes: (A) By learning the feature amount of the image of the phenomenon caused by the failure of the field facility using the image of the phenomenon caused by the failure of the field facility and the image of the phenomenon caused by the normal operation of the field facility Generating a learning model, steps, (B) obtaining a sky image of the target area; (C) Applying the sky image acquired in the step (b) to the learning model generated in the step (a), and the field in the sky image acquired in the step (b) Identifying an image of a phenomenon caused by a facility failure; (D) identifying a failure location of the field facility in the target region based on an image of a phenomenon caused by the failure of the field facility identified in the step of (c); It is characterized by having.
  • a computer-readable recording medium On the computer, (A) By learning the feature amount of the image of the phenomenon caused by the failure of the field facility using the image of the phenomenon caused by the failure of the field facility and the image of the phenomenon caused by the normal operation of the field facility Generating a learning model, steps, (B) obtaining a sky image of the target area; (C) Applying the sky image acquired in the step (b) to the learning model generated in the step (a), and the field in the sky image acquired in the step (b) Identifying an image of a phenomenon caused by a facility failure; (D) identifying a failure location of the field facility in the target region based on an image of a phenomenon caused by the failure of the field facility identified in the step of (c); It records the program containing the command which performs.
  • FIG. 1 is a block diagram illustrating a configuration of a field management device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram for explaining learning model generation processing according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram for explaining another example of learning model generation processing according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing an operation during the learning model generation process by the support vector machine of the field management device according to the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing an operation during learning model generation processing by deep learning of the field management device according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of a field management device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram for explaining learning model generation processing according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram for explaining another example of learning model generation processing according to Embodiment 1 of the
  • FIG. 6 is a flowchart showing an operation at the time of failure location specifying processing of the field management device in Embodiment 1 of the present invention.
  • FIG. 7 is a diagram for explaining learning model generation processing according to Embodiment 2 of the present invention.
  • FIG. 8 is a diagram for explaining another example of learning model generation processing according to Embodiment 2 of the present invention.
  • FIG. 9 is a flowchart showing an operation during learning model generation processing by the support vector machine of the field management device according to the second embodiment of the present invention.
  • FIG. 10: is a flowchart which shows the operation
  • FIG. 11 is a flowchart which shows the operation
  • FIG. 12 is a block diagram showing the configuration of the field management device according to Embodiment 3 of the present invention.
  • FIG. 13 is a flowchart which shows the operation
  • FIG. 14 is a block diagram showing a configuration of a field management device according to Embodiment 4 of the present invention.
  • FIG. 15 is a diagram showing an example of the division set in the target area in the fourth embodiment of the present invention.
  • FIG. 16 is a flowchart showing the operation at the time of failure location specifying processing of the field management device according to the fourth embodiment of the present invention.
  • FIG. 17 is a block diagram showing an example of a computer that implements the field management device according to the first to fourth embodiments of the present invention.
  • Embodiment 1 an agricultural field management apparatus, an agricultural field management method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS.
  • FIG. 1 is a block diagram illustrating a configuration of a field management device according to Embodiment 1 of the present invention.
  • a field management device 10 according to the first embodiment shown in FIG. 1 is a device for identifying a failure location of a field facility installed in a field.
  • the agricultural field management apparatus 10 includes a learning model generation unit 11, an image acquisition unit 12, an image specification unit 13, and a failure location specification unit 14.
  • the learning model generation unit 11 includes an image of a phenomenon caused by a failure of the farm facility (hereinafter referred to as “failure phenomenon image”), and an image of a phenomenon caused by the normal operation of the farm facility (hereinafter referred to as “normal phenomenon image”).
  • the learning model 15 is generated by learning the feature amount of the failure phenomenon image.
  • the failure phenomenon image and the normal phenomenon image can be, for example, an aerial image obtained by photographing the field that is the target region from above.
  • the image applied to the learning model 15 is the sky image
  • the image used by the learning model generation unit 11 to generate the learning model 15 is also preferably the sky image.
  • a sky image obtained by photographing a farm field from above is obtained by photographing the farm field from above using, for example, an artificial satellite, an aircraft, a drone, or the like.
  • the learning model 15 when using an aerial image obtained by photographing the field from the sky with an artificial satellite, an aircraft, a drone, or the like, a failure phenomenon image and a normal phenomenon image are included in one aerial image. May be included.
  • the failure phenomenon image and the normal phenomenon image can be cut out from the sky image and used to generate the learning model 15.
  • learning may be performed using “failure phenomenon images” and “images including both failure phenomenon images and normal phenomenon images”.
  • improvement in the accuracy of the learning model can be expected.
  • the farm facility is an irrigation facility
  • the phenomenon caused by the failure is the occurrence of a puddle due to a water leak
  • the outer shape of the facility itself may be a failure phenomenon. It does not change on the image in the normal case. Therefore, by using “an image including both a failure phenomenon image and a normal phenomenon image”, it becomes possible to learn the characteristics of the failure phenomenon image more accurately.
  • the image specifying unit 13 applies the sky image acquired by the image acquisition unit 12 to the learning model 15 generated by the learning model generation unit 11 and is caused by a failure of the field facility in the sky image acquired by the image acquisition unit 12.
  • the image of the phenomenon to be performed (failure phenomenon image) is specified.
  • the failure location specifying unit 14 specifies the failure location of the field facility in the target area based on the failure phenomenon image specified by the image specifying unit 13. For example, the failure location specifying unit 14 can specify the failure location of the farm facility based on the position information included in the failure phenomenon image.
  • the learning model generation unit 11 generates the learning model 15 that can identify the failure phenomenon image by learning the feature amount of the failure phenomenon image. Therefore, the failure model can be accurately detected from the sky image. Phenomenon images can be identified. For this reason, according to this Embodiment 1, the abnormality of the plant
  • FIG. 2 is a diagram for explaining learning model generation processing according to Embodiment 1 of the present invention.
  • FIG. 2 illustrates an example in which an aerial image such as a farm field is used as an image used for generating a learning model.
  • Embodiment 1 it is assumed that all “images” are visible images.
  • the field facility that is the target for identifying the failure location is an irrigation facility.
  • the irrigation equipment includes, for example, pipes arranged in the ground or on the ground along the fence of the field.
  • holes are provided in the pipe wall at set intervals along the longitudinal direction of the pipe. In this irrigation facility, when irrigation water is supplied to the pipe, the irrigation water is discharged from the hole in the pipe wall to the field and supplied to the crops.
  • the pipe may be cracked due to deterioration, and further, the pipe may be cut.
  • pressure may be applied to another portion, resulting in a crack.
  • the failure phenomenon includes a phenomenon caused by leakage of irrigation water, for example, generation of a puddle, collapse of a cocoon, change in growth of crops, and the like.
  • Changes in the growth of crops include growth delays in areas where water cannot reach due to water leakage, and when fertilizer is dissolved and supplied in irrigation water, growth is promoted in areas where water is high. It means that growth is delayed in areas where there is little, and that the roots of crops that exist in areas where puddles are generated cannot be respired and die.
  • the learning model generation unit 11 generates a learning model by learning an image of a phenomenon caused by leakage of irrigation water as a failure phenomenon image and learning its feature amount. Specifically, it is as follows.
  • a field image is taken from the sky by an artificial satellite, an aircraft, a drone, etc., and an aerial image used for learning is obtained. Further, among the obtained sky images, the sky image including the failure phenomenon image is set as a first sky image. On the other hand, the sky image including the normal phenomenon image is set as a second sky image. When the sky image obtained by photographing includes both the failure phenomenon image and the normal phenomenon image, the first sky image and the second sky image may be created by processing the image.
  • the first aerial image shown in FIG. 2 the water is well before the puddle along the irrigation direction, so that the crop growth is considered to be normal. On the other hand, at the tip of the puddle, because the water is not perfect due to, for example, water leakage, the growth of the crops is slow, and the green leaves are thin.
  • the learning model generation unit 11 first acquires the first sky image and the second sky image obtained as described above.
  • the number of first sky images and second sky images acquired is not limited, but it is preferable that the number be as large as possible from the viewpoint of discrimination accuracy by the learning model.
  • the learning model generation unit 11 uses, for example, the reflectance of light, the shape of the region where the crop is present, and the crop as the feature amount of the image of the phenomenon caused by the leakage of irrigation water from the first sky image. And the surrounding color and the position of the region where the crop is present are extracted.
  • the learning model generation unit 11 determines the shape, color, and position of the region where the crop is present in the state where the irrigation water is not leaked as the feature amount of the normal phenomenon image from the second sky image. Extract. Then, the learning model generation unit 11 classifies and holds the feature amount obtained from the first sky image and the feature amount obtained from the second sky image.
  • the shape of the region where the crop is present includes a shape unique to the target crop, a shape of the basket, and the like.
  • the shape unique to the crop means a shape unique to the crop as viewed from above, which is determined by the shape of the leaf of the crop and how the leaves overlap.
  • the position of the region where the crop is present includes the state of the cocoon arrangement in the field.
  • the color of the region where the crop is present includes frequency characteristics (color components including infrared and ultraviolet) in the region determined by the color of the crop and its leaves.
  • the learning model generation unit 11 learns the feature amount of the failure phenomenon image using the support vector machine. Specifically, the learning model generation unit 11 gives the feature amount of each classified sky image to the support vector machine, learns the boundary between the failure phenomenon image and the normal phenomenon image, and shows the learning result. 15 is generated.
  • the learning model generation unit 11 performs deep learning using the acquired first and second sky images, thereby obtaining the first sky image and the second sky image.
  • a classifier to be identified can be created, and the created classifier can be used as the learning model 15.
  • the image specifying unit 13 specifies a failure phenomenon image from the sky image acquired by the image acquiring unit 12 using the learning model 15 generated by the learning model generating unit 11.
  • the sky image acquired by the image acquisition unit 12 is also obtained by photographing a field or the like from the sky with an artificial satellite, an aircraft, a drone, or the like, similarly to the sky image used for learning (see FIG. 2).
  • the failure point specifying unit 14 specifies the position of the failure phenomenon image in the field and sets the specified position as the failure point. Moreover, the failure location specifying part 14 can also notify the specified failure location to the terminal device or the like of the manager of the field management device 10. In the terminal device or the like that has received the notification of the failure location, the failure location can be displayed. Moreover, in the terminal device etc. which received the notification of the failure location, a highly accurate simulation result can be obtained by excluding data collected at the failure location in various simulations such as a growth simulation.
  • FIG. 3 is a diagram for explaining another example of learning model generation processing according to Embodiment 1 of the present invention.
  • the learning model generation unit 11 performs learning using the “failure phenomenon image” and the “image including both the failure phenomenon image and the normal phenomenon image”.
  • the learning model is improved by performing learning using the “failure phenomenon image” and the “image including both the failure phenomenon image and the normal phenomenon image”.
  • FIG. 4 is a flowchart showing an operation during the learning model generation process by the support vector machine of the field management device according to the first embodiment of the present invention.
  • the learning model generation unit 11 acquires a number of first sky images and second sky images from the outside (step A1).
  • the first sky image and the second sky image are as described above.
  • the learning model generation unit 11 extracts the feature amount of the failure phenomenon image, that is, the image of the phenomenon caused by the leakage of irrigation water from the first sky image acquired in step A1, and from the second sky image. Then, the feature amount of the normal phenomenon image is extracted (step A2).
  • the learning model generation unit 11 classifies and holds the feature values obtained from the first sky image and the feature values obtained from the second sky image (step A3).
  • the learning model generation unit 11 uses a support vector machine to learn a feature amount of a failure phenomenon image, that is, an image of a phenomenon caused by leakage of irrigation water, and generates a learning model 15 (step A4).
  • the learning model generation unit 11 gives the feature amount of each classified sky image to the support vector machine, learns the boundary between the failure phenomenon image and the normal phenomenon image, and shows the learning result. 15 is generated.
  • FIG. 5 is a flowchart showing an operation during learning model generation processing by deep learning of the field management device according to Embodiment 1 of the present invention.
  • the learning model generation unit 11 acquires a number of first sky images and second sky images from the outside (step B1).
  • the learning model generation unit 11 performs deep learning using the multiple first sky images and second sky images acquired in Step B1 (Step B2).
  • step B3 the learning model production
  • generation part 11 produces the classifier which identifies a 1st sky image and a 2nd sky image from the result of step B2, and makes the created classifier the learning model 15 (step B3).
  • FIG. 6 is a flowchart showing an operation at the time of failure location specifying processing of the field management device in Embodiment 1 of the present invention.
  • the image acquisition unit 12 acquires an aerial image of an agricultural field that is a target region (step C1).
  • the image specifying unit 13 applies the sky image acquired by the image acquiring unit 12 in step C1 to the learning model 15, and specifies a failure phenomenon image in the sky image (step C2).
  • the failure location specifying unit 14 specifies the failure location of the irrigation equipment in the target area using the failure phenomenon image specified by the image specifying unit 13 in step C2 (step C3).
  • the failure location specifying unit 14 notifies the specified failure location to an external terminal device or the like.
  • the learning model generation unit 11 learns the feature amount of the failure phenomenon image and converts the failure phenomenon image into the failure phenomenon image.
  • a learning model 15 that can be identified is generated.
  • the image specifying unit 13 can specify a failure phenomenon image, for example, an image of a puddle, by applying a sky image of the target region to the learning model 15.
  • specification part 14 specifies the failure location of irrigation equipment using the failure phenomenon image which the image specific
  • the first embodiment for example, by using an aerial image used in the farming support service, it is possible to provide information on the state of the field facility together with the farming support service without separately installing a dedicated sensor.
  • the program in the first embodiment may be a program that causes a computer to execute steps A1 to A4 shown in FIG. 4 (or steps B1 to B3 shown in FIG. 5) and steps C1 to C3 shown in FIG. .
  • the processor of the computer functions as the learning model generation unit 11, the image acquisition unit 12, the image specification unit 13, and the failure location specification unit 14 and performs processing.
  • each computer may function as any one of the learning model generation unit 11, the image acquisition unit 12, the image identification unit 13, and the failure location identification unit 14, respectively.
  • the field management device according to the second embodiment has the same configuration as the field management device 10 shown in FIG. For this reason, in the following description, FIG. However, in the second embodiment, radar images are used as the failure phenomenon image, the normal phenomenon image, and the sky image, and this is different from the first embodiment. Hereinafter, the difference from the first embodiment will be mainly described.
  • the radar image used in the second embodiment is an image taken by a synthetic aperture radar mounted on an artificial satellite, an aircraft, or the like. Therefore, in the present embodiment, the learning model generation unit 11 includes a radar image of a phenomenon caused by a failure of the farm facility (hereinafter referred to as “failure phenomenon radar image”) and a phenomenon caused by normal operation of the farm facility.
  • the learning model 15 is generated by learning the feature amount of the failure phenomenon radar image using the radar image (hereinafter referred to as “normal phenomenon radar image”).
  • FIG. 7 is a diagram illustrating learning model generation processing according to Embodiment 2 of the present invention.
  • a field image is taken from the sky by a synthetic aperture radar mounted on an artificial satellite, an aircraft, etc., and a radar image from the sky used for learning (hereinafter referred to as “upper radar image”). Is obtained). Further, among the obtained upper radar images, the upper radar image including the failure phenomenon radar image is set as a first upper image. On the other hand, the sky radar image including the normal phenomenon radar image is set as a second sky radar image.
  • the sky radar image obtained by photographing includes both the failure phenomenon radar image and the normal phenomenon radar image, the first sky radar image and the second sky radar image are created by processing the image. You may do it.
  • the learning model generation unit 11 first acquires the first sky radar image and the second sky radar image obtained as described above.
  • the number of first sky radar images and the second sky radar image to be acquired is not limited, but it is preferable that the number is as large as possible from the viewpoint of discrimination accuracy by the learning model.
  • the radar image is an image formed based on the intensity of the reflected wave of the radar irradiated from above. And the intensity
  • the learning model generation unit 11 estimates, for example, that the humidity gradient and the humidity are equal to or higher than the threshold (or lower than the threshold) as the radar image feature amount of the phenomenon caused by the leakage of irrigation water from the first sky radar image.
  • the position and size of the area to be extracted are extracted.
  • the learning model generation unit 11 uses, as the feature amount of the normal phenomenon radar image from the second sky radar image, for example, when the irrigation water does not leak, the humidity gradient and the humidity are equal to or higher than the threshold (or lower than the threshold). ) To extract the position and size of the estimated area. Then, the learning model generation unit 11 classifies and holds the feature amount obtained from the first sky image and the feature amount obtained from the second sky image.
  • the learning model generation unit 11 determines the position and size of the region where the humidity is estimated to be equal to or greater than the threshold value as the feature amount from each of the first sky radar image and the second sky radar image. Extracting.
  • the learning model generation unit 11 learns the feature amount of the failure phenomenon radar image using the support vector machine. Specifically, the learning model generation unit 11 gives the support vector machine the feature amount of each classified sky radar image, learns the boundary between the failure phenomenon radar image and the normal phenomenon radar image, and obtains the learning result.
  • the learning model 15 shown is generated.
  • the learning model generation unit 11 performs deep learning by using the acquired many first sky radar images and the second sky radar image, and thereby the first sky radar image and the second sky radar image. It is also possible to create a classifier that identifies the radar image and use the created classifier as the learning model 15.
  • the image acquisition unit 12 acquires a radar image (hereinafter referred to as “upper radar image”) from above the target region where the farm field exists.
  • the image acquisition unit 12 acquires an upper radar image such as a field imaged from the sky by a synthetic aperture radar mounted on, for example, an artificial satellite or an aircraft.
  • the image specifying unit 13 uses the learning model 15 to specify a failure phenomenon radar image from the sky radar image acquired by the image acquiring unit 12.
  • the failure location specifying unit 14 specifies the position of the failure phenomenon radar image in the field when the image specifying unit 13 can specify the failure phenomenon radar image from the sky radar image.
  • the failure location specifying part 14 can also notify the specified failure location to the terminal device or the like of the manager of the field management device 10.
  • FIG. 8 is a diagram for explaining another example of learning model generation processing according to Embodiment 2 of the present invention.
  • the learning model generation unit 11 performs learning using the “failure phenomenon radar image” and the “image including both the failure phenomenon radar image and the normal phenomenon radar image”. By performing learning using the “failure phenomenon radar image” and the “image including both the failure phenomenon radar image and the normal phenomenon radar image”, improvement in the accuracy of the learning model can be expected.
  • FIG. 9 is a flowchart showing an operation during learning model generation processing by the support vector machine of the field management device according to the second embodiment of the present invention.
  • the learning model generation unit 11 obtains a large number of first sky radar images and second sky radar images from the outside (step D1).
  • the first sky radar image and the second sky radar image are as described above.
  • the learning model generation unit 11 extracts a feature amount of a failure phenomenon radar image, that is, a radar image of a phenomenon caused by leakage of irrigation water, from the first sky radar image acquired in step D1, and the second A feature amount of the normal phenomenon radar image is extracted from the sky image (step D2).
  • the learning model generation unit 11 classifies and holds the feature values obtained from the first sky radar image and the feature values obtained from the second sky radar image (step D3).
  • the learning model generation unit 11 uses a support vector machine to learn a feature amount of a failure phenomenon image, that is, a radar image of a phenomenon caused by leakage of irrigation water, and generates a learning model 15 (step D4). ).
  • the learning model generation unit 11 gives the support vector machine the feature amount of each classified sky radar image, learns the boundary between the failure phenomenon radar image and the normal phenomenon radar image, and obtains the learning result.
  • the learning model 15 shown is generated.
  • FIG. 10 is a flowchart which shows the operation
  • the learning model generation unit 11 acquires a number of first sky radar images and second sky radar images from the outside (step E1).
  • the learning model generation unit 11 performs deep learning using the multiple first sky radar images and second sky radar images acquired in step E1 (step E2).
  • the learning model generation unit 11 creates a classifier for discriminating between the first sky radar image and the second sky radar image from the result of step E2, and the created classifier is used as the learning model 15 (step). E3).
  • FIG. 11 is a flowchart which shows the operation
  • the image acquisition unit 12 acquires an aerial radar image of a farm field that is a target region (step F1).
  • the image specifying unit 13 applies the upper radar image acquired by the image acquiring unit 12 in step F1 to the learning model 15 and specifies a failure phenomenon radar image in the upper radar image (step F2).
  • the failure location specifying unit 14 specifies the failure location of the irrigation equipment in the target area using the failure phenomenon radar image specified by the image specifying unit 13 in step F2 (step F3).
  • the failure location specifying unit 14 notifies the specified failure location to an external terminal device or the like.
  • the learning model generation unit 11 generates the learning model 15 from the radar image. For this reason, according to this Embodiment 2, since the water leak which cannot be discriminate
  • the program in the second embodiment may also be a program that causes a computer to execute steps D1 to D4 shown in FIG. 9 (or steps E1 to E3 shown in FIG. 10) and steps F1 to F3 shown in FIG. .
  • a CPU Central Processing Unit
  • the field management device and the field management method according to the second embodiment can be realized.
  • a CPU Central Processing Unit
  • a learning model generation unit 11 an image acquisition unit 12, an image identification unit 13, and a failure location identification unit 14, and performs processing.
  • the program according to the second embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as any one of the learning model generation unit 11, the image acquisition unit 12, the image identification unit 13, and the failure location identification unit 14, respectively.
  • FIG. 12 is a block diagram showing the configuration of the field management device according to Embodiment 3 of the present invention.
  • the field management device 20 includes a visible image learning model generation unit 21, a radar image learning model generation unit 22, an image acquisition unit 23, and an image specification unit 24.
  • the failure location specifying unit 25 is provided.
  • the field management device 20 according to the third embodiment is shown in FIG. 1 in that it includes two learning model generation units, a visible image learning model generation unit 21 and a radar image learning model generation unit 22. This is different from the field management apparatus 10 in the first embodiment. Thereby, the processes of the image acquisition unit 23, the image specifying unit 24, and the failure location specifying unit 25 are also different from those of the first embodiment. Hereinafter, the difference from Embodiments 1 and 2 will be mainly described.
  • the visible image learning model generation unit 21 is the same as the learning model generation unit 11 in the first embodiment shown in FIG.
  • the visible image learning model generation unit 21 generates the visible image learning model 26 by learning the feature amount of the failure phenomenon image using the failure phenomenon image and the normal phenomenon image. Note that the failure phenomenon image and the normal phenomenon image are visible images.
  • the visible image learning model 26 is created by the learning process described in the first embodiment, and is constructed in the same manner as the learning model 15 described in the first embodiment.
  • the radar image learning model generation unit 22 is the same as the learning model generation unit in the second embodiment.
  • the radar image learning model generation unit 22 generates a radar image learning model 27 by learning the feature amount of the failure phenomenon radar image using the failure phenomenon radar image and the normal phenomenon radar image.
  • the radar image learning model 27 is created by the learning process described in the second embodiment, and is constructed in the same manner as the learning model shown in the second embodiment.
  • the image acquisition unit 23 acquires a visible image from above the target area and a radar image from above the target area. That is, in the third embodiment, the image acquisition unit 23 acquires two types of images, that is, the image acquired in the first embodiment and the image acquired in the second embodiment.
  • the image specifying unit 24 applies the visible image from above the target region acquired by the image acquiring unit 23 to the visible image learning model 26 generated by the visible image learning model generating unit 21, and A failure phenomenon image (visible image) in the visible image from above is specified. Further, the image specifying unit 24 applies the radar image from above the target region acquired by the image acquiring unit 23 to the radar image learning model 27 generated by the radar image learning model generating unit 22, and A failure phenomenon radar image in the radar image from above is specified.
  • the failure location specifying unit 25 specifies the failure location of the field facility in the target region based on the failure phenomenon image specified by the image specification unit 24 and the failure phenomenon radar image specified by the image specification unit 24. Specifically, the failure location specifying unit 25 compares the failure location specified by the visible image with the failure location specified by the radar image. And the failure location specific
  • the visible image learning model generation unit 21 executes processing according to steps A1 to A4 shown in FIG. 4 or steps B1 to B3 shown in FIG. A learning model 26 is generated. Further, the radar image learning model generation unit 22 generates a radar image learning model 27 by executing processing according to steps D1 to D4 shown in FIG. 9 or steps E1 to E3 shown in FIG.
  • FIG. 13 is a flowchart which shows the operation
  • the image acquisition unit 23 acquires an aerial image (visible image) of an agricultural field that is a target region (step G1). Subsequently, the image acquisition unit 23 acquires an over-the-air radar image of the agricultural field that is the target region (step G2).
  • the image specifying unit 24 applies the sky image acquired by the image acquiring unit 23 in step G1 to the visible image learning model 26, and specifies a failure phenomenon image in the sky image (step G3). Subsequently, the image specifying unit 24 applies the sky radar image acquired by the image acquiring unit 23 in step G2 to the radar image learning model 27, and specifies the failure phenomenon radar image in the sky radar image (step G4). ).
  • the failure location identification unit 25 based on the failure phenomenon image identified by the image identification unit 24 in step G3 and the failure phenomenon radar image identified by the image identification unit 24 in step G4, the failure location identification unit 25 identifies the field facility in the target region. A failure location is specified (step G5). The failure location specifying unit 25 notifies the specified failure location to an external terminal device or the like.
  • the learning model using the visible image described in the first embodiment and the learning model using the radar image described in the second embodiment are constructed. Since the failure location is specified by using, the failure location can be specified more accurately.
  • the program according to the third embodiment causes the computer to execute steps A1 to A4 shown in FIG. 4 (or steps B1 to B3 shown in FIG. 5) and steps D1 to D4 shown in FIG. 9 (or steps E1 to E3 shown in FIG. 10). Any program that executes E3) and steps G1 to G5 shown in FIG. 13 may be used.
  • the field management device 20 and the field management method in the third embodiment can be realized.
  • the processor of the computer functions as the visible image learning model generation unit 21, the radar image learning model generation unit 22, the image acquisition unit 23, the image specification unit 24, and the failure location specification unit 25, and performs processing.
  • each computer is any one of the visible image learning model generation unit 21, the radar image learning model generation unit 22, the image acquisition unit 23, the image specification unit 24, and the failure location specification unit 25. May function.
  • Embodiment 4 an agricultural field management apparatus, an agricultural field management method, and a program according to Embodiment 4 of the present invention will be described with reference to FIGS.
  • FIG. 14 is a block diagram showing a configuration of a field management device according to Embodiment 4 of the present invention.
  • the field management device 30 in the fourth embodiment includes a learning model generation unit 31, an image acquisition unit 32, an image specification unit 33, a failure location specification unit 34, and a soil estimation unit 36. It has.
  • the field management device 30 according to the fourth embodiment is different from the field management device 10 according to the first embodiment shown in FIG. 1 in that a soil estimation unit 36 is provided. Accordingly, the processing in the failure location specifying unit 34 is also different from that in the first embodiment. Hereinafter, the difference from the first embodiment will be mainly described.
  • the soil estimation unit 36 estimates the amount of moisture in the soil of the target region. Specifically, the soil estimation unit 36 first divides the target area of the field into a plurality of parts and sets a plurality of sections.
  • FIG. 15 is a diagram showing an example of the division set in the target area in the fourth embodiment of the present invention.
  • the soil estimation unit 36 sets the division by dividing the target region into squares. The accuracy of the estimation model is improved when the area of each section is smaller, that is, when the target farm is divided into finer meshes.
  • the soil estimation unit 36 generates a soil estimation model 37 by predicting the amount of inflow and outflow of moisture in the soil for each section based on both the topographic information and the soil distribution information. Specifically, the soil estimation unit 36 first extracts the corresponding topographic information and soil distribution information for each category, identifies the composition and slope of the soil in each category, and the identified soil composition and Based on the inclination, the soil estimation model 37 is generated.
  • the soil estimation model 37 is a model for estimating the soil state at another point different from the one point from the actually measured value indicating the state in the soil at one point in the target region.
  • the terrain information is, for example, a terrain model that represents the inclination of the target field.
  • the soil distribution information is a soil distribution model representing the soil distribution in the target field, for example.
  • the soil estimation unit 36 acquires an actual measurement value from a soil moisture sensor installed at an arbitrary position in the target region, applies the acquired actual measurement value to the soil estimation model 37, and for each category, Estimate the amount of moisture in the soil. That is, the soil estimation unit 36 calculates the absolute value of the water content in each section from the relative relationship of the water content in each section by inputting the actual measurement value to the soil estimation model 37. Thereby, the distribution of the moisture content in the target region is specified. That is, the amount of water resulting from a natural phenomenon such as heavy rain can be specified using the soil estimation model 37.
  • the failure location specifying unit 34 determines the target region based on the failure phenomenon image specified by the image specifying unit 33 and the moisture content in the soil of the target region estimated by the soil estimation unit 36.
  • the failure point of the farm facility (irrigation equipment) is identified.
  • the failure location specifying unit 34 specifies the location (location A) specified by the failure phenomenon image and the moisture distribution in the vicinity thereof, and the soil estimation unit 36 uses the soil estimation model to determine the specified moisture distribution. In comparison with the location A and the distribution of the water content around it, which is specified using 37. Or the failure location specific
  • FIG. for example, when the moisture distributions match, the failure phenomenon image is considered to be an image representing a phenomenon caused by a natural phenomenon, not an image representing a phenomenon caused by a failure of an irrigation facility.
  • the failure phenomenon image is considered to be an image representing a phenomenon caused by a failure of the irrigation equipment.
  • the failure location specifying unit 34 sets a location specified by the failure phenomenon image as a failure location. Thereby, it can prevent that the phenomenon resulting from a natural phenomenon is considered to be the phenomenon resulting from the failure of irrigation equipment.
  • the learning model generation unit 31 executes a process according to steps A1 to A4 shown in FIG. 4 or steps B1 to B3 shown in FIG. Thus, the learning model 35 is generated.
  • FIG. 16 is a flowchart showing the operation at the time of failure location specifying processing of the field management device according to the fourth embodiment of the present invention.
  • the image acquisition unit 32 acquires an aerial image of a field that is a target region (step H ⁇ b> 1).
  • the image specifying unit 33 applies the sky image acquired by the image acquiring unit 32 in step H1 to the learning model 35, and specifies a failure phenomenon image in the sky image (step H2).
  • the soil estimation unit 36 applies the actual measurement value acquired from the soil moisture sensor to the soil estimation model 37, and estimates the moisture content in the soil for each category (step H3).
  • the failure location specifying unit 34 determines the target region based on the failure phenomenon image specified by the image specifying unit 33 in step H2 and the moisture content in the soil for each target region category estimated by the soil estimation unit 36.
  • the failure location of the field facility in is identified (step H4).
  • the failure location specifying unit 34 notifies the specified failure location to an external terminal device or the like.
  • the amount of moisture in the soil is calculated, and by using the result, it is determined whether or not the failure point identified from the sky image is really a failure of the irrigation equipment. Can be confirmed. According to the fourth embodiment, it is possible to improve the accuracy of identifying a fault location.
  • the soil estimation part 36 used in this Embodiment 4 may be provided in the agricultural field management apparatus shown in Embodiment 2 and 3. FIG. In this case, the same effect as described above can be obtained.
  • the program in the fourth embodiment may be any program that causes a computer to execute steps A1 to A4 shown in FIG. 4 (or steps B1 to B3 shown in FIG. 5) and steps H1 to H4 shown in FIG.
  • the processor of the computer functions as a learning model generation unit 31, an image acquisition unit 32, an image specification unit 33, a failure location specification unit 34, and a soil estimation unit 36, and performs processing.
  • each computer may function as any one of the learning model generation unit 31, the image acquisition unit 32, the image specification unit 33, the failure location specification unit 34, and the soil estimation unit 36, respectively.
  • FIG. 17 is a block diagram showing an example of a computer that implements the field management device according to the first to fourth embodiments of the present invention.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. With. These units are connected to each other via a bus 121 so that data communication is possible.
  • CPU Central Processing Unit
  • the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the computer 110 may include a GPU (GraphicsGraphProcessing Unit) or an FPGA (Field-Programmable Gate Array) in addition to or instead of the CPU 111.
  • the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119.
  • the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as a flexible disk, or CD- Optical recording media such as ROM (Compact Disk Read Only Memory) are listed.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic recording media such as a flexible disk
  • CD- Optical recording media such as ROM (Compact Disk Read Only Memory) are listed.
  • the field management apparatus in this Embodiment is realizable also by using the hardware corresponding to each part instead of the computer in which the program was installed. Further, a part of the farm field management apparatus may be realized by a program, and the remaining part may be realized by hardware.
  • a learning model is obtained by learning a feature amount of an image of a phenomenon caused by a failure of the field facility using an image of a phenomenon caused by the failure of the field facility and an image of a phenomenon caused by normal operation of the field facility.
  • a learning model generation unit for generating An image acquisition unit that acquires an aerial image of the target area; Applying the sky image acquired by the image acquisition unit to the learning model generated by the learning model generation unit, and a phenomenon caused by a failure of the field facility in the sky image acquired by the image acquisition unit
  • An image specifying unit for specifying an image;
  • a failure location identifying unit that identifies a failure location of the field facility in the target area based on an image of a phenomenon caused by the failure of the field facility identified by the image identification unit;
  • An agricultural field management device comprising:
  • the learning model generation unit From the image of the phenomenon caused by the failure of the field facility, extract the feature amount of the phenomenon caused by the failure of the field facility, From the image of the phenomenon caused by the normal operation of the field facility, extract the feature amount of the phenomenon caused by the normal operation of the field facility, Using a support vector machine, learn a feature amount of an image of a phenomenon caused by a failure of the field facility, and generate the learning model indicating the learning result, The field management device according to attachment 1.
  • generation part produces the classifier which identifies the image of the phenomenon resulting from the failure of a field facility, and the image of the phenomenon resulting from normal operation of a field facility by deep learning, and produces The classifier is used as the learning model,
  • the image of the phenomenon resulting from the failure of the farm facility, the image of the phenomenon resulting from the normal operation of the farm facility, and the sky image are radar images.
  • the field management device according to any one of appendices 1 to 3.
  • a second learning model generation unit for generating a second learning model by learning;
  • the image acquisition unit acquires a visible image from above the target region and a radar image from above the target region
  • the image specifying unit Applying a visible image from above the target region acquired by the image acquisition unit to the learning model generated by the learning model generation unit, and a visible image from above the target region acquired by the image acquisition unit Identifying a visible image of a phenomenon caused by the failure of the field facility, Furthermore, the image acquired by the image acquisition unit by applying a radar image from above the target area acquired by the image acquisition unit to the second learning model generated by the second learning model generation unit.
  • the failure location identifying unit is The failure location of the field facility in the target region is identified based on the visible image of the phenomenon caused by the failure of the field facility identified by the image identification unit and the radar image of the phenomenon caused by the failure of the field facility.
  • the field facility is an irrigation facility
  • the phenomenon caused by the failure of the field facility is a phenomenon caused by leakage of irrigation water.
  • the field management device according to any one of appendices 1 to 6.
  • region is further provided, Based on the image of the phenomenon caused by the failure of the field facility specified by the image specifying unit and the amount of moisture in the soil of the target region estimated by the soil estimating unit, the failure location specifying unit specifies the target. Identifying the failure location of the field facility in the area, The field management device according to appendix 7.
  • step (a) From the image of the phenomenon caused by the failure of the field facility, extract the feature amount of the phenomenon caused by the failure of the field facility, From the image of the phenomenon caused by the normal operation of the field facility, extract the feature amount of the phenomenon caused by the normal operation of the field facility, Using a support vector machine, learn a feature amount of an image of a phenomenon caused by a failure of the field facility, and generate the learning model indicating the learning result,
  • step (a) by deep learning, a classifier that distinguishes between an image of a phenomenon caused by a failure of a farm facility and an image of a phenomenon caused by normal operation of the farm facility, The created classifier is used as the learning model.
  • the image of the phenomenon resulting from the failure of the field facility, the image of the phenomenon resulting from the normal operation of the field facility, and the above-mentioned sky image are radar images.
  • Generating a second learning model by learning the features further comprising the step of: In the step (b), a visible image from above the target area and a radar image from above the target area are acquired, In the step (c), By applying a visible image from above the target area acquired in the step (b) to the learning model generated in the step (a), the target model acquired in the step (b) is applied.
  • a radar image from above the target area acquired in the step (b) is applied to the second learning model generated in the step (e), and acquired in the step (b).
  • identify the radar image of the phenomenon caused by the failure of the field facility In the step (d), Based on the visible image of the phenomenon caused by the failure of the field facility specified in the step (c) and the radar image of the phenomenon caused by the failure of the field facility, the failure location of the field facility in the target region Identify The field management method according to attachment 12.
  • the field facility is an irrigation facility,
  • the phenomenon caused by the failure of the field facility is a phenomenon caused by leakage of irrigation water.
  • the field management method according to any one of appendices 9 to 14.
  • step (f) It further has the step which estimates the moisture content in the soil of the said object area
  • step (a) From the image of the phenomenon caused by the failure of the field facility, extract the feature amount of the phenomenon caused by the failure of the field facility, From the image of the phenomenon caused by the normal operation of the field facility, extract the feature amount of the phenomenon caused by the normal operation of the field facility, Using a support vector machine, learn a feature amount of an image of a phenomenon caused by a failure of the field facility, and generate the learning model indicating the learning result,
  • the computer-readable recording medium according to appendix 17.
  • step (a) by deep learning, a classifier that identifies an image of a phenomenon caused by a failure of a field facility and an image of a phenomenon caused by normal operation of the field facility is created, The created classifier is used as the learning model.
  • the image of the phenomenon resulting from the failure of the farm facility, the image of the phenomenon resulting from the normal operation of the farm facility, and the sky image are radar images.
  • the program is stored in the computer.
  • a visible image from above the target area and a radar image from above the target area are acquired
  • the step (c) By applying a visible image from above the target area acquired in the step (b) to the learning model generated in the step (a), the target model acquired in the step (b) is applied.
  • a radar image from above the target area acquired in the step (b) is applied to the second learning model generated in the step (e), and acquired in the step (b).
  • identify the radar image of the phenomenon caused by the failure of the field facility In the step (d), Based on the visible image of the phenomenon caused by the failure of the field facility specified in the step (c) and the radar image of the phenomenon caused by the failure of the field facility, the failure location of the field facility in the target region Identify The computer-readable recording medium according to appendix 20.
  • the field facility is an irrigation facility,
  • the phenomenon caused by the failure of the field facility is a phenomenon caused by leakage of irrigation water.
  • the computer-readable recording medium according to any one of appendices 17 to 22.
  • the program is stored in the computer.
  • the present invention it is possible to detect abnormalities in farm facilities without increasing the number of sensors.
  • the present invention is useful in the agricultural field.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Agronomy & Crop Science (AREA)
  • Economics (AREA)
  • Animal Husbandry (AREA)
  • Immunology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Geology (AREA)
  • Remote Sensing (AREA)
  • Pathology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Water Supply & Treatment (AREA)
  • Environmental Sciences (AREA)
  • Artificial Intelligence (AREA)

Abstract

圃場管理装置10は、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部11と、対象領域の上空画像を取得する、画像取得部12と、学習モデル生成部11が生成した学習モデル15に、画像取得部13が取得した上空画像を適用して、画像取得部12が取得した上空画像における、圃場施設の故障に起因する現象の画像を特定する、画像特定部13と、画像特定部13が特定した圃場施設の故障に起因する現象の画像に基づいて、対象領域における圃場施設の故障箇所を特定する、故障箇所特定部14と、を備えている。

Description

圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、圃場を管理するための、圃場管理装置、及び圃場管理方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 近年、農業分野においては、IT技術を活用することによって、生産者を支援する試みが行なわれている。例えば、特許文献1は、圃場に設置された、カメラ、マルチスペクトルセンサ、樹液流量センサ、温度センサ、土壌温度センサ、画像データを収集する無人飛行機等を用いて、各種データを収集する、農業システムを開示している。
 特許文献1に開示された農業システムは、収集した各種データを学習モデルに適用して、生産者がとるべき行動を特定することで、生産者を支援している。例えば、特許文献1に開示された農業システムは、収集したデータに基づいて、灌漑施設に問題がある場合は、生産者に対して、何日以内にメンテナンスするように警告を行なうことができる。これにより、生産者は、灌漑施設の故障に気付くことができ、安定して圃場を運営することができる。
 また、特許文献2も、圃場に設置された各種センサが出力したセンサデータに基づいて、生産者を支援するシステムを開示している。但し、特許文献2に開示されたシステムでは、センサデータを単に収集しただけでは、異常かどうかを判断することが難しいため、設置場所によって属性が規定され、各種センサは各属性に分類される。そして、特許文献2に開示されたシステムは、属性毎に、センサデータ同士を比較することで、圃場の異常を検出する。
欧州特許出願公開第3046066号明細書 特開2012-164109号公報
 上述した特許文献1及び2に開示されたシステムによれば、センサデータに基づいて、生産者の支援は可能となるが、そのためには、多くのセンサを設置することが必要となる。特に、圃場に設置される灌漑施設は、広範囲にわたって敷設され、更に多数の噴出口を備えているため、異常を確実に検出するためには、センサの数が膨大となってしまう。
 本発明の目的の一例は、上記問題を解消し、センサ数を増加させることなく、圃場の施設の異常を検出し得る、圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における圃場管理装置は、
 圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
 対象領域の上空画像を取得する、画像取得部と、
 前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、画像特定部と、
 前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、故障箇所特定部と、
を備えている、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における圃場管理方法は、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を有する、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を実行させる、命令を含むプログラムを記録している、ことを特徴とする。
 以上のように、本発明によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。
図1は、本発明の実施の形態1における圃場管理装置の構成を示すブロック図である。 図2は、本発明の実施の形態1における学習モデルの生成処理を説明する図である。 図3は、本発明の実施の形態1における学習モデルの生成処理の別の例を説明する図である。 図4は、本発明の実施の形態1における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。 図5は、本発明の実施の形態1における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。 図6は、本発明の実施の形態1における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図7は、本発明の実施の形態2における学習モデルの生成処理を説明する図である。 図8は、本発明の実施の形態2における学習モデルの生成処理の別の例を説明する図である。 図9は、本発明の実施の形態2における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。 図10は、本発明の実施の形態2における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。 図11は、本発明の実施の形態2における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図12は、本発明の実施の形態3における圃場管理装置の構成を示すブロック図である。 図13は、本発明の実施の形態3における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図14は、本発明の実施の形態4における圃場管理装置の構成を示すブロック図である。 図15は、本発明の実施の形態4において対象領域に設定される区分の一例を示す図である。 図16は、本発明の実施の形態4における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図17は、本発明の実施の形態1~4における圃場管理装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
 以下、本発明の実施の形態1における、圃場管理装置、圃場管理方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
 最初に、本実施の形態1における圃場管理装置の構成について図1を用いて説明する。図1は、本発明の実施の形態1における圃場管理装置の構成を示すブロック図である。
 図1に示す、本実施の形態1における圃場管理装置10は、圃場に設置されている圃場施設の故障箇所を特定するための装置である。図1に示すように、圃場管理装置10は、学習モデル生成部11と、画像取得部12と、画像特定部13と、故障箇所特定部14とを備えている。
 学習モデル生成部11は、圃場施設の故障に起因する現象の画像(以下「故障現象画像」と表記する)と、圃場施設の正常な稼働に起因する現象の画像(以下「正常現象画像」と表記する)とを用いて、故障現象画像の特徴量を学習することによって、学習モデル15を生成する。
 ここで、故障現象画像及び正常現象画像は、例えば、対象領域となる圃場を上空から撮影した上空画像とすることができる。後述するように、学習モデル15に適用する画像が上空画像であるため、学習モデル生成部11が学習モデル15の生成に用いる画像も上空画像であることが好ましい。
 圃場を上空から撮影した上空画像は、例えば人工衛星、航空機、ドローン等によって圃場を上空から撮影することにより得られる。学習モデル15を生成する際に、人工衛星、航空機、ドローン等によって圃場を上空から撮影することにより得られた上空画像を用いる場合、一枚の上空画像には、故障現象画像及び正常現象画像が含まれていることがある。一枚の上空画像に故障現象画像及び正常現象画像が含まれている場合は、該上空画像から故障現象画像及び正常現象画像をそれぞれ切り出して学習モデル15の生成に使用することができる。
 また、本実施の形態では、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」とを用いて学習が行われても良い。この場合、学習モデルの精度の向上が期待できる。例えば、圃場施設が灌漑設備であり、故障に起因する現象(故障現象)が、水漏れによる水たまりの発生であるとすると、この場合、施設の外形そのものは、故障現象が発生している場合と、正常な場合とで、画像上では変化することがない。よって、「故障現象画像及び正常現象画像の両方を含む画像」を用いることで、故障現象画像の特徴をより正確に学習することが可能となる。
 従って、「故障現象画像」と「故障現象画像及び正常現象画像の両方を含む画像」を多数取得して学習を行う方が、実際のケースにより近い学習モデルを生成することができる場合がある。更に、故障現象が、圃場施設から離れた位置で発生しているケースも考えられるため、「故障現象画像」、「故障現象画像及び正常現象画像を含む画像」及び「正常現象画像」を用いて学習を行うことで、実際のケースにさらに近い学習モデルを生成することができる場合もある。
 画像特定部13は、学習モデル生成部11が生成した学習モデル15に、画像取得部12が取得した上空画像を適用して、画像取得部12が取得した上空画像における、圃場施設の故障に起因する現象の画像(故障現象画像)を特定する。
 故障箇所特定部14は、画像特定部13が特定した故障現象画像に基づいて、対象領域における圃場施設の故障箇所を特定する。例えば、故障箇所特定部14は、故障現象画像が含む位置情報に基づいて、圃場施設の故障箇所を特定することができる。
 このように、本実施の形態1では、学習モデル生成部11が、故障現象画像の特徴量を学習することによって故障現象画像を特定できる学習モデル15を生成するので、上空画像から、精度よく故障現象画像を特定できる。このため、本実施の形態1によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。
 続いて、図2及び図3を用いて、本実施の形態1における圃場管理装置10の構成についてより具体的に説明する。図2は、本発明の実施の形態1における学習モデルの生成処理を説明する図である。図2では、学習モデルの生成に用いられる画像として圃場等の上空画像を用いる例を説明する。
 まず、本実施の形態1において、「画像」は全て可視画像であるとする。また、故障箇所の特定対象となる圃場施設は、灌漑設備であるとする。灌漑設備は、例えば、圃場の畝に沿って地中又は地上に配置されたパイプを備えている。また、パイプの管壁には、パイプの長手方向に沿って、設定間隔で孔が設けられている。この灌漑設備において、灌漑用水をパイプに供給すると、灌漑用水は管壁の孔から圃場へと放出され、農作物へと供給される。
 ところで、このような構成の灌漑設備では、劣化によってパイプに亀裂が生じたり、更には、パイプが切断されたりすることがある。また、管壁のいずれか孔が目詰まりしてしまうことにより、別の箇所に圧力がかかって亀裂が生じたりすることもある。このような場合、故障現象としては、灌漑用水の漏水によって生じる現象、例えば、水たまりの発生、畝の崩れ、農作物の成長の変化等が挙げられる。
 なお、農作物の成長の変化とは、漏水によって水が行き届かない領域では成長の遅れが発生すること、灌漑用水に肥料を溶かして供給する場合に、水分が多い領域では成長が促進され、水分が少ない領域では成長の遅れが発生すること、水たまりが発生している領域に存在する農作物についてその根が呼吸できずに枯れること、等をいう。
 従って、本実施の形態1では、学習モデル生成部11は、灌漑用水の漏水によって生じる現象の画像を、故障現象画像として、その特徴量を学習することによって、学習モデルを生成する。具体的には、以下の通りである。
 図2に示すように、まず、人工衛星、航空機、ドローン等によって上空から圃場の撮影が行なわれ、学習に用いられる上空画像が得られる。また、得られた上空画像のうち、故障現象画像を含む上空画像を第1の上空画像とする。一方、正常現象画像を含む上空画像を第2の上空画像とする。なお、撮影によって得られた上空画像が故障現象画像と正常現象画像との両方を含む場合は、画像を加工することによって、第1の上空画像及び第2の上空画像を作成しても良い。図2に示す第1の上空画像において、灌漑方向に沿って水たまりの手前までは水が行き届いているため、農作物の成長は正常であると考えられる。一方、水たまりの先では、例えば漏水により水が行き届いていないため、農作物の成長が遅く、葉の緑が薄くなっている。
 学習モデル生成部11は、本実施の形態1では、まず、上述のようにして得られた第1の上空画像と第2の上空画像とを取得する。なお、取得される第1の上空画像及び第2の上空画像の枚数は限定されないが、学習モデルによる判別精度の点から、枚数はできるだけ多いのが良い。
 そして、上述したように、灌漑用水が漏水すると、圃場に水たまりが発生したり、畝が崩れたり、農作物の成長の変化が発生したりする。従って、学習モデル生成部11は、第1の上空画像から、灌漑用水の漏水によって生じる現象の画像の特徴量として、例えば、光の反射率、農作物が存在している領域の形状、農作物が存在している領域及びその周辺の色、農作物が存在している領域の位置を抽出する。
 更に、学習モデル生成部11は、第2の上空画像から、正常現象画像の特徴量として、灌漑用水が漏水していない状態での農作物が存在している領域についての、形状、色、位置を抽出する。そして、学習モデル生成部11は、第1の上空画像から得られた特徴量と、第2の上空画像から得られた特徴量とを分類して保持する。
 なお、農作物が存在している領域の形状には、対象となる農作物に固有の形状、畝の形状等が含まれる。また、農作物に固有の形状とは、その農作物の葉の形、葉の重なり方によって決まる、その農作物を上から見たときの固有の形状を意味している。更に、農作物が存在している領域の位置には、圃場における畝の配列の状態が含まれる。また、農作物が存在している領域の色には、農作物やその葉の色によって決まる、その領域における周波数特性(赤外、紫外を含めた色成分)が含まれる。
 次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像の特徴量を学習する。具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空画像の特徴量を与えて、故障現象画像と正常現象画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
 また、学習モデル生成部11は、取得した多数の第1の上空画像と第2の上空画像とを用いて、ディープラーニングを行ない、それによって、第1の上空画像と第2の上空画像とを識別する分類器を作成し、作成した分類器を学習モデル15とすることもできる。
 画像特定部13は、学習モデル生成部11が生成した学習モデル15を用いて、画像取得部12が取得した上空画像から、故障現象画像を特定する。画像取得部12が取得する上空画像も、学習に用いられる上空画像(図2参照)と同様に、人工衛星、航空機、ドローン等によって上空から圃場等を撮影することによって得られている。
 故障箇所特定部14は、画像特定部13が上空画像から故障現象画像を特定できた場合は、故障現象画像の圃場における位置を特定し、特定した位置を故障箇所とする。また、故障箇所特定部14は、圃場管理装置10の管理者の端末装置等に、特定した故障箇所を通知することもできる。故障箇所の通知を受信した端末装置等では、故障箇所の表示を行うことができる。また、故障箇所の通知を受信した端末装置等では、例えば生育シミュレーション等種々のシミュレーションにおいて、故障箇所にて収集されたデータを除外することで、精度の高いシミュレーション結果を得ることができる。
 図3は、本発明の実施の形態1における学習モデルの生成処理の別の例を説明する図である。図3の例では、学習モデル生成部11は、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」を用いて学習を行う。先述したように、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」を用いて学習を行うことにより、学習モデルの精度が向上する。
[装置動作]
 次に、本発明の実施の形態1における圃場管理装置10の動作について図4~図6を用いて説明する。また、本実施の形態1では、圃場管理装置10を動作させることによって、圃場管理方法が実施される。よって、本実施の形態1における圃場管理方法の説明は、以下の圃場管理装置10の動作説明に代える。
 最初に、学習モデルの生成処理について図4及び図5を用いて説明する。まず、図4を用いて、サポートベクトルマシンによって学習モデルが生成される場合について説明する。図4は、本発明の実施の形態1における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。
 図4に示すように、学習モデル生成部11は、外部から、多数の第1の上空画像と第2の上空画像とを取得する(ステップA1)。第1の上空画像と第2の上空画像については、上述の通りである。
 次に、学習モデル生成部11は、ステップA1で取得した第1の上空画像から、故障現象画像、即ち、灌漑用水の漏水によって生じる現象の画像の特徴量を抽出し、第2の上空画像から、正常現象画像の特徴量を抽出する(ステップA2)。
 次に、学習モデル生成部11は、第1の上空画像から得られた特徴量と、第2の上空画像から得られた特徴量とを分類して保持する(ステップA3)。
 次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像、即ち、灌漑用水の漏水によって生じる現象の画像の特徴量を学習して、学習モデル15を生成する(ステップA4)。
 具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空画像の特徴量を与えて、故障現象画像と正常現象画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
 続いて、図5を用いて、ディープラーニングによって学習モデルが生成される場合について説明する。図5は、本発明の実施の形態1における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。
 図5に示すように、学習モデル生成部11は、外部から、多数の第1の上空画像と第2の上空画像とを取得する(ステップB1)。
 次に、学習モデル生成部11は、ステップB1で取得した多数の第1の上空画像と第2の上空画像とを用いて、ディープラーニングを実行する(ステップB2)。
 そして、学習モデル生成部11は、ステップB2の結果から、第1の上空画像と第2の上空画像とを識別する分類器を作成し、作成した分類器を学習モデル15とする(ステップB3)。
 続いて、故障箇所の特定処理について図6を用いて説明する。図6は、本発明の実施の形態1における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
 図6に示すように、最初に、画像取得部12は、対象領域となる圃場の上空画像を取得する(ステップC1)。
 次に、画像特定部13は、学習モデル15に、ステップC1で画像取得部12が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップC2)。
 次に、故障箇所特定部14は、ステップC2で画像特定部13が特定した故障現象画像を用いて、対象領域における灌漑設備の故障箇所を特定する(ステップC3)。また、故障箇所特定部14は、特定した故障箇所を、外部の端末装置等に通知する。
 以上のように、図4に示すステップA1~A4、又は図5に示すステップB1~B3を実行することにより、学習モデル生成部11が、故障現象画像の特徴量を学習し、故障現象画像を特定できる学習モデル15を生成する。画像特定部13は、この学習モデル15に、対象領域の上空画像を適用することにより、故障現象画像、例えば、水たまりの画像等を特定することができる。そして、故障箇所特定部14は、画像特定部13が特定した故障現象画像を用いて灌漑設備の故障箇所を特定する。このため、本実施の形態1によれば、センサ数を増加させることなく、圃場施設の異常を検出することができる。圃場施設の状況を把握するためには、把握したい項目ごとに専用のセンサを設置する必要があり、センサ設置や保守のコストが増大する。本実施の形態1において、例えば営農支援サービスで用いる上空画像を用いることで、専用のセンサを別途設置することなく、営農支援サービスと併せて、圃場施設の状況に関する情報を提供することができる。
[プログラム]
 本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図6に示すステップC1~C3とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における圃場管理装置10と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14として機能し、処理を行なう。
 また、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14のいずれかとして機能しても良い。
(実施の形態2)
 続いて、本実施の形態2における、圃場管理装置、圃場管理方法、及びプログラムについて図7~図11を用いて説明する。
[装置構成]
 最初に、本実施の形態2における圃場管理装置の構成につい説明する。本実施の形態2における圃場管理装置は、図1に示した圃場管理装置10と同様の構成を有している。このため、以下の説明では、適宜図1を参酌する。但し、本実施の形態2では、故障現象画像、正常現象画像、及び上空画像として、レーダ画像が用いられ、この点で、実施の形態1と異なっている。以下、実施の形態1との相違点を中心に説明する。
 まず、本実施の形態2で用いられるレーダ画像は、人工衛星、航空機等に搭載された合成開口レーダによって撮影された画像である。従って、本実施の形態では、学習モデル生成部11は、圃場施設の故障に起因する現象のレーダ画像(以下「故障現象レーダ画像」と表記する)と、圃場施設の正常な稼働に起因する現象のレーダ画像(以下「正常現象レーダ画像」と表記する)とを用いて、故障現象レーダ画像の特徴量を学習することによって、学習モデル15を生成する。
 図7は、本発明の実施の形態2における学習モデルの生成処理を説明する図である。図7に示すように、まず、人工衛星、航空機等に搭載された合成開口レーダによって、上空から圃場の撮影が行なわれ、学習に用いられる上空からのレーダ画像(以下「上空レーダ画像」と表記する)が得られる。また、得られた上空レーダ画像のうち、故障現象レーダ画像を含む上空レーダ画像を第1の上空画像とする。一方、正常現象レーダ画像を含む上空レーダ画像を第2の上空レーダ画像とする。なお、撮影によって得られた上空レーダ画像が故障現象レーダ画像と正常現象レーダ画像との両方を含む場合は、画像を加工することによって、第1の上空レーダ画像及び第2の上空レーダ画像を作成しても良い。
 学習モデル生成部11は、本実施の形態2では、まず、上述のようにして得られた第1の上空レーダ画像と第2の上空レーダ画像とを取得する。なお、取得される第1の上空レーダ画像及び第2の上空レーダ画像の枚数は限定されないが、学習モデルによる判別精度の点から、枚数はできるだけ多いのが良い。
 ところで、レーダ画像は、上空から照射されたレーダの反射波の強度に基づいて形成された画像である。そして、反射波の強度は、地面の状態によって変化する。このため、レーダ画像は、地表の湿度分布を可視化した画像として用いることができる。
 そして、実施の形態1で述べたように、灌漑用水が漏水すると、圃場に水たまりが発生する等して、地表又は地表に近い地中の湿度分布が変化する。従って、学習モデル生成部11は、第1の上空レーダ画像から、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量として、例えば、湿度の勾配、湿度が閾値以上(又は閾値以下)と推定される領域の位置及び大きさを抽出する。
 更に、学習モデル生成部11は、第2の上空レーダ画像から、正常現象レーダ画像の特徴量として、例えば、灌漑用水が漏水していない場合における、湿度の勾配、湿度が閾値以上(又は閾値以下)と推定される領域の位置及び大きさを抽出する。そして、学習モデル生成部11は、第1の上空画像から得られた特徴量と、第2の上空画像から得られた特徴量とを分類して保持する。
 なお、図7の例では、学習モデル生成部11は、第1の上空レーダ画像及び第2の上空レーダ画像それぞれから、特徴量として、湿度が閾値以上と推定される領域の位置及び大きさを抽出している。
 次に、学習モデル生成部11は、実施の形態1の場合と同様に、サポートベクトルマシンを用いて、故障現象レーダ画像の特徴量を学習する。具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空レーダ画像の特徴量を与えて、故障現象レーダ画像と正常現象レーダ画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
 また、学習モデル生成部11は、取得した多数の第1の上空レーダ画像と第2の上空レーダ画像とを用いて、ディープラーニングを行ない、それによって、第1の上空レーダ画像と第2の上空レーダ画像とを識別する分類器を作成し、作成した分類器を学習モデル15とすることもできる。
 画像取得部12は、本実施の形態2では、圃場が存在している対象領域の上空からのレーダ画像(以下「上空レーダ画像」と表記する)を取得する。画像取得部12は、例えば人工衛星、航空機等に搭載された合成開口レーダよって上空から撮影された圃場等の上空レーダ画像を取得する。
 画像特定部13は、本実施の形態2では、学習モデル15を用いて、画像取得部12が取得した上空レーダ画像から、故障現象レーダ画像を特定する。
 故障箇所特定部14は、本実施の形態2では、画像特定部13が上空レーダ画像から故障現象レーダ画像を特定できた場合は、故障現象レーダ画像の圃場における位置を特定し、特定した位置を故障箇所とする。また、故障箇所特定部14は、圃場管理装置10の管理者の端末装置等に、特定した故障箇所を通知することもできる。
 図8は、本発明の実施の形態2における学習モデルの生成処理の別の例を説明する図である。図8の例では、学習モデル生成部11は、「故障現象レーダ画像」と、「故障現象レーダ画像及び正常現象レーダ画像の両方を含む画像」を用いて学習を行う。「故障現象レーダ画像」と、「故障現象レーダ画像及び正常現象レーダ画像の両方を含む画像」を用いて学習を行うことにより、学習モデルの精度の向上が期待できる。
[装置動作]
 次に、本発明の実施の形態2における圃場管理装置の動作について図9~図11を用いて説明する。また、本実施の形態2でも、本実施の形態2における圃場管理装置10を動作させることによって、圃場管理方法が実施される。本実施の形態2における圃場管理方法の説明は、以下の圃場管理装置10の動作説明に代える。
 最初に、学習モデルの生成処理について図9及び図10を用いて説明する。まず、図9を用いて、サポートベクトルマシンによって学習モデルが生成される場合について説明する。図9は、本発明の実施の形態2における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。
 図9に示すように、学習モデル生成部11は、外部から、多数の第1の上空レーダ画像と第2の上空レーダ画像とを取得する(ステップD1)。第1の上空レーダ画像と第2の上空レーダ画像については、上述の通りである。
 次に、学習モデル生成部11は、ステップD1で取得した第1の上空レーダ画像から、故障現象レーダ画像、即ち、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量を抽出し、第2の上空画像から、正常現象レーダ画像の特徴量を抽出する(ステップD2)。
 次に、学習モデル生成部11は、第1の上空レーダ画像から得られた特徴量と、第2の上空レーダ画像から得られた特徴量とを分類して保持する(ステップD3)。
 次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像、即ち、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量を学習して、学習モデル15を生成する(ステップD4)。
 具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空レーダ画像の特徴量を与えて、故障現象レーダ画像と正常現象レーダ画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
 続いて、図10を用いて、ディープラーニングによって学習モデルが生成される場合について説明する。図10は、本発明の実施の形態2における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。
 図10に示すように、学習モデル生成部11は、外部から、多数の第1の上空レーダ画像と第2の上空レーダ画像とを取得する(ステップE1)。
 次に、学習モデル生成部11は、ステップE1で取得した多数の第1の上空レーダ画像と第2の上空レーダ画像とを用いて、ディープラーニングを実行する(ステップE2)。
 そして、学習モデル生成部11は、ステップE2の結果から、第1の上空レーダ画像と第2の上空レーダ画像とを識別する分類器を作成し、作成した分類器を学習モデル15とする(ステップE3)。
 続いて、故障箇所の特定処理について図11を用いて説明する。図11は、本発明の実施の形態2における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
 図11に示すように、最初に、画像取得部12は、対象領域となる圃場の上空レーダ画像を取得する(ステップF1)。
 次に、画像特定部13は、学習モデル15に、ステップF1で画像取得部12が取得した上空レーダ画像を適用して、この上空レーダ画像における故障現象レーダ画像を特定する(ステップF2)。
 次に、故障箇所特定部14は、ステップF2で画像特定部13が特定した故障現象レーダ画像を用いて、対象領域における灌漑設備の故障箇所を特定する(ステップF3)。また、故障箇所特定部14は、特定した故障箇所を、外部の端末装置等に通知する。
 以上のように、本実施の形態2においては、レーダ画像から、学習モデル生成部11が、学習モデル15を生成する。このため、本実施の形態2によれば、可視画像では判別できない漏水を特定することができるので、故障箇所の早期発見が期待できる。
[プログラム]
 本実施の形態2におけるプログラムも、コンピュータに、図9に示すステップD1~D4(又は図10に示すステップE1~E3)と、図11に示すステップF1~F3とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における圃場管理装置と圃場管理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14として機能し、処理を行なう。
 また、本実施の形態2におけるプログラムも、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14のいずれかとして機能しても良い。
(実施の形態3)
 続いて、本実施の形態3における、圃場管理装置、圃場管理方法、及びプログラムについて図12及び図13を用いて説明する。
[装置構成]
 最初に、本実施の形態3における圃場管理装置の構成について図12を用いて説明する。図12は、本発明の実施の形態3における圃場管理装置の構成を示すブロック図である。
 図12に示すように、本実施の形態3における圃場管理装置20は、可視画像用学習モデル生成部21と、レーダ画像用学習モデル生成部22と、画像取得部23と、画像特定部24と、故障箇所特定部25とを備えている。
 本実施の形態3における圃場管理装置20は、可視画像用学習モデル生成部21と、レーダ画像用学習モデル生成部22との2つの学習モデル生成部を備えている点で、図1に示した実施の形態1における圃場管理装置10と異なっている。また、これにより、画像取得部23、画像特定部24、及び故障箇所特定部25それぞれの処理も、実施の形態1と異なっている。以下、実施の形態1及び2との相違点を中心に説明する。
 まず、可視画像用学習モデル生成部21は、図1に示した実施の形態1における学習モデル生成部11と同様のものである。可視画像用学習モデル生成部21は、故障現象画像と、正常現象画像とを用いて、故障現象画像の特徴量を学習することによって、可視画像用学習モデル26を生成する。なお、故障現象画像及び正常現象画像は、可視画像である。また、可視画像用学習モデル26は、実施の形態1で述べた学習処理によって作成されており、実施の形態1に示した学習モデル15と同様に構築されている。
 また、レーダ画像用学習モデル生成部22は、実施の形態2における学習モデル生成部と同様のものである。レーダ画像用学習モデル生成部22は、故障現象レーダ画像と、正常現象レーダ画像とを用いて、故障現象レーダ画像の特徴量を学習することによって、レーダ画像用学習モデル27を生成する。なお、レーダ画像用学習モデル27は、実施の形態2で述べた学習処理によって作成されており、実施の形態2に示した学習モデルと同様に構築されている。
 画像取得部23は、本実施の形態3では、対象領域の上空からの可視画像と対象領域の上空からのレーダ画像とを取得する。つまり、本実施の形態3では、画像取得部23は、実施の形態1で取得される画像と、実施の形態2で取得される画像との2種類の画像を取得する。
 画像特定部24は、まず、可視画像用学習モデル生成部21が生成した可視画像用学習モデル26に、画像取得部23が取得した対象領域の上空からの可視画像を適用して、対象領域の上空からの可視画像における、故障現象画像(可視画像)を特定する。また、画像特定部24は、レーダ画像用学習モデル生成部22が生成したレーダ画像用学習モデル27に、画像取得部23が取得した対象領域の上空からのレーダ画像を適用して、対象領域の上空からのレーダ画像における、故障現象レーダ画像を特定する。
 また、故障箇所特定部25は、画像特定部24が特定した故障現象画像と、同じく画像特定部24が特定した故障現象レーダ画像とに基づいて、対象領域における圃場施設の故障箇所を特定する。具体的には、故障箇所特定部25は、可視画像によって特定した故障箇所と、レーダ画像によって特定した故障箇所とを比較する。そして、故障箇所特定部25は、両者が一致している場合は、両者によって特定された箇所を故障箇所とする。一方、故障箇所特定部25は、両者が一致していない場合は、状況に応じて、どちらか一方が特定した箇所を故障箇所とする。例えば、灌漑設備用のパイプが地中に埋まっており、圃場の表面に水が析出しにくい場合は、故障箇所特定部25は、レーダ画像によって特定した故障箇所を優先する。
[装置動作]
 次に、本発明の実施の形態3における圃場管理装置20の動作について図13を用いて説明する。また、本実施の形態3では、圃場管理装置20を動作させることによって、圃場管理方法が実施される。よって、本実施の形態3における圃場管理方法の説明は、以下の圃場管理装置20の動作説明に代える。
 まず、本実施の形態3では、可視画像用学習モデル生成部21が、図4に示したステップA1~A4又は図5に示したステップB1~B3に準じた処理を実行して、可視画像用学習モデル26を生成する。また、レーダ画像用学習モデル生成部22が、図9に示したステップD1~D4又は図10に示したステップE1~E3に準じた処理を実行して、レーダ画像用学習モデル27を生成する。
 続いて、故障箇所の特定処理について図13を用いて説明する。図13は、本発明の実施の形態3における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
 図13に示すように、最初に、画像取得部23は、対象領域となる圃場の上空画像(可視画像)を取得する(ステップG1)。続いて、画像取得部23は、対象領域となる圃場の上空レーダ画像を取得する(ステップG2)。
 次に、画像特定部24は、可視画像用学習モデル26に、ステップG1で画像取得部23が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップG3)。続いて、画像特定部24は、レーダ画像用学習モデル27に、ステップG2で画像取得部23が取得した上空レーダ画像を適用して、この上空レーダ画像における故障現象レーダ画像を特定する(ステップG4)。
 次に、故障箇所特定部25は、ステップG3で画像特定部24が特定した故障現象画像と、ステップG4で画像特定部24が特定した故障現象レーダ画像とに基づいて、対象領域における圃場施設の故障箇所を特定する(ステップG5)。また、故障箇所特定部25は、特定した故障箇所を、外部の端末装置等に通知する。
 以上のように、本実施の形態3においては、実施の形態1で述べた可視画像を用いた学習モデルと、実施の形態2で述べたレーダ画像を用いた学習モデルとが構築され、両者を用いて、故障箇所が特定されるので、よりいっそう故障箇所を正確に特定することが可能となる。
[プログラム]
 本実施の形態3におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図9に示すステップD1~D4(又は図10に示すステップE1~E3)と、図13に示すステップG1~G5とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態3における圃場管理装置20と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、可視画像用学習モデル生成部21、レーダ画像用学習モデル生成部22、画像取得部23、画像特定部24、及び故障箇所特定部25として機能し、処理を行なう。
 また、本実施の形態3におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、可視画像用学習モデル生成部21、レーダ画像用学習モデル生成部22、画像取得部23、画像特定部24、及び故障箇所特定部25のいずれかとして機能しても良い。
(実施の形態4)
 以下、本発明の実施の形態4における、圃場管理装置、圃場管理方法、及びプログラムについて、図14~図16を参照しながら説明する。
[装置構成]
 最初に、本実施の形態4における圃場管理装置の構成について図14を用いて説明する。図14は、本発明の実施の形態4における圃場管理装置の構成を示すブロック図である。
 図14に示すように、本実施の形態4における圃場管理装置30は、学習モデル生成部31と、画像取得部32と、画像特定部33と、故障箇所特定部34と、土壌推定部36とを備えている。
 本実施の形態4における圃場管理装置30は、土壌推定部36を備えている点で、図1に示した実施の形態1における圃場管理装置10と異なっている。また、これにより、故障箇所特定部34における処理も実施の形態1と異なっている。以下、実施の形態1との相違点を中心に説明する。
 まず、本実施の形態4において、土壌推定部36は、対象領域の土中の水分量を推定する。具体的には、土壌推定部36は、まず、圃場の対象領域を複数の部分に分割して、複数の区分を設定する。
 図15は、本発明の実施の形態4において対象領域に設定される区分の一例を示す図である。図15の例では、土壌推定部36は、対象領域をマス目状に分割することによって、区分を設定している。各区分の面積が小さい方が、すなわち、対象圃場をより細かなメッシュ状に区切る方が、推定モデルの精度が向上する。
 続いて、土壌推定部36は、地形情報及び土壌分布情報の両方に基づいて、区分毎に、土中の水分の流入量及び流出量を予測して、土中推定モデル37を生成する。具体的には、土壌推定部36は、まず、区分毎に、対応する地形情報及び土壌分布情報を抽出し、各区分における土壌の組成と傾斜とを特定し、そして、特定した土壌の組成と傾斜とに基づいて、土中推定モデル37を生成する。
 土中推定モデル37は、対象領域内の一の地点における土中の状態を示す実測値から、この一の地点とは異なる他の地点における土中の状態を推定する、モデルである。地形情報は、例えば対象圃場の傾斜等を表す地形モデルである。土壌分布情報は、例えば対象圃場における土壌分布を表す土壌分布モデルである。
 続いて、土壌推定部36は、対象領域の任意の位置に設置されている土壌水分センサから、実測値を取得し、取得した実測値を土中推定モデル37に適用して、区分毎に、土中の水分量を推定する。つまり、土壌推定部36は、土中推定モデル37に実測値を入力することにより、各区分における水分量の相対的な関係から、各区分における水分量の絶対値を算出する。これにより、対象領域における水分量の分布が特定される。すなわち、豪雨等の自然現象に起因する水分量は、土中推定モデル37を用いて特定することができる。
 また、本実施の形態4において、故障箇所特定部34は、画像特定部33が特定した故障現象画像と、土壌推定部36が推定した対象領域の土中の水分量とに基づいて、対象領域における圃場施設(灌漑設備)の故障箇所を特定する。
 例えば、故障箇所特定部34は、故障現象画像によって特定された箇所(箇所A)及びその周辺の水分量の分布を特定し、特定した水分量の分布を、土壌推定部36が土中推定モデル37を用いて特定した、箇所A及びその周辺の水分量の分布に照らし合わせる。又は、故障箇所特定部34は、箇所A及びその周辺の画像と、土壌推定部36が土中推定モデル37を用いて特定した、箇所A及びその周辺の水分量の分布とを照らし合わせる。例えば、水分量の分布が一致する場合、該故障現象画像は、灌漑設備の故障に起因する現象を表す画像ではなく、自然現象に起因する現象を表す画像であると考えられる。水分量の分布が一致しない場合、該故障現象画像は、灌漑設備の故障に起因する現象を表す画像であると考えられる。故障箇所特定部34は、故障現象画像によって特定された箇所を故障箇所とする。これにより、自然現象に起因する現象が灌漑設備の故障に起因する現象であるとされることを防ぐことができる。
[装置動作]
 次に、本発明の実施の形態4における圃場管理装置30の動作について図16を用いて説明する。また、本実施の形態4では、圃場管理装置30を動作させることによって、圃場管理方法が実施される。よって、本実施の形態4における圃場管理方法の説明は、以下の圃場管理装置30の動作説明に代える。
 まず、本実施の形態4では、学習モデル生成部31が、実施の形態1と同様に、図4に示したステップA1~A4又は図5に示したステップB1~B3に準じた処理を実行して、学習モデル35を生成する。
 続いて、故障箇所の特定処理について図16を用いて説明する。図16は、本発明の実施の形態4における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
 図16に示すように、最初に、画像取得部32は、対象領域となる圃場の上空画像を取得する(ステップH1)。
 次に、画像特定部33は、学習モデル35に、ステップH1で画像取得部32が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップH2)。
 次に、土壌推定部36は、土壌水分センサから取得した実測値を土中推定モデル37に適用して、区分毎に、土中の水分量を推定する(ステップH3)。
 次に、故障箇所特定部34は、ステップH2で画像特定部33が特定した故障現象画像と、土壌推定部36が推定した対象領域の区分毎の土中の水分量とに基づいて、対象領域における圃場施設の故障箇所を特定する(ステップH4)。また、故障箇所特定部34は、特定した故障箇所を、外部の端末装置等に通知する。
 このように、本実施の形態4によれば、土中の水分量が算出され、その結果を利用することで、上空画像から特定された故障箇所が、本当に灌漑設備の故障であるのかどうかを確認することができる。本実施の形態4によれば、故障箇所の特定精度の向上が図られる。また、本実施の形態4で用いられる土壌推定部36は、実施の形態2及び3に示した圃場管理装置に備えられていても良い。この場合も上記と同様の効果を得ることができる。
[プログラム]
 本実施の形態4におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図16に示すステップH1~H4を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態4における圃場管理装置30と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、学習モデル生成部31、画像取得部32、画像特定部33、故障箇所特定部34、及び土壌推定部36として機能し、処理を行なう。
 また、本実施の形態4におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部31、画像取得部32、画像特定部33、故障箇所特定部34、及び土壌推定部36のいずれかとして機能しても良い。
(物理構成)
 ここで、実施の形態1~4におけるプログラムを実行することによって、圃場管理装置を実現するコンピュータについて図17を用いて説明する。図17は、本発明の実施の形態1~4における圃場管理装置を実現するコンピュータの一例を示すブロック図である。
 図17に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、本実施の形態における圃場管理装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、圃場管理装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記24)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
 対象領域の上空画像を取得する、画像取得部と、
 前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、画像特定部と、
 前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、故障箇所特定部と、
を備えている、ことを特徴とする圃場管理装置。
(付記2) 前記学習モデル生成部が、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記1に記載の圃場管理装置。
(付記3) 前記学習モデル生成部が、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記1に記載の圃場管理装置。
(付記4) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記1~3のいずれかに記載の圃場管理装置。
(付記5) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記1~3のいずれかに記載の圃場管理装置。
(付記6) 圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、第2の学習モデル生成部を更に備え、
 前記画像取得部は、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
 前記画像特定部は、
前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記対象領域の上空からの可視画像を適用して、前記画像取得部が取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記第2の学習モデル生成部が生成した前記第2の学習モデルに、前記画像取得部が取得した前記対象領域の上空からのレーダ画像を適用して、前記画像取得部が取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
 前記故障箇所特定部は、
前記画像特定部が特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記4に記載の圃場管理装置。
(付記7) 前記圃場施設が灌漑設備であり、
 前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記1~6のいずれかに記載の圃場管理装置。
(付記8) 前記対象領域の土中の水分量を推定する土壌推定部を更に備え、
 前記故障箇所特定部が、前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像と、前記土壌推定部が推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記7に記載の圃場管理装置。
(付記9)(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を有する、ことを特徴とする圃場管理方法。
(付記10) 前記(a)のステップにおいて、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記9に記載の圃場管理方法。
(付記11) 前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記9に記載の圃場管理方法。
(付記12) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記9~11のいずれかに記載の圃場管理方法。
(付記13) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記9~11のいずれかに記載の圃場管理方法。
(付記14)(e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを更に有し、
 前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
 前記(c)のステップにおいて、
前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
 前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記12に記載の圃場管理方法。
(付記15) 前記圃場施設が灌漑設備であり、
 前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記9~14のいずれかに記載の圃場管理方法。
(付記16)(f)前記対象領域の土中の水分量を推定する、ステップを更に有し、
 前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記15に記載の圃場管理方法。
(付記17)コンピュータに、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記18) 前記(a)のステップにおいて、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記17に記載のコンピュータ読み取り可能な記録媒体。
(付記19) 前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記17に記載のコンピュータ読み取り可能な記録媒体。
(付記20) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記17~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記21) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記17~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記22)前記プログラムが、前記コンピュータに、
(e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを実行させる、命令を更に含み、
 前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
 前記(c)のステップにおいて、
前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
 前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記20に記載のコンピュータ読み取り可能な記録媒体。
(付記23) 前記圃場施設が灌漑設備であり、
 前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記17~22のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記24)前記プログラムが、前記コンピュータに、
(f)前記対象領域の土中の水分量を推定する、ステップを実行させる、命令を更に含み、
 前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記23に記載のコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2017年3月29日に出願された日本出願特願2017-66190を基礎とする優先権を主張し、その開示の全てをここに取り込む。
  以上のように、本発明によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。本発明は、農業分野に有用である。
 10 圃場管理装置(実施の形態1、2)
 11 学習モデル生成部
 12 画像取得部
 13 画像特定部
 14 故障箇所特定部
 15 学習モデル
 20 圃場管理装置(実施の形態3)
 21 可視画像用学習モデル生成部
 22 レーダ画像用学習モデル生成部
 23 画像取得部
 24 画像特定部
 25 故障箇所特定部
 26 可視画像用学習モデル
 27 レーダ画像用学習モデル
 30 圃場管理装置(実施の形態4)
 31 学習モデル生成部
 32 画像取得部
 33 画像特定部
 34 故障箇所特定部
 35 学習モデル
 36 土壌推定部
 37 土中推定モデル
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (24)

  1.  圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
     対象領域の上空画像を取得する、画像取得部と、
     前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、画像特定部と、
     前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、故障箇所特定部と、
    を備えている、ことを特徴とする圃場管理装置。
  2.  前記学習モデル生成部が、
    前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
    前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
    サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項1に記載の圃場管理装置。
  3.  前記学習モデル生成部が、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項1に記載の圃場管理装置。
  4.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項1~3のいずれかに記載の圃場管理装置。
  5.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項1~3のいずれかに記載の圃場管理装置。
  6.  圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、第2の学習モデル生成部を更に備え、
     前記画像取得部は、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
     前記画像特定部は、
    前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記対象領域の上空からの可視画像を適用して、前記画像取得部が取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
    更に、前記第2の学習モデル生成部が生成した前記第2の学習モデルに、前記画像取得部が取得した前記対象領域の上空からのレーダ画像を適用して、前記画像取得部が取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
     前記故障箇所特定部は、
    前記画像特定部が特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項4に記載の圃場管理装置。
  7.  前記圃場施設が灌漑設備であり、
     前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
    請求項1~6のいずれかに記載の圃場管理装置。
  8.  前記対象領域の土中の水分量を推定する土壌推定部を更に備え、
     前記故障箇所特定部が、前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像と、前記土壌推定部が推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項7に記載の圃場管理装置。
  9. (a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
    (b)対象領域の上空画像を取得する、ステップと、
    (c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
    (d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
    を有する、ことを特徴とする圃場管理方法。
  10.  前記(a)のステップにおいて、
    前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
    前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
    サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項9に記載の圃場管理方法。
  11.  前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項9に記載の圃場管理方法。
  12.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項9~11のいずれかに記載の圃場管理方法。
  13.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項9~11のいずれかに記載の圃場管理方法。
  14. (e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを更に有し、
     前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
     前記(c)のステップにおいて、
    前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
    更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
     前記(d)のステップにおいて、
    前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項12に記載の圃場管理方法。
  15.  前記圃場施設が灌漑設備であり、
     前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
    請求項9~14のいずれかに記載の圃場管理方法。
  16. (f)前記対象領域の土中の水分量を推定する、ステップを更に有し、
     前記(d)のステップにおいて、
    前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項15に記載の圃場管理方法。
  17. コンピュータに、
    (a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
    (b)対象領域の上空画像を取得する、ステップと、
    (c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
    (d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  18.  前記(a)のステップにおいて、
    前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
    前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
    サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項17に記載のコンピュータ読み取り可能な記録媒体。
  19.  前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項17に記載のコンピュータ読み取り可能な記録媒体。
  20.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項17~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  21.  圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項17~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  22. 前記プログラムが、前記コンピュータに、
    (e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを実行させる、命令を更に含み、
     前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
     前記(c)のステップにおいて、
    前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
    更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
     前記(d)のステップにおいて、
    前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項20に記載のコンピュータ読み取り可能な記録媒体。
  23.  前記圃場施設が灌漑設備であり、
     前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
    請求項17~22のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  24. 前記プログラムが、前記コンピュータに、
    (f)前記対象領域の土中の水分量を推定する、ステップを実行させる、命令を更に含み、
     前記(d)のステップにおいて、
    前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
    請求項23に記載のコンピュータ読み取り可能な記録媒体。
PCT/JP2018/011828 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体 WO2018181041A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019509728A JP7099723B2 (ja) 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びプログラム
EP18776388.3A EP3605435A4 (en) 2017-03-29 2018-03-23 SITE MANAGEMENT DEVICE, SITE MANAGEMENT METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
US16/496,644 US11461884B2 (en) 2017-03-29 2018-03-23 Field management apparatus, field management method, and computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-066190 2017-03-29
JP2017066190 2017-03-29

Publications (1)

Publication Number Publication Date
WO2018181041A1 true WO2018181041A1 (ja) 2018-10-04

Family

ID=63676023

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011828 WO2018181041A1 (ja) 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体

Country Status (4)

Country Link
US (1) US11461884B2 (ja)
EP (1) EP3605435A4 (ja)
JP (1) JP7099723B2 (ja)
WO (1) WO2018181041A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184241A1 (ja) * 2019-03-08 2020-09-17 Assest株式会社 農作物の収穫量予測プログラム、栽培環境判別プログラム
JP2020170235A (ja) * 2019-04-01 2020-10-15 Assest株式会社 飼育環境判別プログラム
JP2020170236A (ja) * 2019-04-01 2020-10-15 Assest株式会社 栽培環境判別プログラム
JP2021130911A (ja) * 2020-02-18 2021-09-09 五洋建設株式会社 粘性土特性推定方法、粘性土を用いた施工方法、粘性土特性推定装置、およびプログラム
JP7423631B2 (ja) 2018-12-10 2024-01-29 クライメイト、リミテッド、ライアビリティー、カンパニー デジタル画像および機械学習モデルを使用した圃場異常の地図作成

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020223803A1 (en) * 2019-05-07 2020-11-12 Les Systèmes Flyscan Inc. System and method for determining an indication of a presence of a leak of hazardous material using a trained classification module

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005085059A (ja) * 2003-09-10 2005-03-31 Sec:Kk 農作業決定支援用予測システム
JP2007156568A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 道路走行支援システム
JP2012164109A (ja) 2011-02-07 2012-08-30 Hitachi Ltd センシング装置
JP2013210207A (ja) * 2012-03-30 2013-10-10 Nec Corp レーダ画像の目標識別装置、目標識別方法、及び目標識別プログラム
US20160093212A1 (en) * 2014-08-22 2016-03-31 Verizon Patent And Licensing Inc. Using aerial imaging to provide supplemental information about a location
US20160202227A1 (en) * 2015-01-14 2016-07-14 Accenture Global Services Limited Precision agriculture system
JP2017066190A (ja) 2015-09-28 2017-04-06 パナソニックIpマネジメント株式会社 光反射体用成形材料、光反射体及び発光装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152881B2 (en) * 2012-09-13 2015-10-06 Los Alamos National Security, Llc Image fusion using sparse overcomplete feature dictionaries
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US10697951B2 (en) * 2014-12-15 2020-06-30 Textron Systems Corporation In-soil data monitoring system and method
MX2017014648A (es) * 2015-05-15 2018-04-11 Airfusion Inc Aparato portatil y metodo para apoyo de decision para fusion y analisis de datos de sensores multiples automatizados en tiempo real.
US10025983B2 (en) * 2015-09-21 2018-07-17 The Climate Corporation Ponding water detection on satellite imagery
US10359336B2 (en) * 2016-12-09 2019-07-23 Verizon Patent And Licensing Inc. Leak detection in irrigation systems
US10664702B2 (en) * 2016-12-30 2020-05-26 International Business Machines Corporation Method and system for crop recognition and boundary delineation
US10586105B2 (en) * 2016-12-30 2020-03-10 International Business Machines Corporation Method and system for crop type identification using satellite observation and weather data
US10726558B2 (en) * 2017-02-27 2020-07-28 Dolphin AI, Inc. Machine learning-based image recognition of weather damage
WO2018165753A1 (en) * 2017-03-14 2018-09-20 University Of Manitoba Structure defect detection using machine learning algorithms
US20200134384A1 (en) * 2017-09-14 2020-04-30 Mitsubishi Electric Corporation Abnormality detection device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005085059A (ja) * 2003-09-10 2005-03-31 Sec:Kk 農作業決定支援用予測システム
JP2007156568A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 道路走行支援システム
JP2012164109A (ja) 2011-02-07 2012-08-30 Hitachi Ltd センシング装置
JP2013210207A (ja) * 2012-03-30 2013-10-10 Nec Corp レーダ画像の目標識別装置、目標識別方法、及び目標識別プログラム
US20160093212A1 (en) * 2014-08-22 2016-03-31 Verizon Patent And Licensing Inc. Using aerial imaging to provide supplemental information about a location
US20160202227A1 (en) * 2015-01-14 2016-07-14 Accenture Global Services Limited Precision agriculture system
EP3046066A1 (en) 2015-01-14 2016-07-20 Accenture Global Services Limited Precision agriculture system
JP2017066190A (ja) 2015-09-28 2017-04-06 パナソニックIpマネジメント株式会社 光反射体用成形材料、光反射体及び発光装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP3605435A4
YOKOYA, NAOTO ET AL.: "Hyperspectral Image Processing for Advanced Earth Observation", JOURNAL OF THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, vol. 29, no. 4, 1 July 2014 (2014-07-01), pages 357 - 365, XP055636633 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423631B2 (ja) 2018-12-10 2024-01-29 クライメイト、リミテッド、ライアビリティー、カンパニー デジタル画像および機械学習モデルを使用した圃場異常の地図作成
WO2020184241A1 (ja) * 2019-03-08 2020-09-17 Assest株式会社 農作物の収穫量予測プログラム、栽培環境判別プログラム
JP2020170235A (ja) * 2019-04-01 2020-10-15 Assest株式会社 飼育環境判別プログラム
JP2020170236A (ja) * 2019-04-01 2020-10-15 Assest株式会社 栽培環境判別プログラム
JP2021130911A (ja) * 2020-02-18 2021-09-09 五洋建設株式会社 粘性土特性推定方法、粘性土を用いた施工方法、粘性土特性推定装置、およびプログラム
JP7289271B2 (ja) 2020-02-18 2023-06-09 五洋建設株式会社 粘性土特性推定方法、粘性土を用いた施工方法、粘性土特性推定装置、およびプログラム

Also Published As

Publication number Publication date
EP3605435A1 (en) 2020-02-05
JP7099723B2 (ja) 2022-07-12
EP3605435A4 (en) 2020-02-05
JPWO2018181041A1 (ja) 2020-01-16
US20200380663A1 (en) 2020-12-03
US11461884B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
WO2018181041A1 (ja) 圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体
Wang et al. A unified convolutional neural network integrated with conditional random field for pipe defect segmentation
CN110096994B (zh) 一种基于模糊标签语义先验的小样本PolSAR图像分类方法
CN107735794B (zh) 使用图像处理的状况检测
CN107835997B (zh) 使用计算机视觉的用于电力线走廊监测的植被管理
Hölbling et al. An object-based approach for semi-automated landslide change detection and attribution of changes to landslide classes in northern Taiwan
Jin et al. High-throughput measurements of stem characteristics to estimate ear density and above-ground biomass
JP6631747B2 (ja) 植生指標算出装置、植生指標算出方法、及びプログラム
WO2018173622A1 (ja) 植生指標算出装置、植生指標算出方法、及びコンピュータ読み取り可能な記録媒体
CN113112510A (zh) 一种语义分割的森林火灾检测方法、控制器及存储介质
Chang et al. Canopy-cover thematic-map generation for Military Map products using remote sensing data in inaccessible areas
Taherzadeh et al. Development of a generic model for the detection of roof materials based on an object-based approach using WorldView-2 satellite imagery
WO2021133310A1 (en) Agricultural decision support system
Tormos et al. Object-based image analysis for operational fine-scale regional mapping of land cover within river corridors from multispectral imagery and thematic data
CN111680704A (zh) 海洋红线新增人类活动斑块自动化快速提取方法和装置
WO2023022587A1 (en) Geographic data processing methods and systems for assessing geohazard risk
Kim et al. One-shot classification-based tilled soil region segmentation for boundary guidance in autonomous tillage
Liu A SAM-based method for large-scale crop field boundary delineation
KR102283452B1 (ko) 작물 이미지의 병해충 검출 방법 및 장치
JP5352435B2 (ja) 分類画像作成装置
US20240193946A1 (en) Bird detection and species determination
CN113807137B (zh) 用于识别种植行中心线的方法、装置、农用机械及介质
Li et al. Complex Background Removal Method for Video of an Inclined Cable Based on UAV Detection of Structural Vibration Frequencies
CN117237645B (zh) 基于边界增强的语义分割模型的训练方法、装置和设备
Deng et al. Extraction of farmland shelterbelts from remote sensing imagery based on a belt-oriented method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18776388

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509728

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018776388

Country of ref document: EP

Effective date: 20191029