JP7099723B2 - 圃場管理装置、圃場管理方法、及びプログラム - Google Patents

圃場管理装置、圃場管理方法、及びプログラム Download PDF

Info

Publication number
JP7099723B2
JP7099723B2 JP2019509728A JP2019509728A JP7099723B2 JP 7099723 B2 JP7099723 B2 JP 7099723B2 JP 2019509728 A JP2019509728 A JP 2019509728A JP 2019509728 A JP2019509728 A JP 2019509728A JP 7099723 B2 JP7099723 B2 JP 7099723B2
Authority
JP
Japan
Prior art keywords
image
failure
phenomenon caused
irrigation
sky
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019509728A
Other languages
English (en)
Other versions
JPWO2018181041A1 (ja
Inventor
恒輔 石田
肇 石川
真二 大湊
俊祐 秋元
眞太郎 松本
雅美 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018181041A1 publication Critical patent/JPWO2018181041A1/ja
Application granted granted Critical
Publication of JP7099723B2 publication Critical patent/JP7099723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/02Investigating fluid-tightness of structures by using fluid or vacuum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G25/00Watering gardens, fields, sports grounds or the like
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/38Investigating fluid-tightness of structures by using light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/24Earth materials
    • G01N33/246Earth materials for water content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G25/00Watering gardens, fields, sports grounds or the like
    • A01G25/16Control of watering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N22/00Investigating or analysing materials by the use of microwaves or radio waves, i.e. electromagnetic waves with a wavelength of one millimetre or more
    • G01N22/04Investigating moisture content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Agronomy & Crop Science (AREA)
  • Economics (AREA)
  • Animal Husbandry (AREA)
  • Immunology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Geology (AREA)
  • Remote Sensing (AREA)
  • Pathology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Water Supply & Treatment (AREA)
  • Environmental Sciences (AREA)
  • Artificial Intelligence (AREA)

Description

本発明は、圃場を管理するための、圃場管理装置、及び圃場管理方法に関し、更には、これらを実現するためのプログラムに関する。
近年、農業分野においては、IT技術を活用することによって、生産者を支援する試みが行なわれている。例えば、特許文献1は、圃場に設置された、カメラ、マルチスペクトルセンサ、樹液流量センサ、温度センサ、土壌温度センサ、画像データを収集する無人飛行機等を用いて、各種データを収集する、農業システムを開示している。
特許文献1に開示された農業システムは、収集した各種データを学習モデルに適用して、生産者がとるべき行動を特定することで、生産者を支援している。例えば、特許文献1に開示された農業システムは、収集したデータに基づいて、灌漑施設に問題がある場合は、生産者に対して、何日以内にメンテナンスするように警告を行なうことができる。これにより、生産者は、灌漑施設の故障に気付くことができ、安定して圃場を運営することができる。
また、特許文献2も、圃場に設置された各種センサが出力したセンサデータに基づいて、生産者を支援するシステムを開示している。但し、特許文献2に開示されたシステムでは、センサデータを単に収集しただけでは、異常かどうかを判断することが難しいため、設置場所によって属性が規定され、各種センサは各属性に分類される。そして、特許文献2に開示されたシステムは、属性毎に、センサデータ同士を比較することで、圃場の異常を検出する。
欧州特許出願公開第3046066号明細書 特開2012-164109号公報
上述した特許文献1及び2に開示されたシステムによれば、センサデータに基づいて、生産者の支援は可能となるが、そのためには、多くのセンサを設置することが必要となる。特に、圃場に設置される灌漑施設は、広範囲にわたって敷設され、更に多数の噴出口を備えているため、異常を確実に検出するためには、センサの数が膨大となってしまう。
本発明の目的の一例は、上記問題を解消し、センサ数を増加させることなく、圃場の施設の異常を検出し得る、圃場管理装置、圃場管理方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における圃場管理装置は、
圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
対象領域の上空画像を取得する、画像取得部と、
前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、画像特定部と、
前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、故障箇所特定部と、
を備えている、ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における圃場管理方法は、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を有する、ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を実行させることを特徴とする。
以上のように、本発明によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。
図1は、本発明の実施の形態1における圃場管理装置の構成を示すブロック図である。 図2は、本発明の実施の形態1における学習モデルの生成処理を説明する図である。 図3は、本発明の実施の形態1における学習モデルの生成処理の別の例を説明する図である。 図4は、本発明の実施の形態1における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。 図5は、本発明の実施の形態1における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。 図6は、本発明の実施の形態1における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図7は、本発明の実施の形態2における学習モデルの生成処理を説明する図である。 図8は、本発明の実施の形態2における学習モデルの生成処理の別の例を説明する図である。 図9は、本発明の実施の形態2における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。 図10は、本発明の実施の形態2における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。 図11は、本発明の実施の形態2における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図12は、本発明の実施の形態3における圃場管理装置の構成を示すブロック図である。 図13は、本発明の実施の形態3における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図14は、本発明の実施の形態4における圃場管理装置の構成を示すブロック図である。 図15は、本発明の実施の形態4において対象領域に設定される区分の一例を示す図である。 図16は、本発明の実施の形態4における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。 図17は、本発明の実施の形態1~4における圃場管理装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
以下、本発明の実施の形態1における、圃場管理装置、圃場管理方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
最初に、本実施の形態1における圃場管理装置の構成について図1を用いて説明する。図1は、本発明の実施の形態1における圃場管理装置の構成を示すブロック図である。
図1に示す、本実施の形態1における圃場管理装置10は、圃場に設置されている圃場施設の故障箇所を特定するための装置である。図1に示すように、圃場管理装置10は、学習モデル生成部11と、画像取得部12と、画像特定部13と、故障箇所特定部14とを備えている。
学習モデル生成部11は、圃場施設の故障に起因する現象の画像(以下「故障現象画像」と表記する)と、圃場施設の正常な稼働に起因する現象の画像(以下「正常現象画像」と表記する)とを用いて、故障現象画像の特徴量を学習することによって、学習モデル15を生成する。
ここで、故障現象画像及び正常現象画像は、例えば、対象領域となる圃場を上空から撮影した上空画像とすることができる。後述するように、学習モデル15に適用する画像が上空画像であるため、学習モデル生成部11が学習モデル15の生成に用いる画像も上空画像であることが好ましい。
圃場を上空から撮影した上空画像は、例えば人工衛星、航空機、ドローン等によって圃場を上空から撮影することにより得られる。学習モデル15を生成する際に、人工衛星、航空機、ドローン等によって圃場を上空から撮影することにより得られた上空画像を用いる場合、一枚の上空画像には、故障現象画像及び正常現象画像が含まれていることがある。一枚の上空画像に故障現象画像及び正常現象画像が含まれている場合は、該上空画像から故障現象画像及び正常現象画像をそれぞれ切り出して学習モデル15の生成に使用することができる。
また、本実施の形態では、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」とを用いて学習が行われても良い。この場合、学習モデルの精度の向上が期待できる。例えば、圃場施設が灌漑設備であり、故障に起因する現象(故障現象)が、水漏れによる水たまりの発生であるとすると、この場合、施設の外形そのものは、故障現象が発生している場合と、正常な場合とで、画像上では変化することがない。よって、「故障現象画像及び正常現象画像の両方を含む画像」を用いることで、故障現象画像の特徴をより正確に学習することが可能となる。
従って、「故障現象画像」と「故障現象画像及び正常現象画像の両方を含む画像」を多数取得して学習を行う方が、実際のケースにより近い学習モデルを生成することができる場合がある。更に、故障現象が、圃場施設から離れた位置で発生しているケースも考えられるため、「故障現象画像」、「故障現象画像及び正常現象画像を含む画像」及び「正常現象画像」を用いて学習を行うことで、実際のケースにさらに近い学習モデルを生成することができる場合もある。
画像特定部13は、学習モデル生成部11が生成した学習モデル15に、画像取得部12が取得した上空画像を適用して、画像取得部12が取得した上空画像における、圃場施設の故障に起因する現象の画像(故障現象画像)を特定する。
故障箇所特定部14は、画像特定部13が特定した故障現象画像に基づいて、対象領域における圃場施設の故障箇所を特定する。例えば、故障箇所特定部14は、故障現象画像が含む位置情報に基づいて、圃場施設の故障箇所を特定することができる。
このように、本実施の形態1では、学習モデル生成部11が、故障現象画像の特徴量を学習することによって故障現象画像を特定できる学習モデル15を生成するので、上空画像から、精度よく故障現象画像を特定できる。このため、本実施の形態1によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。
続いて、図2及び図3を用いて、本実施の形態1における圃場管理装置10の構成についてより具体的に説明する。図2は、本発明の実施の形態1における学習モデルの生成処理を説明する図である。図2では、学習モデルの生成に用いられる画像として圃場等の上空画像を用いる例を説明する。
まず、本実施の形態1において、「画像」は全て可視画像であるとする。また、故障箇所の特定対象となる圃場施設は、灌漑設備であるとする。灌漑設備は、例えば、圃場の畝に沿って地中又は地上に配置されたパイプを備えている。また、パイプの管壁には、パイプの長手方向に沿って、設定間隔で孔が設けられている。この灌漑設備において、灌漑用水をパイプに供給すると、灌漑用水は管壁の孔から圃場へと放出され、農作物へと供給される。
ところで、このような構成の灌漑設備では、劣化によってパイプに亀裂が生じたり、更には、パイプが切断されたりすることがある。また、管壁のいずれか孔が目詰まりしてしまうことにより、別の箇所に圧力がかかって亀裂が生じたりすることもある。このような場合、故障現象としては、灌漑用水の漏水によって生じる現象、例えば、水たまりの発生、畝の崩れ、農作物の成長の変化等が挙げられる。
なお、農作物の成長の変化とは、漏水によって水が行き届かない領域では成長の遅れが発生すること、灌漑用水に肥料を溶かして供給する場合に、水分が多い領域では成長が促進され、水分が少ない領域では成長の遅れが発生すること、水たまりが発生している領域に存在する農作物についてその根が呼吸できずに枯れること、等をいう。
従って、本実施の形態1では、学習モデル生成部11は、灌漑用水の漏水によって生じる現象の画像を、故障現象画像として、その特徴量を学習することによって、学習モデルを生成する。具体的には、以下の通りである。
図2に示すように、まず、人工衛星、航空機、ドローン等によって上空から圃場の撮影が行なわれ、学習に用いられる上空画像が得られる。また、得られた上空画像のうち、故障現象画像を含む上空画像を第1の上空画像とする。一方、正常現象画像を含む上空画像を第2の上空画像とする。なお、撮影によって得られた上空画像が故障現象画像と正常現象画像との両方を含む場合は、画像を加工することによって、第1の上空画像及び第2の上空画像を作成しても良い。図2に示す第1の上空画像において、灌漑方向に沿って水たまりの手前までは水が行き届いているため、農作物の成長は正常であると考えられる。一方、水たまりの先では、例えば漏水により水が行き届いていないため、農作物の成長が遅く、葉の緑が薄くなっている。
学習モデル生成部11は、本実施の形態1では、まず、上述のようにして得られた第1の上空画像と第2の上空画像とを取得する。なお、取得される第1の上空画像及び第2の上空画像の枚数は限定されないが、学習モデルによる判別精度の点から、枚数はできるだけ多いのが良い。
そして、上述したように、灌漑用水が漏水すると、圃場に水たまりが発生したり、畝が崩れたり、農作物の成長の変化が発生したりする。従って、学習モデル生成部11は、第1の上空画像から、灌漑用水の漏水によって生じる現象の画像の特徴量として、例えば、光の反射率、農作物が存在している領域の形状、農作物が存在している領域及びその周辺の色、農作物が存在している領域の位置を抽出する。
更に、学習モデル生成部11は、第2の上空画像から、正常現象画像の特徴量として、灌漑用水が漏水していない状態での農作物が存在している領域についての、形状、色、位置を抽出する。そして、学習モデル生成部11は、第1の上空画像から得られた特徴量と、第2の上空画像から得られた特徴量とを分類して保持する。
なお、農作物が存在している領域の形状には、対象となる農作物に固有の形状、畝の形状等が含まれる。また、農作物に固有の形状とは、その農作物の葉の形、葉の重なり方によって決まる、その農作物を上から見たときの固有の形状を意味している。更に、農作物が存在している領域の位置には、圃場における畝の配列の状態が含まれる。また、農作物が存在している領域の色には、農作物やその葉の色によって決まる、その領域における周波数特性(赤外、紫外を含めた色成分)が含まれる。
次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像の特徴量を学習する。具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空画像の特徴量を与えて、故障現象画像と正常現象画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
また、学習モデル生成部11は、取得した多数の第1の上空画像と第2の上空画像とを用いて、ディープラーニングを行ない、それによって、第1の上空画像と第2の上空画像とを識別する分類器を作成し、作成した分類器を学習モデル15とすることもできる。
画像特定部13は、学習モデル生成部11が生成した学習モデル15を用いて、画像取得部12が取得した上空画像から、故障現象画像を特定する。画像取得部12が取得する上空画像も、学習に用いられる上空画像(図2参照)と同様に、人工衛星、航空機、ドローン等によって上空から圃場等を撮影することによって得られている。
故障箇所特定部14は、画像特定部13が上空画像から故障現象画像を特定できた場合は、故障現象画像の圃場における位置を特定し、特定した位置を故障箇所とする。また、故障箇所特定部14は、圃場管理装置10の管理者の端末装置等に、特定した故障箇所を通知することもできる。故障箇所の通知を受信した端末装置等では、故障箇所の表示を行うことができる。また、故障箇所の通知を受信した端末装置等では、例えば生育シミュレーション等種々のシミュレーションにおいて、故障箇所にて収集されたデータを除外することで、精度の高いシミュレーション結果を得ることができる。
図3は、本発明の実施の形態1における学習モデルの生成処理の別の例を説明する図である。図3の例では、学習モデル生成部11は、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」を用いて学習を行う。先述したように、「故障現象画像」と、「故障現象画像及び正常現象画像の両方を含む画像」を用いて学習を行うことにより、学習モデルの精度が向上する。
[装置動作]
次に、本発明の実施の形態1における圃場管理装置10の動作について図4~図6を用いて説明する。また、本実施の形態1では、圃場管理装置10を動作させることによって、圃場管理方法が実施される。よって、本実施の形態1における圃場管理方法の説明は、以下の圃場管理装置10の動作説明に代える。
最初に、学習モデルの生成処理について図4及び図5を用いて説明する。まず、図4を用いて、サポートベクトルマシンによって学習モデルが生成される場合について説明する。図4は、本発明の実施の形態1における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。
図4に示すように、学習モデル生成部11は、外部から、多数の第1の上空画像と第2の上空画像とを取得する(ステップA1)。第1の上空画像と第2の上空画像については、上述の通りである。
次に、学習モデル生成部11は、ステップA1で取得した第1の上空画像から、故障現象画像、即ち、灌漑用水の漏水によって生じる現象の画像の特徴量を抽出し、第2の上空画像から、正常現象画像の特徴量を抽出する(ステップA2)。
次に、学習モデル生成部11は、第1の上空画像から得られた特徴量と、第2の上空画像から得られた特徴量とを分類して保持する(ステップA3)。
次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像、即ち、灌漑用水の漏水によって生じる現象の画像の特徴量を学習して、学習モデル15を生成する(ステップA4)。
具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空画像の特徴量を与えて、故障現象画像と正常現象画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
続いて、図5を用いて、ディープラーニングによって学習モデルが生成される場合について説明する。図5は、本発明の実施の形態1における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。
図5に示すように、学習モデル生成部11は、外部から、多数の第1の上空画像と第2の上空画像とを取得する(ステップB1)。
次に、学習モデル生成部11は、ステップB1で取得した多数の第1の上空画像と第2の上空画像とを用いて、ディープラーニングを実行する(ステップB2)。
そして、学習モデル生成部11は、ステップB2の結果から、第1の上空画像と第2の上空画像とを識別する分類器を作成し、作成した分類器を学習モデル15とする(ステップB3)。
続いて、故障箇所の特定処理について図6を用いて説明する。図6は、本発明の実施の形態1における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
図6に示すように、最初に、画像取得部12は、対象領域となる圃場の上空画像を取得する(ステップC1)。
次に、画像特定部13は、学習モデル15に、ステップC1で画像取得部12が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップC2)。
次に、故障箇所特定部14は、ステップC2で画像特定部13が特定した故障現象画像を用いて、対象領域における灌漑設備の故障箇所を特定する(ステップC3)。また、故障箇所特定部14は、特定した故障箇所を、外部の端末装置等に通知する。
以上のように、図4に示すステップA1~A4、又は図5に示すステップB1~B3を実行することにより、学習モデル生成部11が、故障現象画像の特徴量を学習し、故障現象画像を特定できる学習モデル15を生成する。画像特定部13は、この学習モデル15に、対象領域の上空画像を適用することにより、故障現象画像、例えば、水たまりの画像等を特定することができる。そして、故障箇所特定部14は、画像特定部13が特定した故障現象画像を用いて灌漑設備の故障箇所を特定する。このため、本実施の形態1によれば、センサ数を増加させることなく、圃場施設の異常を検出することができる。圃場施設の状況を把握するためには、把握したい項目ごとに専用のセンサを設置する必要があり、センサ設置や保守のコストが増大する。本実施の形態1において、例えば営農支援サービスで用いる上空画像を用いることで、専用のセンサを別途設置することなく、営農支援サービスと併せて、圃場施設の状況に関する情報を提供することができる。
[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図6に示すステップC1~C3とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における圃場管理装置10と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14として機能し、処理を行なう。
また、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14のいずれかとして機能しても良い。
(実施の形態2)
続いて、本実施の形態2における、圃場管理装置、圃場管理方法、及びプログラムについて図7~図11を用いて説明する。
[装置構成]
最初に、本実施の形態2における圃場管理装置の構成につい説明する。本実施の形態2における圃場管理装置は、図1に示した圃場管理装置10と同様の構成を有している。このため、以下の説明では、適宜図1を参酌する。但し、本実施の形態2では、故障現象画像、正常現象画像、及び上空画像として、レーダ画像が用いられ、この点で、実施の形態1と異なっている。以下、実施の形態1との相違点を中心に説明する。
まず、本実施の形態2で用いられるレーダ画像は、人工衛星、航空機等に搭載された合成開口レーダによって撮影された画像である。従って、本実施の形態では、学習モデル生成部11は、圃場施設の故障に起因する現象のレーダ画像(以下「故障現象レーダ画像」と表記する)と、圃場施設の正常な稼働に起因する現象のレーダ画像(以下「正常現象レーダ画像」と表記する)とを用いて、故障現象レーダ画像の特徴量を学習することによって、学習モデル15を生成する。
図7は、本発明の実施の形態2における学習モデルの生成処理を説明する図である。図7に示すように、まず、人工衛星、航空機等に搭載された合成開口レーダによって、上空から圃場の撮影が行なわれ、学習に用いられる上空からのレーダ画像(以下「上空レーダ画像」と表記する)が得られる。また、得られた上空レーダ画像のうち、故障現象レーダ画像を含む上空レーダ画像を第1の上空レーダ画像とする。一方、正常現象レーダ画像を含む上空レーダ画像を第2の上空レーダ画像とする。なお、撮影によって得られた上空レーダ画像が故障現象レーダ画像と正常現象レーダ画像との両方を含む場合は、画像を加工することによって、第1の上空レーダ画像及び第2の上空レーダ画像を作成しても良い。
学習モデル生成部11は、本実施の形態2では、まず、上述のようにして得られた第1の上空レーダ画像と第2の上空レーダ画像とを取得する。なお、取得される第1の上空レーダ画像及び第2の上空レーダ画像の枚数は限定されないが、学習モデルによる判別精度の点から、枚数はできるだけ多いのが良い。
ところで、レーダ画像は、上空から照射されたレーダの反射波の強度に基づいて形成された画像である。そして、反射波の強度は、地面の状態によって変化する。このため、レーダ画像は、地表の湿度分布を可視化した画像として用いることができる。
そして、実施の形態1で述べたように、灌漑用水が漏水すると、圃場に水たまりが発生する等して、地表又は地表に近い地中の湿度分布が変化する。従って、学習モデル生成部11は、第1の上空レーダ画像から、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量として、例えば、湿度の勾配、湿度が閾値以上(又は閾値以下)と推定される領域の位置及び大きさを抽出する。
更に、学習モデル生成部11は、第2の上空レーダ画像から、正常現象レーダ画像の特徴量として、例えば、灌漑用水が漏水していない場合における、湿度の勾配、湿度が閾値以上(又は閾値以下)と推定される領域の位置及び大きさを抽出する。そして、学習モデル生成部11は、第1の上空レーダ画像から得られた特徴量と、第2の上空レーダ画像から得られた特徴量とを分類して保持する。
なお、図7の例では、学習モデル生成部11は、第1の上空レーダ画像及び第2の上空レーダ画像それぞれから、特徴量として、湿度が閾値以上と推定される領域の位置及び大きさを抽出している。
次に、学習モデル生成部11は、実施の形態1の場合と同様に、サポートベクトルマシンを用いて、故障現象レーダ画像の特徴量を学習する。具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空レーダ画像の特徴量を与えて、故障現象レーダ画像と正常現象レーダ画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
また、学習モデル生成部11は、取得した多数の第1の上空レーダ画像と第2の上空レーダ画像とを用いて、ディープラーニングを行ない、それによって、第1の上空レーダ画像と第2の上空レーダ画像とを識別する分類器を作成し、作成した分類器を学習モデル15とすることもできる。
画像取得部12は、本実施の形態2では、圃場が存在している対象領域の上空からのレーダ画像(以下「上空レーダ画像」と表記する)を取得する。画像取得部12は、例えば人工衛星、航空機等に搭載された合成開口レーダよって上空から撮影された圃場等の上空レーダ画像を取得する。
画像特定部13は、本実施の形態2では、学習モデル15を用いて、画像取得部12が取得した上空レーダ画像から、故障現象レーダ画像を特定する。
故障箇所特定部14は、本実施の形態2では、画像特定部13が上空レーダ画像から故障現象レーダ画像を特定できた場合は、故障現象レーダ画像の圃場における位置を特定し、特定した位置を故障箇所とする。また、故障箇所特定部14は、圃場管理装置10の管理者の端末装置等に、特定した故障箇所を通知することもできる。
図8は、本発明の実施の形態2における学習モデルの生成処理の別の例を説明する図である。図8の例では、学習モデル生成部11は、「故障現象レーダ画像」と、「故障現象レーダ画像及び正常現象レーダ画像の両方を含む画像」を用いて学習を行う。「故障現象レーダ画像」と、「故障現象レーダ画像及び正常現象レーダ画像の両方を含む画像」を用いて学習を行うことにより、学習モデルの精度の向上が期待できる。
[装置動作]
次に、本発明の実施の形態2における圃場管理装置の動作について図9~図11を用いて説明する。また、本実施の形態2でも、本実施の形態2における圃場管理装置10を動作させることによって、圃場管理方法が実施される。本実施の形態2における圃場管理方法の説明は、以下の圃場管理装置10の動作説明に代える。
最初に、学習モデルの生成処理について図9及び図10を用いて説明する。まず、図9を用いて、サポートベクトルマシンによって学習モデルが生成される場合について説明する。図9は、本発明の実施の形態2における圃場管理装置のサポートベクトルマシンによる学習モデル生成処理時の動作を示すフロー図である。
図9に示すように、学習モデル生成部11は、外部から、多数の第1の上空レーダ画像と第2の上空レーダ画像とを取得する(ステップD1)。第1の上空レーダ画像と第2の上空レーダ画像については、上述の通りである。
次に、学習モデル生成部11は、ステップD1で取得した第1の上空レーダ画像から、故障現象レーダ画像、即ち、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量を抽出し、第2の上空レーダ画像から、正常現象レーダ画像の特徴量を抽出する(ステップD2)。
次に、学習モデル生成部11は、第1の上空レーダ画像から得られた特徴量と、第2の上空レーダ画像から得られた特徴量とを分類して保持する(ステップD3)。
次に、学習モデル生成部11は、サポートベクトルマシンを用いて、故障現象画像、即ち、灌漑用水の漏水によって生じる現象のレーダ画像の特徴量を学習して、学習モデル15を生成する(ステップD4)。
具体的には、学習モデル生成部11は、サポートベクトルマシンに、分類された各上空レーダ画像の特徴量を与えて、故障現象レーダ画像と正常現象レーダ画像との境界を学習させ、学習結果を示す学習モデル15を生成する。
続いて、図10を用いて、ディープラーニングによって学習モデルが生成される場合について説明する。図10は、本発明の実施の形態2における圃場管理装置のディープラーニングによる学習モデル生成処理時の動作を示すフロー図である。
図10に示すように、学習モデル生成部11は、外部から、多数の第1の上空レーダ画像と第2の上空レーダ画像とを取得する(ステップE1)。
次に、学習モデル生成部11は、ステップE1で取得した多数の第1の上空レーダ画像と第2の上空レーダ画像とを用いて、ディープラーニングを実行する(ステップE2)。
そして、学習モデル生成部11は、ステップE2の結果から、第1の上空レーダ画像と第2の上空レーダ画像とを識別する分類器を作成し、作成した分類器を学習モデル15とする(ステップE3)。
続いて、故障箇所の特定処理について図11を用いて説明する。図11は、本発明の実施の形態2における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
図11に示すように、最初に、画像取得部12は、対象領域となる圃場の上空レーダ画像を取得する(ステップF1)。
次に、画像特定部13は、学習モデル15に、ステップF1で画像取得部12が取得した上空レーダ画像を適用して、この上空レーダ画像における故障現象レーダ画像を特定する(ステップF2)。
次に、故障箇所特定部14は、ステップF2で画像特定部13が特定した故障現象レーダ画像を用いて、対象領域における灌漑設備の故障箇所を特定する(ステップF3)。また、故障箇所特定部14は、特定した故障箇所を、外部の端末装置等に通知する。
以上のように、本実施の形態2においては、レーダ画像から、学習モデル生成部11が、学習モデル15を生成する。このため、本実施の形態2によれば、可視画像では判別できない漏水を特定することができるので、故障箇所の早期発見が期待できる。
[プログラム]
本実施の形態2におけるプログラムも、コンピュータに、図9に示すステップD1~D4(又は図10に示すステップE1~E3)と、図11に示すステップF1~F3とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における圃場管理装置と圃場管理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14として機能し、処理を行なう。
また、本実施の形態2におけるプログラムも、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部11、画像取得部12、画像特定部13、及び故障箇所特定部14のいずれかとして機能しても良い。
(実施の形態3)
続いて、本実施の形態3における、圃場管理装置、圃場管理方法、及びプログラムについて図12及び図13を用いて説明する。
[装置構成]
最初に、本実施の形態3における圃場管理装置の構成について図12を用いて説明する。図12は、本発明の実施の形態3における圃場管理装置の構成を示すブロック図である。
図12に示すように、本実施の形態3における圃場管理装置20は、可視画像用学習モデル生成部21と、レーダ画像用学習モデル生成部22と、画像取得部23と、画像特定部24と、故障箇所特定部25とを備えている。
本実施の形態3における圃場管理装置20は、可視画像用学習モデル生成部21と、レーダ画像用学習モデル生成部22との2つの学習モデル生成部を備えている点で、図1に示した実施の形態1における圃場管理装置10と異なっている。また、これにより、画像取得部23、画像特定部24、及び故障箇所特定部25それぞれの処理も、実施の形態1と異なっている。以下、実施の形態1及び2との相違点を中心に説明する。
まず、可視画像用学習モデル生成部21は、図1に示した実施の形態1における学習モデル生成部11と同様のものである。可視画像用学習モデル生成部21は、故障現象画像と、正常現象画像とを用いて、故障現象画像の特徴量を学習することによって、可視画像用学習モデル26を生成する。なお、故障現象画像及び正常現象画像は、可視画像である。また、可視画像用学習モデル26は、実施の形態1で述べた学習処理によって作成されており、実施の形態1に示した学習モデル15と同様に構築されている。
また、レーダ画像用学習モデル生成部22は、実施の形態2における学習モデル生成部と同様のものである。レーダ画像用学習モデル生成部22は、故障現象レーダ画像と、正常現象レーダ画像とを用いて、故障現象レーダ画像の特徴量を学習することによって、レーダ画像用学習モデル27を生成する。なお、レーダ画像用学習モデル27は、実施の形態2で述べた学習処理によって作成されており、実施の形態2に示した学習モデルと同様に構築されている。
画像取得部23は、本実施の形態3では、対象領域の上空からの可視画像と対象領域の上空からのレーダ画像とを取得する。つまり、本実施の形態3では、画像取得部23は、実施の形態1で取得される画像と、実施の形態2で取得される画像との2種類の画像を取得する。
画像特定部24は、まず、可視画像用学習モデル生成部21が生成した可視画像用学習モデル26に、画像取得部23が取得した対象領域の上空からの可視画像を適用して、対象領域の上空からの可視画像における、故障現象画像(可視画像)を特定する。また、画像特定部24は、レーダ画像用学習モデル生成部22が生成したレーダ画像用学習モデル27に、画像取得部23が取得した対象領域の上空からのレーダ画像を適用して、対象領域の上空からのレーダ画像における、故障現象レーダ画像を特定する。
また、故障箇所特定部25は、画像特定部24が特定した故障現象画像と、同じく画像特定部24が特定した故障現象レーダ画像とに基づいて、対象領域における圃場施設の故障箇所を特定する。具体的には、故障箇所特定部25は、可視画像によって特定した故障箇所と、レーダ画像によって特定した故障箇所とを比較する。そして、故障箇所特定部25は、両者が一致している場合は、両者によって特定された箇所を故障箇所とする。一方、故障箇所特定部25は、両者が一致していない場合は、状況に応じて、どちらか一方が特定した箇所を故障箇所とする。例えば、灌漑設備用のパイプが地中に埋まっており、圃場の表面に水が析出しにくい場合は、故障箇所特定部25は、レーダ画像によって特定した故障箇所を優先する。
[装置動作]
次に、本発明の実施の形態3における圃場管理装置20の動作について図13を用いて説明する。また、本実施の形態3では、圃場管理装置20を動作させることによって、圃場管理方法が実施される。よって、本実施の形態3における圃場管理方法の説明は、以下の圃場管理装置20の動作説明に代える。
まず、本実施の形態3では、可視画像用学習モデル生成部21が、図4に示したステップA1~A4又は図5に示したステップB1~B3に準じた処理を実行して、可視画像用学習モデル26を生成する。また、レーダ画像用学習モデル生成部22が、図9に示したステップD1~D4又は図10に示したステップE1~E3に準じた処理を実行して、レーダ画像用学習モデル27を生成する。
続いて、故障箇所の特定処理について図13を用いて説明する。図13は、本発明の実施の形態3における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
図13に示すように、最初に、画像取得部23は、対象領域となる圃場の上空画像(可視画像)を取得する(ステップG1)。続いて、画像取得部23は、対象領域となる圃場の上空レーダ画像を取得する(ステップG2)。
次に、画像特定部24は、可視画像用学習モデル26に、ステップG1で画像取得部23が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップG3)。続いて、画像特定部24は、レーダ画像用学習モデル27に、ステップG2で画像取得部23が取得した上空レーダ画像を適用して、この上空レーダ画像における故障現象レーダ画像を特定する(ステップG4)。
次に、故障箇所特定部25は、ステップG3で画像特定部24が特定した故障現象画像と、ステップG4で画像特定部24が特定した故障現象レーダ画像とに基づいて、対象領域における圃場施設の故障箇所を特定する(ステップG5)。また、故障箇所特定部25は、特定した故障箇所を、外部の端末装置等に通知する。
以上のように、本実施の形態3においては、実施の形態1で述べた可視画像を用いた学習モデルと、実施の形態2で述べたレーダ画像を用いた学習モデルとが構築され、両者を用いて、故障箇所が特定されるので、よりいっそう故障箇所を正確に特定することが可能となる。
[プログラム]
本実施の形態3におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図9に示すステップD1~D4(又は図10に示すステップE1~E3)と、図13に示すステップG1~G5とを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態3における圃場管理装置20と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、可視画像用学習モデル生成部21、レーダ画像用学習モデル生成部22、画像取得部23、画像特定部24、及び故障箇所特定部25として機能し、処理を行なう。
また、本実施の形態3におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、可視画像用学習モデル生成部21、レーダ画像用学習モデル生成部22、画像取得部23、画像特定部24、及び故障箇所特定部25のいずれかとして機能しても良い。
(実施の形態4)
以下、本発明の実施の形態4における、圃場管理装置、圃場管理方法、及びプログラムについて、図14~図16を参照しながら説明する。
[装置構成]
最初に、本実施の形態4における圃場管理装置の構成について図14を用いて説明する。図14は、本発明の実施の形態4における圃場管理装置の構成を示すブロック図である。
図14に示すように、本実施の形態4における圃場管理装置30は、学習モデル生成部31と、画像取得部32と、画像特定部33と、故障箇所特定部34と、土壌推定部36とを備えている。
本実施の形態4における圃場管理装置30は、土壌推定部36を備えている点で、図1に示した実施の形態1における圃場管理装置10と異なっている。また、これにより、故障箇所特定部34における処理も実施の形態1と異なっている。以下、実施の形態1との相違点を中心に説明する。
まず、本実施の形態4において、土壌推定部36は、対象領域の土中の水分量を推定する。具体的には、土壌推定部36は、まず、圃場の対象領域を複数の部分に分割して、複数の区分を設定する。
図15は、本発明の実施の形態4において対象領域に設定される区分の一例を示す図である。図15の例では、土壌推定部36は、対象領域をマス目状に分割することによって、区分を設定している。各区分の面積が小さい方が、すなわち、対象圃場をより細かなメッシュ状に区切る方が、推定モデルの精度が向上する。
続いて、土壌推定部36は、地形情報及び土壌分布情報の両方に基づいて、区分毎に、土中の水分の流入量及び流出量を予測して、土中推定モデル37を生成する。具体的には、土壌推定部36は、まず、区分毎に、対応する地形情報及び土壌分布情報を抽出し、各区分における土壌の組成と傾斜とを特定し、そして、特定した土壌の組成と傾斜とに基づいて、土中推定モデル37を生成する。
土中推定モデル37は、対象領域内の一の地点における土中の状態を示す実測値から、この一の地点とは異なる他の地点における土中の状態を推定する、モデルである。地形情報は、例えば対象圃場の傾斜等を表す地形モデルである。土壌分布情報は、例えば対象圃場における土壌分布を表す土壌分布モデルである。
続いて、土壌推定部36は、対象領域の任意の位置に設置されている土壌水分センサから、実測値を取得し、取得した実測値を土中推定モデル37に適用して、区分毎に、土中の水分量を推定する。つまり、土壌推定部36は、土中推定モデル37に実測値を入力することにより、各区分における水分量の相対的な関係から、各区分における水分量の絶対値を算出する。これにより、対象領域における水分量の分布が特定される。すなわち、豪雨等の自然現象に起因する水分量は、土中推定モデル37を用いて特定することができる。
また、本実施の形態4において、故障箇所特定部34は、画像特定部33が特定した故障現象画像と、土壌推定部36が推定した対象領域の土中の水分量とに基づいて、対象領域における圃場施設(灌漑設備)の故障箇所を特定する。
例えば、故障箇所特定部34は、故障現象画像によって特定された箇所(箇所A)及びその周辺の水分量の分布を特定し、特定した水分量の分布を、土壌推定部36が土中推定モデル37を用いて特定した、箇所A及びその周辺の水分量の分布に照らし合わせる。又は、故障箇所特定部34は、箇所A及びその周辺の画像と、土壌推定部36が土中推定モデル37を用いて特定した、箇所A及びその周辺の水分量の分布とを照らし合わせる。例えば、水分量の分布が一致する場合、該故障現象画像は、灌漑設備の故障に起因する現象を表す画像ではなく、自然現象に起因する現象を表す画像であると考えられる。水分量の分布が一致しない場合、該故障現象画像は、灌漑設備の故障に起因する現象を表す画像であると考えられる。故障箇所特定部34は、故障現象画像によって特定された箇所を故障箇所とする。これにより、自然現象に起因する現象が灌漑設備の故障に起因する現象であるとされることを防ぐことができる。
[装置動作]
次に、本発明の実施の形態4における圃場管理装置30の動作について図16を用いて説明する。また、本実施の形態4では、圃場管理装置30を動作させることによって、圃場管理方法が実施される。よって、本実施の形態4における圃場管理方法の説明は、以下の圃場管理装置30の動作説明に代える。
まず、本実施の形態4では、学習モデル生成部31が、実施の形態1と同様に、図4に示したステップA1~A4又は図5に示したステップB1~B3に準じた処理を実行して、学習モデル35を生成する。
続いて、故障箇所の特定処理について図16を用いて説明する。図16は、本発明の実施の形態4における圃場管理装置の故障箇所特定処理時の動作を示すフロー図である。
図16に示すように、最初に、画像取得部32は、対象領域となる圃場の上空画像を取得する(ステップH1)。
次に、画像特定部33は、学習モデル35に、ステップH1で画像取得部32が取得した上空画像を適用して、この上空画像における故障現象画像を特定する(ステップH2)。
次に、土壌推定部36は、土壌水分センサから取得した実測値を土中推定モデル37に適用して、区分毎に、土中の水分量を推定する(ステップH3)。
次に、故障箇所特定部34は、ステップH2で画像特定部33が特定した故障現象画像と、土壌推定部36が推定した対象領域の区分毎の土中の水分量とに基づいて、対象領域における圃場施設の故障箇所を特定する(ステップH4)。また、故障箇所特定部34は、特定した故障箇所を、外部の端末装置等に通知する。
このように、本実施の形態4によれば、土中の水分量が算出され、その結果を利用することで、上空画像から特定された故障箇所が、本当に灌漑設備の故障であるのかどうかを確認することができる。本実施の形態4によれば、故障箇所の特定精度の向上が図られる。また、本実施の形態4で用いられる土壌推定部36は、実施の形態2及び3に示した圃場管理装置に備えられていても良い。この場合も上記と同様の効果を得ることができる。
[プログラム]
本実施の形態4におけるプログラムは、コンピュータに、図4に示すステップA1~A4(又は図5に示すステップB1~B3)と、図16に示すステップH1~H4を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態4における圃場管理装置30と圃場管理方法とを実現することができる。この場合、コンピュータのプロセッサは、学習モデル生成部31、画像取得部32、画像特定部33、故障箇所特定部34、及び土壌推定部36として機能し、処理を行なう。
また、本実施の形態4におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、学習モデル生成部31、画像取得部32、画像特定部33、故障箇所特定部34、及び土壌推定部36のいずれかとして機能しても良い。
(物理構成)
ここで、実施の形態1~4におけるプログラムを実行することによって、圃場管理装置を実現するコンピュータについて図17を用いて説明する。図17は、本発明の実施の形態1~4における圃場管理装置を実現するコンピュータの一例を示すブロック図である。
図17に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における圃場管理装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、圃場管理装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記24)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
対象領域の上空画像を取得する、画像取得部と、
前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、画像特定部と、
前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、故障箇所特定部と、
を備えている、ことを特徴とする圃場管理装置。
(付記2) 前記学習モデル生成部が、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記1に記載の圃場管理装置。
(付記3) 前記学習モデル生成部が、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記1に記載の圃場管理装置。
(付記4) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記1~3のいずれかに記載の圃場管理装置。
(付記5) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記1~3のいずれかに記載の圃場管理装置。
(付記6) 圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、第2の学習モデル生成部を更に備え、
前記画像取得部は、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
前記画像特定部は、
前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記対象領域の上空からの可視画像を適用して、前記画像取得部が取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記第2の学習モデル生成部が生成した前記第2の学習モデルに、前記画像取得部が取得した前記対象領域の上空からのレーダ画像を適用して、前記画像取得部が取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
前記故障箇所特定部は、
前記画像特定部が特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記4に記載の圃場管理装置。
(付記7) 前記圃場施設が灌漑設備であり、
前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記1~6のいずれかに記載の圃場管理装置。
(付記8) 前記対象領域の土中の水分量を推定する土壌推定部を更に備え、
前記故障箇所特定部が、前記画像特定部が特定した前記圃場施設の故障に起因する現象の画像と、前記土壌推定部が推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記7に記載の圃場管理装置。
(付記9)(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を有する、ことを特徴とする圃場管理方法。
(付記10) 前記(a)のステップにおいて、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記9に記載の圃場管理方法。
(付記11) 前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記9に記載の圃場管理方法。
(付記12) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記9~11のいずれかに記載の圃場管理方法。
(付記13) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記9~11のいずれかに記載の圃場管理方法。
(付記14)(e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを更に有し、
前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
前記(c)のステップにおいて、
前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記12に記載の圃場管理方法。
(付記15) 前記圃場施設が灌漑設備であり、
前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記9~14のいずれかに記載の圃場管理方法。
(付記16)(f)前記対象領域の土中の水分量を推定する、ステップを更に有し、
前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記()のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記15に記載の圃場管理方法。
(付記17)コンピュータに、
(a)圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを用いて前記圃場施設の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
(b)対象領域の上空画像を取得する、ステップと、
(c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記圃場施設の故障に起因する現象の画像を特定する、ステップと、
(d)前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像に基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、ステップと、
を実行させるプログラム。
(付記18) 前記(a)のステップにおいて、
前記圃場施設の故障に起因する現象の画像から、前記圃場施設の故障に起因する現象の特徴量を抽出し、
前記圃場施設の正常な稼働に起因する現象の画像から、前記圃場施設の正常な稼働に起因する現象の特徴量を抽出し、
サポートベクトルマシンを用いて、前記圃場施設の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
付記17に記載のプログラム
(付記19) 前記(a)のステップにおいて、ディープラーニングによって、圃場施設の故障に起因する現象の画像と、圃場施設の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
付記17に記載のプログラム
(付記20) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
付記17~19のいずれかに記載のプログラム
(付記21) 圃場施設の故障に起因する現象の画像、圃場施設の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
付記17~19のいずれかに記載のプログラム
(付記22)前記プログラムが、前記コンピュータに、
(e)圃場施設の故障に起因する現象のレーダ画像と、圃場施設の正常な稼働に起因する現象のレーダ画像とを用いて前記圃場施設の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを実行させる、命令を更に含み、
前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
前記(c)のステップにおいて、
前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記圃場施設の故障に起因する現象の可視画像を特定し、
更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記圃場施設の故障に起因する現象のレーダ画像を特定し、
前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の可視画像と、前記圃場施設の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記20に記載のプログラム
(付記23) 前記圃場施設が灌漑設備であり、
前記圃場施設の故障に起因する現象が、灌漑用水の漏水によって生じる現象である、
付記17~22のいずれかに記載のプログラム
(付記24)前記プログラムが、前記コンピュータに、
(f)前記対象領域の土中の水分量を推定する、ステップを実行させる、命令を更に含み、
前記(d)のステップにおいて、
前記(c)のステップで特定した前記圃場施設の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記圃場施設の故障箇所を特定する、
付記23に記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年3月29日に出願された日本出願特願2017-66190を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、センサ数を増加させることなく、圃場の施設の異常を検出することができる。本発明は、農業分野に有用である。
10 圃場管理装置(実施の形態1、2)
11 学習モデル生成部
12 画像取得部
13 画像特定部
14 故障箇所特定部
15 学習モデル
20 圃場管理装置(実施の形態3)
21 可視画像用学習モデル生成部
22 レーダ画像用学習モデル生成部
23 画像取得部
24 画像特定部
25 故障箇所特定部
26 可視画像用学習モデル
27 レーダ画像用学習モデル
30 圃場管理装置(実施の形態4)
31 学習モデル生成部
32 画像取得部
33 画像特定部
34 故障箇所特定部
35 学習モデル
36 土壌推定部
37 土中推定モデル
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (21)

  1. 圃場における灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを用いて前記灌漑設備の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、学習モデル生成部と、
    前記圃場を上空から撮像可能な人工衛星、航空機又はドローンから、前記圃場の対象領域の上空画像を取得する、画像取得部と、
    前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記上空画像を適用して、前記画像取得部が取得した前記上空画像における、前記灌漑設備の故障に起因する現象の画像を特定する、画像特定部と、
    前記画像特定部が特定した前記灌漑設備の故障に起因する現象の画像に基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、故障箇所特定部と、
    を備え
    前記灌漑設備の故障に起因する現象の画像は、前記灌漑設備のパイプの裂傷と、前記灌漑設備の故障により生じる水たまりと、前記圃場における畝の崩れと、前記圃場における農作物の成長の変化と、のいずれかを示す画像であり、
    前記灌漑設備の正常な稼働に起因する現象の画像は、前記灌漑設備の故障に起因する現象を含まない画像である、
    圃場管理装置。
  2. 前記学習モデル生成部が、ポートベクトルマシンを用いて、前記灌漑設備の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項1に記載の圃場管理装置。
  3. 前記学習モデル生成部が、ディープラーニングによって、前記灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項1に記載の圃場管理装置。
  4. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項1~のいずれか一つに記載の圃場管理装置。
  5. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項1~のいずれかに記載の圃場管理装置。
  6. 前記灌漑設備の故障に起因する現象のレーダ画像と、前記灌漑設備の正常な稼働に起因する現象のレーダ画像とを用いて前記灌漑設備の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、第2の学習モデル生成部を更に備え、
    前記画像取得部は、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
    前記画像特定部は、
    前記学習モデル生成部が生成した前記学習モデルに、前記画像取得部が取得した前記対象領域の上空からの可視画像を適用して、前記画像取得部が取得した前記対象領域の上空からの可視画像における、前記灌漑設備の故障に起因する現象の可視画像を特定し、
    更に、前記第2の学習モデル生成部が生成した前記第2の学習モデルに、前記画像取得部が取得した前記対象領域の上空からのレーダ画像を適用して、前記画像取得部が取得した前記対象領域の上空からのレーダ画像における、前記灌漑設備の故障に起因する現象のレーダ画像を特定し、
    前記故障箇所特定部は、
    前記画像特定部が特定した前記灌漑設備の故障に起因する現象の可視画像と、前記灌漑設備の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項に記載の圃場管理装置。
  7. 前記対象領域の土中の水分量を推定する土壌推定部を更に備え、
    前記故障箇所特定部が、前記画像特定部が特定した前記灌漑設備の故障に起因する現象の画像と、前記土壌推定部が推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項に記載の圃場管理装置。
  8. コンピュータが、
    (a)圃場における灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを用いて前記灌漑設備の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
    (b)前記圃場を上空から撮像可能な人工衛星、航空機又はドローンから、前記圃場の対象領域の上空画像を取得する、ステップと、
    (c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、前記灌漑設備の故障に起因する現象の画像を特定する、ステップと、
    (d)前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の画像に基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、ステップと、
    を実行
    前記灌漑設備の故障に起因する現象の画像は、前記灌漑設備のパイプの裂傷と、前記灌漑設備の故障により生じる水たまりと、前記圃場における畝の崩れと、前記圃場における農作物の成長の変化と、のいずれかを示す画像であり、
    前記灌漑設備の正常な稼働に起因する現象の画像は、前記灌漑設備の故障に起因する現象を含まない画像である、
    圃場管理方法。
  9. 前記(a)のステップにおいて、ポートベクトルマシンを用いて、前記灌漑設備の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項に記載の圃場管理方法。
  10. 前記(a)のステップにおいて、ディープラーニングによって、前記灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項に記載の圃場管理方法。
  11. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項10のいずれか一つに記載の圃場管理方法。
  12. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項10のいずれかに記載の圃場管理方法。
  13. (e)前記灌漑設備の故障に起因する現象のレーダ画像と、前記灌漑設備の正常な稼働に起因する現象のレーダ画像とを用いて前記灌漑設備の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを更に有し、
    前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
    前記(c)のステップにおいて、
    前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記灌漑設備の故障に起因する現象の可視画像を特定し、
    更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記灌漑設備の故障に起因する現象のレーダ画像を特定し、
    前記(d)のステップにおいて、
    前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の可視画像と、前記灌漑設備の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項11に記載の圃場管理方法。
  14. 前記コンピュータが、
    (f)前記対象領域の土中の水分量を推定する、ステップを更に実行し、
    前記(d)のステップにおいて、
    前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項13に記載の圃場管理方法。
  15. コンピュータに、
    (a)圃場における灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを用いて前記灌漑設備の故障に起因する現象の画像の特徴量を学習することによって、学習モデルを生成する、ステップと、
    (b)前記圃場を上空から撮像可能な人工衛星、航空機又はドローンから、前記圃場の対象領域の上空画像を取得する、ステップと、
    (c)前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記上空画像を適用して、前記(b)のステップで取得した前記上空画像における、
    前記灌漑設備の故障に起因する現象の画像を特定する、ステップと、
    (d)前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の画像に基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、ステップと、
    を実行し、
    前記灌漑設備の故障に起因する現象の画像は、前記灌漑設備のパイプの裂傷と、前記灌漑設備の故障により生じる水たまりと、前記圃場における畝の崩れと、前記圃場における農作物の成長の変化と、のいずれかを示す画像であり、
    前記灌漑設備の正常な稼働に起因する現象の画像は、前記灌漑設備の故障に起因する現象を含まない画像である、
    プログラム。
  16. 前記(a)のステップにおいて、ポートベクトルマシンを用いて、前記灌漑設備の故障に起因する現象の画像の特徴量を学習し、その学習結果を示す前記学習モデルを生成する、
    請求項15に記載のプログラム。
  17. 前記(a)のステップにおいて、ディープラーニングによって、前記灌漑設備の故障に起因する現象の画像と、前記灌漑設備の正常な稼働に起因する現象の画像とを識別する分類器を作成し、作成した前記分類器を前記学習モデルとする、
    請求項15に記載のプログラム。
  18. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、可視画像である、
    請求項1517のいずれかに記載のプログラム。
  19. 前記灌漑設備の故障に起因する現象の画像、前記灌漑設備の正常な稼働に起因する現象の画像、及び前記上空画像が、レーダ画像である、
    請求項1517のいずれかに記載のプログラム。
  20. 前記プログラムが、前記コンピュータに、
    (e)前記灌漑設備の故障に起因する現象のレーダ画像と、前記灌漑設備の正常な稼働に起因する現象のレーダ画像とを用いて前記灌漑設備の故障に起因する現象のレーダ画像の特徴量を学習することによって、第2の学習モデルを生成する、ステップを実行させる、命令を更に含み、
    前記(b)のステップにおいて、対象領域の上空からの可視画像と、前記対象領域の上空からのレーダ画像とを取得し、
    前記(c)のステップにおいて、
    前記(a)のステップで生成した前記学習モデルに、前記(b)のステップで取得した前記対象領域の上空からの可視画像を適用して、前記(b)のステップで取得した前記対象領域の上空からの可視画像における、前記灌漑設備の故障に起因する現象の可視画像を特定し、
    更に、前記(e)のステップで生成した前記第2の学習モデルに、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像を適用して、前記(b)のステップで取得した前記対象領域の上空からのレーダ画像における、前記灌漑設備の故障に起因する現象のレーダ画像を特定し、
    前記(d)のステップにおいて、
    前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の可視画像と、前記灌漑設備の故障に起因する現象のレーダ画像とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項18に記載のプログラム。
  21. 前記プログラムが、前記コンピュータに、
    (f)前記対象領域の土中の水分量を推定する、ステップを実行させる、命令を更に含み、
    前記(d)のステップにおいて、
    前記(c)のステップで特定した前記灌漑設備の故障に起因する現象の画像と、前記(c)のステップで推定した前記対象領域の土中の水分量とに基づいて、前記対象領域における前記灌漑設備の故障箇所を特定する、
    請求項20に記載のプログラム。
JP2019509728A 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びプログラム Active JP7099723B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017066190 2017-03-29
JP2017066190 2017-03-29
PCT/JP2018/011828 WO2018181041A1 (ja) 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018181041A1 JPWO2018181041A1 (ja) 2020-01-16
JP7099723B2 true JP7099723B2 (ja) 2022-07-12

Family

ID=63676023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509728A Active JP7099723B2 (ja) 2017-03-29 2018-03-23 圃場管理装置、圃場管理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11461884B2 (ja)
EP (1) EP3605435A4 (ja)
JP (1) JP7099723B2 (ja)
WO (1) WO2018181041A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112021009659A2 (pt) 2018-12-10 2021-08-17 The Climate Corporation mapeamento de anomalias de campo com o uso de imagens digitais e modelos de aprendizado de máquina.
WO2020184241A1 (ja) * 2019-03-08 2020-09-17 Assest株式会社 農作物の収穫量予測プログラム、栽培環境判別プログラム
JP6696651B1 (ja) * 2019-04-01 2020-05-20 Assest株式会社 栽培環境判別プログラム
JP6696650B1 (ja) * 2019-04-01 2020-05-20 Assest株式会社 飼育環境判別プログラム
WO2020223803A1 (en) * 2019-05-07 2020-11-12 Les Systèmes Flyscan Inc. System and method for determining an indication of a presence of a leak of hazardous material using a trained classification module
JP7289271B2 (ja) * 2020-02-18 2023-06-09 五洋建設株式会社 粘性土特性推定方法、粘性土を用いた施工方法、粘性土特性推定装置、およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160202227A1 (en) 2015-01-14 2016-07-14 Accenture Global Services Limited Precision agriculture system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005085059A (ja) * 2003-09-10 2005-03-31 Sec:Kk 農作業決定支援用予測システム
JP4810206B2 (ja) * 2005-11-30 2011-11-09 株式会社東芝 道路走行支援システム
JP5674499B2 (ja) 2011-02-07 2015-02-25 株式会社日立製作所 センシング装置
JP2013210207A (ja) 2012-03-30 2013-10-10 Nec Corp レーダ画像の目標識別装置、目標識別方法、及び目標識別プログラム
US9152881B2 (en) * 2012-09-13 2015-10-06 Los Alamos National Security, Llc Image fusion using sparse overcomplete feature dictionaries
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US9948898B2 (en) * 2014-08-22 2018-04-17 Verizon Patent And Licensing Inc. Using aerial imaging to provide supplemental information about a location
US10697951B2 (en) * 2014-12-15 2020-06-30 Textron Systems Corporation In-soil data monitoring system and method
MX2017014648A (es) * 2015-05-15 2018-04-11 Airfusion Inc Aparato portatil y metodo para apoyo de decision para fusion y analisis de datos de sensores multiples automatizados en tiempo real.
US10025983B2 (en) * 2015-09-21 2018-07-17 The Climate Corporation Ponding water detection on satellite imagery
JP6998537B2 (ja) 2015-09-28 2022-01-18 パナソニックIpマネジメント株式会社 光反射体用成形材料、光反射体及び発光装置
US10359336B2 (en) * 2016-12-09 2019-07-23 Verizon Patent And Licensing Inc. Leak detection in irrigation systems
US10664702B2 (en) * 2016-12-30 2020-05-26 International Business Machines Corporation Method and system for crop recognition and boundary delineation
US10586105B2 (en) * 2016-12-30 2020-03-10 International Business Machines Corporation Method and system for crop type identification using satellite observation and weather data
US10726558B2 (en) * 2017-02-27 2020-07-28 Dolphin AI, Inc. Machine learning-based image recognition of weather damage
WO2018165753A1 (en) * 2017-03-14 2018-09-20 University Of Manitoba Structure defect detection using machine learning algorithms
US20200134384A1 (en) * 2017-09-14 2020-04-30 Mitsubishi Electric Corporation Abnormality detection device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160202227A1 (en) 2015-01-14 2016-07-14 Accenture Global Services Limited Precision agriculture system

Also Published As

Publication number Publication date
EP3605435A1 (en) 2020-02-05
WO2018181041A1 (ja) 2018-10-04
EP3605435A4 (en) 2020-02-05
JPWO2018181041A1 (ja) 2020-01-16
US20200380663A1 (en) 2020-12-03
US11461884B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP7099723B2 (ja) 圃場管理装置、圃場管理方法、及びプログラム
Wang et al. A unified convolutional neural network integrated with conditional random field for pipe defect segmentation
US10013720B1 (en) Utilizing a 3D scanner to estimate damage to a roof
CN107735794B (zh) 使用图像处理的状况检测
CN107835997B (zh) 使用计算机视觉的用于电力线走廊监测的植被管理
CN110096994B (zh) 一种基于模糊标签语义先验的小样本PolSAR图像分类方法
US8233712B2 (en) Methods of segmenting a digital image
US11348272B2 (en) Vegetation index calculation apparatus, vegetation index calculation method, and computer readable recording medium
US8965107B1 (en) Feature reduction based on local densities for bundle adjustment of images
Alharbi et al. Automatic counting of wheat spikes from wheat growth images
Giuliani et al. Using crowdsourced web content for informing water systems operations in snow-dominated catchments
JPWO2018173577A1 (ja) 植生指標算出装置、植生指標算出方法、及びプログラム
D’Amico et al. A deep learning approach for automatic mapping of poplar plantations using Sentinel-2 imagery
US20210097850A1 (en) Wildfire defender
Galdran et al. A no-reference quality metric for retinal vessel tree segmentation
Yang et al. Towards accurate image stitching for drone-based wind turbine blade inspection
CN113112510A (zh) 一种语义分割的森林火灾检测方法、控制器及存储介质
CN111680704A (zh) 海洋红线新增人类活动斑块自动化快速提取方法和装置
US20230101112A1 (en) Technology configured to enable fault detection and condition assessment of underground stormwater and sewer pipes
CN117409341A (zh) 基于无人机照明的图像分析方法及系统
KR102283452B1 (ko) 작물 이미지의 병해충 검출 방법 및 장치
US20240193946A1 (en) Bird detection and species determination
JP5352435B2 (ja) 分類画像作成装置
JP2020204800A (ja) 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
KR102320262B1 (ko) 재난피해영역의 피해규모 추정 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210812

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210812

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210820

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210824

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211119

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211124

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220104

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220419

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220531

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R151 Written notification of patent or utility model registration

Ref document number: 7099723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151