JPWO2020044480A1 - 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム - Google Patents

作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム Download PDF

Info

Publication number
JPWO2020044480A1
JPWO2020044480A1 JP2019561334A JP2019561334A JPWO2020044480A1 JP WO2020044480 A1 JPWO2020044480 A1 JP WO2020044480A1 JP 2019561334 A JP2019561334 A JP 2019561334A JP 2019561334 A JP2019561334 A JP 2019561334A JP WO2020044480 A1 JPWO2020044480 A1 JP WO2020044480A1
Authority
JP
Japan
Prior art keywords
growth stage
image
stage
unit
crop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019561334A
Other languages
English (en)
Other versions
JP6638121B1 (ja
Inventor
有年 三尾
有年 三尾
紀生 岩澤
紀生 岩澤
誠一 原
誠一 原
洋人 下城
洋人 下城
宏 竹本
宏 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data CCS Corp
Original Assignee
NTT Data CCS Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data CCS Corp filed Critical NTT Data CCS Corp
Application granted granted Critical
Publication of JP6638121B1 publication Critical patent/JP6638121B1/ja
Publication of JPWO2020044480A1 publication Critical patent/JPWO2020044480A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Abstract

非破壊で簡易且つ的確に作物の生育状態を判定すること。
作物を撮影した画像情報を複数入力する画像データ入力部11と、入力した複数の画像情報それぞれについて当該作物の生育ステージを示す情報を入力するステージ情報入力部12と、入力した複数の画像情報と生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なう学習部14と、生育ステージの不明な作物を撮影した画像情報を入力する画像入力部16と、画像入力部16で入力した画像情報に対し、学習部14での学習結果に基づいて生育ステージを判定する生育ステージ判定部10と、生育ステージ判定部10で判定した生育ステージを出力する判定結果出力部17とを備える。

Description

本発明は、作物の生育状況を正しく把握するのに好適な作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラムに関する。
農業経営、特に水稲など主食となる土地利用型作物の分野では、高齢化を背景とした産業構造の変化から、大規模経営体への農地集約が急速に進行している。このような農地集約の傾向は、長期的にも一層進むものと見られる。農地集約の結果、一経営体当たりが一定以上の規模に達すると、現状の栽培管理方法では人間の情報処理能力を超えて、必要な診断及び管理を適切に実施できなくなる。これにより、重要な作業時期を逃すなどして生産物の品質や収量が低下し、減収減益が生じる事例が増えて、経営問題となっている。
作物栽培の要諦は、作物の生育ステージを見極めて、水と肥料を適切に管理することにある。作物には、出芽、栄養成長、生殖成長、開花、成熟などさまざまな生育ステージがあり、農業者はこれらを日々追いながら適切な栽培管理を行なう。
例えば、水稲栽培においても、生育ステージの判定は重要な基本管理技術の1つであり、特に生育ステージの判定の1つである幼穂診断に依存した施肥(穂肥)の時期判断は、玄米の収量性と品質を直接左右する。
このような生育ステージ判定を的確に行なうためには、農業者が日々圃場を巡回し、前日との変化を感じ取り、仔細には直接植物体を採取して分解、調査しなければならない。しかしながら、農地集約が進む中、作業に追われる農業者が遠隔、且つ広範囲にわたる多数の農地をつぶさに観察し、幼穂診断等により作物の生育ステージまで判定することは、きわめて困難な作業となっている。
特に幼穂診断は、幼穂が葉鞘に包まれていて外から見えないことに加え、言語による情報の伝達可能性が低い技術であることから、経験の乏しい人では診断すること自体が難しいなど、教育と技術伝承のための人的、時間的コストも課題となっている。
ところで、水稲の生育ステージを、例えば5段階、すなわち(1)分げつ期、(2)幼穂分化期、(3)減数分裂期、(4)出穂期、(5)登熟期に分けて考える場合、上記(4)出穂期及び(5)登熟期は共に外観の変化が比較的明確である。
そのため、例えば特開2013−111078号公報に記載された技術のように、基準画像を用意しておき、基準画像と撮影した検査画像とを比較することによって判別を行なうシステムや、「デジタルカメラ画像RGB処理による水稲生育診断技術」(後藤克典他、東北農業研究、2004年12月、57号、pp59−60)に記載された技術のように、画像中の稲体画素数から草丈、茎数を推定することで生育状態を判断するシステム等が提案されている。
一方、上記(2)幼穂分化期及び(3)減数分裂期は、収量及び品質に最も影響を与える重要な作業時期である。しかしながら現状では、特に(2)幼穂分化期の初期を熟練者以外が判別することは事実上不可能であり、熟練者であっても確実に調査するためには、幼穂を顕微鏡下で解剖する必要があり、作業の難易度が極めて高い。また(3)減数分裂期も、幼穂部分を手でむくか、あるいはカッターで切開することで生育の状態を目視確認するなど、いずれも破壊検査を行なう必要があり、すべての圃場を確認するのには多大な労力を要するため、大規模農場で上記した破壊検査による状態確認を行なうのは現実的ではない。
そのため、実際には幼穂等の診断を行なわず、適切なタイミングを見逃した状態で作業がなされる場合も多く、収量性と品質を損なう大きな要因と考えられている。
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、非破壊で簡易且つ的確に作物の生育状態を判定することが可能な作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラムを提供することにある。
本発明の一態様は、作物生育ステージ判定システムのサーバ装置であって、作物を撮影した画像情報を複数入力する第1の画像入力部と、上記第1の画像入力部で入力した複数の画像情報それぞれについて当該作物の生育ステージを示す情報を入力するステージ情報入力部と、上記第1の画像入力部で入力した複数の画像情報と上記ステージ情報入力部で入力した生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なって学習済モデルを構築する学習部と、生育ステージの不明な作物を撮影した画像情報を入力する第2の画像入力部と、上記第2の画像入力部で入力した画像情報に対し、上記学習部で構築した学習済モデルに基づいて生育ステージを判定するステージ判定部と、上記ステージ判定部で判定した生育ステージの情報を出力する出力部と、を備える。
図1は、本発明の一実施形態に係る生育ステージ判定システム全体の構成を示す図である。 図2は、上記実施形態に係るサーバ装置の機能構成を示すブロック図である。 図3は、上記実施形態に係る学習フェーズで実行する一連の処理内容を示すフローチャートである。 図4は、上記実施形態に係る図3で実行される一連の処理の概要を説明する図である。 図5は、上記実施形態に係る判定フェーズで実行する一連の処理内容を示すフローチャートである。 図6は、上記実施形態に係る図5で実行される一連の処理の概要を説明する図である。
以下、本実施形態を、水稲の生育ステージ判定を行なう生育ステージ判定システムに適用した場合の一実施形態について、図面を参照して詳細に説明する。
図1は、同実施形態に係る生育ステージ判定システム全体の構成を示す図である。同図において、生育ステージの判定対象となる水田PDを、ここでは図示しないユーザが所持するスマートフォンSPのカメラ機能により撮影する。
スマートフォンSPには、本システム専用のアプリケーションプログラムを予めインストールしておく。スマートフォンSPでそのアプリケーションプログラムを起動した状態で、ディスプレイ画面に表示されるガイドラインに沿った構図で水田のイネを撮影することで、撮影により得られたイネの静止画像データが判定対象となる画像情報として取得される。
スマートフォンSPは、携帯電話網の基地局やインターネットを含むネットワークNWを介して、生育ステージの判定を行なうためのサーバ装置SVと接続される。
なお、判定対象の画像を撮影する手段としては、ユーザが所持するスマートフォンSPに限らず、例えば固定設置したデジタルカメラでタイムラプス機能により定時的に計測した画像を、サーバ装置SVに送信するものとしても良い。
サーバ装置SVは、格納している学習済モデルに基づいて、スマートフォンSPから送られてきた画像情報に対し、色成分を除去し、輝度成分のみの画像情報としてグレイスケール化した後に、そのグレイスケール化した画像情報中のイネの生育ステージを判定し、判定結果を当該スマートフォンSPに返送する。
なお実際の運用に際しては、単にスマートフォンSPで生育ステージが分かるだけでなく、サーバSVで蓄積記憶している、ユーザに紐付く圃場の過去の生育ステージの履歴から、その生育ステージの何日目か、あるいは次の生育ステージとなる何日前であるか等をスマートフォンSPに提示させるようにしても良い。
図2は、サーバ装置SV内で実行されるコンピュータプログラムの機能構成を示すブロック図である。
サーバ装置SVは、生育ステージ判定部10を主構成要素とし、この生育ステージ判定部10が、学習フェーズと判定フェーズとに二分される領域に跨がって配置される構成となる。
学習フェーズにおいて、基本の学習モデルを構成するための各種生育ステージ毎のイネの画像データが画像データ入力部11により入力される。一方で、生育ステージの判定を行なう熟練者により、各画像データと関連付けられた生育ステージ情報が、ステージ情報入力部12により入力される。
画像データ入力部11から入力されたイネの画像データと、ステージ情報入力部12で入力された、画像データと関連付けられた生育ステージ情報とが、学習画像入力部13により受け付けられ、関連付けられて生育ステージ判定部10の学習部14に入力される。
学習部14は、例えば5層、すなわち入力層、中間層A、中間層B、中間層C、及び出力層を有する畳み込みニューラルネットワーク(CNN)による深層学習により、入力される画像データと生育ステージ情報との多数の組を教師データとした学習を実行する。
学習実行時においては、試行錯誤によって各種パラメータが変更設定されながら最適な学習モデルが作成される。十分に実用に適したものとなったと判断された時点で、取得したニューラルネットワークである学習済モデルを構築し、判定フェーズ側の学習済モデル保持部15に保持させる。
生育ステージ判定部10の判定フェーズにおいては、ネットワークNWを介してイネの画像データが画像入力部16より入力されると、その画像データに対して学習済モデル保持部15に保持している学習済モデルに基づいて生育ステージを判定する。そして、判定結果となる生育ステージの情報を得、得た生育ステージの情報を判定結果出力部17によりネットワークNWを介して、上記画像データを送ってきたスマートフォンSPに返信する。
次に上記実施形態の動作について説明する。
なお、サーバ装置SVでの学習フェーズで入力する画像データの撮影条件として、同一の年に撮影対象の圃場に対して観察位置となる一定点を設定し、シーズンを通して晴天時であれば十分な日照が得られる撮影時刻帯、例えば11:00〜13:00とするなど、学習精度を高めるために撮影条件を揃えるものとする。
また、サーバ装置SVでの学習フェーズ、判定フェーズで入力する画像データは、撮影時刻帯による太陽光(朝焼けなど)や、肥料等による色の影響を排除するべく、撮影により得られるカラー画像を輝度成分のみでグレースケール化した上で処理するものとする。
さらに、日照や風によるイネの倒伏等の除外条件を予め設定することで、例えば雨天時など日照が十分ではない状態や、風が強くて静止画像中のイネが著しく傾き、あるいはブレて写るなど、学習時間の長期化や学習データとしての精度の低下の要因となり得る画像データの入力を制限するものとする。
まず、水田PDにおける全生育ステージに対応した水稲を撮影した画像データを順次、生育ステージを示す情報と共に入力し、入力した内容により深層学習を行なう学習フェーズでの処理について説明する。
図3は、サーバ装置SVの生育ステージ判定部10で学習フェーズにおいて実行する、一連の処理内容を示すフローチャートである。その当初に、未入力の対象圃場の画像データを1つ選択して画像データ入力部11から入力するとともに(ステップS101)、熟練者によりその画像に対応する生育ステージの識別結果の情報をステージ情報入力部12から入力する(ステップS102)。画像データには、付帯データの一部に、撮影を行なった年月日と時刻のデータが含まれる。
サーバ装置SVでは、学習画像入力部13がこれら画像データと生育ステージの情報とを関連付けて受け付けると共に、入力された画像データを所定サイズの画像ブロックに分割する(ステップS103)。
ここで分割するサイズは、画像中のイネの形状や株間が判別できる程度の大きさが望ましい。また、隣接する画像ブロック間で、適度なオーバーラップ率により周囲部分の画像が重複するような分割処理を行なっても良い。
サーバ装置SVの生育ステージ判定部10では、分割した画像ブロックを1つ選択して学習部14に入力すると共に(ステップS104)、直前のステップS102で入力された、当該画像データに対応する生育ステージの識別結果の情報を併せて学習部14に入力する(ステップS105)。
その後、画像データから分割した画像ブロックのすべてを学習部14に入力したか否かを判断する(ステップS106)。まだ分割したすべての画像ブロックをその生育ステージの識別結果の情報とともに入力していないと判断した場合(ステップS106のNo)、生育ステージ判定部10では、再び上記ステップS104からの処理に戻って、まだ入力していない画像ブロックに関しても同様の入力処理を続行する。
こうしてステップS104〜S106の処理を繰り返し実行し、1つの画像データを分割したすべての画像ブロックをその生育ステージの識別結果の情報とともに入力し終えたと判断した時点で(ステップS106のYes)、次に生育ステージ判定部10では、その対象圃場に関するすべての画像データの入力を終えたか否かを判断する(ステップS107)。
対象圃場に関するすべての画像データの入力を終えておらず、まだ未入力の画像データがあると判断した場合(ステップS107のNo)、生育ステージ判定部10では、再び上記ステップS101からの処理に戻って、まだ入力していない画像データに関しても同様の入力処理を続行する。
こうしてステップS101〜S107の処理を再度繰り返し実行し、すべての画像データについて、その生育ステージの識別結果の情報とともに入力した上で、所定サイズの複数の画像ブロックに分割して学習部14に入力し終えたと判断した時点で(ステップS107のYes)、学習部14において、画像の特徴量と生育ステージの識別結果とを対応付けるモデルを構築するべく、CNNによる深層学習を実行し(ステップS108)、以上で学習フェーズでの処理を完了する。
図4は、上記図3で実行される一連の処理の概要を説明する図である。図4(A)に示す水田PDの「xxxx年」における同一場所、同一時間帯での時系列な撮影を実施することで、図4(B)に示すように、多数の画像データが取得される。これらの画像データに対して、図4(C)に示す如く、熟練者が生育ステージの各期間を判断して入力設定する。
これらの入力によって、図4(D)に示すように、画像データの個々に対応して生育ステージの識別情報が対応付けられて学習部14に入力される。
学習部14では、生育ステージの識別情報により画像データ毎にラベル付けを行なうことで、画像データを生育ステージ毎にグルーピングできる。
このグルーピングの結果、図4(E)に示すように、分げつ期、幼穂分化期、減数分裂期、出穂期、及び登熟期それぞれの複数の画像データのグループが学習部14に入力される。
学習部14では、それぞれの画像データのグループをデータセットとして深層学習を実行することにより、各生育ステージにおける水稲画像の特徴を示す特徴情報を抽出した学習済モデルを構築し、構築した学習済モデルを学習済モデル保持部15に保持させる。
次に、学習済モデル保持部15に学習済モデルが保持されている状態で、画像入力部16から生育ステージの判定を求める対象圃場の画像データが入力された場合の判定フェーズでの処理について説明する。
図5は、サーバ装置SVの生育ステージ判定部10で判定フェーズにおいて実行する、一連の処理内容を示すフローチャートである。その当初に、ネットワークNWを介してユーザから送られてきた、生育ステージが不明な対象圃場の画像データを画像入力部16で入力する(ステップS201)。
ここでユーザから送られてくる画像データは、ユーザ側のスマートフォンSPのアプリケーションプログラムにより、予め色成分を除去して輝度成分のみとした、グレイスケール化された画像データであるものとする。
生育ステージ判定部10では、入力された画像データに対し、予め設定された複数の撮影条件をそれぞれ満たしているか否かにより、画像に対する除外条件の合致を個々に判定する(ステップS202)。
具体的には、グレイスケール化された画像データに対し、例えば画像全体の輝度レベルが予め設定したレベル以上であるか否かにより一定の日照条件であるか否か、またエッジ検出と輪郭抽出処理を含む画像処理により画像中のイネが風による倒伏を起こしていないか否か等を個々に判定する。
判定の結果、全体として除外条件に合致するものが1つもないかどうかにより、入力された画像データが生育ステージの判定に適合するものであるか否かを判断する(ステップS203)。
適合しないと判断した場合、すなわち除外条件に合致するものが少なくとも1つあった場合(ステップS203のNo)、生育ステージ判定部10では、ネットワークNWを介して当該画像データを送信してきたユーザのスマートフォンSPに対して、判定結果出力部17により、判定結果として除外条件(雨、風、太陽高度、カメラ撮影角度、判別結果の確度など)により正しい判定を行なうことができなかった旨を示すガイドメッセージのデータを返答として出力し(ステップS204)、以上でこの図5の処理を終了する。
また上記ステップS203において、入力された画像データが生育ステージの判定に適合するものであると判断した場合(ステップS203のYes)、次に生育ステージ判定部10では、入力された画像データを所定サイズの画像ブロックに分割する(ステップS205)。
ここで分割するサイズは、画像中のイネの形状や株間が判別できる程度の大きさが望ましい。また、隣接する画像ブロック間で、適度なオーバーラップ率により周囲部分の画像が重複するような分割処理を行なっても良い。加えて、学習フェーズにおいて画像を分割したサイズと同様であることが望ましい。
生育ステージ判定部10では、分割した画像ブロックを1つ選択した上で(ステップS206)、選択した画像ブロックについて学習済モデル保持部15に保持している学習済モデルを用いて生育ステージの判定する(ステップS207)。
次に生育ステージ判定部10では、まだ判定を行なっていない画像ブロックがないか否かにより、画像ブロックの全判定を終えたか否かを判断する(ステップS208)。
まだすべての画像ブロックの判定を終えていないと判断した場合(ステップS208のNo)、生育ステージ判定部10では上記ステップS206からの処理に戻り、同様の処理を実行する。
こうしてステップS206〜S208の処理を繰り返し実行し、1つの画像データを分割したすべての画像ブロックについて、それぞれ学習済モデル保持部15が保持する学習済モデルに基づいて生育ステージを判定する。
入力された画像データを分割したすべての画像ブロックに対する生育ステージの判定を終えたと判断すると(ステップS208のYes)、予め設定した決定手法、例えば多数決理論により、最も多い判定結果である生育ステージの情報を画像データ全体の判定結果とする(ステップS209)。
より詳細には、画像ブロックの生育ステージの判定において、例えば5つの生育ステージの確率を算出する。これら算出した確率の中で最も高いものをその画像ブロックの生育ステージとする。確率の分布が全体にばらついており、著しい偏りがなく、高い確度での判定が行なえない場合、例えばステージ1の確率:15%、ステージ2の確率:20%、ステージ3の確率:25%、ステージ4の確率:20%、ステージ5の確率:20%であった場合などには、当該画像ブロックは無判定として、多数決の演算には含めない。
これにより、個々の画像ブロックでの判別において得た確度の高い結果のみを用いて、全体で多数決理論を用いることで、より高い精度で生育ステージの判定を行なう、2段階に分けた判定工程を採ることができる。
生育ステージ判定部10では、こうして得た判定結果の生育ステージの情報を判定結果出力部17により、ネットワークNWを介して、画像データを送信してきたユーザのスマートフォンSPに対して、判定結果としての生育ステージの情報を返答として出力し(ステップS210)、以上でこの図5の処理を終了する。
ここでユーザのスマートフォンSPに返送する、判定結果とする生育ステージの情報としては、分割した画像ブロック毎の生育ステージの判定結果を色分けしたドットを重畳した画像データ中の端部に、画像全体での判定結果としての生育ステージの情報を重畳した画像データや、分割した画像ブロックに基づく生育ステージ毎の判定結果の総計をパーセンテージにより併せて表示するようにした画像データを作成することが考えられる。
加えて、同一ユーザが同一圃場を撮影した画像を連続して送ってきている場合には、サーバSVに記録されている判定結果の履歴に基づいて、該当ステージの何日目かを、例えば「○○期n日目」、あるいは推定される次のステージや、追肥を行なうのに適したタイミングまでのカウントダウン表示により、「出穂期まであとn日」のような表記を含んだ画像データを作成して返信するものとしても良い。なお、同一ユーザであることは、画像データの送信者ID情報により容易に判断できる。加えて、ユーザが画像データにGPSデータを付加して送信するような設定とすれば、同一圃場であることも容易に判断できる。
なお上記図6の処理においては、日照や風による倒伏等の撮影条件を満たしている場合にのみ、学習済データを用いた生育ステージの判定を実行するものとしたが、そのような判定の実行の事前処理を省略して、直接生育ステージの判定を実施するものとしても良い。
図6は、上記図5で実行される一連の処理の概要を説明する図である。図6(A)に示す。図6(A)に示すように、生育ステージの判定を求める水田PDの画像を、ユーザがスマートフォンSPで撮影した後に、ネットワークNWを介してサーバ装置SVに送信する。
ユーザが画像の撮影時にスマートフォンSPで実行するアプリケーションプログラムにおいては、カメラ機能により圃場を表示するディスプレイにおいて、撮影の構図、具体的には、圃場端側のイネの側面とその奥に続く稲穂の最上部の連なりを示すようなガイド表示を行なうことで、サーバ装置SV側での学習内容を活かした精度の高い判定を行なうことができるようにすることが考えられる。
ユーザからの画像データを画像入力部16で受け付けた生育ステージ判定部10では、図6(B)に示すように学習済モデル保持部15に保持している学習済モデルを用いて生育ステージの判定を実施する。
その結果として得られる生育ステージの情報を、サーバ装置SVは図6(C)に示すように判定結果出力部17によって、ネットワークNWを介してユーザの所持するスマートフォンSPに返信する。
以上詳述した如く本実施形態によれば、非破壊で簡易且つ的確に作物の生育状態を判定することが可能となる。
また上記実施形態では、生育ステージの判定を行なう対象として、特に水田PDにおける水稲を扱うものとし、幼穂分化期を含む生育ステージの判定も行なうものとしたので、水田PDがより広範囲に渡ることも含めて、日頃のきめ細かい判定が困難な作業を、深層学習を用いた技術により、熟練者ではなくとも容易に実現できる。
さらに上記実施形態では、撮影する画像データにおける作物の撮影条件を設定し、当該撮影条件を満たしていない画像データの入力を除外するものとしたので、深層学習における判定精度をより向上させることができる。
また上記実施形態では、判定対象となる作物の画像を撮影する際に、スマートフォンSPにインストールされたアプリケーションプログラムに従って、一定の構図での撮影を行なうようなガイド表示を行なうものとしたので、判定に適した作物の画像の撮影を促して、より高い精度での運用が期待できる。
さらに上記実施形態では、得られた画像を深層学習に適した複数の領域の画像ブロックに分割した上で処理を実行し、それら分割した領域毎に学習済モデルに基づいて生育ステージを判定し、複数の領域の判定結果を総合して、画像データ全体の生育ステージを判定するものとしたので、個々の領域に分割した作物毎の生育ステージの個体差を吸収して、全体として的確な生育ステージの判定を行なうことができる。
なお上記実施形態では、学習フェーズ及び判定フェーズで取扱う画像データが、カラー画像データから色成分を除去して輝度成分のみとした、グレイスケール化した画像データであるものとした。これにより、色成分の変化によって学習と後の判定とに係る精度が悪化するのを回避できる。
またグレイスケール化した画像データに代えて、イネのエッジのみを抽出した白黒2値化した画像データを用いるものとしても良い。2値化した画像データを用いることで、計算量を大幅に削減できると共に、太陽光の散乱の影響を完全に除去できる。
さらに上記実施形態では、判定結果として判定を依頼したユーザに対し、単に作物がどの生育ステージであると判定したのか、の結果だけでなく、過去の同ユーザの同圃場での判定結果の履歴を用いることで、現在の生育ステージとなってから何日目であるのか、次の生育ステージに至るまでに推定で何日かかるのかを併せて提示することができるため、追肥や除草剤の散布等のタイミングを把握し易く、より実用に適したシステムを提供できる。
なお、本実施形態に関し、水稲の種類を「コシヒカリ」とした画像データを、シーズンを通して取得し、次のシーズンで同一撮影条件による生育ステージの判定を行なう実験を実施した結果、きわめて的確で良好な結果を得ることができたことを付記しておく。
なお、本発明自体は、水稲の種類を「コシヒカリ」に限定するものではなく、さらに作物を水稲に限定するものでもない。例えば、水稲以外でも大麦、小麦を含む各種麦類、ニンジン、タマネギ、イモ等の根菜類を含む各種野菜などに関しても、地上に露出している部分の画像を撮影することで生育ステージを判定可能な作物であれば、同様に適用することが可能となる。
その他、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
本発明の一態様は、作物生育ステージ判定システムのサーバ装置であって、作物の形状を抽出可能に撮影した画像情報を複数入力する第1の画像入力部と、上記第1の画像入力部で入力した複数の画像情報それぞれについて当該作物の生理的な発育程度を表す生育ステージの情報を入力するステージ情報入力部と、上記第1の画像入力部で入力した複数の画像情報と上記ステージ情報入力部で入力した生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なって学習済モデルを構築する学習部と、生育ステージの不明な作物の形状を抽出可能に撮影した画像情報を入力する第2の画像入力部と、上記第2の画像入力部で入力した画像情報に対し、上記学習部で構築した学習済モデルに基づいて生育ステージを判定するステージ判定部と、上記ステージ判定部で判定した生育ステージの情報を出力する出力部と、を備える。

Claims (11)

  1. 作物生育ステージ判定システムのサーバ装置であって、
    作物を撮影した画像情報を複数入力する第1の画像入力部と、
    上記第1の画像入力部で入力した複数の画像情報それぞれについて当該作物の生育ステージを示す情報を入力するステージ情報入力部と、
    上記第1の画像入力部で入力した複数の画像情報と上記ステージ情報入力部で入力した生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なって学習済モデルを構築する学習部と、
    生育ステージの不明な作物を撮影した画像情報を入力する第2の画像入力部と、
    上記第2の画像入力部で入力した画像情報に対し、上記学習部で構築した学習済モデルに基づいて生育ステージを判定するステージ判定部と、
    上記ステージ判定部で判定した生育ステージの情報を出力する出力部と、
    を備える作物生育ステージ判定システムのサーバ装置。
  2. 上記作物は水稲であり、上記学習部は、幼穂分化期を含む生育ステージと水稲の画像との対応付けの深層学習を行なう、請求項1記載の作物生育ステージ判定システムのサーバ装置。
  3. 上記第1の画像入力部及び第2の画像入力部の少なくとも一方は、画像情報に対して設定された作物の撮影条件を満たしていない画像情報の入力を除外する、請求項1または2記載の作物生育ステージ判定システムのサーバ装置。
  4. 上記第1の画像入力部は、撮影時刻帯を限定した画像情報を複数入力する、請求項1乃至3いずれか記載の作物生育ステージ判定システムのサーバ装置。
  5. 上記第1の画像入力部及び第2の画像入力部の少なくとも一方は、撮影する作物に対する構図をガイド表示するアプリケーションプログラムに従って撮影された画像情報を識別して受け付ける、請求項1乃至4いずれか記載の作物生育ステージ判定システムのサーバ装置。
  6. 上記ステージ判定部は、上記第2の画像入力部で入力した画像情報を複数の領域に分割し、分割した領域毎に上記学習部で構築した学習モデルに基づいて生育ステージを判定し、複数の領域の判定結果を総合して画像情報全体の生育ステージを判定する、請求項1乃至5いずれか記載の作物生育ステージ判定システムのサーバ装置。
  7. 上記ステージ判定部は、分割した領域で判定した結果に対する合致条件を設定し、当該合致条件に達しない判定結果は、複数の領域の判定結果に含めずに画像情報全体の生育ステージを判定する、請求項6記載の作物生育ステージ判定システムのサーバ装置。
  8. 上記学習部が深層学習を行なう画像情報、及び上記ステージ判定部が生育ステージを判定する画像情報は、グレイスケール化されている、請求項1乃至7いずれか記載の作物生育ステージ判定システムのサーバ装置。
  9. 上記ステージ判定部で判定した生育ステージを履歴として記録する記録部をさらに備え、
    上記出力部は、上記ステージ判定部で判定した生育ステージと上記記録部で記録する履歴とから、判定した生育ステージの何日目であるか、及び次の生育ステージに移行するまでに推定で何日あるか、の少なくとも一方を出力する、
    請求項1乃至8いずれか記載の作物生育ステージ判定システムのサーバ装置。
  10. 作物を撮影した画像情報を複数入力する第1の画像入力工程と、
    上記第1の画像入力工程で入力した複数の画像情報それぞれについて当該作物の生育ステージを示す情報を入力するステージ情報入力工程と、
    上記第1の画像入力工程で入力した複数の画像情報と上記ステージ情報入力工程で入力した生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なって学習済モデルを構築する学習工程と、
    生育ステージの不明な作物を撮影した画像情報を入力する第2の画像入力工程と、
    上記第2の画像入力工程で入力した画像情報に対し、上記学習工程で構築した学習済モデルに基づいて生育ステージを判定するステージ判定工程と、
    上記ステージ判定工程で判定した生育ステージの情報を出力する出力工程と、
    を有する生育ステージ判定方法。
  11. コンピュータが実行するプログラムであって、上記コンピュータを、
    作物を撮影した画像情報を複数入力する第1の画像入力部と、
    上記第1の画像入力部で入力した複数の画像情報それぞれについて当該作物の生育ステージを示す情報を入力するステージ情報入力部と、
    上記第1の画像入力部で入力した複数の画像情報と上記ステージ情報入力部で入力した生育ステージを示す情報とに基づいて、作物の画像と生育ステージとの対応付けの深層学習を行なって学習済モデルを構築する学習部と、
    生育ステージの不明な作物を撮影した画像情報を入力する第2の画像入力部と、
    上記第2の画像入力部で入力した画像情報に対し、上記学習部で構築した学習済モデルに基づいて生育ステージを判定するステージ判定部と、
    上記ステージ判定部で判定した生育ステージの情報を出力する出力部と、
    して機能させるプログラム。
JP2019561334A 2018-08-30 2018-08-30 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム Active JP6638121B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/032066 WO2020044480A1 (ja) 2018-08-30 2018-08-30 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6638121B1 JP6638121B1 (ja) 2020-01-29
JPWO2020044480A1 true JPWO2020044480A1 (ja) 2020-09-03

Family

ID=69183655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019561334A Active JP6638121B1 (ja) 2018-08-30 2018-08-30 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム

Country Status (5)

Country Link
US (1) US11935282B2 (ja)
JP (1) JP6638121B1 (ja)
KR (1) KR20210040088A (ja)
CN (1) CN112639869A (ja)
WO (1) WO2020044480A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308714B1 (en) * 2018-08-23 2022-04-19 Athenium Llc Artificial intelligence system for identifying and assessing attributes of a property shown in aerial imagery
US11632895B2 (en) * 2019-05-02 2023-04-25 Deere & Company Residue monitoring and residue-based control
JP7243496B2 (ja) * 2019-07-09 2023-03-22 オムロン株式会社 情報処理装置
US11710308B1 (en) * 2019-10-10 2023-07-25 Aerofarms, Inc. Seed germination detection method and apparatus
WO2021176738A1 (ja) * 2020-03-06 2021-09-10 株式会社ナイルワークス 営農システム、営農サーバ及び営農方法
JP7461650B2 (ja) 2020-12-14 2024-04-04 国立研究開発法人農業・食品産業技術総合研究機構 生育状態予測方法及び生育状態予測プログラム
CN114648390B (zh) * 2021-06-22 2022-12-02 布瑞克农业大数据科技集团有限公司 一种农产品推广广告的生成方法和系统
CN114266734B (zh) * 2021-12-03 2023-04-07 深圳市桑瑞生物科技有限公司 植物生长阶段的识别方法、装置、设备及存储介质
CN115131670B (zh) * 2022-09-02 2022-12-20 广州艾米生态人工智能农业有限公司 一种水稻图片智能审核方法、系统、装置及设备
KR102598012B1 (ko) * 2022-10-17 2023-11-06 순천대학교 산학협력단 딥러닝 기반의 객체 탐지 모델을 이용한 과수 생육 단계 판별 시스템
CN116863403B (zh) * 2023-07-11 2024-01-02 仲恺农业工程学院 一种农作物大数据环境监测方法、装置及电子设备
CN117530031B (zh) * 2024-01-10 2024-04-05 北京科百宏业科技有限公司 智能水肥管理方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003201384B2 (en) * 1998-09-09 2004-05-20 Satake Corporation Method for determining amount of fertilizer application for graincrops, method for estimating quality and yield of grains, and apparatus for providing grain production information
JP4664047B2 (ja) * 2004-11-10 2011-04-06 株式会社エヌ・ティ・ティ・ドコモ 画像処理装置及び画像処理方法
KR101271074B1 (ko) * 2011-07-06 2013-06-04 부산대학교 산학협력단 온실 작물 모니터링 방법 및 영상 감지형 온실 작물 모니터링 시스템
JP5673833B2 (ja) * 2011-08-30 2015-02-18 富士通株式会社 撮影装置、作業支援プログラム、および情報提供プログラム
TWI435234B (zh) 2011-11-24 2014-04-21 Inst Information Industry Plant disease identification method, system and record media
JP6261492B2 (ja) 2014-11-28 2018-01-17 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム
JP6539901B2 (ja) * 2015-03-09 2019-07-10 学校法人法政大学 植物病診断システム、植物病診断方法、及びプログラム
CN104899255B (zh) * 2015-05-15 2018-06-26 浙江大学 适用于训练深度卷积神经网络的图像数据库的构建方法
EP3279831A1 (en) * 2016-08-03 2018-02-07 Bayer CropScience AG Recognition of weed in a natural environment using a digital image
WO2018198319A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
KR101830056B1 (ko) * 2017-07-05 2018-02-19 (주)이지팜 딥러닝 기반의 병해 진단 시스템 및 그 이용방법
CN107563389A (zh) * 2017-09-11 2018-01-09 合肥工业大学 一种基于深度学习的农作物病害识别方法
CN108319894A (zh) * 2017-12-28 2018-07-24 杭州乔戈里科技有限公司 基于深度学习的水果识别方法及装置
CN108416353B (zh) * 2018-02-03 2022-12-02 华中农业大学 基于深度全卷积神经网络的大田稻穗快速分割方法
CN108982377A (zh) * 2018-07-27 2018-12-11 内蒙古大学 玉米生育期光谱图像与叶绿素含量相关性及时期划分方法

Also Published As

Publication number Publication date
US11935282B2 (en) 2024-03-19
CN112639869A (zh) 2021-04-09
US20210183045A1 (en) 2021-06-17
WO2020044480A1 (ja) 2020-03-05
KR20210040088A (ko) 2021-04-12
JP6638121B1 (ja) 2020-01-29

Similar Documents

Publication Publication Date Title
JP6638121B1 (ja) 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム
Chen et al. RiceTalk: Rice blast detection using Internet of Things and artificial intelligence technologies
Zhao et al. Rapeseed seedling stand counting and seeding performance evaluation at two early growth stages based on unmanned aerial vehicle imagery
JP4873545B2 (ja) 圃場管理支援方法及びシステム
US20180308229A1 (en) Method and information system for detecting at least one plant planted on a field
JP2019187259A (ja) 栽培支援方法、栽培支援プログラム、栽培支援装置、および栽培支援システム
Costa et al. Measuring pecan nut growth utilizing machine vision and deep learning for the better understanding of the fruit growth curve
CN111985724B (zh) 一种农作物产量预估的方法、装置、设备及存储介质
Črtomir et al. Application of neural networks and image visualization for early forecast of apple yield.
Awasthi Press †œA†for Artificial Intelligence in Agriculture: A Review
Narra et al. A data driven approach to decision support in farming
CN116757332B (zh) 叶菜产量预测方法、装置、设备及介质
CN111523457B (zh) 一种杂草识别方法及杂草处理设备
Tanaka et al. Deep learning-based estimation of rice yield using RGB image
CN115424151A (zh) 一种基于图像处理的农业智能平台
JP6768767B2 (ja) 作物生育判定システムのサーバ装置、作物生育判定装置、作物生育学習装置、作物生育判定方法及びプログラム
US20220392214A1 (en) Scouting functionality emergence
Widiyanto et al. Monitoring the growth of tomatoes in real time with deep learning-based image segmentation
CN111143601A (zh) 一种图像处理方法
CN116453003B (zh) 一种基于无人机监测智能识别水稻生长势的方法和系统
CN115660236B (zh) 作物物候期预测方法、装置、电子设备和存储介质
US11915421B2 (en) Auditing task performance
Lakshmi et al. Plant phenotyping through Image analysis using nature inspired optimization techniques
Herzog et al. Objective phenotyping the time of bud burst by analyzing grapevine field images
WO2021225528A1 (en) System and method for ai-based improvement of harvesting operations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191107

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191107

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R150 Certificate of patent or registration of utility model

Ref document number: 6638121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250