JP6539901B2 - 植物病診断システム、植物病診断方法、及びプログラム - Google Patents

植物病診断システム、植物病診断方法、及びプログラム Download PDF

Info

Publication number
JP6539901B2
JP6539901B2 JP2016045492A JP2016045492A JP6539901B2 JP 6539901 B2 JP6539901 B2 JP 6539901B2 JP 2016045492 A JP2016045492 A JP 2016045492A JP 2016045492 A JP2016045492 A JP 2016045492A JP 6539901 B2 JP6539901 B2 JP 6539901B2
Authority
JP
Japan
Prior art keywords
image
plant disease
diagnosis
plant
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016045492A
Other languages
English (en)
Other versions
JP2016168046A (ja
Inventor
仁 彌冨
仁 彌冨
聡 鍵和田
聡 鍵和田
博之 宇賀
博之 宇賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAITAMA PREFECTURE
Hosei University
Original Assignee
SAITAMA PREFECTURE
Hosei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAITAMA PREFECTURE, Hosei University filed Critical SAITAMA PREFECTURE
Publication of JP2016168046A publication Critical patent/JP2016168046A/ja
Application granted granted Critical
Publication of JP6539901B2 publication Critical patent/JP6539901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、植物病診断システム、植物病診断方法、及びプログラムに係り、詳細には、植物(野菜、果物等)の診断に好適な画像解析及び機械学習技術に関する。
従来より、画像から特徴量を抽出し、事前にデータベース等に登録されている情報と比較照合することで対象物を識別する画像解析技術が用いられている。例えば、特許文献1には、植物病の識別方法として、植物の病気の名称及びそれに対応する病状の画像情報を保存する植物病状データベースを用いる方法が記載されている。具体的には、特許文献1の方法では、撮影により得た栽培植物画像を2段階に色調処理して病気疑い区域の画像を取得し、病気疑い区域の画像の面積を計算し、面積が予め設けられた区域面積より大きい場合、病気疑い区域の画像を病気特徴区域の画像とし、病気特徴区域の画像情報を病状の画像情報と比較し、病気特徴区域の画像がいずれかの特定の病気特徴の画像情報と一致する場合、それに対応する特定の植物の病気の名称を取得する。
また、画像解析による植物病診断の研究段階のものとしては、非特許文献1、非特許文献2等がある。非特許文献1には、蘭の葉の色特徴や病斑の形状を特徴量としてニューラルネットワークを用いて病気の種類の識別を行ったことが記載されている。非特許文献2には、キュウリの葉の病変部の色や形を特徴量とし、放射基底関数を用いたサポートベクターマシンにおいて、葉に出現した病気の種類を識別したことが記載されている。しかし、いずれの方法も特徴量の選択方法如何によって識別精度が大きく変動する虞があり、実用化が困難である。こうした問題の原因として考えられることは、(1)画像から葉の領域や花弁の領域を抽出し、特徴を抽出する必要があるが、植物の成長状況によって変動が大きく、植物病の特徴量を抽出するための多数のサンプルの収集が困難である。(2)撮影角度、カメラと対象との距離等を合わせる必要があり、かつ多くのデータを学習する必要があるため、システムの構築に非常に時間がかかる。(3)画像解析の前処理として、画像から葉等の注目領域を抽出したり、適切なコントラスト、明暗、位置、角度、画像サイズ等を合わせる必要があり、画像特徴量の抽出までのプロセスも大変煩雑である。
このような様々な要因により、植物病の自動診断の実用化は困難であった。
ところで、近年、CNN(Convolutional Neural Network;畳込みニューラルネットワーク)と呼ばれる深層学習器が開発され、注目されている(非特許文献3)。CNNは機械学習器の一種であり、画像の特徴をシステムが自動抽出して学習し、対象が何であるかを判定する仕組みである。図18は、非特許文献1に記載されるCNNの構造を示す図である。図18に示す学習器は、5つの畳込み層conv101〜conv105と3つの全結合層fc101〜fc103から構成される。なお、最後段の全結合層fc103は出力層と呼ぶこともある。pic101は入力画像(入力層)であり、11×11[pixel]の探索窓151A、151Bが設定されることを意味する。
特開2013−111078号公報
K.Y.Huang, "Application of artifical neural network fordetecting Phalaenopsis seeding diseases using color and texture features",Computer Electron Agric 57:3-11, 2007 J.Zhang, W.Zhang, "Support vector machine for recognition ofcucumber leaf diseases", Advanced Computer Control(ICACC), 2010 2ndInternational Conference on, vol.5, pp.264-266,27-29 March 2010 Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton, "ImageNetClassification with Deep Convolutional Neural Networks", Advances InNeural Information Processing Systems, Vol.25, pp.1106 - 1114, 2012.
しかしながら、上述の非特許文献3に記載されるCNNは、一般対象物の識別に利用されるものであるため、層構造が複雑でパラメータ数も膨大である。またCNNの学習のために膨大なデータが用意されたことを前提とした構造になっている。よって、この構造をそのまま植物病の診断に適用すると、過学習によって良好な結果が得られないことがある。
本発明は、このような問題に鑑みてなされたもので、画像から植物病の画像特徴データを人的に抽出する手間を省き、容易に植物病の診断を行うことが可能な植物病診断システム、植物病診断方法、及びプログラムを提供することを目的とする。
前述した課題を解決するため第1の発明は、植物病の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを作成し、保持する深層学習器と、診断対象とする画像を入力する入力部と、前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別する解析部と、前記解析部により出力された診断結果を表示する表示部と、を備え、前記入力部は、診断対象とする植物が含まれる広域画像を撮影するカメラにより撮影された広域画像を取得し、複数の局所領域の画像に分割する分割部と、分割された各局所領域について前記解析部における識別の対象とするか否かを判定する判定部と、を備え、前記解析部は、前記判定部により識別の対象と判定された局所領域の画像を診断対象として前記識別を行うことを特徴とする植物病診断システムである。
第1の発明によれば、深層学習器を用いることで、画像そのものを入力すれば従来困難であった画像特徴データの抽出(学習)を解析部(コンピュータ)が行う。よって画像から植物病の画像特徴データを人的に抽出する手間が省かれ、システム設計者の作業負担が飛躍的に軽減される。特に、植物を対象とする場合は、従来行っていた画像から葉や茎等の領域を抽出するという大変手間のかかる画像処理作業を回避できる。また深層学習器を用いることで診断対象とする画像の撮影条件を緩和でき、実用性が向上する。例えば、診断対象とする植物の葉とカメラとの距離や明暗等の撮影条件は特に緩和される。
前記表示部は、前記診断結果として、各局所領域の診断結果に基づいて算出される広域画像全体の植物病の分布を表示することが望ましい。
また、前記深層学習器として畳込みニューラルネットワークを利用することが望ましい。畳込みニューラルネットワーク(CNN;Convolutional Neural Network)を用いることで画像特徴データを人的に抽出する必要がなく、設計者の作業負担が減少する。画像の撮影条件が極めて緩くてよいため、実用性に優れ、かつ精度のよい診断結果を得ることが可能となる。
また、前記学習データとして取り込まれた画像に対し、回転、移動、拡大縮小、色変化、ノイズ付加、ぼかし、高周波成分強調、及び歪みのうち少なくともいずれか1つまたは複数の画像処理を施し、取り込み画像数を増加させる前処理部を更に備え、前記深層学習器は増加された画像を学習データとして利用することが望ましい。
これにより、診断対象物(植物病画像)の向き(回転ずれ)や位置ずれ、拡大ずれ、傾き等に対する画像の撮影条件がより柔軟となり、更に実用性が向上する。
前記学習データとして取り込まれた画像の色空間の次元を変換し、または次元数を削減する色空間変換部を更に備え、前記深層学習器は、前記色空間変換部により変換されたデータを前記学習データに用いることが望ましい。これにより、多重共線性による識別率低下を防ぐことが期待できる。
また、前記解析部は、入力された画像がどの診断結果に分類されるかを事後確率として出力することが望ましい。
また、当該植物病診断システムは、カメラ機能付き携帯端末に搭載されることが望ましい。
或いは、前記入力部は、ネットワークを介して通信接続されたカメラ機能付き携帯端末により撮影され送信された画像を前記診断対象として入力し、前記解析部は前記診断結果を前記カメラ機能付き携帯端末に送信することが望ましい。
これにより、カメラ機能付き携帯端末を用いて撮影した画像から手軽に診断結果を得ることが可能となる。
また、学習データの量が膨大となった場合等も、ネットワークを介して植物病診断システム(のサーバ)にアクセスすれば、容易に診断結果を得ることが可能となる。
また、前記学習データに応じて前記深層学習器の素子間の結合のドロップアウト処理を適用することが望ましい。これにより、学習していない未知のデータへの識別性能を高めることが可能となる。
前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けることが望ましい。これにより奥の層に単純な特徴を直接入力したり、得られた複雑な特徴を単純な特徴に加えて入力することが可能となり、多様な深層学習器を実現できる。
第2の発明は、コンピュータが、植物の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを深層学習器を用いて作成し、保持するステップと、診断対象とする画像を入力するステップと、前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別するステップと、前記診断結果を表示するステップと、を含み、前記入力するステップは、診断対象とする植物が含まれる広域画像を撮影するカメラにより撮影された広域画像を取得し、複数の局所領域の画像に分割するステップと、分割された各局所領域について識別の対象とするか否かを判定するステップと、を含み、前記識別するステップは、識別の対象と判定された局所領域の画像を診断対象として前記識別を行うことを特徴とする植物病診断方法である。前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けてもよい。
第2の発明により、深層学習器を用いることで、画像そのものを入力すれば従来困難であった画像特徴データの抽出(学習)を解析部(コンピュータ)が行う。よって画像から植物病の画像特徴データを人的に抽出する手間が省かれ、システム設計者の作業負担が飛躍的に軽減される。特に、植物を対象とする場合は、従来行っていた画像から葉や茎等の領域を抽出するという大変手間のかかる画像処理作業を回避できる。また深層学習器を用いることで診断対象とする画像の撮影条件を緩和でき、実用性が向上する。例えば、診断対象とする植物の葉とカメラとの距離や明暗等の撮影条件は特に緩和される。
第3の発明は、コンピュータにより読み取り可能な形式で記述されたプログラムであって、植物の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを深層学習器を用いて作成し、保持するステップと、診断対象とする画像を入力するステップと、前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別するステップと、前記診断結果を表示するステップと、を含む処理をコンピュータに実行させるためのプログラムである。前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けてもよい。
第3の発明により、コンピュータを第1の発明の植物病診断システムとして機能させることが可能となる。
本発明によれば、画像から植物病の画像特徴データを人的に抽出する手間を省き、容易に植物病の診断を行うことが可能な植物病診断システム及び植物病診断方法等を提供できる。
植物病診断システム1の構成を示すブロック図 深層学習器2における学習機能を説明するためのブロック図 本発明のために最適化された畳込みニューラルネットワーク型深層学習器の層構造の一例を示す図 植物病診断システム1を搭載するコンピュータ10の内部構成を示す図 学習処理の流れを説明するフローチャート 識別処理の流れを説明するフローチャート カメラ機能付き携帯端末に植物病診断システム1を搭載する場合の、画像入力例と、診断結果表示例を示す図 通信ネットワーク12を利用した植物病診断システム1Aの全体構成図 定点観測設置カメラ30を用いる場合に好適な植物病診断システム1Bの構成図 定点観測設置カメラを用いて撮影した広域画像から植物病の診断を行う例について説明する図 図9の例の処理手順を説明するフローチャート 色の成分を2次元で表した例 ドロップアウト(dropout)処理を説明する図 第4の実施の形態の解析部4Aの構成図 学習データに連動したドロップアウト(dropout)処理を説明する図 (a)層間のバイパス結合、(b)フィードバック結合について説明する図 様々な前処理を行った場合の実験結果を示す図 従来の畳込みニューラルネットワーク(CNN)の層構造を示す図
以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。
[第1の実施の形態]
まず図1〜図3を参照して、植物病診断システム1の構成を説明する。
なお、本発明において、「植物病」とは植物病にかかった状態の他、生理障害が生じた状態も含むものとする。生理障害とは、尻腐症、鉄欠乏、葉焼け、生育不良、窒素過多等の症状であり、病原菌や害虫が原因ではないが一見病気のように変化した状態であり、「健常」とは異なる状態である。
図1に示すように、本発明に係る植物病診断システム1は、植物病の画像を入力する入力部3、入力された画像がどの診断結果に分類されるかを識別する解析部4、診断結果を表示する表示部5を備える。
解析部4は、深層学習器2を有する。解析部4は深層学習器2を用いて学習処理を行うことにより植物病に関する画像特徴データ21を作成し、保持する。また解析部4は、入力された画像がどの診断結果に分類されるかを識別する識別処理を行う。学習処理及び識別処理の詳細については後述する(図5、図6参照)。
深層学習器2は、畳込みニューラルネットワーク(CNN;Convolutional Neural Network)を利用することが好適である。また、深層学習器2は植物病の識別のために最適化されている。本実施形態の深層学習器2の詳細については後述する(図3参照)。CNNを用いることで画像特徴データを人的に抽出する必要がなく、設計者の作業負担が減少する。画像の撮影条件が極めて緩くてよいため、実用性に優れ、かつ精度のよい診断結果を得ることが可能となっている。
図2は、深層学習器2における学習機能を説明する図である。図2に示すように、学習データとして植物病の画像と対応する診断結果が解析部4(深層学習器2)に入力される。なお、入力される植物病の画像には病気にかかった状態のものの他、生理障害が生じた状態のものや健常なものも含まれる。診断結果とは、病気の有無または病名、症状の情報等であり、病気の可能性や疑わしさを示す数値等の情報や、病気の進行の度合いを示す情報等を含めてもよい。
図2に示すように、解析部4は、学習データとして取り込まれた画像に対し、前処理を行う前処理部6を備えることが望ましい。前処理部6は、回転、移動、拡大縮小、反転、色変化、ノイズ付加、ぼかし、高周波成分強調、及び歪みのうち少なくともいずれか1つまたは複数の画像処理を入力された画像に対して施す。これにより、深層学習器2へ入力する学習データ数を増加させることができる。
また、回転、移動、拡大、縮小、歪み、反転、色変化、ノイズ付加、ぼかし、高周波成分強調等の画像処理を施した画像についても学習(画像特徴データの抽出)を行うため、回転ずれ、位置ずれ、拡大(縮小)ずれ、傾き、撮影条件の違いによる明度や彩度(色相)の違い等がある画像についても効率よく学習が行える。またこのような前処理を行ってから学習させることで、識別(診断)の際に、入力画像の状態に関する条件を著しく緩和できる。
反転処理とは、例えば上下、左右の鏡像反転処理である。上下、左右の鏡像反転処理を行うことにより学習画像を4倍に増加できる。
色変化処理とは、HSV或いはHSL、Lab表色系について明るさ要素(V成分、L成分)に対して線形もしくはガンマ補正等の非線形の変換処理を施すことで明るさ要素が異なる画像を複数生成する処理である。または、彩度(Saturation)やLabのa,b要素についても同様に、線形もしくはガンマ補正等の非線形の変換処理を施すことで彩度の異なる画像を複数生成する。また、色相(Hue)については、色を角度方向で表すため、不連続点となる0度方向を一般的な葉が持たない色(水色等)になるように注意した上で変換処理を行い、複数の学習画像を生成する。
ノイズ付加処理において付加するノイズとしては、例えば、ごま塩雑音(salt & paper noise)、一様雑音(uniform noise)、ガウシアンノイズ(Gaussian noise)、レイリーノイズ(Rayleigh noise)、ポアソンノイズ(Poisson noise)等が挙げられる。
ぼかし処理の例としては、局所平滑化(均等化)処理(local
smoothing / normalization)、ガウシアン低域通過フィルタ(Gaussian low
pass filter)、バターワース低域通過フィルタ (Butterworth low pass
filter)等が考えられる。
また、高周波成分強調処理の例として、アンシャープマスク処理(unsharp masking)、ラプラシアン高域通過フィルタ(Laplacian
high pass filter)、ガウシアン高域通過フィルタ (Gaussian high pass
filter)、バターワース高域通過フィルタ(Laplacian high pass filter)等が挙げられる。
なお、ノイズ付加処理、ぼかし処理、高周波成分強調処理は上記のものに限定されず、その他の各種の処理を適用してもよい。
図3は、本発明に係る植物病診断システム1のために最適化された深層学習器2の一例を示す図である。上述したように、深層学習器2はCNNを用いるが、従来CNNは一般対象物の識別に用いられ、その構造は、非特許文献(Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton,
"ImageNet Classification with Deep Convolutional Neural Networks",
Advances In Neural Information Processing Systems, Vol.25, pp.1106 - 1114,
2012.)に示すように、5つの畳込み層と3つの全結合層(出力層を含む)を有する。
一方、図3に示すように、本発明の深層学習器2は、畳込み層を4つ以下(図3の例では3つ)、全結合層(本明細書では、出力層も全結合層と呼ぶものとする)1つとし、従来CNNに比べ、層構造を簡素なものとしている。なお、畳込み層は3つに限定されず、判定対象とする病気の数やデータ数に応じて4つ或いは2つとしてもよい。また、全結合層(出力層を含む)も1つに限定されず、複数としてもよい。
図3に示すように、深層学習器2の各畳込み層conv1〜conv3は、前の層の画像(マップ)を重みを付けて畳込み(convolution)、プーリング(pooling)し、局所コントラスト標準化(local contrast normalization)等の処理を行うことで作成される。
具体的には、まず、入力層に入力された入力画像pic1に対し所定サイズの探索窓51を設定する。入力画像pic1は低解像度(例えば256×256程度)でよい。図3の例では、入力画像pic1のサイズを256×256[pixel]とし、224×224[pixel]のサイズにトリミングして、RGB(赤、緑、青)の各チャネル(3チャネル)用意する。実際には、256×256[pixel]の画像を224×224[pixel]に切り出し、4ピクセル程度ずつずらしながら入力する。つまり1枚の256×256[pixel]の教師画像から64((256−224)/4=8、8×8=64)パターンの224×224[pixel]画像が入力される。64の各パターンについて、赤成分、緑成分、青成分の画像がそれぞれ入力される。
深層学習器2は、トリミングされた各画像について探索窓51を設定し、探索窓51内の各画素の画素値を重みを付けて畳込み処理し、次層(第1畳込み層conv1)のマップの1画素の画素値とする。探索窓51を所定刻みで移動しながら(移動幅は、例えば2画素刻みとする)、このような畳込み演算を行うことで第1畳込み層conv1に含まれる1枚のマップを作成する。
探索窓51のサイズは例えば12×12[pixel]、第1畳込み層conv1のマップサイズは例えば107×107[pixel]とする。なお、探索窓サイズやマップサイズはこの例に限定されず、入力画像pic1のサイズ等に応じて変更してもよい。重みパターンを変えて第1畳込み層conv1に、例えば計48枚のマップ(107×107[pixel])が生成される。マップ数もこの例に限定されず、任意の数に変更してもよい。
より具体的には、第1畳込み層conv1上の任意の1ユニット(107×107[pixel]のうちの1つ)が担当する入力画像の部位は、ある探索窓内にある12×12[pixel]になる。この12×12[pixel]の画像はR、G、Bの3チャネルあるので、この1ユニットが持つ重みは12×12×3=432個となる。第1畳込み層conv1のマップ数が48枚であれば、同じ12×12[pixel]の領域を対象とするユニットが計48個あり、432個1セットの重みパターンが48ある。これが更に107×107ある。
これらのマップについてプーリング処理を行い、局所コントラスト標準化を行う。なお、プーリング処理には、周辺画素値の最大値をとるmax poolingや平均値をとるaverage pooling等の手法があるが、各層で用いる手法は同じものとしてもよいし、異なる手法としてもよい。どの手法を用いるかは、予め設計者により最適化されることが好ましい。或いは、病気の種類や解析対象とする植物の種類等により、探索窓のサイズや刻み幅、プーリング処理の手法等も変更してもよい。このような変更を行う設定部7を備えるようにしてもよい(図2の設定部7)。いずれのプーリング処理の手法(max-poolingまたはaverage-pooling)を用いるかは層により異なる。
次に、第1畳込み層conv1から第2畳込み層conv2を作成する。例えば、探索窓サイズを5×5[pixel]とし、重みをつけて畳込み53×53[pixel]のマップを96枚作成する。更に、第1畳込み層の場合と同様にプーリング及び局所コントラスト標準化等の処理を行う。
更に、第2畳込み層conv2から第3畳込み層conv3を作成する。例えば、探索窓サイズを5×5[pixel]とし、畳込み、プーリング、及び局所コントラスト標準化等の処理を行って24×24[pixel]のマップを192枚作成する。なお、第2、第3畳込み層conv2、conv3についても第1畳込み層conv1と同様に、探索窓サイズ、マップサイズ、マップ数等はこの例に限定されず、任意の数に変更してもよい。
全結合層fc1は、前段の畳込み層conv3の全ユニットと結合しており、層の間に結合荷重を持つ。従来の誤差逆伝搬法と同様に、全結合層conv3の任意のユニットの出力値は、前段の出力値の重み付け和に出力関数を施したものとなる。
出力yは、y=f(Σwx)となる。
ここで、wは結合荷重のベクトル、xは畳込み層の各ニューロンの値のベクトル、Σwxは、要素毎の掛算の和(結果はスカラ値となる)を意味する。
f()は出力関数で、一般的には以下の式(1)に示すsigmoid関数が用いられる。
f(x)=1/(1+exp(−x)) ・・・(1)
ただし、CNNでは、以下の式(2)に示すReLU(rectified linear unit;整流された線形素子)と呼ばれる関数が一般的に用いられる。
f(x)=max(0,x) ・・・(2)
以上の処理によって画像から画像特徴データ21が抽出される。深層学習器2は画像特徴データ21を診断結果と対応づけて保持する。
深層学習器2は、識別処理においても同様の手順で、入力画像に対して重み付け畳込み、プーリング、及び局所コントラスト標準化等の処理を行う。そして入力画像がどの診断結果に分類されるかを求め、出力する。診断結果は、例えば病気の種類とその病気に分類される事後確率が出力されることが望ましい。具体的には、図7(b)に示すように、「べと病70%、モザイク病20%、その他10%」等のように表示されることが望ましい。更に表示画面内に、入力画像や撮影情報(撮影日時、撮影場所の情報)とともに表示されることが望ましい。また、当該植物病診断システム1に入力する画像を撮影する装置がGPS(Global Positioning System)に対応している場合は、画像に撮影場所のGPS情報を付加し、画像から識別処理によって出力される出力値(診断結果)とともにGPS情報を記憶しておき、診断結果を表示する際に参照可能とすることが望ましい。
上述したように、深層学習器2は、従来のCNN(図18)よりも簡素な層構造に調整されている。これにより植物病の診断に最適なものとなり、過学習を防ぎ、精度のよい診断結果を得ることが可能となる。
また図2に示すように、植物病診断システム1は、深層学習器2の各種パラメータの値を設定するためのユーザインターフェースである設定部7を備えることが望ましい。例えば、設定部7は、各種のパラメータの値を設定・調整するための設定画面を表示し、操作者による調整を受けつける。パラメータとは、例えば、入力画像のトリミングサイズ、深層学習器2の各層で取り扱う計算手法、畳込み処理における窓サイズ、マップサイズ、マップ枚数、探索時の刻み幅、重みパターン等を含むものとする。
本実施の形態において、植物病診断システム1は、一般的なパーソナルコンピュータや、携帯端末等に搭載される。特に、スマートフォン等のカメラ機能付き携帯端末に搭載した場合は、学習データとして用いる画像や診断対象とする画像の取得を手軽に行うことができる。
図4を参照して、植物病診断システム1を適用するコンピュータ10(カメラ付き携帯端末を含む)等の構成について説明する。
図4に示すように、コンピュータ10は、制御部101、記憶装置102、入力装置103、表示装置104、メディア入出力部105、通信I/F部106、周辺機器I/F部107等がバス109を介して接続されて構成される。更に、コンピュータ10は画像処理用の演算装置であるGPU(Graphical Processing Unit)110を設けてもよい。また、本発明に係る植物病診断システム1を搭載する機器としてカメラ機能付き携帯端末を利用する場合には、CCDカメラ等が更に設けられ、バス109を介して制御部101に接続される。また、カメラ機能付き携帯端末には、撮影位置を取得するためのGPS受信機108を備えることが望ましい。
制御部101は、CPU(Central Processing Unit)、ROM(Read Only
Memory)、RAM(Random Access Memory)等により構成される。制御部101は、記憶装置102、ROM、記録媒体(メディア)等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス109を介して接続された各部を駆動制御する。ROMは、コンピュータ10のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部101が後述する各種処理を行うために使用するワークエリアを備える。
また、制御部101は、記憶装置102に記憶されている処理プログラムに従って、図5に示す学習処理や図6に示す識別処理等を実行する。深層学習器に係る処理プログラムや学習処理プログラムや識別処理プログラムは、予めコンピュータ10の記憶装置102やROM等に記憶されていてもよいし、ネットワーク等を介してダウンロードされ、記憶装置102等に記憶されたものでもよい。各処理プログラムの詳細については後述する。
GPU110は、画像処理用の演算装置である。制御部101(CPU)での演算負荷を考慮して、CPUとは別にGPU110を設け、並列処理を行うことが望ましい。すなわち、深層学習器2を用いた学習処理や識別処理は演算量が大きいため、GPU110を用いた並列処理を行うことで演算負荷を低減することが望ましい。GPU110は1つに限定されず複数設けられることが好ましい。ただし、装置構成の簡素化のためには、GPU110を設けず、CPU(制御部101)のみで上述の学習処理や識別処理を行うことも可能である。
記憶装置102は、HDD(ハードディスクドライブ)等であり、制御部101が実行するプログラムや、プログラム実行に必要なデータ、OS(オペレーティング・システム)等が格納されている。これらのプログラムコードは、制御部101により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
入力装置103は、例えば、キーボード、マウス、タッチパネル、タブレット等のポインティング・デバイス、テンキー等の入力装置であり、入力されたデータを制御部101へ出力する。
表示部104は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部101の制御により入力された表示情報をディスプレイ装置上に表示させる。
なお、入力装置103と表示装置104とが一体的に構成されたタッチパネル式の入出力部としてもよい。
メディア入出力装置105は、例えば、CD/DVDドライブ等の各種記録媒体(メディア)の入出力装置であり、データの入出力を行う。
通信I/F106は、通信制御装置、通信ポート等を有し、ネットワークを介して通信接続された外部装置との通信を媒介するインタフェースであり、通信制御を行う。
周辺機器I/F107は、コンピュータ10に周辺機器を接続させるためのポートであり、コンピュータ10は周辺機器I/F107を介して周辺機器とのデータの送受信を行う。周辺機器I/F107は、USBやIEEE1394等で構成されている。周辺機器との接続形態は有線、無線を問わない。
バス109は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
次に、植物病診断システム1における処理の流れを説明する。植物病診断システム1において、コンピュータ10の制御部101は、植物を含む画像とその診断結果を複数取り込み、これを基に植物病の特徴を学習する学習処理(図5)をGPU110(及びCPU)に実行させる。また、制御部101は、学習処理により学習した特徴(画像特徴データ21)に基づいて診断対象とする画像がどのクラスに属するか(どの診断結果に該当するか)を識別して出力する識別処理(図6)をGPU110(及びCPU)に実行させる。
図5を参照して、学習処理について説明する。スマートフォンやデジタルカメラ等の任意の撮影装置で撮影された植物病の画像が診断結果とともに、コンピュータ10に入力される(ステップS101)。コンピュータ10にカメラ機能がついていない場合は、画像は、撮影装置から通信媒体(通信ケーブルや近距離無線通信、或いはLANやインターネット等のネットワークを含む。)を介してコンピュータ10に入力される。クラウドコンピューティング等の技術を利用してネットワークからコンピュータ10にダウンロードした画像を入力してもよい。診断結果は、少なくとも健常か病気であるかの情報である。病気の進行度等を示す情報や病気の可能性や疑わしさを表す数値等も診断結果として入力してもよい。
コンピュータ10のGPU110(及びCPU)は制御部101からの制御信号に従い、入力された画像に対して前処理を行う(ステップS102)。前処理は例えば、画像の回転、移動、拡大、縮小、歪みを持たせるといった画像処理である。これにより画像数を増加し、学習データ量を増やす。
次に、前処理された各画像について、コンピュータ10のGPU110(及びCPU)が深層学習器2を用いて画像特徴データの抽出を行う(ステップS103)。具体的には図3の深層学習器2により3層の畳込み処理、プーリング処理、局所コントラスト標準化処理を行い、その後、接続処理を行う。これにより各画像の特徴データが画像(マップ)の形式で作成される。
コンピュータ10のGPU110(及びCPU)は、ステップS103で作成した画像特徴データとステップS101で入力された識別結果とを対応づけて保存する(ステップS104)。入力画像1枚につき、前処理で増加された画像枚数分の特徴データが作成され、診断結果(「健全」/「キュウリ黄化えそ病(MYSV)」等の情報)とともに保存(登録)される。
コンピュータ10の制御部101は、学習データが入力される都度、ステップS101〜ステップS104の処理を繰り返し行う。
次に、図6を参照して、識別処理について説明する。診断対象とする画像(植物を含む画像)がコンピュータ10に入力されると(ステップS201)、コンピュータ10の制御部101はGPU110(及びCPU)に対して画像特徴データの抽出を行うよう指示する。GPU110(及びCPU)は制御信号に従って、深層学習器2を用いて画像特徴データの抽出を行う(ステップS202)。深層学習器2による画像特徴データの抽出処理は、図5の学習処理のステップS103と同様である。
コンピュータ10のGPU110(及びCPU)は、学習処理により保存されている植物病の特徴データを参照して、取得した特徴データと、ステップS202において抽出した診断対象とする画像の特徴データがどの診断結果に該当するかを識別する(ステップS203)。GPU110(及びCPU)はステップS203の処理により識別された診断結果をRAM等に記憶する。制御部101は診断結果をRAM等から取得して表示装置104に表示する(ステップS204)。
図7は、スマートフォン等のカメラ機能付き携帯端末8(以下、携帯端末8という)を用いた識別処理の例を示す図である。携帯端末8には、植物病の特徴データを学習した深層学習器2が搭載されているものとする。
図7(a)に示すように、ユーザが携帯端末8のカメラを用いて植物を撮影する。撮影は、診断対象とする部位(葉等)が写っていればよく、向きや大きさは厳密な条件を設けない。また解像度等も高解像度とする必要はなく、例えば256×256[pixel]等でよい。
携帯端末8により入力された画像に対して図6の識別処理が行われ、図7(b)に示すように、携帯端末8のディスプレイ84に結果が表示される。図7(b)の例では、携帯端末8のディスプレイ84に、入力画像と、撮影に関する情報(撮影日時、撮影場所等)と識別処理による植物病の診断結果が表示される。診断結果として複数の病気である事後確率が表示される場合、最も確率の高いもの(図7(b)では「べと病(80%)」)が赤色等で明示されることが望ましい。
以上説明したように、第1の実施の形態の植物病診断システム1によれば、植物病の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを作成し、保持する深層学習器2と、診断対象とする画像を入力する入力部3と、深層学習器2を用いて、入力された画像がどの診断結果に分類されるかを識別する解析部4と、解析部4により出力された診断結果を表示する表示部5と、を備える。
深層学習器2を用いることで、画像そのものを入力すれば従来困難であった画像特徴データの抽出(学習)を人的に行う必要がなくコンピュータが自動的に行うことができる。そのため、システム設計者の作業負担が飛躍的に軽減される。また深層学習器2を用いることで、診断対象とする画像の撮影条件を緩和でき、実用性が向上する。特に、植物を対象とする場合は、従来行っていた画像から葉や茎等の領域を抽出するという大変手間のかかる画像処理作業を回避できる。例えば、診断対象として植物の葉を撮影する場合、葉とカメラとの距離や明暗等の撮影条件は厳密に一致させる必要はなく、葉が写った画像であれば診断に使用できる。
また深層学習器2が植物病の識別のために最適化されているため、一般対象物の識別に用いる深層学習器をそのまま用いる場合と比較して演算量を減らして効率よく診断を行うことが可能となる。また、層構造を簡素化することで過学習による識別精度の劣化を防ぎ、良好な識別率を確保できる。
[第2の実施の形態]
スマートフォン等のように通信機能を有する機器では、インターネット等の広域な通信ネットワークを介して植物病の診断を実行するサーバ(コンピュータ10)にアクセスし、診断結果を得るようにしてもよい。
図8は、本発明の第2の実施の形態に係る植物病診断システム1Aを示す図である。植物病診断システム1Aは、カメラ機能付き携帯端末(以下、携帯端末という)11とサーバ13とが通信ネットワーク12を介して通信接続されている。サーバ13には、複数の携帯端末11が接続可能である。
携帯端末11は、カメラ機能及び通信機能を有する例えばスマートフォンやタブレット端末であり、内部構成は図4のコンピュータ10に準ずる。サーバ13は、通信機能及び本発明に係る植物病診断システムの解析部4(深層学習器2)の機能を有するコンピュータである。内部構成は図4に示すコンピュータ10と同様である。通信ネットワーク12は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、携帯電話の基地局及び回線網等を含み、有線、無線を問わない。
植物病診断システム1Aでは、カメラ機能付き携帯端末11により撮影され送信された画像が診断対象として、ネットワーク12を介してサーバ13に入力される。画像にはカメラ機能付き携帯端末11のGPS機能によって撮影場所を示すGPS情報が付加されることが望ましい。サーバ13は、深層学習器2を有する解析部4を備える。サーバ13の解析部4は、携帯端末11により撮影された画像を対象に植物病の特徴の学習処理(図5参照)及び植物病の識別処理(図6参照)を行う。
カメラ機能付き携帯端末11は、診断対象とする画像とともに診断要求をサーバ13へ送信する。サーバ13は、画像及び診断要求を受信すると、受信した画像を対象として図6に示す識別処理を実行する。サーバ13は、識別処理により植物病の診断結果を得ると、ネットワーク12を介して診断要求元の携帯端末11へ送信する。診断結果には、診断対象とする画像に付加された撮影場所の情報が対応づけられてサーバ13の記憶装置に保持されることが望ましい。
携帯端末11は、サーバ13から送信された診断結果を受信すると、携帯端末11のディスプレイに表示する。
以上説明したように、携帯端末11からサーバ13に画像を送信すると、サーバ13側で識別処理を実行し、診断結果を返送する。これにより携帯端末11の演算負荷を減らすことができる。植物病の種類や特徴データ量が膨大となり、携帯端末11にとって演算や記憶容量の負荷が大きくなった場合等に好適である。
[第3の実施の形態]
第1または第2の実施の形態の植物病診断システム1、1Aにおいて、農場等に設置された定点カメラにて撮影された広域画像を対象として、植物病の識別処理を行うようにしてもよい。
図9は、第3の実施の形態の植物病診断システム1Bの構成を示す図である。図9に示すように、第3の実施の形態に係る植物病診断システム1Bは、カメラ30、入力部3B、解析部4B、及び表示部5を備える。
カメラ30は、診断対象とする植物が含まれる広域画像60(図10(a)参照)を撮影するカメラ30を備える。カメラ30は例えば、農場等において定点に設置されることが望ましい。またカメラ30は、ユーザが操作したタイミングで撮影を行うものとしてもよいし、定期的或いは常時撮影を行うものとしてもよい。カメラ30はGPS受信機を備えることが望ましい。GPS受信機を有する場合、画像の撮影場所の情報をGPSを利用して取得し、画像とともに記憶する。定点に設定されたカメラ30であれば、カメラ30の識別情報と設置位置情報と対応づけて予めコンピュータ10の記憶装置102等に登録しておいてもよい。これにより、診断対象とする画像がどの位置で撮影されたものかを参照可能となる。
入力部3Bは、カメラ30により撮影された広域画像60を取得して解析部4Bにおける診断(識別)の対象とする。更に、入力部3Bは取得した広域画像60を複数の局所領域の画像60a、60b、…(図10(b)参照)に分割する分割部31と、分割された各局所領域について解析部4Bにおける診断(識別)の対象とするか否かを判定する判定部32とを備える。
解析部4Bは、判定部32により診断の対象と判定された局所領域の画像60a、60b、…を対象として植物病の識別処理(図6)を行う。解析部4Bは、第1の実施の形態と同様に、深層学習器2を有する。深層学習器2は植物病に関する特徴データが保持され、図3に示すように植物病の診断に最適化されているものとする。深層学習器2は、各局所領域の画像について画像特徴データを抽出し、植物病のどの診断結果に該当するかを識別する。
解析部4Bは、植物病分布算出部23を備え、各局所領域の画像の診断結果に基づいて、広域画像60全体の植物病の分布を算出するようにしてもよい。
広域画像60全体の植物病の分布とは、例えば、各局所領域の画像についての診断結果を元の広域画像60上に示したもの等である。例えば、図10(c)に示すように識別結果に応じて各局所領域を色分け表示する。
表示部5は、解析部4Bにより得た診断結果または植物病の分布を表示する。
次に、図11を参照して、第3の実施の形態の植物病診断システム1Bにおける識別処理の流れを説明する。なお、植物病診断システム1Bの入力部3B,解析部4B、表示部5は、第1の実施の形態と同様に、一般的なパーソナルコンピュータや、携帯端末等(以下、コンピュータ10という)に搭載され、コンピュータ10の制御部101により、図11に示す識別処理が実行される。
まず、植物病診断システム1において、コンピュータ10の制御部101は、カメラ30から広域画像60を取り込む(ステップS301)。制御部101は、取り込んだ広域画像60を所定サイズの局所領域の画像に分割し(ステップS302)、分割された各領域について診断対象とするか否かを判定する(ステップS303)。ステップS302において、制御部101は分割した各局所領域の画像に対し、広域画像60全体におけるどの部位であるかを識別可能な情報を付与しておく。
コンピュータ10の制御部101は、ステップS303の判定の結果、診断対象とする画像について、深層学習器2を用いて画像特徴データを抽出する(ステップS304)。画像特徴データの抽出は図5の学習処理のステップS103と同様であるので、説明を省略する。
コンピュータ10の制御部101は、学習処理により保存されている植物病の特徴データを参照して、取得した画像特徴データと、ステップS304において抽出した診断対象とする画像の画像特徴データがどの診断結果に該当するかを識別する(ステップS305)。また、識別した診断結果をRAM等に記憶する。
コンピュータ10の制御部101は、全ての診断対象とする画像について識別処理を行ったか否かを判定し(ステップS306)、未処理の局所画像がある場合は(ステップS306;No)ステップS304〜ステップS305の特徴データ抽出及び診断結果の識別を繰り返す。全ての診断対象とする局所画像について識別処理を行った場合は(ステップS306;Yes)、ステップS307へ移行する。
ステップS307において、制御部101は全ての局所領域の診断結果を取得し、各領域の診断結果に基づき広域画像における植物病の分布65を算出する(ステップS307)。
植物病の分布は65、例えば、図10(c)に示すように、ステップS301で取得した広域画像60内の各局所画像に対し、診断結果を示す色を付したり、マスクを重畳したりすることで作成される。この際、各局所領域に付与した識別情報が参照される。
制御部101は、ステップS203の処理により識別された診断結果に基づいて、表示装置104に表示する(ステップS308)。
なお、定点に設置されたカメラ30から同一範囲の広域画像60を定期的に取得して、図11のフローチャートに示す識別処理を実行してもよい。この場合、植物病の分布の時間経過を観察できるようになる。
[第4の実施の形態]
前処理部6は、深層学習器2に入力する画像の色空間を主成分分析やカーネル主成分分析等の変換処理によって次元を変換したり、次元数を削減したりし、色空間が変換されたデータを学習データとして用い、元のデータと併せて深層学習器2に入力するようにしてもよい。
主成分分析とは、多次元の情報を直交する(相関のない)別の基底(次元の軸)に変換し、データの直交化を行うことである。直交化を行うことにより、多くの場合で元の次元より少ない次元で元の情報のほとんどを表すことが可能となる。これにより多重共線性による識別率低下を回避することが期待できるようになる。
図12は、(x,y)で表される2次元データを主成分分析によって、直交する直交軸(z,z)で表現する例を示す図である。2次元データ(x,y)の直交軸(z,z)への変換行列Aは以下の式(1)で表される。z1、z2の方向ベクトルは式(1)を構成する縦ベクトルである式(2)、式(3)で表される。
Figure 0006539901
Figure 0006539901
元の二次元データの次元を削減し、zだけで表現した場合、約83%(=5/(5+1);固有値の比率)のデータが保持される。つまり、(x,y)の2次元データで表される情報は、次元を1つ減らしzのみで表現しても、83%の情報が保持される。なお、z、zの両方を使用すれば元のデータを完全に復元できる。
次元の直交化や次元数の削減は、識別精度を高める重要な手法として知られている。本発明においても学習データに色空間の主成分分析等の変換処理を適用して次元を変換したり次元数を削減したりすることで、識別精度の向上を期待できる。
また、主成分分析に代えてカーネル主成分分析を行うものとしてもよい。カーネル主成分分析は、上述の主成分分析と同様にデータの直交化を行う手法であるが、上述の主成分分析よりも多様な直交化を実現できる。
一般の主成分分析では、主成分Zは、元のD次元の情報xを{x,x,…,xとしたとき、以下の式(4)で表すことができる。
Z=a+a+a+,…,+a+a・・・ (4)
ここで、a,a,…,a及びaは自然数である。
つまり主成分の軸は元のデータの線形結合で表すことができる。逆にいえば、a,a,…,a及びaとの積でしかZを認めないという制約がある。一方、カーネル主成分分析ではこの制約を取り払うため、写像φ:R→Rを用いて、D次元の情報xを元のD次元からより高いP次元の空間にデータを写像し、そこで直交基底Zで表現する。
Z=aφ(x)+aφ(x)+aφ(x)+,…,+aφ(x)+a・・・ (5)
カーネル主成分分析を行うことにより、通常の主成分分析よりも自由度の高い直交軸を求めることができる。
主成分分析またはカーネル主成分分析による色空間変換処理の具体例としては、例えば以下のような態様が考えられる。
(A)RGBのデータをz,zのように直交する別の2次元データで表現する。
(B)RGBのデータをR,G,B,z,zのように次元数を追加して5次元で表現する。
(C)RGBのデータをR+αz、G+βz、Bγzのように、3次元のままではあるが、次元の要素が各次元の要素の和のように表現する(α、β、γは定数)。
第4の実施の形態により、識別精度の向上を期待できるようになる。
[第5の実施の形態]
深層学習器2において、更に重みのドロップアウト(dropout)処理を行ってもよい。ドロップアウト(dropout)処理は素子間または層間の経路を繋ぐか、閉じるかを確率に基づいてランダムに決定するものである。図13に、ドロップアウト(dropout)処理の概念を示している。図13に示す「○」は素子(ニューロン;neuron)である。深層学習器2の各層の中に図13に示すように素子が並んでいると仮定する。層を構成する素子間は全て結合がある。すなわち素子間は重み係数が配置されている。
ドロップアウト(dropout)処理は、ネットワークの学習の各時刻tごとに、事前に定めた確率pに従いランダムにニューロン(素子)間の重みを強制的に「0」にする処理である。これにより、学習していない未知のデータへの識別性能を高める効果が期待できる。例えば、確率p=0.5であれば、ドロップアウト(dropout)対象の全ての結合が、学習段階の各時刻において確率1/2で強制的に「0」にされる。
更に本発明では、確率ではなく学習データに応じて経路の開閉(繋ぐ、閉じる)を決定することが望ましい。
図14に第5の実施の形態の解析部4Aの構成を示す。
図14に示すように、第5の実施の形態の解析部4Aは第1の実施の形態の解析部4の構成に加え、学習データ判定部9を備える。また深層学習器2Aはドロップアウト(dropout)処理部22を有するものとする。更に設定部7には、ドロップアウト(dropout)処理に関するデータ(以下、設定データ71という)を保持する。設定データ71は、どのようなデータを入力した場合にどの結合をドロップアウトさせるかを定義したデータである。どの結合をドロップアウトさせるかは乱数で決定してもよいし、なんらかのアルゴリズムを用いて決めてもよい。
学習データ判定部9は、設定部7から設定データ71を読み込むとともに前処理部6から入力された学習データを取得し、学習データの内容を判別して深層学習器2Aでどのようにドロップアウト(dropout)させるかを決定する。
解析部4Aは、学習データ判定部9により決定した内容で、事前に定めた確率に従って、深層学習器2Aの各層の素子間の結合の重みを「0」(ドロップアウト(dropout))にし、学習処理及び識別処理を行う。
図15に、ドロップアウト(dropout)処理の具体例を示す。
図15(a)に示すように、学習する画像が10枚(「1」から「10」)で、画像「2」を学習する場合、画像「2」に対応したニューロン(図15中で「2」と表記)の結合を確率pでドロップアウト(dropout)する。ドロップアウト(dropout)する結合を図15(b)に太線で示す。ただし、ニューロンの両方向(「2」のニューロンに接続された各線)に限定されるものではなく、前段方向(「2」のニューロンの左側の結合)のみや後段方向(「2」のニューロンの右側の結合)のみとしてもよい。
なお、図15では、説明を簡潔にするため画像に対応したニューロンが1つだけ(「2」のニューロン)の例を示しているが、実際には複数存在する。また1つのニューロンが複数のドロップアウト(dropout)に対応していることも想定する。
このように、学習データにドロップアウト処理を連動させることで、植物病の診断に対して最適化され、より精度のよい結果を得ることが期待される。なお、確率に基づくドロップアウト処理の適用を妨げるものではない。
[第6の実施の形態]
第6の実施の形態では、深層学習器2の複数の層間において、層を跨ぐ結合であるバイパスの経路(結合)r1または層を戻る結合であるフィードバックの経路(結合)r2を設ける。
図16(a)は、バイパス経路(結合)r1を有する深層学習器2Bの一例を示す図であり、図16(b)は、フィードバック経路(結合)r2を有する深層学習器2Cの一例を示す図である。
図16(a)に示す例では、第1畳込み層conv1から第3畳込み層conv2をバイパス経路r1により結合する。また図16(b)に示す例では、第3畳込み層conv1の出力を第1畳込み層conv1の入力へ繋ぐフィードバック経路r2を設ける。
なお、バイパス経路r1及びフィードバック経路r2により結合する層は図16の例に限定されず、例えば、第1畳込み層conv1、conv2と全結合層fc1へのバイパス経路r1や第2畳込み層conv2から全結合層fc1へのバイパス経路等、様々な層を結合するバイパス経路r1を設けてもよい。また、第2畳込み層conv2の出力を第1畳込み層conv1の入力へ繋ぐフィードバック経路r2や、第3畳込み層conv3の出力を第1畳込み層conv1の入力へ繋ぐフィードバック経路r2を設けてもよい。また、全結合層(全結合層は複数でもよい)に対してもバイパス経路r1やフィードバック経路r2を適用してもよい。また、バイパス経路r1とフィードバック経路r2とを組み合わせて設けてもよい。これらのバイパス結合r1やフィードバック結合r2は、通常の重みをもつ結合、或いは畳込み処理を持つ結合のどちらでもよいものとする。
更に、バイパス経路r1やフィードバック経路r2による層間の結合とドロップアウト処理(第5の実施の形態)とを組み合わせてもよい。
深層学習器2の畳込み層では、奥の層ほど複雑な(識別に重要と思われる画像上の)特徴が学習される。バイパス経路r1は、奥の層に単純な特徴を直接入力することを意味し、フィードバック経路r2は、奥の層で得られた複雑な特徴を単純な特徴に加えて入力することを意味する。このように、深層学習器2の層間に様々な経路を設けることにより、より多様な内部表現が可能となり、学習器としての多様性が生まれる。
<実施例1>
第1の実施の形態の植物病診断システム1のCNN(深層学習器2)を用い、複数の画像について条件を変えてウイルス(黄化えそウイルス;MYSV)に感染した葉の学習及び識別実験を行った。以下、各条件での実験結果を示す。
データセットは、キュウリの葉の健常画像797枚、黄化えそウイルスに感染し発症したキュウリの葉の画像235枚を4つのグループに分け、224×2224[pixel]にトリミングし、それぞれ4-fold cross-validationによって評価を行った。更に、学習データに対しては、画像を10度刻みで360度回転する場合と、回転しない場合とを評価した。
なお、評価値として「識別率」、「感度」、「特異度」を用いるものとした。「感度」とは、病気を正確に「病気」とする割合であり、「特異度」とは、健常を正確に「健常」と識別する割合である。「感度」と「特異度」とは相反する関係となり、両立させることが重要である。「識別率」とは、全体のデータの中で正確な識別結果を得た割合である。元のデータ数に偏りがある場合には、識別率が高ければよいというわけではないため、評価値として「感度」、「特異度」も合わせて用いるものとする。
(1)条件A:回転処理あり、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
識別率:93.0%
感度 :83.5%
特異度:95.9%
(2)条件B:回転処理なし、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
識別率: 83.1%
感度 : 50.2%
特異度: 92.9%
(3)条件C:回転処理あり、CNNの層構造は、畳込み層×4+全結合層×1(出力層)
識別率: 91.8%
感度 : 75.3%
特異度: 96.6%
(4)比較例:CNNの層構造は、畳込み層×5+全結合層×3(出力層を含む)(図12の従来のCNN利用)
識別率: 77.1%
感度 : 0.0%
特異度: 100.0%
上述の処理結果を検討すると、本発明の手法では、回転処理をした場合は、しない場合と比べて、感度、特異度ともに向上した。また回転処理を行った場合、畳込み層が4層構造の場合と比較して3層構造の場合の方が識別率が良好であった。識別率に大差が出なかったのは、「病気なし」のデータ数が多く、多くの結果に対して病気なしとの判定をしたためと思われる。
また、比較例(従来のCNN)では、すべての対象について「病気なし」と判定され、植物病診断システムとしての使用が困難であった。識別率の値が「77.1%」と高いのは、「病気なし」の入力画像が77%と多く、それらが正解判定されたためである。誤識別の原因としては、過学習が考えられる。
<実施例2>
第1の実施の形態の植物病診断システム1のCNN(深層学習器2)を用い、複数の画像について条件を変えてウイルスに感染したことによって生じた植物病の学習及び識別処理を行った。ウイルスの種類は、MYSV(メロン黄化えそウイルス)、ZYMV(ズッキーニ黄斑モザイクウイルス)、CCYV(ウリ類退緑黄化ウイルス)、CMV(キュウリ緑斑モザイクウイルス)、PRSV(パパイヤ輪点ウイルス)、WMV(カボチャモザイクウイルス)、KGMMV(キュウリ緑斑モザイクウイルス)とした。図17に各条件での処理結果を示す。
評価値として「感度」、「特異度」を用いる。「正解率」は、各病気の識別結果の総合的な正解率である。また、(実験0)で用いた画像データと同じ画像データを用いて条件の異なる実験((実験1)〜(実験5))を行い、結果を比較した。
(実験0)
条件:回転なし、反転なし、色相変化なし、平行移動なし、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
学習画像数:5490枚
正解率:50.1
感度(MYSV):41.3

感度(ZYMV):52.3
感度(CCYV):62.3
感度(CMV):29.4
感度(PRSV):38.0
感度(WMV):44.7
感度(KGMMV):48.1
特異度:70.3
(実験1)
条件:回転あり(データ拡張36倍)、反転なし、色相変化なし、平行移動なし、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
学習画像数:197640枚((実験0)に対し、36倍のデータ拡張倍率)
正解率:76.5
感度(MYSV):78.0
感度(ZYMV):75.0
感度(CCYV):92.2
感度(CMV):55.0
感度(PRSV):60.0
感度(WMV):75.0
感度(KGMMV):74.6
特異度:87.0
(実験2)
条件:回転あり(10度ずつ回転;データ拡張36倍)、反転あり(上下左右反転;データ拡張4倍)、色相変化なし、平行移動なし、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
学習画像数:790560枚((実験0)に対し、144倍のデータ拡張倍率)
正解率:78.3
感度(MYSV):82.7
感度(ZYMV):73.9
感度(CCYV):92.9
感度(CMV):57.0
感度(PRSV):68.4
感度(WMV):74.0
感度(KGMMV):77.3
特異度:88.4
(実験3)
条件:回転あり(10度ずつ回転;データ拡張36倍)、反転あり(上下左右反転;データ拡張4倍)、色相変化あり(データ拡張3倍)、平行移動なし、CNNの層構造は、畳込み層×3+全結合層×1(出力層)(図3の提案手法)
学習画像数:2371680枚((実験0)に対し、432倍のデータ拡張倍率)
正解率:78.9
感度(MYSV):82.0
感度(ZYMV):76.8
感度(CCYV):92.8
感度(CMV):52.5
感度(PRSV):72.0
感度(WMV):72.4
感度(KGMMV):72.0
特異度:92.4
(実験4)
条件:回転あり(10度ずつ回転;データ拡張36倍)、反転あり(上下左右反転;データ拡張4倍)、色相変化なし、平行移動なし、CNNの層構造は、畳込み層×4+全結合層×1(出力層)
学習画像数:790560枚((実験0)に対し、144倍のデータ拡張倍率)
正解率:81.1
感度(MYSV)83.4
感度(ZYMV):77.9
感度(CCYV):91.3
感度(CMV):66.3
感度(PRSV):75.8
感度(WMV):77.7
感度(KGMMV):76.0
特異度:90.6
(実験5)
条件:回転あり(10度ずつ回転;データ拡張36倍)、反転あり(上下左右反転;データ拡張4倍)、色相変化なし、平行移動あり(データ拡張5倍)、CNNの層構造は、畳込み層×4+全結合層×1(出力層)
学習画像数:3952800枚((実験0)に対し、720倍のデータ拡張倍率)
正解率:83.2
感度(MYSV):85.4
感度(ZYMV):79.3
感度(CCYV):92.5
感度(CMV):67.8
感度(PRSV):79.9
感度(WMV):81.5
感度(KGMMV):77.5
特異度:91.0
上述の処理結果を検討すると、「画像回転」の貢献は10%以上の正解率向上となり極めて大きい。また、実験1と実験2を比較すると1.8%の正解率向上となり「画像反転」の貢献も確認できる。
(実験2)と(実験3)(色相変化の追加)を比較すると、全体では0.6%の正解率向上であるが、効果は限定的となっている。
また、(実験2)と(実験4)の結果から、同じ画像データを用いた場合、畳込み層を3層から4層に増加させると、正解率が向上する効果が確認できる。更に、(実験4)と(実験5)(平行移動の追加)を比較すると全体で2.1%の正解率向上となり、平行移動の効果を確認できる。
以上説明したように、本発明の植物病診断システム及び植物病診断方法では、深層学習器を用いて植物病の診断を行うため、画像から葉や茎等の領域を抽出する画像処理を回避でき、また画像から植物病の画像特徴データを人的に抽出する手間を省き、容易に植物病の診断を行うことが可能となる。また、深層学習器として植物病診断に最適化されたCNNを用いることにより、演算負荷を減らし、かつ過学習を防いで、効率よく精度のよい識別結果を得ることが可能となる。
以上、本発明に係る植物病診断システム及び方法の好適な実施形態について説明したが、本発明は、上述の実施形態に限定されるものではない。識別するクラスは「健常」、「病変」の2種類に限定されず、病変の度合い等も識別可能としてもよい。その場合は、更に層構造やマップ数、探索窓サイズ等の各種のパラメータ値が最適化されたCNNを用いることが好ましい。
その他、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1、1A、1B・・・・・・植物病診断システム
2、2A、2B、2C・・・深層学習器
21・・・・・・・・・・・画像特徴データ
22・・・・・・・・・・・ドロップアウト処理部
3、3B・・・・・・・・・入力部
4、4A、4B・・・・・・解析部
5・・・・・・・・・・・・表示部
6・・・・・・・・・・・・前処理部
7・・・・・・・・・・・・設定部
71・・・・・・・・・・・設定データ
8・・・・・・・・・・・・カメラ機能付き携帯端末
9・・・・・・・・・・・・学習データ判定部
10・・・・・・・・・・・コンピュータ
101・・・・・・・・・・制御部
102・・・・・・・・・・記憶装置
103・・・・・・・・・・入力装置
104・・・・・・・・・・表示装置
105・・・・・・・・・・メディア入出力装置
106・・・・・・・・・・通信I/F
107・・・・・・・・・・周辺機器I/F
108・・・・・・・・・・GPS受信機
110・・・・・・・・・・GPU
11・・・・・・・・・・・カメラ機能付き携帯端末
12・・・・・・・・・・・通信ネットワーク
13・・・・・・・・・・・サーバ
30・・・・・・・・・・・カメラ
31・・・・・・・・・・・分割部
32・・・・・・・・・・・判定部
41・・・・・・・・・・・植物病分布算出部
conv1〜conv3・・畳込み層
fc1・・・・・・・・・・全結合層
pic・・・・・・・・・・入力画像(入力層)
51・・・・・・・・・・・探索窓
60・・・・・・・・・・・広域画像
60a〜60l・・・・・・局所領域の画像
65・・・・・・・・・・・植物病の分布
r1・・・・・・・・・・・バイパス経路(結合)
r2・・・・・・・・・・・フィードバック経路(結合)

Claims (14)

  1. 植物病の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを作成し、保持する深層学習器と、
    診断対象とする画像を入力する入力部と、
    前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別する解析部と、
    前記解析部により出力された診断結果を表示する表示部と、
    を備え
    前記入力部は、
    診断対象とする植物が含まれる広域画像を撮影するカメラにより撮影された広域画像を取得し、複数の局所領域の画像に分割する分割部と、
    分割された各局所領域について前記解析部における識別の対象とするか否かを判定する判定部と、を備え、
    前記解析部は、前記判定部により識別の対象と判定された局所領域の画像を診断対象として前記識別を行う
    ことを特徴とする植物病診断システム。
  2. 前記表示部は、前記診断結果として、各局所領域の診断結果に基づいて算出される広域画像全体の植物病の分布を表示する
    請求項1に記載の植物病診断システム。
  3. 前記深層学習器として畳込みニューラルネットワークを利用することを特徴とする請求項1または請求項2に記載の植物病診断システム。
  4. 前記学習データとして取り込まれた画像に対し、回転、移動、拡大縮小、色変化、ノイズ付加、ぼかし、高周波成分強調、及び歪みのうち少なくともいずれか1つまたは複数の画像処理を施し、取り込み画像数を増加させる前処理部を更に備え、
    前記深層学習器は増加された画像を学習データとして利用することを特徴とする請求項1から請求項3のいずれかに記載の植物病診断システム。
  5. 前記学習データとして取り込まれた画像の色空間の次元を変換し、または次元数を削減する色空間変換部を更に備え、
    前記深層学習器は、前記色空間変換部により変換されたデータを前記学習データに用いることを特徴とする請求項1から請求項4のいずれかに記載の植物病診断システム。
  6. 前記解析部は、入力された画像がどの診断結果に分類されるかを事後確率として出力することを特徴とする請求項1から請求項5のいずれかに記載の植物病診断システム。
  7. 当該植物病診断システムは、カメラ機能付き携帯端末に搭載されることを特徴とする請求項1から請求項6のいずれかに記載の植物病診断システム。
  8. 前記入力部は、ネットワークを介して通信接続されたカメラ機能付き携帯端末により撮影され送信された画像を前記診断対象として入力し、
    前記解析部は前記診断結果を前記カメラ機能付き携帯端末に送信することを特徴とする請求項1から請求項6のいずれかに記載の植物病診断システム。
  9. 前記学習データに応じて前記深層学習器の素子間の結合のドロップアウト処理を適用することを特徴とする請求項1から請求項8のいずれかに記載の植物病診断システム。
  10. 前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けることを特徴とする請求項1から請求項9のいずれかに記載の植物病診断システム。
  11. コンピュータが、
    植物の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを深層学習器を用いて作成し、保持するステップと、
    診断対象とする画像を入力するステップと、
    前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別するステップと、
    前記診断結果を表示するステップと、
    を含み、
    前記入力するステップは、
    診断対象とする植物が含まれる広域画像を撮影するカメラにより撮影された広域画像を取得し、複数の局所領域の画像に分割するステップと、
    分割された各局所領域について識別の対象とするか否かを判定するステップと、を含み、
    前記識別するステップは、識別の対象と判定された局所領域の画像を診断対象として前記識別を行う
    ことを特徴とする植物病診断方法。
  12. 前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けることを特徴とする請求項11に記載の植物病診断方法。
  13. コンピュータにより読み取り可能な形式で記述されたプログラムであって、
    植物の画像と対応する診断結果とを学習データとして複数取り込み、植物病に関する画像特徴データを深層学習器を用いて作成し、保持するステップと、
    診断対象とする画像を入力するステップと、
    前記深層学習器を用いて、入力された画像がどの診断結果に分類されるかを識別するステップと、
    前記診断結果を表示するステップと、
    を含み、
    前記入力するステップは、
    診断対象とする植物が含まれる広域画像を撮影するカメラにより撮影された広域画像を取得し、複数の局所領域の画像に分割するステップと、
    分割された各局所領域について識別の対象とするか否かを判定するステップと、を含み、
    前記識別するステップは、識別の対象と判定された局所領域の画像を診断対象として前記識別を行う
    処理をコンピュータに実行させるためのプログラム。
  14. 前記深層学習器の層間にバイパスおよび/またはフィードバックの経路を設けることを特徴とする請求項13に記載のプログラム。
JP2016045492A 2015-03-09 2016-03-09 植物病診断システム、植物病診断方法、及びプログラム Active JP6539901B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015045540 2015-03-09
JP2015045540 2015-03-09

Publications (2)

Publication Number Publication Date
JP2016168046A JP2016168046A (ja) 2016-09-23
JP6539901B2 true JP6539901B2 (ja) 2019-07-10

Family

ID=56981629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016045492A Active JP6539901B2 (ja) 2015-03-09 2016-03-09 植物病診断システム、植物病診断方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6539901B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10768584B2 (en) 2017-06-26 2020-09-08 International Business Machines Corporation Cognitive plant clinic
JP7029981B2 (ja) 2018-03-01 2022-03-04 国立大学法人北海道大学 汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10685231B2 (en) 2016-10-31 2020-06-16 Optim Corporation Computer system, and method and program for diagnosing plants
KR101933657B1 (ko) * 2016-11-11 2019-04-05 전북대학교산학협력단 딥 러닝을 이용한 작물 병충해 검출 및 진단 방법 및 장치
KR101876397B1 (ko) * 2016-11-23 2018-07-09 세종대학교산학협력단 작물의 병해충 진단 장치 및 방법
JP2018091640A (ja) * 2016-11-30 2018-06-14 株式会社デンソー 装置の検査装置、および、装置の検査方法
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
HUE052985T2 (hu) * 2017-02-06 2021-06-28 Bilberry Sas Gyomirtó rendszerek és eljárások, vasúti gyomirtó jármûvek
US11417089B2 (en) 2017-03-23 2022-08-16 Nec Corporation Vegetation index calculation apparatus, vegetation index calculation method, and computer readable recording medium
CN108881807A (zh) * 2017-05-09 2018-11-23 富士通株式会社 用于对监控视频中的数据进行扩充的方法和装置
JP6307680B1 (ja) * 2017-05-24 2018-04-11 節三 田中 植物の健康診断システム
US10902577B2 (en) * 2017-06-19 2021-01-26 Apeel Technology, Inc. System and method for hyperspectral image processing to identify object
CN109406412A (zh) * 2017-08-18 2019-03-01 广州极飞科技有限公司 一种植物健康状态监控方法及装置
JP6971453B2 (ja) * 2017-10-13 2021-11-24 有限会社竹内園芸 苗データ生成システム、苗判別システム、苗データ生成プログラム、苗判別プログラム、苗データ生成装置、苗判別装置
JP7194410B2 (ja) * 2017-12-08 2022-12-22 国立大学法人金沢大学 診断方法、プログラム、および診断装置
JP7170000B2 (ja) * 2018-01-24 2022-11-11 富士フイルム株式会社 学習システム、方法及びプログラム
JP7042092B2 (ja) * 2018-01-26 2022-03-25 日本放送協会 画像情報変換器およびそのプログラム
JP6961527B2 (ja) * 2018-04-02 2021-11-05 Kddi株式会社 情報処理装置、学習方法、及びプログラム
CN110363210B (zh) * 2018-04-10 2023-05-05 腾讯科技(深圳)有限公司 一种图像语义分割模型的训练方法和服务器
WO2020044480A1 (ja) 2018-08-30 2020-03-05 株式会社エヌ・ティ・ティ・データCcs 作物生育ステージ判定システムのサーバ装置、生育ステージ判定方法及びプログラム
JP7070308B2 (ja) * 2018-10-05 2022-05-18 オムロン株式会社 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム
AU2019360153A1 (en) 2018-10-19 2021-05-20 Climate Llc Detecting infection of plant diseases by classifying plant photos
JP7193979B2 (ja) 2018-10-29 2022-12-21 富士フイルムヘルスケア株式会社 医用撮像装置、画像処理装置、および、画像処理方法
CN111178121B (zh) * 2018-12-25 2023-04-07 中国科学院合肥物质科学研究院 基于空间特征和深度特征强化技术的害虫图像定位识别方法
CN109754022B (zh) * 2019-01-24 2023-06-13 河池学院 一种基于卷积神经网络的甘蔗胚芽分类系统
JP2020149307A (ja) * 2019-03-13 2020-09-17 株式会社Ingen 植物病名診断システム、サーバ装置及び植物の病気治療方法の決定方法
JP2020151270A (ja) * 2019-03-20 2020-09-24 学校法人慶應義塾 関節状態値取得装置、関節状態学習装置、関節位置特定装置、関節位置学習装置、関節状態値取得方法、関節状態学習方法、関節位置特定方法、関節位置学習方法及びプログラム
JP7339234B2 (ja) * 2019-12-23 2023-09-05 住友化学株式会社 画像分類装置、画像分類方法及び画像分類モデルの生成方法
WO2021130816A1 (ja) * 2019-12-23 2021-07-01 株式会社ナイルワークス 散布システムおよび散布管理装置
KR102291164B1 (ko) * 2019-12-31 2021-08-18 전남대학교산학협력단 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법
IT202000001561A1 (it) * 2020-01-28 2021-07-28 Perleuve S R L Metodo e sistema per il monitoraggio e/o il trattamento di ampelopatie in un vigneto.
JP2021145557A (ja) * 2020-03-16 2021-09-27 株式会社電通国際情報サービス 罹病木診断システム、罹病木診断方法、及び罹病木診断プログラム
CN111862190B (zh) * 2020-07-10 2024-04-05 北京农业生物技术研究中心 自动测量离体植物软腐病斑面积的方法及装置
CN112149682B (zh) * 2020-09-29 2023-08-15 青海大学 基于深度学习的悬钩子植物自动识别方法、存储介质和装置
KR102543893B1 (ko) 2020-11-24 2023-06-20 손정혁 모바일기기를 이용한 농작물의 단계별 장애요인 확인시스템
KR20220071586A (ko) 2020-11-24 2022-05-31 손정혁 빅 데이터 기반의 온라인을 이용한 농작물의 병충해 확인방법
CN113096100B (zh) * 2021-04-15 2023-08-22 杭州睿胜软件有限公司 用于植物病症诊断的方法和植物病症诊断系统
JP7216162B2 (ja) * 2021-06-17 2023-01-31 楽天グループ株式会社 ゴルフ場における芝健康状態判定システム、ゴルフ場における芝健康状態判定方法及びプログラム
JP7248755B1 (ja) 2021-09-10 2023-03-29 みずほリサーチ&テクノロジーズ株式会社 学習データ生成システム、学習データ生成方法及び学習データ生成プログラム
CN113688959B (zh) * 2021-10-26 2022-02-18 寿光得峰生态农业有限公司 一种基于人工智能的植物病虫害诊断方法及系统
KR102482624B1 (ko) * 2022-07-05 2022-12-30 주식회사 경일 이동식 배지통을 이용한 작물 생육 모니터링 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI435234B (zh) * 2011-11-24 2014-04-21 Inst Information Industry Plant disease identification method, system and record media

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10768584B2 (en) 2017-06-26 2020-09-08 International Business Machines Corporation Cognitive plant clinic
JP7029981B2 (ja) 2018-03-01 2022-03-04 国立大学法人北海道大学 汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置

Also Published As

Publication number Publication date
JP2016168046A (ja) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6539901B2 (ja) 植物病診断システム、植物病診断方法、及びプログラム
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
CN107169535B (zh) 生物多光谱图像的深度学习分类方法及装置
CN109154978A (zh) 用于检测植物疾病的系统和方法
CN111931764B (zh) 一种目标检测方法、目标检测框架及相关设备
JP2023504624A (ja) 作物の被害を特定するためのシステム及び方法
CN113728335A (zh) 用于3d图像的分类和可视化的方法和系统
CN110889852A (zh) 基于残差-注意力深度神经网络的肝脏分割方法
JP6270182B2 (ja) 属性要因分析方法、装置、およびプログラム
CN107133496B (zh) 基于流形学习与闭环深度卷积双网络模型的基因特征提取方法
CN110752028A (zh) 一种图像处理方法、装置、设备以及存储介质
KR20190115713A (ko) 다기능 신경망을 활용한 혈관탐지 및 망막부종진단 장치 및 그 방법
US11967181B2 (en) Method and device for retinal image recognition, electronic equipment, and storage medium
CN109801275B (zh) 基于图像识别的马铃薯病害检测方法和系统
CN110879982A (zh) 一种人群计数系统及方法
WO2021057395A1 (zh) 一种鞋跟型号识别方法、装置及存储介质
CN113688862B (zh) 一种基于半监督联邦学习的脑影像分类方法及终端设备
WO2022117772A1 (en) System and method for determining damage on plants after herbicide application
Uryasheva et al. Computer vision-based platform for apple leaves segmentation in field conditions to support digital phenotyping
CN112329818B (zh) 基于图卷积网络嵌入表征的高光谱图像非监督分类方法
KR20170096924A (ko) 다양한 컬러 공간에서 협동 얼굴 컬러 특징 학습 방법 및 장치
CN116452494A (zh) 基于自组织映射网络的无监督工业异常检测与定位方法
CN110570417B (zh) 肺结节分类装置及图像处理设备
CN113032622A (zh) 一种新型医学视频图像采集和数据管理系统
Islam et al. QuanCro: a novel framework for quantification of corn crops’ consistency under natural field conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190319

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190522

R150 Certificate of patent or registration of utility model

Ref document number: 6539901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250