JP2019125340A - 時空間画像の変化を自動推論するためのシステムおよび方法 - Google Patents

時空間画像の変化を自動推論するためのシステムおよび方法 Download PDF

Info

Publication number
JP2019125340A
JP2019125340A JP2018172431A JP2018172431A JP2019125340A JP 2019125340 A JP2019125340 A JP 2019125340A JP 2018172431 A JP2018172431 A JP 2018172431A JP 2018172431 A JP2018172431 A JP 2018172431A JP 2019125340 A JP2019125340 A JP 2019125340A
Authority
JP
Japan
Prior art keywords
received image
classes
image
images
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018172431A
Other languages
English (en)
Other versions
JP6935377B2 (ja
Inventor
ウィノドチャンドラ バット、プラクルティー
Vinodchandra Bhatt Prakruti
ウィノドチャンドラ バット、プラクルティー
サランギ、サナト
Sarangi Sanat
パップラ、スリニワス
Pappula Srinivasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2019125340A publication Critical patent/JP2019125340A/ja
Application granted granted Critical
Publication of JP6935377B2 publication Critical patent/JP6935377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】データに依存する特徴方法ではなく、変化した状況でトレーニングされた畳込みニューラルネットワーク(Convolutional Neural Network、CNN)から抽出した、高水準のロバストな特徴を活用することにより、時空間画像内の変化の自動推論を可能にする技術的問題に対処すること。【解決手段】高水準の特徴に対する管理されていないクラスタ化により、画像にラベルを付けるという厄介な要件がなくなる。モデルは特有の状況でまったくトレーニングされないので、どの画像を受け入れてもよい。管理されていないクラスタ化と管理された分類のある種の組合せにより、リアルタイム推論が可能になる。クラウド−エッジトポロジは、更新された分類モデルがエッジ上に導入されることを確実にすることにより、接続性が利用可能できないときでさえ、リアルタイム推論を確実にする。適応学習に基づき知識オントロジを作成することにより、精度の水準が変わる入力画像の推論が可能になる。精密農業は、本開示の1つの適用分野である。【選択図】図7

Description

関連出願の相互参照
本出願は、2018年1月15日に出願されたインド特許出願公開第201821001685号明細書の優先権を主張する。前述の出願の内容全体は、参照により本明細書に組み込まれる。
本明細書の本開示は、一般に画像の処理および分類に関し、より詳細には時空間画像の変化を自動推論するためのシステムおよび方法に関する。
所与の農業のシナリオに関して、最小の人間介在でコンピュータビジョンの要件を学習し、それに適応することができるシステムを開発することは、複雑な作業である。しかしながら、そのような能力は、特に植物を連続して監視するために使用するカメラを備えるIoT(Internet of things)に必要である。具体的には、難題は、成長および健康に関連する事象などの、植物の生物学的過程に関連する事象を追跡することである。生育段階または健康状態を特定の段階で適時に、かつ局所的に識別することは、収穫高を改善するために非常に重要である。いろいろ違った農産物、それらの成長パターン、および寿命または病気もしくは欠乏などの外部要因による物理的外観の発現の差を考慮すると、これらの農作物の生活環の間に農作物の外観の変化だけを識別し、印を付けることは重要である。しかしながら、これを行う能力は、たとえば、冗長な画像を周期的に転送するのではなく、極めて重要な事象にタグを付けて、農場にある画像獲得システムからクラウドへ極めて重要な事象を転送するために極めて重要である。
画像分類には、典型的には、監視された分類のための画像データセットにラベルを付けるために人間が介在するという主要な難題が伴う。深層畳込みニューラルネットワーク(Convolutional Neural Network、CNN)は、特徴抽出に関してより高い正確さを与えることが証明されている。しかしながら、深層畳込みニューラルネットワークは、分類モデルをトレーニングするために大量のラベル付データセットを必要とする。
カメラセンサまたは等価の参加型検知シナリオを伴うIoTの導入については、監視されている状況の具体的検知要件を満たすようにコンピュータビジョン解決策を構成することは、難題になっている。さらに、接続性が容易に利用できないエッジで、特に発展途上国の農村地域で処理するために、IoTプラットフォームに提出される画像をリアルタイムで解釈することは難題である。
本開示の実施形態は、従来のシステムで本発明者らが認識した、上述の技術的問題の1つまたは複数に対する解決策として技術上の本改善を提示する。
一様態では、プロセッサ実装方法が提供され、プロセッサ実装方法は、1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信するステップと、1つまたは複数の時間間隔で、空間情報または時間情報、および適応しきい値に基づき、受信画像の少なくともサブセットをインテリジェントに識別し、伝送するステップと、変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して受信画像を前方へ通過させることにより、受信画像から特徴を抽出するステップと、抽出特徴を使用して、受信画像を1つまたは複数のクラスにクラスタ化することにより第1水準の推論を遂行するステップと、対象となっている状況に基づき、1つまたは複数のクラスをタグと関連づけるステップとを備え、クラスタ化するステップは、シルエット(Silhouette)係数を使用して、1つまたは複数のクラスの最適な数を決定するステップと、受信画像の各々と受信画像内のあらゆる他の画像の球面距離により表した第1の距離測度を算出するステップ、最大事後確率(Maximum A Posteriori probability、MAP)に基づきクラス分布を使用して、クラスに属する受信画像内の各画像の尤度を算出するステップ、および受信画像の各々と1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップのうち少なくとも1つを遂行することにより、受信画像間で検出した類似性に基づき、1つまたは複数のクラスを識別するステップであって、1つまたは複数のクラスの数は、決定した最適な数に等しいステップと、正規化相互情報量(Normalized Mutual Information、NMI)スコア、ランド(Rand)指数、および純度測度のうち1つまたは複数を使用して、1つまたは複数のクラスの品質を検証するステップとを備える。
別の様態では、1つまたは複数のハードウェアプロセッサに動作可能に結合され、1つまたは複数のハードウェアプロセッサにより実行するように構成された命令を記憶するための1つまたは複数の内部データ記憶装置を備えるシステムが提供され、命令は、1つまたは複数の時間間隔で、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる、対象となっている状況に関係する複数の画像を受信し、かつ1つまたは複数の時間間隔で、空間情報または時間情報、および適応しきい値に基づき、受信画像の少なくともサブセットをインテリジェントに識別し、伝送するように構成された入力モジュールと、変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して受信画像を前方へ通過させることにより、受信画像から特徴を抽出するように構成された特徴抽出器と、抽出特徴を使用して、受信画像を1つまたは複数のクラスにクラスタ化することにより第1水準の推論を遂行し、対象となっている状況に基づき、1つまたは複数のクラスをタグと関連づけるように構成されたクラスタ化モジュールとに備わり、クラスタ化するステップは、シルエット係数を使用して、1つまたは複数のクラスの最適な数を決定するステップと、受信画像の各々と受信画像内のあらゆる他の画像の球面距離により表した第1の距離測度を算出するステップ、最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する受信画像内の各画像の尤度を算出するステップ、および受信画像の各々と1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップのうち少なくとも1つを遂行することにより、受信画像間で検出した類似性に基づき、1つまたは複数のクラスを識別するステップであって、1つまたは複数のクラスの数は、決定した最適な数に等しいステップと、正規化相互情報量(NMI)スコア、ランド(Rand)指数、および純度測度のうち1つまたは複数を使用して、1つまたは複数のクラスの品質を検証するステップとを備える。
さらに別の様態では、中に埋め込まれたコンピュータ可読プログラムを有する非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品が提供され、コンピュータ可読プログラムは、コンピューティング機器上で実行されたとき、コンピューティング機器に、1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信させ、1つまたは複数の時間間隔で、空間情報または時間情報、および適応しきい値に基づき、受信画像の少なくともサブセットをインテリジェントに識別させ、伝送させ、変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して受信画像を前方に通過させることにより、受信画像から特徴を抽出させ、抽出特徴を使用して、受信画像を1つまたは複数のクラスにクラスタ化することにより第1水準の推論を遂行させ、対象となっている状況に基づき、1つまたは複数のクラスをタグと関連づけさせ、クラスタ化するステップは、シルエット係数を使用して、1つまたは複数のクラスの最適な数を決定するステップと、受信画像の各々と受信画像内のあらゆる他の画像の球面距離により表した第1の距離測度を算出するステップ、最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する受信画像内の各画像の尤度を算出するステップ、および受信画像の各々と1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップのうち少なくとも1つを遂行することにより、受信画像間で検出した類似性に基づき、1つまたは複数のクラスを識別するステップであって、1つまたは複数のクラスの数は、決定した最適な数に等しいステップと、正規化相互情報量(NMI)スコア、ランド(Rand)指数、および純度測度のうち1つまたは複数を使用して、1つまたは複数のクラスの品質を検証するステップとを備える。
本開示の一実施形態では、入力モジュールは、受信画像に関連する少なくともいくつかのメタデータを得て、かつ関連タグに基づき、受信画像に関連するメタデータを更新するようにさらに構成される。
本開示の一実施形態では、上記で説明したシステムは、特徴を抽出する前に、(i)正規化、主成分分析(Principal Components Analysis、PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方のニューラル・ネットワーク・モデルまで通過させるために受信画像を適合させる第2水準の前処理のうち少なくとも一方を遂行することにより、受信画像を前処理するように構成された前処理モジュールをさらに備える。
本開示の一実施形態では、特徴抽出器は、ニューラル・ネットワーク・モデルが抽出した特徴に形態学的特徴および色に関係がある特徴を含む追加の特徴を付加して、マスタ特徴セットを導出し、かつ次元削減法を使用して、マスタ特徴セットを圧縮するようにさらに構成される。
本開示の一実施形態では、クラスタ化モジュールは、1つまたは複数のクラスのうち1つまたは複数の内部で第1水準の推論を遂行するようにさらに構成される。
本開示の一実施形態では、上記で説明したシステムは、1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより第2水準の推論を遂行するように構成された分類モジュールをさらに備え、分類するステップは、対象となっている状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスに関連する事前にトレーニングされた複数のタグ付け器モデルを得るステップであって、事前にトレーニングされたタグ付け器モデルは、マスタ特徴セットによりトレーニングされるステップと、複数の事前にトレーニングされたタグ付け器モデルに基づき、第1水準の推論から得られた1つまたは複数のクラスを1つまたは複数のサブクラスに分類するステップと、分類した1つまたは複数のサブクラスに関する信頼水準を算出するステップと、事前に規定したしきい値以下の信頼水準に関連する画像を用いて複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングして、複数の分類モデルを得るステップと、1つまたは複数のクラス、それらの中の1つまたは複数のサブクラス、およびそれらの相互関係に基づき、分類モデルの知識オントロジを作成するステップとを備える。
本開示の一実施形態では、分類モジュールは、事前にトレーニングされたタグ付け器モデルを再度トレーニングする前に、関連メタデータを用いて、事前に規定したしきい値以下の信頼水準に関連する受信画像を評価するようにさらに構成される。
本開示の一実施形態では、上記で説明したシステムは、受信画像およびそれに関連するメタデータ、1つまたは複数のクラス、1つまたは複数のサブクラス、複数の分類モデル、ならびに知識オントロジを記憶するように構成されたデータベースをさらに備える。
本開示の一実施形態では、入力モジュールは、受信画像のエントロピー値に基づき、受信画像が有効かどうかを判断するステップ、および受信画像と、対象となっている状況に基づく適応しきい値である所定数の先行画像を比較して、受信画像が先行画像に関連する1つまたは複数のサブクラスに適合するかどうかを判断するステップのうち1つまたは複数を遂行することにより、受信画像の少なくともサブセットをインテリジェントに識別し、伝送するようにさらに構成される。
本開示の一実施形態では、システムは、(i)IoTゲートウェイの役割を果たす入力モジュールを有するクラウド−エッジトポロジで構成され、(ii)クラスタ化モジュール、分類モジュール、事前にトレーニングされたタグ付け器モデル、およびデータベースがクラウドに基づく機器として実装され、(iii)前処理モジュールがクラウドエンド機器としてだけではなくエッジエンド機器としても実装され、(iv)特徴抽出器および分類モデルがクラウドエンド機器として実装され、エッジエンドがその現行バージョンで更新されるようにエッジエンド上に導入される。
前述の一般的説明も以下の詳細な説明も、代表的なものであり、説明のためだけのものであり、特許請求される本開示の実施形態を限定するものではないことを理解されたい。
本開示に組み込まれ、本開示の一部を構成する添付図面は、代表的実施形態を示し、説明と共に、開示する原理を説明するのに役立つ。
当技術分野で公知の、クラウド−エッジトポロジの代表的図式表現を示す。 本開示の一実施形態による、図1のクラウド−エッジトポロジで構成されてもよい、時空間画像の変化を自動推論するためのシステムの機能モジュールを伴う代表的構成図を示す。 本開示の実施形態による、図2のシステムのクラウドエンドに実装された機能モジュール、およびそれらの相互接続の代表的構成図を示す。 本開示の一実施形態による、第1水準の推論を遂行するステップに伴う方法の流れを示す代表的構成図を示す。 本開示の一実施形態による、第2水準の推論のステップに伴う方法の流れを示す代表的構成図を示す。 本開示の一実施形態による、図1のクラウド−エッジトポロジのエッジ上に分類モデルを導入すること、およびそれに続く推論を表す代表的構成図を示す。 本開示の一実施形態による、時空間画像の変化を自動推論するためのコンピュータ実装方法を示す代表的流れ図である。
本明細書のどの構成図も、本主題の原理を具体化する例示的システムの概念図を表すことを、当業者は認識されたい。同様に、どのフローチャート、流れ図、状態遷移図、擬似コードなども、コンピュータ可読媒体の形で実質的に表現されてもよいので、コンピューティング機器またはプロセッサにより、そのようなコンピューティング機器またはプロセッサが明示的に示されても、示されなくても、実行されてもよいさまざまな処理を表すことを認識されよう。
添付図面を参照して、代表的実施形態について説明する。図では、参照番号の1つまたは複数の左端の数字は、参照番号が最初に出現する図を識別する。好都合なときはいつでも、同じまたは類似する部分を指すために、図面全体を通して同じ参照番号を使用する。開示する原理の例および特徴について本明細書で説明するが、開示する実施形態の精神および範囲を逸脱することなく、修正形態、適応形態、および他の実装形態が可能である。以下の詳細な説明は、ただ単に代表的であると考えられ、真の範囲および精神は、以下の特許請求の範囲により示されることが意図される。
本開示は、特定の状況に関して相関関係がある画像を解析し、適切な推論を導出するエンド・ツー・エンド分散フレームワークを提供する。状況は、農業、交通、安全監視、家畜類監視、構造物の健全性の監視などに関係してもよい。本明細書では以後、農業の状況を参照して説明するが、本明細書で以後説明するシステムおよび方法は、本開示の精神を逸脱することなく、任意のそのような状況に適用されてもよいことが理解されてもよい。
本開示に関連して、表現「相関関係がある画像」は、状況から言って関係がある画像を指す。さらにまた、本明細書で以後参照する表現「時空間画像」は、所与の時間にわたり特定の空間内で収集した画像を指す。本開示に関連して、表現「画像」は、今までどおり、直接得た画像、またはビデオから抽出した画像を指すことが留意されてもよい。
深層畳込みニューラルネットワーク(CNN)は、管理された分類を可能にするというよりも、ロバストな特徴を提供することが証明されている。しかしながら、人間が介在することによりタグを付けられた、状況特有のデータの大規模データベースが必要である。分類のために提供される画像が、制御された環境で取り込まれ、かつ分類のために使用するモデルが、なかったならば管理された分類が可能ではない場合がある特有のデータでトレーニングされることもまた絶対に必要である。データを収集するために、接続された機器をリアルタイムで監視することが基本となる。そのように収集されたリアル・タイム・データは、精密農業のような適用分野に関して非常に貴重な洞察を有する。本開示のシステムおよび方法は、情報源で所与の状況に関して画像の形で収集したデータにインテリジェントにタグを付けることを容易にして、拡張可能な手法で推論できるようにし、拡張性は、本開示のシステムおよび方法が取り扱うことができる画像の数および可能な分類階層だけではなく、取り扱ってもよい画像の可能なクラスにも関連がある。異なるカメラによって取り込まれ、制御されていない条件で取得した画像のロバストな特徴計算で直面する難題もまた、対処される。本開示は、管理されていないカテゴリ分類と管理されたカテゴリ分類の、ある種の組合せにより、時空間画像の変化を自動的に推論するのを容易にする。本開示のシステムおよび方法はまた、接続性のない場合に、エッジ上で得た画像のリアルタイム推論を可能にする。
次に、類似する参照文字が一貫して図全体を通して、対応する特徴を示す図面を参照すると、より詳細には図1〜図7を参照すると、好ましい実施形態が示されており、これらの実施形態について、以下の代表的なシステムおよび方法に関連して説明する。
図1は、当技術分野で公知のような、クラウド−エッジトポロジ100の代表的図式表現を示し、図2は、本開示の一実施形態による、人を誤解させる信号中の誤りを検出し、誤りの重大度を算出するためのシステム200の機能モジュールを伴う代表的構成図を示す。一実施形態では、システム200は、1つまたは複数のコンピュータ上に常駐することができ、1つもしくは複数のプロセッサ(図示せず)、通信インタフェースもしくは入出力(input/output、I/O)インタフェース(図示せず)、およびメモリまたは1つもしくは複数のプロセッサに動作可能に結合した1つもしくは複数の内部データ記憶装置(図示せず)を含むことができる。1つまたは複数の内部データ記憶装置を、本開示に関連してメモリまたはデータベースと交換可能に呼ぶ場合がある。ハードウェアプロセッサである1つまたは複数のプロセッサ104を、1つまたは複数のマイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、DSP(digital signal processor)、中央処理装置、状態機械、グラフィックスコントローラ、論理回路、および/または動作命令に基づき信号を操作する任意の機器として実装することができる。他の能力の中でも、1つまたは複数のプロセッサは、代表的流れ図の形で図7に示す、本開示の方法300のステップを実行するためにメモリ器に記憶されたコンピュータ可読命令をフェッチし、実行するように構成される。
一実施形態では、システム200を、ラップトップコンピュータ、デスクトップコンピュータ、ノートブック、ワークステーション、メインフレームコンピュータ、サーバ、ネットワークサーバ、クラウド、ハンドヘルド機器などのような、さまざまなコンピューティングシステムを伴って実装することができる。クライアント120を構成するコンピューティングシステムは、任意のタイプのネットワーク110を介して、サーバ130を構成するコンピューティングシステムと通信状態にある。I/Oインタフェースは、さまざまなソフトウェアインタフェースおよびハードウェアインタフェースを、たとえば、ウェブインタフェース、グラフィカル・ユーザ・インタフェースなどを含むことができ、有線ネットワーク、たとえばLAN、ケーブルなど、およびWLAN、携帯電話、または衛星などの無線ネットワークを含む、多種多様のネットワーク110およびプロトコルタイプの範囲内で多重通信を容易にすることができる。一実施形態では、I/Oインタフェースは、いくつかの機器を互いに、または別のサーバに接続するための、1つまたは複数のポートを含むことができる。メモリは、たとえば、スタティック・ランダム・アクセス・メモリ(static random access memory、SRAM)およびダイナミック・ランダム・アクセス・メモリ(dynamic random access memory、DRAM)などの揮発性メモリ、ならびに/または読出し専用メモリ(read only memory、ROM)、消去可能プログラム可能ROM、フラッシュメモリ、ハードディスク、光ディスク、および磁気テープなどの不揮発性メモリを含む、当技術分野で公知の任意のコンピュータ可読媒体を含んでもよい。一実施形態では、メモリは、プログラムコードを実際に実行する間に採用されるローカルメモリ、大容量記憶領域、および実行中に大容量記憶領域からコードを取り出さなければならない回数を低減するために少なくともいくつかのプログラムコードの一時的記憶領域を提供するキャッシュメモリを含むことができる。一実施形態では、システム200のさまざまな機能モジュール(図2を参照のこと)をメモリに記憶することができる。
図7は、本開示の一実施形態による、時空間画像の変化を自動的に推論するためのコンピュータ実装方法300を示す代表的流れ図である。次に、図2のシステム200の構成要素および図3〜図6に提示した詳細を参照して、方法300のステップについて詳細に説明し、ここで図3は、本開示の一実施形態による、図2のシステムのクラウドエンドに実装された機能モジュールおよびそれらの相互接続の代表的構成図を示し、図4は、本開示の一実施形態による、第1水準の推論を遂行するステップに伴う方法の流れを示す代表的構成図を示し、図5は、本開示の一実施形態による、第1水準の推論のステップに伴う方法の流れを示す代表的構成図を示し、図6は、本開示の一実施形態による、図1のクラウド−エッジトポロジのエッジ上に分類モデルを導入すること、およびそれに続く推論を表す代表的構成図を示す。処理ステップ、方法ステップ、技法などについて連続した順序で説明する場合があるが、そのような処理、方法、および技法を、代わりの順序で作動するように構成してもよい。換言すれば、説明する場合があるどのシーケンスまたは順序も、ステップをその順序で遂行するという要件を示すわけでは必ずしもない。本明細書で説明する処理のステップを、任意の実際的な順序で遂行してもよい。さらに、いくつかのステップを同時に遂行してもよい。
本開示の一実施形態では、図2に示す本開示のシステム200は、図1に示すように、クラウド−エッジトポロジ100で構成され、そこでは、クラウド−エッジトポロジ100のエッジエンドを、一般に参照番号120で表し、クラウド−エッジトポロジ100のクラウドエンドを、一般に参照番号130で表し、ネットワーク110は、クラウドエンド130にエッジエンド120を接続する。一実施形態では、クラウド−エッジトポロジ100は、IoT実装であってもよい。対象となっている状況にそれぞれ関係し、かつ一般にエッジ1、…、エッジnとして表される1つまたは複数のエッジエンド機器は、エッジエンド120に構成されてもよい。同様に、一般にシステム1、…、システムnとして表される1つまたは複数のクラウドエンド機器は、クラウドエンド130に構成されてもよい。システム200を構成する代表的機能モジュールは、IoTとクラウドエンド130の間の通信ギャップをブリッジするIoTゲートウェイの役割を果たしてもよい入力モジュール120aを含んでもよい。クラスタ化モジュール(130e)、分類モジュール(130f)、事前にトレーニングされたタグ付け器モデル(130a)、およびデータベース(130g)を、クラウドエンド機器として実装してもよい。前処理モジュール(120b)を、クラウドエンド機器としてだけではなくエッジエンド機器としても実装してもよい。特徴抽出器(130c)および分類モデル(130d)は、クラウドエンド機器として実装されてもよく、その場合、エッジエンドがクラウドエンド機器の現行バージョンで更新されるように、エッジエンド(120c、120d)上に導入される。
図示する分散フレームワークにより、IoT実装のエッジエンド120で受信した冗長な画像の効果的学習およびフィルタ処理、ならびにシステムの効率改善が可能になる。エッジエンドで実行することは、フレームワークの一部であるので、接続性がない場合にエッジエンド120上で、受信画像のリアルタイム推論を得ることができ、データ接続性が利用可能なときはいつでも、クラウドエンド130に画像をアップロードすることができる。リアルタイム推論を容易にする他に、分散フレームワークはまた、クラウドエンド130へのトラフィックを調整する。
分散フレームワークは、リアルタイム推論およびトラフィック管理のための好ましいフレームワークであるが、本開示の機能モジュールを、単一の処理システムに一体化してもよいことを当業者は理解してもよい。
したがって、本開示の一実施形態では、入力モジュール120aは、ステップ302で、1つまたは複数の時間間隔で、対象となっている状況に関係する、たとえば農業の状況に関係する複数の画像を受信するように構成されてもよい。エッジエンド120で受信した画像を、空間情報および時間情報のうち少なくとも一方と相関させ、関連づける。対象となっている状況に関連する現場に設置されたカメラセンサから画像を取り込んでもよい。また、参加型検知適用の一部として、画像を得てもよい。一実施形態では、少なくともいくつかのメタデータを受信画像と関連づけてもよい。画像は、大部分は画像に関する支援情報が不完全である可能性が高い、複数のユーザ/情報源から得られるので、画像メタデータは、構造化されていない、正しくない、または不十分な場合がある。一実施形態では、エッジエンド120に知能がない場合、最初の限定された反復回数の間、エキスパートが介在することにより、メタデータを関連づけてもよい。一実施形態では、人間またはエキスパートシステムによるエキスパートが介在する間、インタフェースまたはコンソールを提示してもよい。
一実施形態では、入力モジュールは、ステップ304で、1つまたは複数の時間間隔で、空間情報または時間情報、および適応しきい値に基づき、受信画像の少なくともサブセットを伝送するようにさらに構成されてもよい。第1の反復では、初期化の一部として、エッジエンド120に知能がない場合、受信画像のすべてをクラウドエンド130に伝送してもよい。その後、システム200が自己学習し、クラウドエンド130でデータベース130gを強化するので、ステップ304はまた、本明細書で、後で説明するように、受信画像のサブセットをインテリジェントに識別し、伝送するステップを備えてもよい。
一実施形態では、ステップ314で、受信画像および関連メタデータをクラウドエンド130に伝送した後、データベース130gに記憶してもよい。
本開示の一実施形態では、クラウドエンド130上の特徴抽出器(130c)は、ステップ306で、ニューラル・ネットワーク・モデルを通して受信画像を前方へ通過させることにより、受信画像から特徴を抽出するように構成されてもよい。本開示は、ニューラル・ネットワーク・モデルを使用して抽出した高水準のロバストな特徴を活用するのを容易にする。しかしながら、本開示によれば、ニューラル・ネットワーク・モデルが、状況特有のデータの大規模データベースで事前にトレーニングされる従来のシステムと異なり、ニューラル・ネットワーク・モデルは、変化した状況に関係する複数の画像のデータセットで事前にトレーニングされ、その結果、特徴を抽出するステップ306は、対象となっている範囲に非依存性になる。さらにまた、ニューラル・ネットワーク・モデルは、特有のデータセットでトレーニングされないので、システム200は、異なるカメラによって取り込まれたすべてのタイプの画像、または遮蔽および角度変化を伴う、異なる輝度、背景のような制御されていない条件で取得した画像を解析することができる。
一実施形態によれば、特徴抽出を備えるステップ306の前に、クラウドエンドで前処理モジュール(130b)により受信画像の前処理を行ってもよい。一実施形態では、前処理は、(i)正規化、主成分分析(PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方へニューラル・ネットワーク・モデルを通過させるために受信画像を適合させる第2水準の前処理のうち少なくとも一方を遂行するステップを伴ってもよい。
一実施形態では、特徴抽出器130cは、ニューラル・ネットワーク・モデルにより抽出した特徴に形態学的特徴および色に関係がある特徴などの追加の特徴を付加して、マスタ特徴セットを導出するようにさらに構成されてもよい。一実施形態では、次元削減法を使用して、マスタ特徴セットをさらにまた圧縮してもよい。
本開示によれば、受信画像および関連特性の段階を識別することができるようにする、第1水準の粗い分類を伴う階層モードの分類を遂行する。識別した段階の各々の範囲内で、第2水準のより細かな分類事象を識別してもよい。一実施形態では、分類を複数の水準にネスティングしてもよく、たとえば、関係がある数多くの画像から農産物の外観に、特有の異常を見いだし、それにより、本開示のシステムおよび方法の推論能力の精度の水準を変えることが可能になる。クラスまたはカテゴリごとのカスケード式画像分類は、すべてのカテゴリを一緒にした単一水準の分類と比較して、よりよい正確さを与えることが留意されてもよい。
一実施形態では、K平均法(K−means、KM)、ミニバッチK平均法(mini batch K−means、MBKM)、ミーンシフト(mean shift、MS)、アフィニティ伝播法(affinity propagation、AP)、DBSCAN、凝集クラスタ化(Agglomerative Clustering、AC)、およびBIRCHからなるグループから選択した、公知のクラスタ化法を、クラスタ化のために採用してもよい。しかしながら、公知の方法は、本開示によれば、変化した状況でニューラル・ネットワーク・モデルがトレーニングされるので、当技術分野で公知のように、十分なクラスタ化を提供しない場合があり、非常に大きな次元の抽出特徴をもたらす場合があり、クラスタ化が非効率になる。また、大きな次元の抽出特徴により、類似性を検出するために直線距離測度を使用する必要がなくなる。したがって、本開示によれば、本明細書で以下に説明するように、球面距離測度を採用する。
したがって、本開示の一実施形態では、クラスタ化モジュール130eは、ステップ308で、本方法による抽出特徴を使用して、受信画像を1つまたは複数のクラスにクラスタ化することにより第1水準の推論を遂行するように構成されてもよく、そこでは、最初に、ステップ308aで、シルエット係数を使用して、クラスの最適な数を決定する。次いで、ステップ308bで、受信画像間で検出した類似性に基づき、1つまたは複数のクラスを識別する。一実施形態では、類似性検出は、3つのステップ308b−1、308b−2、および308b−3のうち少なくとも1つを遂行するステップを伴う。初期化の一部として、第1の反復で、ステップ308b−1で、受信画像の各々と受信画像内の他のあらゆる画像の球面距離により表した第1の距離測度に基づき、類似性検出を算出する。その後の反復では、1つまたは複数の新しい画像を受信したとき、ステップ308b−2およびステップ308b−3のうち少なくとも一方を遂行してもよく、そこでは、ステップ308b−2で、最大事後確率(MAP)に基づきクラス分布を使用してクラスに属する受信画像内の各画像の尤度を算出し、ステップ308b−3で、受信画像の各々とステップ308b−1で識別した1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出する。ステップ308b−3で第2の距離測度を算出することにより、各画像を個々に取り扱う必要がなくなり、1つまたは複数のクラスの重心だけが取り扱われ、それにより、処理時間が低減され、本方法が有効になる。本開示によれば、1つまたは複数のクラスの数は、ステップ308aで決定した最適な数に等しい。一実施形態では、クラスタ化モジュール130eは、本明細書で上述のネスティングされた水準のクラスタ化の一部として、1つまたは複数のクラスのうち1つまたは複数の内部で第1水準の推論を遂行するように構成されてもよい。たとえば、それぞれクラスにクラスタ化された、特定の農産物の異なる生育段階の画像、たとえば、実生、茎の伸長、栄養期、発芽、開花、果実、熟成、しおれ、乾燥などの画像を、病気/害虫の識別のような事象に関してさらに分類することができる。クラスタ化のステップ308はまた、受信画像の抽出特徴とステップ308b−1で識別した1つまたは複数のクラスに関連する特徴との間に類似性がない場合、新しいクラスにフラグを付けてもよい。
本開示によれば、ステップ308で第1水準の推論を遂行すると、ステップ308cで、正規化相互情報量(NMI)スコア、ランド指数、および純度測度のうち1つまたは複数を使用することにより、識別した1つまたは複数のクラスに関連する品質を検証する。有効性検査に不合格になる場合、1つまたは複数のクラスを再クラスタ化してもよい。また、1つまたは複数の新しい画像を受信し、かつステップ308b−2で算出した尤度も、ステップ308b−3で算出した第2の距離尺度も、クラスタ化を容易にするための明確な兆候を提供しないとき、再クラスタ化を開始してもよい。
管理された分類のためにニューラル・ネットワーク・モデルの使用を伴う従来の取り組み方法とは対照的に、本開示による、クラスタ化の管理されない取り組み方法は、典型的には人間の介在に依存する、受信画像の厄介な画像ラベル付けの必要性をなくする。
本開示の一実施形態では、ステップ310で、対象となっている状況に基づき1つまたは複数のクラスにタグを付けるために、人間またはエキスパートシステムによるエキスパートが介在するためのインタフェースまたはコンソールを提示してもよい。この介在は、初期化の間だけ必要となる場合があることが留意されてもよい。受信画像に関連するメタデータを、関連タグに基づき更新してもよい。
本開示の一実施形態では、分類モジュール130fは、ステップ312で、1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより、第2水準の推論を遂行するように構成されてもよい。より細かく分類するために、ステップ312aで、対象となっている状況に関係する、複数の事前にトレーニングされたタグ付け器モデル130aを得る。事前にトレーニングされたタグ付け器モデル130aを、対象となっている状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスと関連づけて、上記で説明したクラスタ化するステップ308の前に抽出した同じマスタ特徴セットによりトレーニングする。さらにまた、タグ付け器モデル130aの事前トレーニングは、限定された1組の状況特有の画像を使用するステップを伴い、そこでは、1組の画像は、入力モジュール120aで受信した画像の一部であってもよい。事前にトレーニングされたタグ付け器モデル130aは、ステップ312bで、第1水準の分類で識別した1つまたは複数のクラスを1つまたは複数のサブクラスへ分類するのを容易にする。一実施形態では、事前に規定されたしきい値以下の信頼水準に関連する画像を使用して、ステップ312dで、事前にトレーニングされたどのタグ付け器モデル130aを再トレーニングしてもよいかに基づき、ステップ312cで、分類された1つまたは複数のサブクラスに関する信頼水準を計算してもよい。再度トレーニングされたタグ付け器モデルは、分類モデル130dを提示する。再トレーニングおよび関連する自己学習により、システム200は、最初の反復だけで行われる最小の人間介在でインテリジェントになり、コンピュータビジョン要件に適応可能になる。本開示の一実施形態では、ステップ310で、人間またはエキスパートシステムによるエキスパートが介在するために提示されたインタフェースまたはコンソールは、対象となっている状況に基づき1つまたは複数のクラスに関連する1つまたは複数のサブクラスにタグを付けるステップを伴ってもよい。数回の反復および再トレーニング後、エキスパート検証およびタグ付けは必要ない場合があり、受信画像は、システム200により自動的にタグが付けられてもよく、関連メタデータはまた、データベース130gで更新されてもよい。その結果、複数の事前にトレーニングされたタグ付け器モデル130aは、対象となっている状況の全分類法を集合的に取り込むことができることが留意されてもよい。
一実施形態では、分類モジュール130fは、ステップ312dで、事前にトレーニングされたタグ付け器モデル130aを再度トレーニングする前に、得たメタデータを用いて、事前に規定されたしきい値以下の信頼水準に関連する受信データを評価して、エキスパートタグ付けに基づき、再トレーニングのための妥当な理由を保証するようにさらに構成されてもよい。
一実施形態では、分類モジュール130fは、ステップ312eで、1つまたは複数のクラス、その中の1つまたは複数のサブクラス、およびそれらの相互関係に基づき、知識オントロジを作成するようにさらに構成されてもよい。受信画像から適応的に学習することにより受信画像から知識オントロジを作成することにより、本開示のシステムおよび方法は、新しい受信画像を分類することが可能になるだけではなく、特定の空間および/時間にわたり画像内の対象物の特性変化も識別することが可能になる。識別した特性の品質は、画像に関して利用可能なメタデータの水準に依存してもよい。事前にトレーニングされたタグ付け器モデル130aの自己学習および再トレーニングは、各反復に伴い知能を追加し、かつ人間のエキスパートへの依存性をなくすことにより、知識モデルを強化するのに寄与することが留意されてもよい。対象となっている農業の状況に関しては、包括的知識オントロジの形で利用可能な、さまざまな農作物、それらの生育段階、および健康状態に関する分類モデルは、本開示のシステムおよび方法を使用して取り込んだ画像内の農作物を解釈するのに役立つ。たとえば、農業経営者が、移動体アプリケーションによって、病気にかかった農作物の画像を取り込む場合、本開示のシステムは、植物の生育段階、およびその段階の範囲内で病気の影響を受けた農作物を検出することができる。これはさらにまた、農作物を保護するために実装することができる、必要な救済策を示唆するのに役立つ可能性がある。さらに、カメラセンサを使用して農作物を監視している間、所与の生育条件にある植物の生育周期および健康もまた学習することができる。これは、特定の種類の農作物がどのように生育しているか、およびどういう状態にあるかに関して農業経営者と共有することができる知識に加えられる。
一実施形態では、1つまたは複数のクラス、1つまたは複数のサブクラス、複数の分類モデル、および知識オントロジを、ステップ314の一部として、受信画像および関連メタデータが記憶されたデータベース130gに記憶してもよい。
分散フレームワークの一部として、システム200をクラウド−エッジトポロジで実装したとき、クラウドエンド130上の特徴抽出器130cおよび分類モデル130dを、特徴抽出器120cおよび分類モデル120dとしてエッジエンドに導入して、エッジエンド120とクラウドエンド130の間の接続性に依存することなく、受信画像に関してエッジ上でリアルタイム推論するために、これらの機能モジュールの現行バージョンがエッジエンド120で利用可能であることを確実にする。
エッジエンド120で更新された機能モジュールは、入力モジュール120aに知能を提供して、受信画像のサブセットをインテリジェントに識別し、その後の反復でクラウドエンド130に伝送することを可能にする。インテリジェントな識別は最初に、受信画像に関連するエントロピー値に基づき、受信画像が有効かどうかを判断するステップを伴う。次いで、有効な受信画像と、対象となっている状況に基づく適応しきい値である所定の数の先行画像を比較して、先行画像に関連する1つまたは複数のサブクラスに受信画像が適合するかどうかを判断する。
従来、異なる分類方法が公知であるが、本開示のシステムおよび方法は、ラベル付けおよびエキスパートの介在が最小であるが、より高い正確さでデータベース内の画像を分類し、タグを付けるのを容易にする。タグを付けるために人間のエキスパートの介在が起動されるのは、最初の反復だけであってもよく、それも限定された1組の画像に対してであり、その後、事前にトレーニングされたタグ付け器モデルの自己学習および再トレーニングにより、本開示のシステムおよび方法に適応能力が提供される。本開示のシステムおよび方法は、画像を自動的に取り込み、階層的手法で画像を分類し、管理されていないクラスタ化と管理された分類の、ある種の組合せを使用して自己学習および再トレーニングして、多数の画像をカテゴリに分類し、適切にラベルを付けるのを容易にし、それにより、時空間画像の自動推論のための正確で拡張性のある効率的システムおよび方法を提供する。
評価結果
「CNNを使用する分類」に広範囲に関係がある既存の方法を参照して、以下の実験は、CNNから抽出した特徴を使用する、本開示の階層的クラスタに基づく分類方法が正確に機能することを論証する。
比較研究のために使用した画像データセットは、10のクラスからなる。
1. 柑橘類果実−褐色の斑点
2. 柑橘類果実−白色の斑点
3. 柑橘類の葉−黄変
4. 柑橘類の樹幹−樹脂病
5. ブドウの葉−健康
6. ブドウの葉−黄変
7. 茶葉−黒い斑点
8. 茶葉−褐色の斑点
9. 茶葉−健康
10. 茶葉−害虫が寄生した
比較研究を遂行するために使用したデータセットは、対象となっている方法すべてについて同じである。
本開示の方法は、従来技術に比べて、事前にトレーニングされたCNNから得た特徴を使用する、画像のクラスタ化(管理されない分類)を伴う。したがって、CNNを使用する管理された分類手法と本開示の方法の間の結果の比較を以下に提供する。
方法1(従来技術):画像を所定の数のクラス(可能なクラスすべて、単一水準の分類)に分類するために、状況に関係する、ラベルの付いた画像セットを用いてCNNをトレーニングする。
方法2(単一水準の分類を用いた、本開示の修正版):事前にトレーニングされた(状況に非依存性の)CNNから特徴を抽出し、分類器を使用して、所定の数のサブクラスすべて(可能なクラスすべて、単一水準の分類)で画像を分類する。
方法3(本開示):事前にトレーニングされた(状況に非依存性の)CNNから特徴を抽出し、画像を広範なクラスにクラスタ化し、各クラスタをそのサブクラスにさらに分類する。
本開示のシステム/方法の第1の反復で使用したデータの量は、243の画像であり、そこから、218の画像を使用して、分類システムをトレーニングおよび検証し、25の画像を使用して、本開示のシステム/方法を試験する。
結果
方法1(従来技術):上述のデータセットでCNNモデルをトレーニングした。
分類の正確さ:52%
混同行列:
ラベル:褐変柑橘類、柑橘類の葉、病気にかかったブドウ、健康なブドウ、茶葉の黒い斑点、茶葉の褐色の斑点、健康な茶葉、茶葉の害虫、樹幹の樹脂病、白い柑橘類。
分類レポート:
方法1のCNN分類器は、データの量が過剰適合をもたらすことがほとんどないので、低い正確さを示す。
方法2(単一水準の分類を用いた、本開示の修正版):CNNから抽出した特徴について、分類器をトレーニングして、データを10の公知のクラスに分類した。
分類の正確さ:80%
混同行列:
ラベル:褐変柑橘類、柑橘類の葉、病気にかかったブドウ、健康なブドウ、茶葉の黒い斑点、茶葉の褐色の斑点、健康な茶葉、茶葉の害虫、樹幹の樹脂病、白い柑橘類。
これらの結果から、異なる病気/健康状態を有する同じ植物の葉の間に誤分類が存在することが留意されてもよい。単一水準の分類は、同じ種類の葉/果実のサブクラス間の軽微な差を区別することができないと推論してもよい。
方法3(本開示)
分類の正確さ:93.75%
混同行列:
分類レポート:
本開示の方法で識別したサブクラスは、対応する混同行列から分かるように、上記の方法1および方法2を使用して間違って分類された茶葉のクラスタからの画像に対して、より細かな分類を提供する。
上記の方法1および方法2では、よりよい正確さに必要なデータの量はより多く、指摘された誤分類は、クラス間の高い類似性による。さらに、既存の10のクラスと異なる新しいクラス1つだけが導入された場合でさえ、分類器を再度トレーニングする必要がある。また、クラスすべてを一緒に分類している間、いくつかのクラス間の高い類似性(たとえば、同じ農作物の葉の病状)のために、分類の正確さは低下する。
本開示の方法3では、最初に利用可能なデータがより少ないときでさえ、正確さは比較的よい。クラスへの粗い第1水準のクラスタ化の形で複数の水準の分類を遂行し、サブクラスへのさらにより細かな分類を遂行することにより、得られる正確さが改善される。さらに、クラスタ方式の分類器は互いに依存しないので、新しいクラスを導入しなければならない場合、当技術分野で公知の方法1および方法2と異なり、分類システム全体を再度トレーニングする代わりに、そのクラスタのサブクラスに属する画像の分類器だけをトレーニングする必要がある。
記載した説明は、当業者が実施形態を作成し、使用することができるようにする、本明細書の主題について説明している。主題の実施形態の範囲は、特許請求の範囲により規定され、当業者が思いつく他の修正形態を含んでもよい。そのような他の修正形態は、特許請求の範囲の文言と異ならない類似の要素を有する場合、または特許請求の範囲の文言とわずかな差を有する均等の要素を含む場合、特許請求の範囲に入ることが意図される。
本明細書で規定する主題の実施形態の範囲は、当業者が思いつく他の修正形態を含んでもよい。そのような他の修正形態は、特許請求の範囲の文言と異ならない類似の要素を有する場合、または特許請求の範囲の文言とわずかな差を有する均等の要素を含む場合、特許請求の範囲に入ることが意図される。
保護の範囲は、そのようなプログラムに、さらには中にメッセージを有するコンピュータ可読手段に拡張され、そのようなコンピュータ可読記憶手段は、プログラムがサーバもしくは移動体機器、または任意の適切なプログラム可能機器上で走るとき、方法の1つまたは複数のステップを実装するためのプログラムコード手段を含有することを理解されたい。ハードウェア機器は、たとえば、サーバもしくはパーソナルコンピュータなど、またはそれらの任意の組合せのような任意の種類のコンピュータを含む、プログラムすることができる任意の種類の機器とすることができる。機器はまた、たとえば、特定用途向け集積回路(application−specific integrated circuit、ASIC)、フィールド・プログラマブル・ゲート・アレイ(field−programmable gate array、FPGA)などのハードウェア手段、またはASICおよびFPGAなどのハードウェアとソフトウェアの組合せ、または少なくとも1つのマイクロプロセッサおよび中にソフトウェアモジュールが配置されたメモリとすることができる手段を含んでもよい。したがって、手段は、ハードウェア手段とソフトウェア手段の両方を含むことができる。本明細書で説明する方法を、ハードウェアおよびソフトウェアの形で実装することができる。機器はまた、ソフトウェア手段を含んでもよい。あるいは、たとえば複数のCPUを使用して、異なるハードウェア機器上に実施形態を実装してもよい。
本明細書の実施形態は、ハードウェア要素およびソフトウェア要素を備えることができる。ソフトウェアの形で実装された実施形態は、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むが、それらに限定されない。本明細書で説明するさまざまなモジュールが遂行する機能を、他のモジュール、または他のモジュールの組合せで実装してもよい。本明細書が意図するところでは、コンピュータ使用可能媒体またはコンピュータ可読媒体は、命令実行システム、装置、もしくは機器により、またはそれらと共に使用するためのプログラムを備える、記憶する、伝達する、伝播する、または支援することができる任意の装置とすることができる。
さらに、処理ステップ、方法ステップ、技法などについて連続した順序で説明する場合があるが、そのような処理、方法、および技法を、代わりの順序で作動するように構成してもよい。換言すれば、説明する場合があるステップのシーケンスまたは順序は、ステップをその順序で遂行するという要件を示すわけでは必ずしもない。本明細書で説明する処理のステップを、任意の実際的な順序で遂行してもよい。さらに、いくつかのステップを同時に遂行してもよい。
例示するステップは、示されている代表的実施形態を説明するために提示され、進展している技術開発により、特定の機能を遂行する手法が変わることを認識されたい。これらの例は、例示のために本明細書に提示され、限定するために提示されているわけではない。さらに、説明の便宜上、機能構成要素の境界について、本明細書で任意に規定してきた。指定された機能およびそれらの関係が適切に遂行される限り、代わりの境界を規定することができる。代替形態(本明細書で説明する実施形態の均等形態、拡張形態、変形形態、偏向形態などを含む)は、本明細書に包含される教示に基づき、当業者に明らかであろう。そのような代替形態は、開示する実施形態の範囲および精神に入る。また、用語「comprising(備える)」、「having(有する)」、「containing(含有する)」、および「including(含む)」、ならびに他の類似の形態は、意味が同等であることが意図され、これらの用語の任意の1つに続く1つまたは複数の項目が、そのような1つまたは複数の項目の網羅的な列挙であることを意味することも、列挙した1つまたは複数の項目だけに限定されることを意味することもないという点で、オープンエンド形式であることが意図される。また、本明細書および添付の特許請求の範囲で使用するとき、単数形「a」、「an」、および「the」は、前後関係が他の方法で明確に規定しない限り、複数の参照を含むことを留意しなければならない。
本開示および例はただ単に代表的であると考えられ、かつ開示する実施形態の真の範囲および精神は、以下の特許請求の範囲により示されることが意図される。

Claims (20)

  1. プロセッサ実装方法(300)であって、
    1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信するステップ(302)と、
    前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別し、伝送するステップ(304)と、
    変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出するステップ(306)と、
    前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行するステップ(308)と、
    対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づけるステップ(310)と
    を備え、前記クラスタ化するステップは、
    シルエット(Silhouette)係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップ(308a)と、
    前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ(308b−1)、
    最大事後確率(Maximum A Posteriori probability、MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ(308b−2)、および
    前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ(308b−3)
    のうち少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップ(308b)であって、
    前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
    正規化相互情報量(Normalized Mutual Information、NMI)スコア、ランド(Rand)指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップ(308c)と
    を備えるプロセッサ実装方法(300)。
  2. 受信する前記ステップは、前記受信画像に関連する少なくともいくつかのメタデータを得るステップと、前記関連タグに基づき、前記受信画像に関連する前記メタデータを更新するステップとを備える、請求項1に記載のプロセッサ実装方法。
  3. 前記受信画像から前記特徴を抽出する前記ステップの前に、(i)正規化、主成分分析(Principal Components Analysis、PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより前記受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方の前記ニューラル・ネットワーク・モデルに渡すために前記受信画像を適合させる第2水準の前処理のうち少なくとも一方を備える前処理のステップを行う、請求項1に記載のプロセッサ実装方法。
  4. 前記受信画像から前記特徴を抽出する前記ステップは、前記ニューラル・ネットワーク・モデルが抽出した前記特徴に形態学的特徴および色に関係がある特徴を含む追加特徴を付加して、マスタ特徴セットを導出するステップ、および次元削減法を使用して、前記マスタ特徴セットを圧縮するステップのうち1つまたは複数を備える、請求項2に記載のプロセッサ実装方法。
  5. 前記第1水準の推論を遂行する前記ステップは、前記1つまたは複数のクラスのうち1つまたは複数の内部で遂行される、請求項1に記載のプロセッサ実装方法。
  6. 前記1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより第2水準の推論を遂行するステップ(312)をさらに備え、分類する前記ステップは、
    対象となっている前記状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスに関連する、前記マスタ特徴セットによりトレーニングされた複数の事前にトレーニングされたタグ付け器モデルを得るステップ(312a)と、
    前記複数の事前にトレーニングされたタグ付け器モデルに基づき、前記第1水準の推論から得た前記1つまたは複数のクラスを前記1つまたは複数のサブクラスに分類するステップ(312b)と、
    前記分類した1つまたは複数のサブクラスに関する信頼水準を算出するステップ(312c)と、
    事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を用いて前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングして、複数の分類モデルを得るステップ(312d)と、
    前記1つまたは複数のクラス、その中の前記1つまたは複数のサブクラス、およびそれらの相互関係に基づき、前記分類モデルの知識オントロジを作成するステップ(312e)と
    を備える、請求項4に記載のプロセッサ実装方法。
  7. 前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングする前記ステップの前に、前記関連メタデータを用いて、前記事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を評価するステップを行う、請求項6に記載のプロセッサ実装方法。
  8. 前記受信画像およびそれに関連する前記メタデータ、前記1つまたは複数のクラス、前記1つまたは複数のサブクラス、前記複数の分類モデル、ならびに前記知識オントロジを記憶するステップ(314)をさらに備える、請求項7に記載のプロセッサ実装方法。
  9. 前記受信画像の前記少なくともサブセットを識別し、伝送する前記ステップは、
    前記受信画像に関連するエントロピー値に基づき、前記受信画像が有効であるかどうかを判断するステップ、および
    前記受信画像と、対象となっている前記状況に基づく前記適応しきい値である所定の数の先行画像を比較して、前記受信画像が前記先行画像に関連する前記1つまたは複数のサブクラスに適合するかどうかを判断するステップ
    のうち1つまたは複数を遂行するステップを備える、請求項8に記載のプロセッサ実装方法。
  10. システム(200)であって、
    1つまたは複数のハードウェアプロセッサに動作可能に結合し、前記1つまたは複数のハードウェアプロセッサが実行するように構成された命令を記憶するための、1つまたは複数の内部データ記憶装置を備え、前記命令は、
    入力モジュール(120a)であって、
    1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信し、
    前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別し、伝送する
    ように構成された入力モジュール(120a)と、
    変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出するように構成された特徴抽出器(120c、130c)と、
    前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行し、
    対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づける
    ように構成されたクラスタ化モジュール(130e)と
    に備わり、前記クラスタ化するステップは、
    シルエット係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップと、
    前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ、
    最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ、および
    前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ
    のうちの少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップであって、
    前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
    正規化相互情報量(NMI)スコア、ランド指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップと、
    を備えるシステム(200)。
  11. 前記入力モジュールは、前記受信画像に関連する少なくともいくつかのメタデータを得て、前記関連タグに基づき、前記受信画像に関連する前記メタデータを更新するようにさらに構成される、請求項10に記載のシステム。
  12. 前記特徴を抽出する前に、(i)正規化、主成分分析(PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより前記受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方へ前記ニューラル・ネットワーク・モデルを通過させるために前記受信画像を適合させる第2水準の前処理のうち少なくとも一方を遂行することにより、前記受信画像を前処理するように構成された前処理モジュール(120b、130b)をさらに備える、請求項11に記載のシステム。
  13. 前記特徴抽出器は、前記ニューラル・ネットワーク・モデルが抽出した特徴に形態学的特徴、および色に関係がある特徴を含む追加の特徴を付加して、マスタ特徴セットを導出し、かつ次元削減法を使用して、前記マスタ特徴セットを圧縮するようにさらに構成される、請求項12に記載のシステム。
  14. 前記クラスタ化モジュールは、前記1つまたは複数のクラスのうち1つまたは複数の内部で前記第1水準の推論を遂行するようにさらに構成される、請求項10に記載のシステム。
  15. 前記1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより、第2水準の推論を遂行するように構成された分類モジュール(130f)をさらに備え、分類する前記ステップは、
    対象となっている前記状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスに関連する、前記マスタ特徴セットによりトレーニングされた複数の事前にトレーニングされたタグ付け器モデル(130a)を得るステップと、
    前記複数の事前にトレーニングされたタグ付け器モデルに基づき、前記第1水準の推論から得た前記1つまたは複数のクラスを前記1つまたは複数のサブクラスに分類するステップと、
    前記分類された1つまたは複数のサブクラスに関する信頼水準を算出するステップと、
    事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を用いて前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングして、複数の分類モデル(120d、130d)を得るステップと、
    前記1つまたは複数のクラス、その中の前記1つまたは複数のサブクラス、およびそれらの相互関係に基づき、前記分類モデルの知識オントロジを作成するステップと
    を備える、請求項13に記載のシステム。
  16. 前記分類モデルは、前記事前にトレーニングされたタグ付け器モデルを再度トレーニングする前に、前記関連メタデータを用いて、前記事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を評価するようにさらに構成される、請求項15に記載のシステム。
  17. 前記受信画像およびそれに関連する前記メタデータ、前記1つまたは複数のクラス、前記1つまたは複数のサブクラス、前記複数の分類モデル、ならびに前記知識オントロジを記憶するように構成されたデータベース(130g)をさらに備える、請求項16に記載のシステム。
  18. 前記入力モジュールは、
    前記受信画像に関連するエントロピー値に基づき、前記受信画像が有効であるかどうかを判断するステップ、および
    前記受信画像と、対象となっている前記状況に基づく前記適応しきい値である所定の数の先行画像を比較して、前記受信画像が前記先行画像に関連する前記1つまたは複数のサブクラスに適合するかどうかを判断するステップ
    のうち1つまたは複数を遂行することにより、前記受信画像の少なくともサブセットを識別し、伝送するようにさらに構成される、請求項17に記載のシステム。
  19. 前記システムは、(i)IoTゲートウェイの役割を果たす前記入力モジュール(120a)を有するクラウド−エッジトポロジ(100)で構成され、(ii)前記クラスタ化モジュール(130e)、前記分類モジュール(130f)、前記事前にトレーニングされたタグ付け器モデル(130a)、および前記データベース(130g)は、クラウド(130)に基づく機器として実装され、(iii)前記前処理モジュール(120b)は、クラウドエンド機器として、ならびにエッジ(120)エンド機器としても実装され、(iv)前記特徴抽出器(120c、130c)および分類モデル(120d、130d)は、クラウドエンド機器として実装され、前記エッジエンドがその現行バージョンで更新されるように前記エッジエンド上に導入される、請求項18に記載のシステム。
  20. コンピュータプログラム製品であって、前記コンピュータプログラム製品内に具体化されたコンピュータ可読プログラムを有する非一時的コンピュータ可読媒体を備え、前記コンピュータ可読プログラムは、コンピューティング機器上で実行されたとき、前記コンピューティング機器に、
    1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信させ、
    前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別させ、伝送させ、
    変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出させ、
    前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行させ、
    前記コンピューティング機器に、対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づけさせ、
    前記クラスタ化は、
    シルエット係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップと、
    前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ、
    最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ、および
    前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ
    のうちの少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップであって、
    前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
    正規化相互情報量(NMI)スコア、ランド指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップと
    により遂行されるコンピュータプログラム製品。
JP2018172431A 2018-01-15 2018-09-14 時空間画像の変化を自動推論するためのシステムおよび方法 Active JP6935377B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201821001685 2018-01-15
IN201821001685 2018-01-15

Publications (2)

Publication Number Publication Date
JP2019125340A true JP2019125340A (ja) 2019-07-25
JP6935377B2 JP6935377B2 (ja) 2021-09-15

Family

ID=65629885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172431A Active JP6935377B2 (ja) 2018-01-15 2018-09-14 時空間画像の変化を自動推論するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10679330B2 (ja)
JP (1) JP6935377B2 (ja)
CN (1) CN110046631B (ja)
BR (1) BR102018068976A2 (ja)
CO (1) CO2018010023A1 (ja)
ZA (1) ZA201806145B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022549006A (ja) * 2019-09-24 2022-11-22 グーグル エルエルシー 距離に基づく学習信頼度モデル

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164015B2 (en) * 2018-05-08 2021-11-02 Ford Global Technologies, Llc Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors
US10635939B2 (en) * 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
AU2019315506A1 (en) * 2018-08-02 2021-03-11 Climate Llc Automatic prediction of yields and recommendation of seeding rates based on weather data
US10834017B2 (en) * 2018-11-11 2020-11-10 International Business Machines Corporation Cloud-driven hybrid data flow and collection
US11373063B2 (en) * 2018-12-10 2022-06-28 International Business Machines Corporation System and method for staged ensemble classification
US11030755B2 (en) 2019-05-13 2021-06-08 Cisco Technology, Inc. Multi-spatial scale analytics
CN110555857A (zh) * 2019-08-19 2019-12-10 浙江工业大学 一种语义边缘主导的高分遥感影像分割方法
US10878567B1 (en) * 2019-09-18 2020-12-29 Triage Technologies Inc. System to collect and identify skin conditions from images and expert knowledge
US11816147B2 (en) * 2019-11-14 2023-11-14 Adobe Inc. Enhanced image-search using contextual tags
CN113361549A (zh) * 2020-03-04 2021-09-07 华为技术有限公司 一种模型更新方法以及相关装置
CN111428762B (zh) * 2020-03-12 2022-03-15 武汉大学 联合深度数据学习和本体知识推理的可解释性遥感影像地物分类方法
CN112367400B (zh) * 2020-11-12 2022-04-29 广东电网有限责任公司 一种边云协同的电力物联网智能巡检方法及系统
CN112732967B (zh) * 2021-01-08 2022-04-29 武汉工程大学 图像自动标注方法、系统及电子设备
CN112733789B (zh) * 2021-01-20 2023-04-18 清华大学 一种基于动态时空图的视频推理方法、装置、设备及介质
CN113762376A (zh) * 2021-08-31 2021-12-07 阿里巴巴新加坡控股有限公司 图像聚类的方法、装置、电子设备及存储介质
CN114389838A (zh) * 2021-12-08 2022-04-22 广东电网有限责任公司 一种从多维度识别异常业务的终端安全接入控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007535359A (ja) * 2004-04-30 2007-12-06 エレクタ アクチボラゲット(パブル) 医療画像の利用可能性を自動的に改善するための方法およびシステム
US20160275341A1 (en) * 2015-03-18 2016-09-22 Adobe Systems Incorporated Facial Expression Capture for Character Animation
CN106599883A (zh) * 2017-03-08 2017-04-26 王华锋 一种基于cnn的多层次图像语义的人脸识别方法
JP2017084320A (ja) * 2015-03-06 2017-05-18 パナソニックIpマネジメント株式会社 学習方法およびプログラム
JP2017515189A (ja) * 2014-03-07 2017-06-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 写真管理

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680340B2 (en) * 2003-11-13 2010-03-16 Eastman Kodak Company Method of using temporal context for image classification
CN101964911B (zh) * 2010-10-09 2012-10-17 浙江大学 一种基于gpu的视频分层方法
CN104732208B (zh) * 2015-03-16 2018-05-18 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
US10176642B2 (en) * 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
US10235623B2 (en) * 2016-02-12 2019-03-19 Adobe Inc. Accurate tag relevance prediction for image search
CN105912611B (zh) * 2016-04-05 2019-04-26 中国科学技术大学 一种基于cnn的快速图像检索方法
US9898688B2 (en) 2016-06-01 2018-02-20 Intel Corporation Vision enhanced drones for precision farming

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007535359A (ja) * 2004-04-30 2007-12-06 エレクタ アクチボラゲット(パブル) 医療画像の利用可能性を自動的に改善するための方法およびシステム
JP2017515189A (ja) * 2014-03-07 2017-06-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 写真管理
JP2017084320A (ja) * 2015-03-06 2017-05-18 パナソニックIpマネジメント株式会社 学習方法およびプログラム
US20160275341A1 (en) * 2015-03-18 2016-09-22 Adobe Systems Incorporated Facial Expression Capture for Character Animation
CN106599883A (zh) * 2017-03-08 2017-04-26 王华锋 一种基于cnn的多层次图像语义的人脸识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PRAKRUTI BHATT ET AL.: "Comparison of CNN Models for Application in Crop Health Assessment with Participatory Sensing", 2017 IEEE GLOBAL HUMANITARIAN TECHNOLOGY CONFERENCE (GHTC), JPN6019048912, 25 December 2017 (2017-12-25), ISSN: 0004545391 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022549006A (ja) * 2019-09-24 2022-11-22 グーグル エルエルシー 距離に基づく学習信頼度モデル
JP7292506B2 (ja) 2019-09-24 2023-06-16 グーグル エルエルシー 距離に基づく学習信頼度モデル

Also Published As

Publication number Publication date
CO2018010023A1 (es) 2018-12-14
BR102018068976A2 (pt) 2019-07-30
CN110046631A (zh) 2019-07-23
CN110046631B (zh) 2023-04-28
ZA201806145B (en) 2020-08-26
US10679330B2 (en) 2020-06-09
US20190220967A1 (en) 2019-07-18
JP6935377B2 (ja) 2021-09-15

Similar Documents

Publication Publication Date Title
JP6935377B2 (ja) 時空間画像の変化を自動推論するためのシステムおよび方法
Kulkarni Crop disease detection using deep learning
Nalini et al. Paddy leaf disease detection using an optimized deep neural network
Kamath et al. Classification of paddy crop and weeds using semantic segmentation
Singh et al. A review on: Various techniques of plant leaf disease detection
Nancy et al. Deep learning and machine learning based efficient framework for image based plant disease classification and detection
Rustia et al. Online semi-supervised learning applied to an automated insect pest monitoring system
Pinto et al. Crop disease classification using texture analysis
Martins et al. Deep learning applied to the identification of fruit fly in intelligent traps
Sagarika et al. Paddy plant disease classification and prediction using convolutional neural network
Juwono et al. Machine learning for weed–plant discrimination in agriculture 5.0: An in-depth review
Liu et al. Recognition of pyralidae insects using intelligent monitoring autonomous robot vehicle in natural farm scene
Kundur et al. Deep convolutional neural network architecture for plant seedling classification
Padmanabhuni et al. An extensive study on classification based plant disease detection system
Raja Kumar et al. Novel segmentation and classification algorithm for detection of tomato leaf disease
Sahu et al. Self‐adaptive‐deer hunting optimization‐based optimal weighted features and hybrid classifier for automated disease detection in plant leaves
Sudha et al. Real Time Riped Fruit Detection using Faster R-CNN Deep Neural Network Models
Singh et al. Rice Leaf Disease Prediction: A Survey
Nagila et al. The effectiveness of machine learning and image processing in detecting plant leaf disease
Sahu et al. CNN Based Disease Detection in Apple Leaf via Transfer Learning
Valarmathi et al. Fruit Disease Prediction with Fertilizer Recommendation for Citrus Family using Deep Learning
Sri et al. Disease Detection using Region-Based Convolutional Neural Network and ResNet
Kamath et al. Classification of Crop and Weed from Digital Images: A Review
Manikandan et al. Investigation Into the Use of IoT Technology and Machine Learning for the Identification of Crop Diseases
Juwono et al. Artificial Intelligence in Agriculture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210304

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210427

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150