JP2019125340A - 時空間画像の変化を自動推論するためのシステムおよび方法 - Google Patents
時空間画像の変化を自動推論するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2019125340A JP2019125340A JP2018172431A JP2018172431A JP2019125340A JP 2019125340 A JP2019125340 A JP 2019125340A JP 2018172431 A JP2018172431 A JP 2018172431A JP 2018172431 A JP2018172431 A JP 2018172431A JP 2019125340 A JP2019125340 A JP 2019125340A
- Authority
- JP
- Japan
- Prior art keywords
- received image
- classes
- image
- images
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000013145 classification model Methods 0.000 claims abstract description 22
- 230000003044 adaptive effect Effects 0.000 claims abstract description 12
- 238000003062 neural network model Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 16
- 230000002123 temporal effect Effects 0.000 claims description 13
- 230000002596 correlated effect Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000002087 whitening effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000000513 principal component analysis Methods 0.000 claims description 2
- 239000003086 colorant Substances 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 abstract description 17
- 238000002372 labelling Methods 0.000 abstract description 3
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 238000009313 farming Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 15
- 241001122767 Theaceae Species 0.000 description 10
- 235000020971 citrus fruits Nutrition 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 241000207199 Citrus Species 0.000 description 6
- 201000010099 disease Diseases 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 230000012010 growth Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 241000196324 Embryophyta Species 0.000 description 4
- 241000219094 Vitaceae Species 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 235000021021 grapes Nutrition 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 241000607479 Yersinia pestis Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 241000238631 Hexapoda Species 0.000 description 2
- 241000219095 Vitis Species 0.000 description 2
- 235000009754 Vitis X bourquina Nutrition 0.000 description 2
- 235000012333 Vitis X labruscana Nutrition 0.000 description 2
- 235000014787 Vitis vinifera Nutrition 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 238000004383 yellowing Methods 0.000 description 2
- 235000018185 Betula X alpestris Nutrition 0.000 description 1
- 235000018212 Betula X uliginosa Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000035784 germination Effects 0.000 description 1
- 230000007773 growth pattern Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008635 plant growth Effects 0.000 description 1
- 230000005070 ripening Effects 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2018年1月15日に出願されたインド特許出願公開第201821001685号明細書の優先権を主張する。前述の出願の内容全体は、参照により本明細書に組み込まれる。
評価結果
1. 柑橘類果実−褐色の斑点
2. 柑橘類果実−白色の斑点
3. 柑橘類の葉−黄変
4. 柑橘類の樹幹−樹脂病
5. ブドウの葉−健康
6. ブドウの葉−黄変
7. 茶葉−黒い斑点
8. 茶葉−褐色の斑点
9. 茶葉−健康
10. 茶葉−害虫が寄生した
比較研究を遂行するために使用したデータセットは、対象となっている方法すべてについて同じである。
結果:
分類の正確さ:52%
混同行列:
ラベル:褐変柑橘類、柑橘類の葉、病気にかかったブドウ、健康なブドウ、茶葉の黒い斑点、茶葉の褐色の斑点、健康な茶葉、茶葉の害虫、樹幹の樹脂病、白い柑橘類。
分類の正確さ:80%
混同行列:
ラベル:褐変柑橘類、柑橘類の葉、病気にかかったブドウ、健康なブドウ、茶葉の黒い斑点、茶葉の褐色の斑点、健康な茶葉、茶葉の害虫、樹幹の樹脂病、白い柑橘類。
分類の正確さ:93.75%
混同行列:
Claims (20)
- プロセッサ実装方法(300)であって、
1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信するステップ(302)と、
前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別し、伝送するステップ(304)と、
変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出するステップ(306)と、
前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行するステップ(308)と、
対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づけるステップ(310)と
を備え、前記クラスタ化するステップは、
シルエット(Silhouette)係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップ(308a)と、
前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ(308b−1)、
最大事後確率(Maximum A Posteriori probability、MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ(308b−2)、および
前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ(308b−3)
のうち少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップ(308b)であって、
前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
正規化相互情報量(Normalized Mutual Information、NMI)スコア、ランド(Rand)指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップ(308c)と
を備えるプロセッサ実装方法(300)。 - 受信する前記ステップは、前記受信画像に関連する少なくともいくつかのメタデータを得るステップと、前記関連タグに基づき、前記受信画像に関連する前記メタデータを更新するステップとを備える、請求項1に記載のプロセッサ実装方法。
- 前記受信画像から前記特徴を抽出する前記ステップの前に、(i)正規化、主成分分析(Principal Components Analysis、PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより前記受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方の前記ニューラル・ネットワーク・モデルに渡すために前記受信画像を適合させる第2水準の前処理のうち少なくとも一方を備える前処理のステップを行う、請求項1に記載のプロセッサ実装方法。
- 前記受信画像から前記特徴を抽出する前記ステップは、前記ニューラル・ネットワーク・モデルが抽出した前記特徴に形態学的特徴および色に関係がある特徴を含む追加特徴を付加して、マスタ特徴セットを導出するステップ、および次元削減法を使用して、前記マスタ特徴セットを圧縮するステップのうち1つまたは複数を備える、請求項2に記載のプロセッサ実装方法。
- 前記第1水準の推論を遂行する前記ステップは、前記1つまたは複数のクラスのうち1つまたは複数の内部で遂行される、請求項1に記載のプロセッサ実装方法。
- 前記1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより第2水準の推論を遂行するステップ(312)をさらに備え、分類する前記ステップは、
対象となっている前記状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスに関連する、前記マスタ特徴セットによりトレーニングされた複数の事前にトレーニングされたタグ付け器モデルを得るステップ(312a)と、
前記複数の事前にトレーニングされたタグ付け器モデルに基づき、前記第1水準の推論から得た前記1つまたは複数のクラスを前記1つまたは複数のサブクラスに分類するステップ(312b)と、
前記分類した1つまたは複数のサブクラスに関する信頼水準を算出するステップ(312c)と、
事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を用いて前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングして、複数の分類モデルを得るステップ(312d)と、
前記1つまたは複数のクラス、その中の前記1つまたは複数のサブクラス、およびそれらの相互関係に基づき、前記分類モデルの知識オントロジを作成するステップ(312e)と
を備える、請求項4に記載のプロセッサ実装方法。 - 前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングする前記ステップの前に、前記関連メタデータを用いて、前記事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を評価するステップを行う、請求項6に記載のプロセッサ実装方法。
- 前記受信画像およびそれに関連する前記メタデータ、前記1つまたは複数のクラス、前記1つまたは複数のサブクラス、前記複数の分類モデル、ならびに前記知識オントロジを記憶するステップ(314)をさらに備える、請求項7に記載のプロセッサ実装方法。
- 前記受信画像の前記少なくともサブセットを識別し、伝送する前記ステップは、
前記受信画像に関連するエントロピー値に基づき、前記受信画像が有効であるかどうかを判断するステップ、および
前記受信画像と、対象となっている前記状況に基づく前記適応しきい値である所定の数の先行画像を比較して、前記受信画像が前記先行画像に関連する前記1つまたは複数のサブクラスに適合するかどうかを判断するステップ
のうち1つまたは複数を遂行するステップを備える、請求項8に記載のプロセッサ実装方法。 - システム(200)であって、
1つまたは複数のハードウェアプロセッサに動作可能に結合し、前記1つまたは複数のハードウェアプロセッサが実行するように構成された命令を記憶するための、1つまたは複数の内部データ記憶装置を備え、前記命令は、
入力モジュール(120a)であって、
1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信し、
前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別し、伝送する
ように構成された入力モジュール(120a)と、
変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出するように構成された特徴抽出器(120c、130c)と、
前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行し、
対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づける
ように構成されたクラスタ化モジュール(130e)と
に備わり、前記クラスタ化するステップは、
シルエット係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップと、
前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ、
最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ、および
前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ
のうちの少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップであって、
前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
正規化相互情報量(NMI)スコア、ランド指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップと、
を備えるシステム(200)。 - 前記入力モジュールは、前記受信画像に関連する少なくともいくつかのメタデータを得て、前記関連タグに基づき、前記受信画像に関連する前記メタデータを更新するようにさらに構成される、請求項10に記載のシステム。
- 前記特徴を抽出する前に、(i)正規化、主成分分析(PCA)白色化、輝度補正、標準化、およびセグメント化のうち1つまたは複数を遂行することにより前記受信画像の品質を高めるための第1水準の前処理、ならびに(ii)回転、不要部分の切取り、移動、拡大縮小、およびズーミングのうち1つまたは複数を遂行することにより、前方へ前記ニューラル・ネットワーク・モデルを通過させるために前記受信画像を適合させる第2水準の前処理のうち少なくとも一方を遂行することにより、前記受信画像を前処理するように構成された前処理モジュール(120b、130b)をさらに備える、請求項11に記載のシステム。
- 前記特徴抽出器は、前記ニューラル・ネットワーク・モデルが抽出した特徴に形態学的特徴、および色に関係がある特徴を含む追加の特徴を付加して、マスタ特徴セットを導出し、かつ次元削減法を使用して、前記マスタ特徴セットを圧縮するようにさらに構成される、請求項12に記載のシステム。
- 前記クラスタ化モジュールは、前記1つまたは複数のクラスのうち1つまたは複数の内部で前記第1水準の推論を遂行するようにさらに構成される、請求項10に記載のシステム。
- 前記1つまたは複数のクラスを1つまたは複数のサブクラスに分類することにより、第2水準の推論を遂行するように構成された分類モジュール(130f)をさらに備え、分類する前記ステップは、
対象となっている前記状況に関係する1つまたは複数のクラスに対応する1つまたは複数のサブクラスに関連する、前記マスタ特徴セットによりトレーニングされた複数の事前にトレーニングされたタグ付け器モデル(130a)を得るステップと、
前記複数の事前にトレーニングされたタグ付け器モデルに基づき、前記第1水準の推論から得た前記1つまたは複数のクラスを前記1つまたは複数のサブクラスに分類するステップと、
前記分類された1つまたは複数のサブクラスに関する信頼水準を算出するステップと、
事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を用いて前記複数の事前にトレーニングされたタグ付け器モデルを再度トレーニングして、複数の分類モデル(120d、130d)を得るステップと、
前記1つまたは複数のクラス、その中の前記1つまたは複数のサブクラス、およびそれらの相互関係に基づき、前記分類モデルの知識オントロジを作成するステップと
を備える、請求項13に記載のシステム。 - 前記分類モデルは、前記事前にトレーニングされたタグ付け器モデルを再度トレーニングする前に、前記関連メタデータを用いて、前記事前に規定したしきい値以下の前記信頼水準に関連する前記受信画像を評価するようにさらに構成される、請求項15に記載のシステム。
- 前記受信画像およびそれに関連する前記メタデータ、前記1つまたは複数のクラス、前記1つまたは複数のサブクラス、前記複数の分類モデル、ならびに前記知識オントロジを記憶するように構成されたデータベース(130g)をさらに備える、請求項16に記載のシステム。
- 前記入力モジュールは、
前記受信画像に関連するエントロピー値に基づき、前記受信画像が有効であるかどうかを判断するステップ、および
前記受信画像と、対象となっている前記状況に基づく前記適応しきい値である所定の数の先行画像を比較して、前記受信画像が前記先行画像に関連する前記1つまたは複数のサブクラスに適合するかどうかを判断するステップ
のうち1つまたは複数を遂行することにより、前記受信画像の少なくともサブセットを識別し、伝送するようにさらに構成される、請求項17に記載のシステム。 - 前記システムは、(i)IoTゲートウェイの役割を果たす前記入力モジュール(120a)を有するクラウド−エッジトポロジ(100)で構成され、(ii)前記クラスタ化モジュール(130e)、前記分類モジュール(130f)、前記事前にトレーニングされたタグ付け器モデル(130a)、および前記データベース(130g)は、クラウド(130)に基づく機器として実装され、(iii)前記前処理モジュール(120b)は、クラウドエンド機器として、ならびにエッジ(120)エンド機器としても実装され、(iv)前記特徴抽出器(120c、130c)および分類モデル(120d、130d)は、クラウドエンド機器として実装され、前記エッジエンドがその現行バージョンで更新されるように前記エッジエンド上に導入される、請求項18に記載のシステム。
- コンピュータプログラム製品であって、前記コンピュータプログラム製品内に具体化されたコンピュータ可読プログラムを有する非一時的コンピュータ可読媒体を備え、前記コンピュータ可読プログラムは、コンピューティング機器上で実行されたとき、前記コンピューティング機器に、
1つまたは複数の時間間隔で、対象となっている状況に関係する、空間情報および時間情報のうち少なくとも一方と相関させられ、関連づけられる複数の画像を受信させ、
前記1つまたは複数の時間間隔で、前記空間情報または前記時間情報、および適応しきい値に基づき、前記受信画像の少なくともサブセットを識別させ、伝送させ、
変化した状況に関係する複数の画像のデータセットで事前にトレーニングされたニューラル・ネットワーク・モデルを通して前記受信画像を前方へ通過させることにより、前記受信画像から特徴を抽出させ、
前記抽出特徴を使用して前記受信画像を1つまたは複数のクラスにクラスタ化することにより、第1水準の推論を遂行させ、
前記コンピューティング機器に、対象となっている前記状況に基づき、前記1つまたは複数のクラスをタグと関連づけさせ、
前記クラスタ化は、
シルエット係数を使用して前記1つまたは複数のクラスの最適な数を決定するステップと、
前記受信画像の各々と前記受信画像内のあらゆる他の画像との球面距離により表した第1の距離測度を算出するステップ、
最大事後確率(MAP)に基づきクラス分布を使用して、クラスに属する前記受信画像内の各画像の尤度を算出するステップ、および
前記受信画像の各々と前記1つまたは複数のクラスの各々の重心との間の球面距離により表した第2の距離測度を算出するステップ
のうちの少なくとも1つを遂行することにより、前記受信画像間で検出した類似性に基づき、前記1つまたは複数のクラスを識別するステップであって、
前記1つまたは複数のクラスの前記数は、前記決定した最適な数に等しいステップと、
正規化相互情報量(NMI)スコア、ランド指数、および純度測度のうち1つまたは複数を使用して、前記1つまたは複数のクラスの品質を検証するステップと
により遂行されるコンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821001685 | 2018-01-15 | ||
IN201821001685 | 2018-01-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125340A true JP2019125340A (ja) | 2019-07-25 |
JP6935377B2 JP6935377B2 (ja) | 2021-09-15 |
Family
ID=65629885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018172431A Active JP6935377B2 (ja) | 2018-01-15 | 2018-09-14 | 時空間画像の変化を自動推論するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10679330B2 (ja) |
JP (1) | JP6935377B2 (ja) |
CN (1) | CN110046631B (ja) |
BR (1) | BR102018068976A2 (ja) |
CO (1) | CO2018010023A1 (ja) |
ZA (1) | ZA201806145B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549006A (ja) * | 2019-09-24 | 2022-11-22 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11164015B2 (en) * | 2018-05-08 | 2021-11-02 | Ford Global Technologies, Llc | Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors |
US10635939B2 (en) * | 2018-07-06 | 2020-04-28 | Capital One Services, Llc | System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis |
AU2019315506A1 (en) * | 2018-08-02 | 2021-03-11 | Climate Llc | Automatic prediction of yields and recommendation of seeding rates based on weather data |
US10834017B2 (en) * | 2018-11-11 | 2020-11-10 | International Business Machines Corporation | Cloud-driven hybrid data flow and collection |
US11373063B2 (en) * | 2018-12-10 | 2022-06-28 | International Business Machines Corporation | System and method for staged ensemble classification |
US11030755B2 (en) | 2019-05-13 | 2021-06-08 | Cisco Technology, Inc. | Multi-spatial scale analytics |
CN110555857A (zh) * | 2019-08-19 | 2019-12-10 | 浙江工业大学 | 一种语义边缘主导的高分遥感影像分割方法 |
US10878567B1 (en) * | 2019-09-18 | 2020-12-29 | Triage Technologies Inc. | System to collect and identify skin conditions from images and expert knowledge |
US11816147B2 (en) * | 2019-11-14 | 2023-11-14 | Adobe Inc. | Enhanced image-search using contextual tags |
CN113361549A (zh) * | 2020-03-04 | 2021-09-07 | 华为技术有限公司 | 一种模型更新方法以及相关装置 |
CN111428762B (zh) * | 2020-03-12 | 2022-03-15 | 武汉大学 | 联合深度数据学习和本体知识推理的可解释性遥感影像地物分类方法 |
CN112367400B (zh) * | 2020-11-12 | 2022-04-29 | 广东电网有限责任公司 | 一种边云协同的电力物联网智能巡检方法及系统 |
CN112732967B (zh) * | 2021-01-08 | 2022-04-29 | 武汉工程大学 | 图像自动标注方法、系统及电子设备 |
CN112733789B (zh) * | 2021-01-20 | 2023-04-18 | 清华大学 | 一种基于动态时空图的视频推理方法、装置、设备及介质 |
CN113762376A (zh) * | 2021-08-31 | 2021-12-07 | 阿里巴巴新加坡控股有限公司 | 图像聚类的方法、装置、电子设备及存储介质 |
CN114389838A (zh) * | 2021-12-08 | 2022-04-22 | 广东电网有限责任公司 | 一种从多维度识别异常业务的终端安全接入控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007535359A (ja) * | 2004-04-30 | 2007-12-06 | エレクタ アクチボラゲット(パブル) | 医療画像の利用可能性を自動的に改善するための方法およびシステム |
US20160275341A1 (en) * | 2015-03-18 | 2016-09-22 | Adobe Systems Incorporated | Facial Expression Capture for Character Animation |
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
JP2017084320A (ja) * | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
JP2017515189A (ja) * | 2014-03-07 | 2017-06-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真管理 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7680340B2 (en) * | 2003-11-13 | 2010-03-16 | Eastman Kodak Company | Method of using temporal context for image classification |
CN101964911B (zh) * | 2010-10-09 | 2012-10-17 | 浙江大学 | 一种基于gpu的视频分层方法 |
CN104732208B (zh) * | 2015-03-16 | 2018-05-18 | 电子科技大学 | 基于稀疏子空间聚类的视频人体行为识别方法 |
US10176642B2 (en) * | 2015-07-17 | 2019-01-08 | Bao Tran | Systems and methods for computer assisted operation |
US10235623B2 (en) * | 2016-02-12 | 2019-03-19 | Adobe Inc. | Accurate tag relevance prediction for image search |
CN105912611B (zh) * | 2016-04-05 | 2019-04-26 | 中国科学技术大学 | 一种基于cnn的快速图像检索方法 |
US9898688B2 (en) | 2016-06-01 | 2018-02-20 | Intel Corporation | Vision enhanced drones for precision farming |
-
2018
- 2018-06-28 US US16/022,239 patent/US10679330B2/en active Active
- 2018-09-13 ZA ZA2018/06145A patent/ZA201806145B/en unknown
- 2018-09-14 JP JP2018172431A patent/JP6935377B2/ja active Active
- 2018-09-18 BR BR102018068976-2A patent/BR102018068976A2/pt unknown
- 2018-09-18 CN CN201811085927.4A patent/CN110046631B/zh active Active
- 2018-09-24 CO CONC2018/0010023A patent/CO2018010023A1/es unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007535359A (ja) * | 2004-04-30 | 2007-12-06 | エレクタ アクチボラゲット(パブル) | 医療画像の利用可能性を自動的に改善するための方法およびシステム |
JP2017515189A (ja) * | 2014-03-07 | 2017-06-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真管理 |
JP2017084320A (ja) * | 2015-03-06 | 2017-05-18 | パナソニックIpマネジメント株式会社 | 学習方法およびプログラム |
US20160275341A1 (en) * | 2015-03-18 | 2016-09-22 | Adobe Systems Incorporated | Facial Expression Capture for Character Animation |
CN106599883A (zh) * | 2017-03-08 | 2017-04-26 | 王华锋 | 一种基于cnn的多层次图像语义的人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
PRAKRUTI BHATT ET AL.: "Comparison of CNN Models for Application in Crop Health Assessment with Participatory Sensing", 2017 IEEE GLOBAL HUMANITARIAN TECHNOLOGY CONFERENCE (GHTC), JPN6019048912, 25 December 2017 (2017-12-25), ISSN: 0004545391 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549006A (ja) * | 2019-09-24 | 2022-11-22 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
JP7292506B2 (ja) | 2019-09-24 | 2023-06-16 | グーグル エルエルシー | 距離に基づく学習信頼度モデル |
Also Published As
Publication number | Publication date |
---|---|
CO2018010023A1 (es) | 2018-12-14 |
BR102018068976A2 (pt) | 2019-07-30 |
CN110046631A (zh) | 2019-07-23 |
CN110046631B (zh) | 2023-04-28 |
ZA201806145B (en) | 2020-08-26 |
US10679330B2 (en) | 2020-06-09 |
US20190220967A1 (en) | 2019-07-18 |
JP6935377B2 (ja) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935377B2 (ja) | 時空間画像の変化を自動推論するためのシステムおよび方法 | |
Kulkarni | Crop disease detection using deep learning | |
Nalini et al. | Paddy leaf disease detection using an optimized deep neural network | |
Kamath et al. | Classification of paddy crop and weeds using semantic segmentation | |
Singh et al. | A review on: Various techniques of plant leaf disease detection | |
Nancy et al. | Deep learning and machine learning based efficient framework for image based plant disease classification and detection | |
Rustia et al. | Online semi-supervised learning applied to an automated insect pest monitoring system | |
Pinto et al. | Crop disease classification using texture analysis | |
Martins et al. | Deep learning applied to the identification of fruit fly in intelligent traps | |
Sagarika et al. | Paddy plant disease classification and prediction using convolutional neural network | |
Juwono et al. | Machine learning for weed–plant discrimination in agriculture 5.0: An in-depth review | |
Liu et al. | Recognition of pyralidae insects using intelligent monitoring autonomous robot vehicle in natural farm scene | |
Kundur et al. | Deep convolutional neural network architecture for plant seedling classification | |
Padmanabhuni et al. | An extensive study on classification based plant disease detection system | |
Raja Kumar et al. | Novel segmentation and classification algorithm for detection of tomato leaf disease | |
Sahu et al. | Self‐adaptive‐deer hunting optimization‐based optimal weighted features and hybrid classifier for automated disease detection in plant leaves | |
Sudha et al. | Real Time Riped Fruit Detection using Faster R-CNN Deep Neural Network Models | |
Singh et al. | Rice Leaf Disease Prediction: A Survey | |
Nagila et al. | The effectiveness of machine learning and image processing in detecting plant leaf disease | |
Sahu et al. | CNN Based Disease Detection in Apple Leaf via Transfer Learning | |
Valarmathi et al. | Fruit Disease Prediction with Fertilizer Recommendation for Citrus Family using Deep Learning | |
Sri et al. | Disease Detection using Region-Based Convolutional Neural Network and ResNet | |
Kamath et al. | Classification of Crop and Weed from Digital Images: A Review | |
Manikandan et al. | Investigation Into the Use of IoT Technology and Machine Learning for the Identification of Crop Diseases | |
Juwono et al. | Artificial Intelligence in Agriculture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200305 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200618 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210304 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210427 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |