JP6855091B2 - ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 - Google Patents
ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 Download PDFInfo
- Publication number
- JP6855091B2 JP6855091B2 JP2020004613A JP2020004613A JP6855091B2 JP 6855091 B2 JP6855091 B2 JP 6855091B2 JP 2020004613 A JP2020004613 A JP 2020004613A JP 2020004613 A JP2020004613 A JP 2020004613A JP 6855091 B2 JP6855091 B2 JP 6855091B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- auto
- labeled
- class
- class group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000013528 artificial neural network Methods 0.000 title description 10
- 230000002159 abnormal effect Effects 0.000 claims description 50
- 238000002372 labelling Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 38
- 238000013135 deep learning Methods 0.000 claims description 36
- 238000011176 pooling Methods 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Description
Claims (26)
- ディープラーニングネットワーク学習のための少なくとも一つのオートラベリングされたイメージのうちでラベル検収のための少なくとも一つのサンプルイメージを取得する方法において、
(a)オートラベリングネットワークによってラベリング済みの前記オートラベリングされたイメージが取得されると、サンプルイメージ取得装置が(i)第1イメージと第2イメージとを生成し、このうち少なくとも一つは前記オートラベリングされたイメージから変形して生成され、前記第1イメージと前記第2イメージとのうち一つだけが前記オートラベリングされたイメージから変形して生成されたイメージであれば、残りの一つは前記オートラベリングされたイメージがそのまま使用され、(ii)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記第1イメージと前記第2イメージとにそれぞれ適用して少なくとも一つの第1特徴マップと少なくとも一つの第2特徴マップとを生成させ、(iii)一つ以上のプーリングレイヤをもって、前記第1特徴マップ上で、前記オートラベリングされたイメージのオートラベリング済みボックスそれぞれに対応する各領域に一つ以上のプーリング演算を適用してそれぞれの第1プーリング済み特徴マップを生成させ、前記第2特徴マップ上で、前記オートラベリングされたイメージの前記オートラベリング済みボックスそれぞれに対応する各領域に前記プーリング演算をそれぞれ適用して第2プーリング済み特徴マップそれぞれを生成させ、(iv)前記オートラベリング済みボックスそれぞれに対応する、それぞれの前記第1プーリング済み特徴マップとそれぞれの前記第2プーリング済み特徴マップとをコンカチネート(concatenate)して、それぞれの前記オートラベリング済みボックスに対応するそれぞれのコンカチネートされた特徴マップを生成する段階;
(b)前記サンプルイメージ取得装置が、ディープラーニング分類器(classifier)をもって、それぞれの前記コンカチネートされた特徴マップを入力として取得して、それぞれの前記オートラベリング済みボックスを非正常クラス群または正常クラス群に分類するクラス情報を生成させる段階;及び、
(c)前記サンプルイメージ取得装置が、(i)それぞれの前記オートラベリング済みボックスに関するそれぞれの前記クラス情報を参照して前記非正常クラス群の各非正常クラス要素の確率それぞれを計算し、(ii)それぞれの前記非正常クラス要素の前記確率それぞれを利用して前記オートラベリングされたイメージがディフィカルト(difficult)イメージであるかを判断し、(iii)前記オートラベリングされたイメージが前記ディフィカルトイメージとして判断される場合、前記オートラベリングされたイメージをラベル検収のための前記サンプルイメージとして選定し、前記ディフィカルトイメージは不正確にオートラベリングされる確率が予め設定された値以上であるイメージである段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記サンプルイメージ取得装置は、前記第1イメージと前記第2イメージとを生成するのにおいて、前記第1イメージを変形する一つ以上の第1関数とこれに対応して前記第2イメージを変形する第2関数とを含む一つ以上の変形ペアを利用して、前記オートラベリングされたイメージに対応する、前記第1イメージと前記第2イメージとの少なくとも一つのイメージペアを生成し、
前記(c)段階で、
前記サンプルイメージ取得装置は、それぞれの前記オートラベリング済みボックスごとに、前記変形ペアそれぞれに対応する前記非正常クラス要素それぞれの各確率を計算し、前記それぞれの確率に対する少なくとも一つの重み付け平均を計算することを特徴とする請求項1に記載の方法。 - 前記非正常クラス群は、誤検出(misdetection)クラス群と未検出(non−detection)クラス群とを含み、
前記非正常クラス要素それぞれの各確率は、前記誤検出クラス群の誤検出クラス要素それぞれの確率と前記未検出クラス群の未検出クラス要素それぞれの確率とを含むことを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記不正確にオートラベリングされる確率は、前記非正常クラス要素それぞれの確率に対する少なくとも一つの一般化された平均(generalized mean)であることを特徴とする請求項1に記載の方法。 - 前記予め設定された値は、前記オートラベリングネットワークを通じてオートラベリングされた後、手動で検収された検証イメージに対する正答的中率のうち最も高い的中率であることを特徴とする請求項1に記載の方法。
- (d)前記サンプルイメージ取得装置は、前記ディフィカルトイメージとして判断された前記オートラベリングされたイメージ上で、前記非正常クラス群に分類された前記オートラベリング済みボックスに対応する領域を識別する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - それぞれの前記コンボリューションレイヤは、前記オートラベリングネットワークを構成する少なくとも一つのオートラベリングコンボリューションレイヤであることを特徴とする請求項1に記載の方法。
- 前記ディープラーニング分類器は、多重のFC(fully connected)レイヤまたは一つのFCN(fully convolutional network)を含むことを特徴とする請求項1に記載の方法。
- 学習装置によって、前記ディープラーニング分類器は、(i)前記オートラベリング済みボックスに対応するトゥルーボックスとオートボックスとを含む少なくとも一つのトレーニングイメージが取得されると、(i−1)学習用コンボリューションレイヤをもって、前記学習用コンボリューションレイヤのコンボリューション演算を前記トレーニングイメージに適用して学習用特徴マップを生成させ、(i−2)学習用プーリングレイヤをもって、前記学習用特徴マップ上で前記オートボックスに対応する領域それぞれに前記学習用プーリングレイヤのプーリング演算を適用して、学習用プーリング済み特徴マップを生成させ、(ii)前記オートボックスそれぞれに対応する前記学習用プーリング済み特徴マップそれぞれを入力として取得して、前記オートボックスを前記正常クラス群または前記非正常クラス群に分類する前記クラス情報を生成し、(iii)少なくとも一つのロスレイヤをもって、前記クラス情報とこれに対応する一つ以上の原本正解(ground truth)とを参照して一つ以上のロスを算出させることにより、前記ロスを利用したバックプロパゲーションを通じて前記ディープラーニング分類器のパラメータのうち少なくとも一部を学習することを特徴とする請求項1に記載の方法。
- 前記クラス情報は、誤検出クラス群と未検出クラス群とを有する前記非正常クラス群を含み、
(i)前記誤検出クラス群は、第1特定のオートボックスと同一のクラス情報を有する第1特定のトゥルーボックスが他のどのトゥルーボックスとも第1の予め設定された閾値以上に重なっていない場合に該当し、(ii)前記未検出クラス群は、第2特定のトゥルーボックスと同一のクラス情報を有する第2特定のオートボックスが他のどのオートボックスとも第2の予め設定された閾値以上に重なっていない状態で、第3特定のオートボックスが前記第2特定のトゥルーボックスと第3の予め設定された閾値以上に重なっている場合に該当し、前記正常クラス群は、前記誤検出クラス群と前記未検出クラス群とを除いたすべてのクラス群を含むことを特徴とする請求項9に記載の方法。 - 前記学習装置は、前記誤検出クラス群、前記未検出クラス群、及び前記正常クラス群を管理して、前記非正常クラス群のうちで要素個数が多いクラス群の個数が、要素個数が少ない残りのクラス群の個数の予め設定された第1倍数以下になるようにし、前記正常クラス群の要素個数が前記非正常クラス群の要素個数の予め設定された第2倍数と同一になるようにすることを特徴とする請求項10に記載の方法。
- 前記学習装置は、ランダムサンプリングを利用して、前記誤検出クラス群の要素の個数、前記未検出クラス群の要素の個数、及び前記正常クラス群の要素の個数を調整することを特徴とする請求項10に記載の方法。
- 前記学習装置は、クロスエントロピーロス(cross−entropy loss)を利用して前記バックプロパゲーションを遂行することを特徴とする請求項9に記載の方法。
- ディープラーニングネットワーク学習のための少なくとも一つのオートラベリングされたイメージのうちでラベル検収のための少なくとも一つのサンプルイメージを取得するサンプルイメージ取得装置において、
各インストラクションを格納する少なくとも一つのメモリと、
(I)オートラベリングネットワークによってラベリング済みの前記オートラベリングされたイメージが取得されると、(i)第1イメージと第2イメージとを生成し、このうち少なくとも一つは前記オートラベリングされたイメージから変形して生成され、前記第1イメージと前記第2イメージとのうち一つだけが前記オートラベリングされたイメージから変形して生成されたイメージであれば、残りの一つは前記オートラベリングされたイメージがそのまま使用され、(ii)一つ以上のコンボリューションレイヤをもって、一つ以上のコンボリューション演算を前記第1イメージと前記第2イメージとにそれぞれ適用して少なくとも一つの第1特徴マップと少なくとも一つの第2特徴マップとを生成させ、(iii)一つ以上のプーリングレイヤをもって、前記第1特徴マップ上で、前記オートラベリングされたイメージのオートラベリング済みボックスそれぞれに対応する各領域に一つ以上のプーリング演算を適用してそれぞれの第1プーリング済み特徴マップを生成させ、前記第2特徴マップ上で、前記オートラベリングされたイメージの前記オートラベリング済みボックスそれぞれに対応する各領域に前記プーリング演算をそれぞれ適用して第2プーリング済み特徴マップそれぞれを生成させ、(iv)前記オートラベリング済みボックスそれぞれに対応する、それぞれの前記第1プーリング済み特徴マップとそれぞれの前記第2プーリング済み特徴マップとをコンカチネート(concatenate)して、それぞれの前記オートラベリング済みボックスに対応するそれぞれのコンカチネートされた特徴マップを生成するプロセス、(II)ディープラーニング分類器(classifier)をもって、それぞれの前記コンカチネートされた特徴マップを入力として取得して、それぞれの前記オートラベリング済みボックスを非正常クラス群または正常クラス群に分類するクラス情報を生成させるプロセス、及び(III)(i)それぞれの前記オートラベリング済みボックスに関するそれぞれの前記クラス情報を参照して前記非正常クラス群の各非正常クラス要素の確率それぞれを計算し、(ii)それぞれの前記非正常クラス要素の前記確率それぞれを利用して前記オートラベリングされたイメージがディフィカルトイメージであるかを判断し、(iii)前記オートラベリングされたイメージが前記ディフィカルトイメージとして判断される場合、前記オートラベリングされたイメージをラベル検収のための前記サンプルイメージとして選定し、前記ディフィカルトイメージは不正確にオートラベリングされる確率が予め設定された値以上であるイメージであるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするサンプルイメージ取得装置。 - 前記(I)プロセスで、
前記プロセッサは、前記第1イメージと前記第2イメージとを生成するのにおいて、前記第1イメージを変形する一つ以上の第1関数と、それに対応して前記第2イメージを変形する第2関数とを含む一つ以上の変形ペアを利用して、前記オートラベリングされたイメージに対応する、前記第1イメージと前記第2イメージとの少なくとも一つのイメージペアを生成し、
前記(III)プロセスで、
前記プロセッサは、それぞれの前記オートラベリング済みボックスごとに、前記変形ペアそれぞれに対応する前記非正常クラス要素それぞれの各確率を計算し、前記それぞれの確率に対する少なくとも一つの重み付け平均を計算することを特徴とする請求項14に記載のサンプルイメージ取得装置。 - 前記非正常クラス群は、誤検出(misdetection)クラス群と未検出(non−detection)クラス群とを含み、前記非正常クラス要素それぞれの各確率は、前記誤検出クラス群の誤検出クラス要素それぞれの確率と前記未検出クラス群の未検出クラス要素それぞれの確率とを含むことを特徴とする請求項14に記載のサンプルイメージ取得装置。
- 前記(III)プロセスで、
前記不正確にオートラベリングされる確率は、前記非正常クラス要素それぞれの確率に対する少なくとも一つの一般化された平均(generalized mean)であることを特徴とする請求項14に記載のサンプルイメージ取得装置。 - 前記予め設定された値は、前記オートラベリングネットワークを通じてオートラベリングされた後、手動で検収された検証イメージに対する正答的中率のうち最も高い的中率であることを特徴とする請求項14に記載のサンプルイメージ取得装置。
- 前記プロセッサは、(IV)前記ディフィカルトイメージとして判断された前記オートラベリングされたイメージ上で、前記非正常クラス群に分類された前記オートラベリング済みボックスに対応する領域を識別するプロセス;を更に遂行することを特徴とする請求項14に記載のサンプルイメージ取得装置。
- それぞれの前記コンボリューションレイヤは、前記オートラベリングネットワークを構成する少なくとも一つのオートラベリングコンボリューションレイヤであることを特徴とする請求項14に記載のサンプルイメージ取得装置。
- 前記ディープラーニング分類器は、多重のFC(fully connected)レイヤまたは一つのFCNを含むことを特徴とする請求項14に記載のサンプルイメージ取得装置。
- 学習装置によって、前記ディープラーニング分類器は、(i)前記オートラベリング済みボックスに対応するトゥルーボックスとオートボックスとを含む少なくとも一つのトレーニングイメージが取得されると、(i−1)学習用コンボリューションレイヤをもって、前記学習用コンボリューションレイヤのコンボリューション演算を前記トレーニングイメージに適用して学習用特徴マップを生成させ、(i−2)学習用プーリングレイヤをもって、前記学習用特徴マップ上で前記オートボックスに対応する領域それぞれに前記学習用プーリングレイヤのプーリング演算を適用して、学習用プーリング済み特徴マップを生成させ、(ii)前記オートボックスそれぞれに対応する前記学習用プーリング済み特徴マップそれぞれを入力として取得して、前記オートボックスを前記正常クラス群または前記非正常クラス群に分類する前記クラス情報を生成し、(iii)少なくとも一つのロスレイヤをもって、前記クラス情報とこれに対応する一つ以上の原本正解(ground truth)とを参照して一つ以上のロスを算出させることにより、前記ロスを利用したバックプロパゲーションを通じて前記ディープラーニング分類器のパラメータのうち少なくとも一部を学習することを特徴とする請求項14に記載のサンプルイメージ取得装置。
- 前記クラス情報は、誤検出クラス群と未検出クラス群とを有する前記非正常クラス群を含み、
(i)前記誤検出クラス群は、第1特定のオートボックスと同一のクラス情報を有する第1特定のトゥルーボックスが他のどのトゥルーボックスとも第1の予め設定された閾値以上に重なっていない場合に該当し、(ii)前記未検出クラス群は、第2特定のトゥルーボックスと同一のクラス情報を有する第2特定のオートボックスが他のどのオートボックスとも第2の予め設定された閾値以上に重なっていない状態で、第3特定のオートボックスが前記第2特定のトゥルーボックスと第3の予め設定された閾値以上に重なっている場合に該当し、前記正常クラス群は、前記誤検出クラス群と前記未検出クラス群とを除いたすべてのクラス群を含むことを特徴とする請求項22に記載のサンプルイメージ取得装置。 - 前記学習装置は、前記誤検出クラス群、前記未検出クラス群、及び前記正常クラス群を管理して、前記非正常クラス群のうちで要素個数が多いクラス群の個数が、要素個数が少ない残りのクラス群の個数の予め設定された第1倍数以下になるようにし、前記正常クラス群の要素個数が前記非正常クラス群の要素個数の予め設定された第2倍数と同一になるようにすることを特徴とする請求項23に記載のサンプルイメージ取得装置。
- 前記学習装置は、ランダムサンプリングを利用して、前記誤検出クラス群の要素の個数、前記未検出クラス群の要素の個数、及び前記正常クラス群の要素の個数を調整することを特徴とする請求項23に記載のサンプルイメージ取得装置。
- 前記学習装置は、クロスエントロピーロス(cross−entropy loss)を利用して前記バックプロパゲーションを遂行することを特徴とする請求項22に記載のサンプルイメージ取得装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/262,142 | 2019-01-30 | ||
US16/262,142 US10373027B1 (en) | 2019-01-30 | 2019-01-30 | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123330A JP2020123330A (ja) | 2020-08-13 |
JP6855091B2 true JP6855091B2 (ja) | 2021-04-07 |
Family
ID=67477578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004613A Active JP6855091B2 (ja) | 2019-01-30 | 2020-01-15 | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10373027B1 (ja) |
EP (1) | EP3690714B1 (ja) |
JP (1) | JP6855091B2 (ja) |
KR (1) | KR102263397B1 (ja) |
CN (1) | CN111507370B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399382A (zh) * | 2018-02-13 | 2018-08-14 | 阿里巴巴集团控股有限公司 | 车险图像处理方法和装置 |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
CN111291755B (zh) * | 2020-02-13 | 2022-11-15 | 腾讯科技(深圳)有限公司 | 对象检测模型训练及对象检测方法、装置、计算机设备和存储介质 |
CN111832406B (zh) * | 2020-06-05 | 2022-12-06 | 中国科学院计算技术研究所 | 一种长尾目标检测方法与系统 |
CN111814582B (zh) * | 2020-06-15 | 2022-06-28 | 开易(北京)科技有限公司 | 一种用于驾驶员行为监测图像的处理方法及装置 |
CN111753729B (zh) * | 2020-06-24 | 2022-06-24 | 西安深信科创信息技术有限公司 | 一种假脸检测方法、装置、电子设备及存储介质 |
CN112464846B (zh) * | 2020-12-03 | 2024-04-02 | 武汉理工大学 | 一种车站货运列车车厢异常故障的自动识别方法 |
CN112598058A (zh) * | 2020-12-22 | 2021-04-02 | 深延科技(北京)有限公司 | 一种自动化深度学习方法、装置及存储介质 |
CN112906811B (zh) * | 2021-03-09 | 2023-04-18 | 西安电子科技大学 | 基于物联网架构的工程车载设备图像自动分类方法 |
CN113436138B (zh) * | 2021-03-31 | 2023-07-21 | 成都飞机工业(集团)有限责任公司 | 一种基于数字图像的航空结构件识别的图像预处理方法 |
CN113870230B (zh) * | 2021-09-30 | 2022-08-02 | 湖南大学 | 一种基于混合监督学习的表面异常检测方法 |
JP7343646B1 (ja) | 2022-03-30 | 2023-09-12 | 本田技研工業株式会社 | 教師データの収集方法 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4132229B2 (ja) * | 1998-06-03 | 2008-08-13 | 株式会社ルネサステクノロジ | 欠陥分類方法 |
JP4742193B2 (ja) * | 2009-04-28 | 2011-08-10 | Necソフト株式会社 | 年齢推定装置、年齢推定方法及びプログラム |
JP2011158373A (ja) * | 2010-02-02 | 2011-08-18 | Dainippon Screen Mfg Co Ltd | 自動欠陥分類のための教師データ作成方法、自動欠陥分類方法および自動欠陥分類装置 |
AU2015261891A1 (en) * | 2014-05-23 | 2016-10-13 | Ventana Medical Systems, Inc. | Systems and methods for detection of biological structures and/or patterns in images |
US9418319B2 (en) * | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
JP6596260B2 (ja) | 2015-08-19 | 2019-10-23 | 株式会社Screenホールディングス | 教示支援方法および画像分類方法 |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9965705B2 (en) * | 2015-11-03 | 2018-05-08 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US20170124409A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
US10002313B2 (en) * | 2015-12-15 | 2018-06-19 | Sighthound, Inc. | Deeply learned convolutional neural networks (CNNS) for object localization and classification |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
CN108475331B (zh) * | 2016-02-17 | 2022-04-05 | 英特尔公司 | 用于对象检测的方法、装置、系统和计算机可读介质 |
JP6573233B2 (ja) | 2016-07-19 | 2019-09-11 | 日本電信電話株式会社 | 認識容易性指標算出装置、方法、及びプログラム |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
CN106599773B (zh) * | 2016-10-31 | 2019-12-24 | 清华大学 | 用于智能驾驶的深度学习图像识别方法、系统及终端设备 |
US10198671B1 (en) * | 2016-11-10 | 2019-02-05 | Snap Inc. | Dense captioning with joint interference and visual context |
JP6854344B2 (ja) * | 2016-11-15 | 2021-04-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 直方体検出のための深層機械学習システム |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US10600184B2 (en) * | 2017-01-27 | 2020-03-24 | Arterys Inc. | Automated segmentation utilizing fully convolutional networks |
US10346724B2 (en) * | 2017-06-22 | 2019-07-09 | Waymo Llc | Rare instance classifiers |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
JP7149692B2 (ja) * | 2017-08-09 | 2022-10-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US11531830B2 (en) * | 2017-08-14 | 2022-12-20 | Tata Consultancy Services Limited | Synthetic rare class generation by preserving morphological identity |
US10169679B1 (en) * | 2017-10-13 | 2019-01-01 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same |
US10223610B1 (en) * | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN108805188B (zh) * | 2018-05-29 | 2020-08-21 | 徐州工程学院 | 一种基于特征重标定生成对抗网络的图像分类方法 |
JP7117934B2 (ja) * | 2018-08-07 | 2022-08-15 | 日本放送協会 | 画像分類装置及びプログラム |
US10223614B1 (en) * | 2018-09-04 | 2019-03-05 | StradVision, Inc. | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same |
US10229346B1 (en) * | 2018-09-04 | 2019-03-12 | StradVision, Inc. | Learning method, learning device for detecting object using edge image and testing method, testing device using the same |
-
2019
- 2019-01-30 US US16/262,142 patent/US10373027B1/en active Active
- 2019-11-15 KR KR1020190147098A patent/KR102263397B1/ko active IP Right Grant
-
2020
- 2020-01-15 EP EP20151988.1A patent/EP3690714B1/en active Active
- 2020-01-15 JP JP2020004613A patent/JP6855091B2/ja active Active
- 2020-01-16 CN CN202010056900.3A patent/CN111507370B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3690714A1 (en) | 2020-08-05 |
US10373027B1 (en) | 2019-08-06 |
EP3690714C0 (en) | 2023-12-06 |
EP3690714B1 (en) | 2023-12-06 |
KR20200094622A (ko) | 2020-08-07 |
CN111507370A (zh) | 2020-08-07 |
KR102263397B1 (ko) | 2021-06-11 |
JP2020123330A (ja) | 2020-08-13 |
CN111507370B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855091B2 (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
JP6849932B2 (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
JP6932395B2 (ja) | イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置 | |
US10546242B2 (en) | Image analysis neural network systems | |
KR102373456B1 (ko) | 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN108764063B (zh) | 一种基于特征金字塔的遥感影像时敏目标识别系统及方法 | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6867054B2 (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6916548B2 (ja) | 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP7327077B2 (ja) | 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム | |
CN112085001A (zh) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 | |
CN113160117A (zh) | 一种自动驾驶场景下的三维点云目标检测方法 | |
CN114202671A (zh) | 一种图像预测优化处理方法及装置 | |
CN110705695A (zh) | 搜索模型结构的方法、装置、设备和存储介质 | |
CN113362372B (zh) | 一种单目标追踪方法及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6855091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |