JP2020126615A - 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 - Google Patents
高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 Download PDFInfo
- Publication number
- JP2020126615A JP2020126615A JP2020004783A JP2020004783A JP2020126615A JP 2020126615 A JP2020126615 A JP 2020126615A JP 2020004783 A JP2020004783 A JP 2020004783A JP 2020004783 A JP2020004783 A JP 2020004783A JP 2020126615 A JP2020126615 A JP 2020126615A
- Authority
- JP
- Japan
- Prior art keywords
- auto
- label
- unique
- image
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 238000012795 verification Methods 0.000 claims description 122
- 238000001514 detection method Methods 0.000 claims description 35
- 230000002159 abnormal effect Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 23
- 238000005457 optimization Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 10
- 230000001629 suppression Effects 0.000 claims description 5
- 238000010200 validation analysis Methods 0.000 abstract 4
- 230000006870 function Effects 0.000 description 14
- 238000011176 pooling Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 201000005625 Neuroleptic malignant syndrome Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
Abstract
Description
によって評価されることを特徴とする。
によって評価されることを特徴とする。
を有する少なくとも一つの入力イメージIが入力されると、前記ディフィカルトイメージ識別ネットワーク220は、第1イメージ
と第2イメージ
とを生成することができ、前記第1イメージと前記第2イメージとのうち一つだけが前記入力イメージから変形したものであれば、残りの一つは前記入力イメージがそのまま使用される。この際、前記第1イメージ
及び前記第2イメージ
のうち少なくとも一つは前記入力イメージIから変形されたイメージであり得る。
と前記第2イメージ
とを生成するのにおいて、前記第1イメージを変形するための一つ以上の第1関数と、これに対応する前記第2イメージを変形するための第2関数とを含む一つ以上の変形ペアを利用して、前記入力イメージIに対応する前記第1イメージと前記第2イメージとの少なくとも一つのイメージペアを生成することができる。
と前記第2イメージ
にそれぞれ一つ以上のコンボリューション演算を適用して、少なくとも一つの第1特徴マップと少なくとも一つの第2特徴マップとを出力させる。この際、前記コンボリューションレイヤ211は、図4に示された、オートラベリングを行う前記物体検出ネットワークに含まれたコンボリューションレイヤであり得る。一例として、前記物体検出ネットワークが多数の変形の組み合わせを使用する場合、前記変形ペアは前記物体検出ネットワークが使用する前記変形としてのみ定義され得、それに伴って前記物体検出ネットワークの前記コンボリューションレイヤから出力された特徴マップが、追加の過程なしにそのまま使用され得るので、前記特徴マップの演算に所要される時間を節減することができるようになる。
に対応する各領域に一つ以上のプーリング演算を適用して、それぞれの第1プーリング済み特徴マップを出力させ、前記第2特徴マップ上で前記それぞれのオートラベル
に対応する各領域に前記プーリング演算を適用して、それぞれの第2プーリング済み特徴マップを出力させ、前記それぞれのオートラベル
にそれぞれ対応する、それぞれの前記第1プーリング済み特徴マップとそれぞれの第2プーリング済み特徴マップとをコンカチネートしてそれぞれのコンカチネートされた特徴マップを生成する。この際、図5では二つの前記コンボリューションレイヤ221と二つのプーリングレイヤ222とが示されたが、これとは異なって一つのコンボリューションレイヤと一つのプーリングレイヤとが、前記第1イメージと第2イメージとに前記コンボリューション演算を適用し、前記第1特徴マップと前記第2特徴マップとに前記プーリング演算を適用するためにそれぞれ使用されてもよい。
に対応する前記それぞれのコンカチネートされた特徴マップを入力として、前記それぞれのオートラベル
を非正常クラス群または正常クラス群に分類する前記クラス情報を出力させることができる。この際、前記非正常クラス群は、誤検出クラス群と未検出クラス群とを含むことができ、前記正常クラス群は物体に分類されたオートラベルに対するクラス群と背景に分類されたオートラベルに対するクラス群とを含むことができる。前記オートラベル
に対する分類については、図6を参照して前記ディープラーニング分類器223の学習過程で説明することにする。
の各クラス情報を参照して、前記非正常クラス群それぞれの非正常クラス要素に対する確率値それぞれを計算し、(ii)それぞれの前記非正常クラス要素に対する前記確率値それぞれを利用して、前記入力イメージIが前記ディフィカルトイメージであるのかを判断させる。
で表すことができ、前記未検出クラス要素FNに対する確率値は
で表すことができる。
は、前記オートラベルのうち一つのオートラベルであり、
と
はそれぞれ前記第1イメージと前記第2イメージとを表す。
ごとに、前記変形ペアそれぞれに対応するそれぞれの前記非正常クラス要素に対するそれぞれの確率値を計算し、前記計算された確率値の少なくとも一つの重み付け平均を計算することができる。
は、前記オートラベリング装置のオートラベリングプロセス以後に手動で検収された前記検証イメージに対する正答的中率のうち最も高い的中率であり得る。
は、第1特定のオートラベルと同一のクラス情報を有する第1特定のトゥルーラベルが他のトゥルーラベルと前記第1設定値以上に重なっていない場合を表すことができる。
は、
のように表され得る。
は、第2特定のトゥルーラベルと同一のクラス情報を有する第2特定のオートラベルが他のオートラベルと前記第2設定値以上に重なっていない状態で、第3特定のオートラベルが前記第2特定のトゥルーラベルと第3設定値以上に重なっている場合を表すことができる。
は
と表され得る。
と設定され得るが、これに限定されるわけではない。
は、前記誤検出クラス群及び前記未検出クラス群以外の他のクラス群を含むことができ、前記物体と前記背景とに対応することができる。
は学習率を示し、
は費用関数(Cost function)を示す。
のように表すことができ、前記費用関数は
ように表すことができる。
と、(ii)前記オートラベリング装置200の前記ディフィカルトイメージ識別ネットワーク220が、前記固有のオートラベルを有する原本イメージが前記固有のオートラベルを有するディフィカルト原本イメージであるのかと、前記固有のトゥルーラベル及び オートラベルを有する検証イメージが前記固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージであるのかとを判別するための前記第2設定値
を含む、前記予め設定されたハイパーパラメータセットを最適化することができる。
つまり、図8を参照すると、一週間ごとに前記再学習を進めると仮定する場合、前記信頼度は階段式に向上するが、本発明によって前記ハイパーパラメータを最適化する場合、さらに高い信頼度を確保することができ、それに伴って再学習のための信頼度がさらに高い前記トゥルーラベルを有するトレーニングイメージを取得することができる。そして、信頼度のさらに高い前記トゥルーラベルを有するトレーニングイメージを利用して前記再学習を遂行することにより、前記再学習による前記オートラベリング装置の前記信頼度は従来に比べてより格段に向上し得る。
Claims (12)
- ニューラルネットワークを学習するのに利用される一つ以上のトレーニングイメージをオートラベリング(auto−labeling)するオートラベリング装置の一つ以上のハイパーパラメータ(hyperparameter)を最適化する方法において、
(a)ラベリングしようとする一つ以上の原本イメージ及び前記原本イメージと撮影環境が類似する、固有のトゥルーラベル(true label)を有する一つ以上の検証イメージが取得されると、最適化装置が、少なくとも一つの予め設定されたハイパーパラメータセットを有する前記オートラベリング装置をもって、前記原本イメージと前記固有のトゥルーラベルを有する検証イメージとをそれぞれオートラベリングすることにより、固有のオートラベルを有する原本イメージと固有のトゥルーラベル及びオートラベルを有する検証イメージとを生成させ、前記固有のオートラベルを有する原本イメージを、固有のオートラベルを有するイージー(easy)原本イメージと固有のオートラベルを有するディフィカルト(difficult)原本イメージとに分類させ、前記固有のトゥルーラベル及びオートラベルを有する検証イメージを、固有のトゥルーラベル及びオートラベルを有するイージー検証イメージと固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージとに分類させる段階;及び、
(b)前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージが取得されると、前記最適化装置が、前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージを参照することによって、前記予め設定されたハイパーパラメータセットに対応する前記オートラベリング装置の現在の信頼度を計算し、前記予め設定されたハイパーパラメータセットに対応する少なくとも一つの所定の規則にしたがって調整された一つ以上のサンプルハイパーパラメータセットを生成し、前記サンプルハイパーパラメータセットそれぞれに対応する前記オートラベリング装置のサンプル信頼度それぞれを計算し、前記予め設定されたハイパーパラメータセットに対応する前記現在の信頼度が特定のサンプルハイパーパラメータセット(前記サンプルハイパーパラメータセットのうちで、前記予め設定されたハイパーパラメータセットに対応する前記現在の信頼度より高いサンプル信頼度を有する一部サンプルハイパーパラメータセットを前記特定のサンプルハイパーパラメータセットとして選定する)に対応する前記サンプル信頼度が高くなる方向に調整されるように前記予め設定されたハイパーパラメータセットを最適化する段階;
を含むことを特徴とする方法。 - (c)前記最適化装置が、前記予め設定されたハイパーパラメータセットに対応する、前記現在の信頼度が予め設定された値以上である状態を維持しながら、前記固有のオートラベルを有する原本イメージに対する前記固有のオートラベルを有するイージー原本イメージの割合が最大化するように、前記予め設定されたハイパーパラメータセットを最適化する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記オートラベリング装置は、前記固有のオートラベルを有する原本イメージを、前記固有のオートラベルを有するイージー原本イメージと前記固有のオートラベルを有するディフィカルト原本イメージとに分類し、前記固有のトゥルーラベル及びオートラベルを有する検証イメージを前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージと、前記固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージとに分類するディフィカルトイメージ識別ネットワークを含み、
前記(c)段階で、
前記最適化装置は、(i)前記ディフィカルトイメージ識別ネットワークが、前記固有のオートラベルを有する原本イメージのオートラベルそれぞれが非正常クラス(abnormal class)になる可能性であるそれぞれの確率と、前記固有のトゥルーラベル及びオートラベルを有する検証イメージのオートラベルそれぞれが前記非正常クラスであるそれぞれの確率とを計算するための第1設定値と、(ii)前記ディフィカルトイメージ識別ネットワークが、前記固有のオートラベルを有する原本イメージが前記固有のオートラベルを有するディフィカルト原本イメージであるのかと、前記固有のトゥルーラベル及びオートラベルを有する検証イメージが前記固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージであるのかとを判別するための第2設定値を含む前記予め設定されたハイパーパラメータセットを最適化することを特徴とする請求項2に記載の方法。 - 前記(b)段階で、
前記最適化装置は、信頼度評価ネットワークをもって、前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージのトゥルーラベル及びオートラベルを参照して、前記オートラベリング装置の前記現在の信頼度を計算させることを特徴とする請求項1に記載の方法。 - 前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージのトゥルー
によって評価されることを特徴とする請求項4に記載の方法。 - 前記オートラベリング装置は、前記原本イメージと前記固有のトゥルーラベルを有する検証イメージとをオートラベリングして、前記固有のオートラベルを有する原本イメージと前記固有のトゥルーラベルを有する検証イメージとを生成する物体検出ネットワークを含み、
前記(b)段階で、
前記最適化装置は、前記物体検出ネットワークの各クラスごとのそれぞれのスコア閾値、各クラスごとのそれぞれのNMS(non−maximum suppression)閾値、各クラスごとのそれぞれのバウンディングボックス選定閾値、及び各クラスごとのそれぞれの最小物体サイズを含む前記予め設定されたハイパーパラメータセットの一つ以上の予め設定されたハイパーパラメータのうち少なくとも一部を最適化することを特徴とする請求項1に記載の方法。 - ニューラルネットワークを学習するのに利用される一つ以上のトレーニングイメージをオートラベリング(auto−labeling)するオートラベリング装置の一つ以上のハイパーパラメータ(hyperparameter)最適化する最適化装置において、
各インストラクションを格納する少なくとも一つのメモリと、
(I)ラベリングしようとする一つ以上の原本イメージ及び前記原本イメージと撮影環境が類似する、固有のトゥルーラベルを有する一つ以上の検証イメージが取得されると、少なくとも一つの予め設定されたハイパーパラメータセットを有する前記オートラベリング装置をもって、前記原本イメージと前記固有のトゥルーラベルを有する検証イメージとをそれぞれオートラベリングすることによって、固有のオートラベルを有する原本イメージと固有のトゥルーラベル及びオートラベルを有する検証イメージとを生成させ、前記固有のオートラベルを有する原本イメージを、固有のオートラベルを有するイージー原本イメージと固有のオートラベルを有するディフィカルト原本イメージとに分類させ、前記固有のトゥルーラベル及びオートラベルを有する検証イメージを、固有のトゥルーラベル及びオートラベルを有するイージー検証イメージと固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージとに分類させるプロセス;及び、(II)前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージが取得されると、前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージを参照することによって、前記予め設定されたハイパーパラメータセットに対応する前記オートラベリング装置の現在の信頼度を計算し、前記予め設定されたハイパーパラメータセットに対応する少なくとも一つの所定の規則にしたがって調整された一つ以上のサンプルハイパーパラメータセットを生成し、前記サンプルハイパーパラメータセットそれぞれに対応する前記オートラベリング装置のサンプル信頼度それぞれを計算し、前記予め設定されたハイパーパラメータセットに対応する前記現在の信頼度が特定のサンプルハイパーパラメータセット(前記サンプルハイパーパラメータセットのうちで、前記予め設定されたハイパーパラメータセットに対応する前記現在の信頼度より高いサンプル信頼度を有する一部サンプルハイパーパラメータセットを前記特定のサンプルハイパーパラメータセットとして選定する)に対応する前記サンプル信頼度が高くなる方向に調整されるように前記予め設定されたハイパーパラメータセットを最適化するプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする最適化装置。 - 前記プロセッサは、(III)前記予め設定されたハイパーパラメータセットに対応する、前記現在の信頼度が予め設定された値以上である状態を維持しながら、前記固有のオートラベルを有する原本イメージに対する前記固有のオートラベルを有するイージー原本イメージの割合が最大化するように、前記予め設定されたハイパーパラメータセットを最適化するプロセスをさらに遂行することを特徴とする請求項7に記載の最適化装置。
- 前記オートラベリング装置は、前記固有のオートラベルを有する原本イメージを、前記固有のオートラベルを有するイージー原本イメージと前記固有のオートラベルを有するディフィカルト原本イメージとに分類し、前記固有のトゥルーラベル及びオートラベルを有する検証イメージを、前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージと前記固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージとに分類するディフィカルトイメージ識別ネットワークを含み、
前記(III)プロセスで、
前記プロセッサは、(i)前記ディフィカルトイメージ識別ネットワークが、前記固有のオートラベルを有する原本イメージのオートラベルそれぞれが非正常クラス(abnormal class)になる可能性であるそれぞれの確率と、前記固有のトゥルーラベル及びオートラベルを有する検証イメージのオートラベルそれぞれが前記非正常クラスであるそれぞれの確率とを計算するための第1設定値と、(ii)前記ディフィカルトイメージ識別ネットワークが、前記固有のオートラベルを有する原本イメージが前記固有のオートラベルを有するディフィカルト原本イメージであるのかと、前記固有のトゥルーラベル及びオートラベルを有する検証イメージが前記固有のトゥルーラベル及びオートラベルを有するディフィカルト検証イメージであるのかとを判別するための第2設定値を含む前記予め設定されたハイパーパラメータセットを最適化することを特徴とする請求項8に記載の最適化装置。 - 前記(II)プロセスで、
前記プロセッサは、信頼度評価ネットワークをもって、前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージのトゥルーラベル及びオートラベルを参照して、前記オートラベリング装置の前記現在の信頼度を計算させることを特徴とする請求項7に記載の最適化装置。 - 前記固有のトゥルーラベル及びオートラベルを有するイージー検証イメージのトゥルー
によって評価されることを特徴とする請求項10に記載の最適化装置。 - 前記オートラベリング装置は、前記原本イメージと前記固有のトゥルーラベルを有する検証イメージとをオートラベリングして、前記固有のオートラベルを有する原本イメージと前記固有のトゥルーラベル及びオートラベルを有する検証イメージとを生成する物体検出ネットワークを含み、
前記(II)プロセスで、
前記プロセッサは、前記物体検出ネットワークの各クラスごとのそれぞれのスコア閾値、各クラスごとのそれぞれのNMS(non−maximum suppression)閾値、各クラスごとのそれぞれのバウンディングボックス選定閾値、及び各クラスごとのそれぞれの最小物体サイズを含む前記予め設定されたハイパーパラメータセットの一つ以上の予め設定されたハイパーパラメータのうち少なくとも一部を最適化することを特徴とする請求項7に記載の最適化装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/262,985 | 2019-01-31 | ||
US16/262,985 US10699192B1 (en) | 2019-01-31 | 2019-01-31 | Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126615A true JP2020126615A (ja) | 2020-08-20 |
JP6849932B2 JP6849932B2 (ja) | 2021-03-31 |
Family
ID=69147538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004783A Active JP6849932B2 (ja) | 2019-01-31 | 2020-01-15 | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10699192B1 (ja) |
EP (1) | EP3690740B1 (ja) |
JP (1) | JP6849932B2 (ja) |
KR (1) | KR102280414B1 (ja) |
CN (1) | CN111507469B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399382A (zh) * | 2018-02-13 | 2018-08-14 | 阿里巴巴集团控股有限公司 | 车险图像处理方法和装置 |
JP2021114085A (ja) * | 2020-01-17 | 2021-08-05 | 富士通株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
DE102020208008A1 (de) * | 2020-06-29 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Bildklassifikation und zugehöriges Training für sicherheitsrelevante Klassifikationsaufgaben |
WO2022205138A1 (en) * | 2021-03-31 | 2022-10-06 | Nvidia Corporation | Generation of bounding boxes |
CN113132482B (zh) * | 2021-04-13 | 2022-10-14 | 河海大学 | 一种基于强化学习的分布式消息系统参数自适应优化方法 |
KR102337693B1 (ko) * | 2021-04-16 | 2021-12-09 | 주식회사 에이모 | 누락되거나 잘못된 바운딩 박스 작업 결과를 검출하는 방법 및 이를 수행하는 컴퓨터 장치 |
KR102337692B1 (ko) * | 2021-04-16 | 2021-12-09 | 주식회사 에이모 | 오류가 의심되는 바운딩 박스를 검출하는 방법 및 이를 수행하는 컴퓨터 장치 |
KR102379636B1 (ko) | 2021-08-11 | 2022-03-29 | 주식회사 에스아이에이 | 딥러닝 기반의 어노테이션 방법 |
US11423643B1 (en) * | 2021-11-29 | 2022-08-23 | Deeping Source Inc. | Method for generating obfuscated image to be used in training learning net work and labeling device using the same |
US20230198947A1 (en) * | 2021-12-21 | 2023-06-22 | Mcafee, Llc | Website classification via containment queries |
KR102602841B1 (ko) * | 2022-12-23 | 2023-11-17 | 한국건설기술연구원 | 드론영상 학습 오류제거를 위한 하이퍼 파라미터 최적화 시스템, 장치 및 방법 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9053391B2 (en) * | 2011-04-12 | 2015-06-09 | Sharp Laboratories Of America, Inc. | Supervised and semi-supervised online boosting algorithm in machine learning framework |
CN106295646B (zh) * | 2016-08-10 | 2019-08-23 | 东方网力科技股份有限公司 | 一种基于深度学习的车牌字符分割方法和装置 |
US20180121814A1 (en) * | 2016-10-31 | 2018-05-03 | Microsoft Technology Licensing, Llc | Hyperparameter tuning |
CA2948499C (en) * | 2016-11-16 | 2020-04-21 | The Governing Council Of The University Of Toronto | System and method for classifying and segmenting microscopy images with deep multiple instance learning |
US10318827B2 (en) * | 2016-12-19 | 2019-06-11 | Waymo Llc | Object detection neural networks |
US10417524B2 (en) * | 2017-02-16 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Deep active learning method for civil infrastructure defect detection |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
CN107273502B (zh) * | 2017-06-19 | 2020-05-12 | 重庆邮电大学 | 一种基于空间认知学习的图像地理标注方法 |
US10817259B2 (en) * | 2017-07-31 | 2020-10-27 | Allegro Artificial Intelligence Ltd | System and method for causing actions in a dataset management system |
CN108229298A (zh) * | 2017-09-30 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络的训练和人脸识别方法及装置、设备、存储介质 |
CN108416384B (zh) * | 2018-03-05 | 2021-11-05 | 苏州大学 | 一种图像标签标注方法、系统、设备及可读存储介质 |
-
2019
- 2019-01-31 US US16/262,985 patent/US10699192B1/en active Active
- 2019-11-15 KR KR1020190147101A patent/KR102280414B1/ko active IP Right Grant
-
2020
- 2020-01-08 EP EP20150697.9A patent/EP3690740B1/en active Active
- 2020-01-15 JP JP2020004783A patent/JP6849932B2/ja active Active
- 2020-01-16 CN CN202010045709.9A patent/CN111507469B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111507469A (zh) | 2020-08-07 |
KR20200095336A (ko) | 2020-08-10 |
JP6849932B2 (ja) | 2021-03-31 |
EP3690740A1 (en) | 2020-08-05 |
US10699192B1 (en) | 2020-06-30 |
EP3690740B1 (en) | 2024-02-21 |
EP3690740C0 (en) | 2024-02-21 |
KR102280414B1 (ko) | 2021-07-23 |
CN111507469B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020126615A (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
JP6855091B2 (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
KR102326256B1 (ko) | 고정밀도 이미지를 분석하는 딥러닝 네트워크의 학습에 이용하기 위한 트레이닝 이미지를 오토 라벨링하기 위한 방법 및 이를 이용한 오토 라벨링 장치 | |
JP6932395B2 (ja) | イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置 | |
CN111583263B (zh) | 一种基于联合动态图卷积的点云分割方法 | |
US10963738B2 (en) | Method for processing input on basis of neural network learning and apparatus therefor | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
JP4767595B2 (ja) | 対象物検出装置及びその学習装置 | |
JP2020038662A (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
US20150235079A1 (en) | Learning device, learning method, and program | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR102320985B1 (ko) | 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP2020038660A (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
KR102252155B1 (ko) | 자율주행 자동차의 레벨 4를 충족시키기 위해 필요한 hd 지도와의 콜라보레이션을 지원하는 임베딩 로스 및 소프트맥스 로스를 이용하여 적어도 하나의 차선을 가지는 이미지를 세그멘테이션하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
Dos Santos et al. | Performance comparison of convolutional neural network models for object detection in tethered balloon imagery | |
KR20210127638A (ko) | 분류기를 훈련하고 분류기의 강건성을 평가하기 위한 디바이스 및 방법 | |
JP4741036B2 (ja) | 特徴抽出装置、対象物検出装置、特徴抽出方法、および対象物検出方法 | |
Kumar et al. | Stationary Object Detection using RetinaNet and Kalman Filter | |
KR20220124849A (ko) | 다층 랜덤 포레스트 회귀 분석기 기반의 자기-지도 키포인트 검출 방법 및 장치 | |
CN113362372A (zh) | 一种单目标追踪方法及计算机可读介质 | |
JP2011034581A (ja) | 対象物検出装置及びその学習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6849932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |