JP2020119532A - 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents
軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP2020119532A JP2020119532A JP2020001764A JP2020001764A JP2020119532A JP 2020119532 A JP2020119532 A JP 2020119532A JP 2020001764 A JP2020001764 A JP 2020001764A JP 2020001764 A JP2020001764 A JP 2020001764A JP 2020119532 A JP2020119532 A JP 2020119532A
- Authority
- JP
- Japan
- Prior art keywords
- batch
- feature map
- learning
- kth
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010606 normalization Methods 0.000 title claims abstract description 147
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012360 testing method Methods 0.000 title claims description 173
- 230000004913 activation Effects 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 14
- 238000010998 test method Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 description 80
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
調整特徴マップ=γ×AF+β
γはスケーリングパラメータ、βはバイアス(Bias)パラメータであり、AFはバッチ正規化演算が適用された前記第kバッチ用特徴マップを意味する。
調整特徴マップ=γ×AF+β
γはスケーリングパラメータ、βはバイアス(Bias)パラメータであり、AFはバッチ正規化演算が適用された前記第kバッチ用特徴マップを意味する。
調整特徴マップ=γ×AF+β
γはスケーリングパラメータ、βはバイアス(Bias)パラメータであり、AFはバッチ正規化演算が適用された前記第kバッチ用の特徴マップを意味する。
Claims (26)
- それぞれの入力イメージを含むそれぞれのバッチ(Batch)(前記バッチは第1バッチないし第mバッチを含む)の特徴値を利用したバッチ正規化(Normalization)方法において、
(a)コンピューティング装置が、CNNのコンボリューションレイヤをもって、(i)第kバッチ(kは1からmまでの整数である)を取得させ、(ii)前記第kバッチに含まれた前記入力イメージにそれぞれコンボリューション演算を適用して第kバッチ用の特徴マップを生成させる段階;及び
(b)前記コンピューティング装置が、前記CNNのバッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第kバッチ用の特徴マップを参照し、(ii)kは2からmまでの常数である場合に、以前に生成されていた前記第1ないし第(k−1)バッチの中から選択された以前バッチの少なくとも一部分に含まれる以前特徴マップ及び前記第kバッチ用の特徴マップを参照して、前記第kバッチ用の特徴マップの一つ以上の調整平均及び一つ以上の調整分散を算出させ、(II)前記調整平均及び前記調整分散を参照して、前記第kバッチ用の特徴マップにバッチ正規化演算を適用して調整特徴マップを生成させる段階;
を含むバッチ正規化学習方法。 - (c)前記コンピューティング装置が、前記CNNのアクティベーションレイヤ(Activation Layer)をもって、前記調整特徴マップに非線形演算を適用して再調整特徴マップを生成させる段階;
をさらに含むことを特徴とする請求項1に記載の学習方法。 - 前記CNNが前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、
前記第kバッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第kバッチに含まれた前記入力イメージに演算を適用して前記再調整特徴マップが生成され、
xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第x再調整特徴マップを生成させて前記再調整特徴マップが生成されることを特徴とする請求項2に記載の学習方法。 - (d)前記コンピューティング装置が、前記CNNの出力レイヤをもって、前記第nコンボリューションブロックから出力された第n再調整特徴マップに出力演算を適用してCNN出力値を生成させる段階;及び
(e)前記コンピューティング装置が、ロスレイヤをもって、CNN出力値及びそれに対応する原本正解(Ground Truth)を参照してロスを生成させ、前記ロスをバックプロパゲーション(backpropagation)して前記CNNのパラメータを学習させる段階;
をさらに含むことを特徴とする請求項3に記載の学習方法。 - 前記バッチ正規化演算は、前記第kバッチ用の特徴マップに含まれた値を正規化して前記調整平均及び前記調整分散がそれぞれ第1値及び第2値を有するようにする演算であることを特徴とする請求項1に記載の学習方法。
- 前記(b)段階で、
前記バッチ正規化レイヤが、前記第kバッチ用の特徴マップの分散を参照して、前記第1ないし前記第(k−1)バッチのうちで前記調整平均及び前記調整分散を生成するために選択される前記以前バッチの数を決定することを特徴とする請求項1に記載の学習方法。 - 前記第kバッチ用の特徴マップの分散が特定閾値より小さければ、前記バッチ正規化レイヤが(i)前記第kバッチ用の特徴マップのみを参照するか、(ii)前記第kバッチ用の特徴マップ及び一つ以上の特定以前バッチ用の特定以前特徴マップを参照して前記調整平均及び前記調整分散を算出し、前記特定の以前バッチは、(k−1)個に対する前記特定の以前バッチの個数の割合が特定の臨界比率以下に決定されるように前記第1ないし前記第(k−1)バッチの中から選択されることを特徴とする請求項1に記載の学習方法。
- 前記(b)段階で、
前記バッチ正規化レイヤは、前記第kバッチに含まれた前記入力イメージの個数を参照して、(k−1)個に対する特定の以前バッチの個数の割合を決定し、前記調整平均及び前記調整分散を算出するために利用される前記特定の以前バッチは前記第1ないし前記第(k−1)バッチの中から選択されることを特徴とする請求項1に記載の学習方法。 - 前記(b)段階で、
前記バッチ正規化レイヤは、(i)第1重み付け値が割り当てられた前記第kバッチ用の特徴マップ、及び(ii)一つ以上の第2重み付け値が割り当てられた、前記第1ないし前記第(k−1)以前バッチのうち少なくとも一部のバッチに含まれる前記以前特徴マップを参照して前記調整平均及び前記調整分散を算出することを特徴とする請求項1に記載の学習方法。 - 前記(b)段階で、
前記バッチ正規化レイヤが、前記第2ないし前記第(k−1)バッチのそれぞれの調整平均及びそれぞれの調整分散が生成される間、それぞれの前記第1ないし前記第(k−1)バッチに対応するそれぞれの前記以前特徴マップが利用されていた回数を参照して、前記第1ないし前記第(k−1)バッチのうちで前記第kバッチ用の特徴マップの前記調整平均及び前記調整分散を算出するために利用される特定の以前バッチを選択することを特徴とする請求項1に記載の学習方法。 - 前記(b)段階で、
前記バッチ正規化レイヤが、(i)それぞれの前記第1ないし前記第(k−1)バッチに対応する前記以前特徴マップのそれぞれの平均が第1値を参照して決定される第1特定の範囲内に存在するか否かに関する情報、又は(ii)それぞれの前記第1ないし前記第(k−1)バッチに対応する前記以前特徴マップのそれぞれの分散が第2値を参照して決定される第2特定の範囲内に存在するか否かに関する情報を参照して、前記第1ないし前記第(k−1)バッチのうちで前記第kバッチ用の特徴マップの前記調整平均及び前記調整分散を算出するために利用される特定の以前バッチを選択することを特徴とする請求項1に記載の学習方法。 - 前記(b)段階で、
前記バッチ正規化レイヤは、前記バッチ正規化演算を前記第kバッチ用の特徴マップに適用した後、これに線形演算を適用して前記第kバッチ用調整特徴マップを生成し、前記線形演算は下記の数式により、
調整特徴マップ=γ×AF+β
γはスケーリングパラメータ、βはバイアス(Bias)パラメータであり、AFはバッチ正規化演算が適用された前記第kバッチ用の特徴マップを意味することを特徴とする請求項1に記載の学習方法。 - それぞれのテストイメージを含むそれぞれのバッチ(前記バッチは第1ないし第mバッチを含む)の特徴値を利用したバッチ正規化テスト方法において、
(a)(1)学習装置が、CNNのコンボリューションレイヤをもって、(i)第k学習用バッチ(kは1からmまでの常数である)を取得させ、(ii)前記第k学習用バッチに含まれたトレーニングイメージにそれぞれコンボリューション演算を適用して第k学習用バッチ用特徴マップを生成させ、(2)前記学習装置が、前記CNNのバッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第k学習用バッチ用特徴マップを参照し、(ii)kは2からmまでの常数である場合に、以前に生成されていた前記第1ないし第(k−1)学習用バッチの中から選択された以前の学習用バッチの少なくとも一部分に含まれる以前の学習用特徴マップ及び前記第k学習用バッチ用特徴マップを参照して、前記第k学習用バッチ用特徴マップの一つ以上の学習用調整平均及び一つ以上の学習用調整分散を算出させ、(II)前記学習用調整平均及び前記学習用調整分散を参照して前記第k学習用バッチ用特徴マップにバッチ正規化演算を適用して学習用調整特徴マップを生成させ、(3)前記学習装置が、前記CNNのアクティベーションレイヤをもって前記学習用調整特徴マップに非線形演算を適用して学習用再調整特徴マップを生成させ、前記CNNが前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、前記第k学習用バッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第k学習用バッチに含まれた前記トレーニングイメージに演算を適用して前記学習用再調整特徴マップが生成され、xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)学習用再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第x学習用再調整特徴マップを生成させて前記学習用再調整特徴マップが生成され、(4)前記学習装置が、前記CNNの出力レイヤをもって前記第nコンボリューションブロックから出力された第n学習用再調整特徴マップに出力演算を適用して学習用CNN出力値を生成させ、(5)前記学習装置が、前記CNNのロスレイヤをもって前記学習用CNN出力値及びそれに対応する原本正解(Ground Truth)を参照してロスを生成させ、前記ロスをバックプロパゲーションして前記CNNのパラメータを学習した状態で、テスト装置が前記CNNの前記コンボリューションレイヤをもって、(i)第kテスト用バッチ(kは1からm’までの常数である)を取得させ、(ii)前記第kテスト用バッチにそれぞれ含まれたテストイメージにコンボリューション演算を適用して第kテスト用バッチ用特徴マップを生成させる段階;
(b)前記テスト装置が、前記CNNの前記バッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第kテスト用バッチ用特徴マップを参照し、(ii)kは2からm’までの常数である場合に、以前に生成されていた前記第1ないし第(k−1)テスト用バッチの中から選択された以前のテスト用バッチの少なくとも一部分に含まれる以前のテスト用特徴マップ及び前記第kテスト用バッチ用特徴マップを参照して、前記第kテスト用バッチ用特徴マップの一つ以上のテスト用調整平均及び一つ以上のテスト用調整分散を算出させ、(II)前記テスト用調整平均及び前記テスト用調整分散を参照して、前記第kテスト用バッチ用特徴マップにバッチ正規化演算を適用してテスト用調整特徴マップを生成させる段階;
(c)前記テスト装置が、前記CNNの前記アクティベーションレイヤをもって前記テスト用調整特徴マップに非線形演算を適用してテスト用再調整特徴マップを生成させ、前記CNNが前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、前記第kテスト用バッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第kテスト用バッチに含まれた前記テストイメージに演算を適用して前記テスト用再調整特徴マップが生成され、xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)テスト用再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第xテスト用再調整特徴マップを生成させて前記テスト用再調整特徴マップが生成される段階;及び
(d)前記テスト装置が、前記CNNの前記出力レイヤをもって第nコンボリューションブロックから出力された第nテスト用再調整特徴マップに出力演算を適用してテスト用CNN出力値を生成させる段階;
を含むことを特徴とするテスト方法。 - それぞれの入力イメージを含むそれぞれのバッチ(Batch)(前記バッチは第1バッチないし第mバッチを含む)の特徴値を利用したバッチ正規化コンピューティング装置において、
インストラクションを格納する少なくとも一つのメモリと、
(1)CNNのコンボリューションレイヤをもって、第kバッチ(kは1からmまでの常数である)に含まれた前記入力イメージにそれぞれコンボリューション演算を適用して第kバッチ用の特徴マップを生成させるプロセス、及び(2)前記CNNのバッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第kバッチ用の特徴マップを参照し、(ii)kは2からmまでの常数である場合に、以前に生成されていた前記第1ないし第(k−1)バッチの中から選択された以前バッチの少なくとも一部分に含まれる以前特徴マップ及び前記第kバッチ用の特徴マップを参照して、前記第kバッチ用の特徴マップの一つ以上の調整平均及び一つ以上の調整分散を算出させ、(II)前記調整平均及び前記調整分散を参照して前記第kバッチ用の特徴マップにバッチ正規化演算を適用して調整特徴マップを生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするコンピューティング装置。 - 前記プロセッサが、(3)前記CNNのアクティベーションレイヤをもって、前記調整特徴マップに非線形演算を適用して再調整特徴マップを生成させるプロセス;
をさらに遂行することを特徴とする請求項14に記載のコンピューティング装置。 - 前記CNNが、前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、
前記第kバッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第kバッチに含まれた前記入力イメージに演算を適用して前記再調整特徴マップが生成され、
xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第x再調整特徴マップを生成させて前記再調整特徴マップが生成されることを特徴とする請求項15に記載のコンピューティング装置。 - 前記プロセッサが、
(4)前記CNNの出力レイヤをもって、前記第nコンボリューションブロックから出力された第n再調整特徴マップに出力演算を適用してCNN出力値を生成させるプロセス;及び
(5)ロスレイヤをもって、前記CNN出力値及びそれに対応する原本正解を参照してロスを生成させ、前記ロスをバックプロパゲーションして前記CNNのパラメータを学習させるプロセス;
をさらに遂行することを特徴とする請求項16に記載のコンピューティング装置。 - 前記バッチ正規化演算は、前記第kバッチ用の特徴マップに含まれた各値を正規化して前記調整平均及び前記調整分散がそれぞれ第1値及び第2値を有するようにする演算であることを特徴とする請求項14に記載のコンピューティング装置。
- 前記(2)プロセスで、
前記バッチ正規化レイヤが、前記第kバッチ用の特徴マップの分散を参照して、前記第1ないし前記第(k−1)バッチのうちで前記調整平均及び前記調整分散を生成するために選択される前記以前バッチの数を決定することを特徴とする請求項14に記載のコンピューティング装置。 - 前記第kバッチ用の特徴マップの分散が特定閾値より小さければ、前記バッチ正規化レイヤが(i)前記第kバッチ用の特徴マップのみを参照するか、(ii)前記第kバッチ用の特徴マップ及び一つ以上の特定の以前バッチ用特定の以前特徴マップを参照して前記調整平均及び前記調整分散を算出し、前記特定の以前バッチは、(k−1)個に対する前記特定の以前バッチの個数の割合が特定の臨界比率以下に決定されるように前記第1ないし前記第(k−1)バッチの中から選択されることを特徴とする請求項14に記載のコンピューティング装置。
- 前記(2)プロセスで、
前記バッチ正規化レイヤは、前記第kバッチに含まれた前記入力イメージの個数を参照して、(k−1)個に対する特定の以前バッチの個数の割合を決定し、前記調整平均及び前記調整分散を算出するために利用される前記特定の以前バッチは前記第1ないし前記第(k−1)バッチの中から選択されることを特徴とする請求項14に記載のコンピューティング装置。 - 前記(2)プロセスで、
前記バッチ正規化レイヤは、(i)第1重み付け値が割り当てられた前記第kバッチ用の特徴マップ、及び(ii)一つ以上の第2重み付け値が割り当てられた、前記第1ないし前記第(k−1)以前バッチのうち少なくとも一部のバッチに含まれる前記以前特徴マップを参照して前記調整平均及び前記調整分散を算出することを特徴とする請求項14に記載のコンピューティング装置。 - 前記(2)プロセスで、
前記バッチ正規化レイヤが、前記第2ないし前記第(k−1)バッチのそれぞれの調整平均及びそれぞれの調整分散が生成される間、それぞれの前記第1ないし前記第(k−1)バッチに対応するそれぞれの前記以前特徴マップが利用されていた回数を参照して、前記第1ないし前記第(k−1)バッチのうちで前記第kバッチ用の特徴マップの前記調整平均及び前記調整分散を算出するために利用される特定の以前バッチを選択することを特徴とする請求項14に記載のコンピューティング装置。 - 前記(2)プロセスで、
前記バッチ正規化レイヤが、(i)それぞれの前記第1ないし前記第(k−1)バッチに対応する前記以前特徴マップのそれぞれの平均が第1値を参照して決定される第1特定の範囲内に存在するか否かに関する情報、又は(ii)それぞれの前記第1ないし前記第(k−1)バッチに対応する前記以前特徴マップのそれぞれの分散が第2値を参照して決定される第2特定の範囲内に存在するか否かに関する情報を参照して、前記第1ないし前記第(k−1)バッチのうちで前記第kバッチ用の特徴マップの前記調整平均及び前記調整分散を算出するために利用される特定の以前バッチを選択することを特徴とする請求項14に記載のコンピューティング装置。 - 前記(2)プロセスで、
前記バッチ正規化レイヤは、前記バッチ正規化演算を前記第kバッチ用の特徴マップに適用した後、これに線形演算を適用して前記第kバッチ用調整特徴マップを生成し、前記線形演算は下記の数式により、
調整特徴マップ=γ×AF+β
γはスケーリングパラメータ、βはバイアス(Bias)パラメータであり、AFはバッチ正規化演算が適用された前記第kバッチ用の特徴マップを意味することを特徴とする請求項14に記載のコンピューティング装置。 - それぞれのテストイメージを含むそれぞれのバッチ(前記バッチは第1ないし第mバッチを含む)の特徴値を利用したバッチ正規化テスト装置において、
インストラクションを格納する少なくとも一つのメモリと、
(1)学習装置が、CNNのコンボリューションレイヤをもって、(i)第k学習用バッチ(kは1からmまでの常数である)を取得させ、(ii)前記第k学習用バッチに含まれたトレーニングイメージにそれぞれコンボリューション演算を適用して第k学習用バッチ用特徴マップを生成させ、(2)前記学習装置が、前記CNNのバッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第k学習用バッチ用特徴マップを参照し、(ii)kは2からmまでの常数である場合に、以前に生成されていた前記第1ないし第(k−1)学習用バッチの中から選択された以前の学習用バッチの少なくとも一部分に含まれる以前の学習用特徴マップ及び前記第k学習用バッチ用特徴マップを参照して、前記第k学習用バッチ用特徴マップの学習用調整平均及び学習用調整分散を算出させ、(II)前記学習用調整平均及び前記学習用調整分散を参照して前記第k学習用バッチ用特徴マップにバッチ正規化演算を適用して学習用調整特徴マップを生成させ、(3)前記学習装置が、前記CNNのアクティベーションレイヤをもって、前記学習用調整特徴マップに非線形演算を適用して学習用再調整特徴マップを生成させ、前記CNNが前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、前記第k学習用バッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第k学習用バッチに含まれた前記トレーニングイメージに演算を適用して前記学習用再調整特徴マップが生成され、xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)学習用再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第x学習用再調整特徴マップを生成させて前記学習用再調整特徴マップが生成され、(4)前記学習装置が、前記CNNの出力レイヤをもって、前記第nコンボリューションブロックから出力された第n学習用再調整特徴マップに出力演算を適用して学習用CNN出力値を生成させ、(5)前記学習装置が、前記CNNのロスレイヤをもって前記学習用CNN出力値、及びそれに対応する原本正解(Ground Truth)を参照してロスを生成させ、前記ロスをバックプロパゲーションして前記CNNのパラメータを学習した状態で、(A)前記CNNの前記コンボリューションレイヤをもって、前記第kテスト用バッチにそれぞれ含まれたテストイメージに前記コンボリューション演算を適用して第kテスト用バッチ用特徴マップを生成させるプロセス、(B)前記CNNの前記バッチ正規化レイヤをもって、(I)(i)kが1である場合に、前記第kテスト用バッチ用特徴マップを参照し、(ii)kは2からm’までの常数である場合に、以前に生成されていた前記第1ないし第(k−1)テスト用バッチの中から選択された以前のテスト用バッチの少なくとも一部分に含まれる以前のテスト用特徴マップ及び前記第kテスト用バッチ用特徴マップを参照して、前記第kテスト用バッチ用特徴マップのテスト用調整平均及びテスト用調整分散を算出させ、(II)前記テスト用調整平均及び前記テスト用調整分散を参照して前記第kテスト用バッチ用特徴マップにバッチ正規化演算を適用してテスト用調整特徴マップを生成させるプロセス、(C)前記CNNの前記アクティベーションレイヤをもって、前記テスト用調整特徴マップに非線形演算を適用してテスト用再調整特徴マップを生成させ、前記CNNが前記コンボリューションレイヤ、前記バッチ正規化レイヤ及び前記アクティベーションレイヤをそれぞれ含む第1ないし第nコンボリューションブロックを含み、前記第kテスト用バッチが取得されると、前記第1ないし前記第nコンボリューションブロックを通じて前記第kテスト用バッチに含まれた前記テストイメージに前記演算を適用して前記テスト用再調整特徴マップが生成され、xが2からnまでの常数であれば、第(x−1)コンボリューションブロックから出力された第(x−1)テスト用再調整特徴マップが第xコンボリューションブロックに入力されるようにし、前記第xコンボリューションブロックをもって、第xテスト用再調整特徴マップを生成させて前記テスト用再調整特徴マップが生成されるプロセス、及び(D)前記CNNの前記出力レイヤをもって、前記第nコンボリューションブロックから出力された第nテスト用再調整特徴マップに出力演算を適用してテスト用CNN出力値を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/255,446 US10325185B1 (en) | 2019-01-23 | 2019-01-23 | Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same |
US16/255,446 | 2019-01-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119532A true JP2020119532A (ja) | 2020-08-06 |
JP6916549B2 JP6916549B2 (ja) | 2021-08-11 |
Family
ID=66826023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001764A Active JP6916549B2 (ja) | 2019-01-23 | 2020-01-08 | 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10325185B1 (ja) |
EP (1) | EP3686810B1 (ja) |
JP (1) | JP6916549B2 (ja) |
KR (1) | KR102316593B1 (ja) |
CN (1) | CN111476082B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
US11631163B2 (en) * | 2020-02-11 | 2023-04-18 | Samsung Electronics Co., Ltd. | Mobile data augmentation engine for personalized on-device deep learning system |
KR102209121B1 (ko) * | 2020-08-24 | 2021-01-28 | 클라우드브릭주식회사 | 딥러닝 머신의 신뢰도 판단 방법 |
CN117377984A (zh) * | 2021-09-01 | 2024-01-09 | 英特尔公司 | 用于视频理解应用中的深度学习的动态时间归一化 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170351948A1 (en) * | 2016-06-01 | 2017-12-07 | Seoul National University R&Db Foundation | Apparatus and method for generating prediction model based on artificial neural network |
WO2018148526A1 (en) * | 2017-02-10 | 2018-08-16 | Google Llc | Batch renormalization layers |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05346915A (ja) * | 1992-01-30 | 1993-12-27 | Ricoh Co Ltd | 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法 |
US9418319B2 (en) * | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
WO2016123409A1 (en) * | 2015-01-28 | 2016-08-04 | Google Inc. | Batch normalization layers |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
AU2016308097B2 (en) * | 2015-08-15 | 2018-08-02 | Salesforce.Com, Inc. | Three-dimensional (3D) convolution with 3D batch normalization |
WO2017031630A1 (zh) * | 2015-08-21 | 2017-03-02 | 中国科学院自动化研究所 | 基于参数量化的深度卷积神经网络的加速与压缩方法 |
US11074492B2 (en) * | 2015-10-07 | 2021-07-27 | Altera Corporation | Method and apparatus for performing different types of convolution operations with the same processing elements |
US20170124409A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Cascaded neural network with scale dependent pooling for object detection |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US9904874B2 (en) * | 2015-11-05 | 2018-02-27 | Microsoft Technology Licensing, Llc | Hardware-efficient deep convolutional neural networks |
US10002313B2 (en) * | 2015-12-15 | 2018-06-19 | Sighthound, Inc. | Deeply learned convolutional neural networks (CNNS) for object localization and classification |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
WO2017139927A1 (en) * | 2016-02-17 | 2017-08-24 | Intel Corporation | Region proposal for image regions that include objects of interest using feature maps from multiple layers of a convolutional neural network model |
CN106097355A (zh) * | 2016-06-14 | 2016-11-09 | 山东大学 | 基于卷积神经网络的胃肠道肿瘤显微高光谱图像处理方法 |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US10387740B2 (en) * | 2016-10-10 | 2019-08-20 | Gyrfalcon Technology Inc. | Object detection and recognition apparatus based on CNN based integrated circuits |
US11321609B2 (en) * | 2016-10-19 | 2022-05-03 | Samsung Electronics Co., Ltd | Method and apparatus for neural network quantization |
US20180107926A1 (en) * | 2016-10-19 | 2018-04-19 | Samsung Electronics Co., Ltd. | Method and apparatus for neural network quantization |
US10198671B1 (en) * | 2016-11-10 | 2019-02-05 | Snap Inc. | Dense captioning with joint interference and visual context |
US11392825B2 (en) * | 2017-01-09 | 2022-07-19 | Samsung Electronics Co., Ltd. | Method and algorithm of recursive deep learning quantization for weight bit reduction |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US10127495B1 (en) * | 2017-04-14 | 2018-11-13 | Rohan Bopardikar | Reducing the size of a neural network through reduction of the weight matrices |
EP3619651B1 (en) * | 2017-05-02 | 2024-03-27 | Kodak Alaris Inc. | System and method for batch-normalized recurrent highway networks |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
US10728553B2 (en) * | 2017-07-11 | 2020-07-28 | Sony Corporation | Visual quality preserving quantization parameter prediction with deep neural network |
JP7149692B2 (ja) * | 2017-08-09 | 2022-10-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
KR20190034985A (ko) * | 2017-09-25 | 2019-04-03 | 삼성전자주식회사 | 인공 신경망의 양자화 방법 및 장치 |
-
2019
- 2019-01-23 US US16/255,446 patent/US10325185B1/en active Active
- 2019-09-27 KR KR1020190119520A patent/KR102316593B1/ko active IP Right Grant
- 2019-12-27 EP EP19219762.2A patent/EP3686810B1/en active Active
-
2020
- 2020-01-08 JP JP2020001764A patent/JP6916549B2/ja active Active
- 2020-01-20 CN CN202010063590.8A patent/CN111476082B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170351948A1 (en) * | 2016-06-01 | 2017-12-07 | Seoul National University R&Db Foundation | Apparatus and method for generating prediction model based on artificial neural network |
WO2018148526A1 (en) * | 2017-02-10 | 2018-08-16 | Google Llc | Batch renormalization layers |
Also Published As
Publication number | Publication date |
---|---|
JP6916549B2 (ja) | 2021-08-11 |
EP3686810B1 (en) | 2024-06-19 |
US10325185B1 (en) | 2019-06-18 |
CN111476082B (zh) | 2023-07-04 |
KR102316593B1 (ko) | 2021-10-25 |
EP3686810C0 (en) | 2024-06-19 |
CN111476082A (zh) | 2020-07-31 |
EP3686810A1 (en) | 2020-07-29 |
KR20200091782A (ko) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020119532A (ja) | 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 | |
KR102373448B1 (ko) | 사람의 주행 데이터를 트레이닝 데이터로서 사용하여 강화 학습을 지원함으로써 맞춤형 경로 플래닝을 수행하는 학습 방법 및 학습 장치 | |
KR102337358B1 (ko) | 모바일 장치 또는 소형 네트워크에 적용 가능한 하드웨어를 최적화하는데 사용될 수 있는 roi를 풀링하기 위하여, 마스킹 파라미터를 이용하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2020119533A (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
KR20200095356A (ko) | 딥 뉴럴 네트워크(deep neural network) 기반의 다중 패치 조합(multiple patch combination)을 이용하여 얼굴을 인식하고, 극도의 상황에서 결함 허용 능력 및 흔들림에 강인한 성질을 향상시키는 방법 | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200095336A (ko) | 고 정밀도로 이미지를 분석하기 위한 딥 러닝 네트워크를 사용하기 위해 트레이닝 이미지를 오토 라벨링하는 오토 라벨링 장치의 하이퍼파라미터를 최적화하는 방법 및 이를 이용한 최적화 장치 | |
KR20200027426A (ko) | 컨벌루션 뉴럴 네트워크로부터 복수의 출력들의 앙상블을 이용하여 통합된 특징 맵을 제공하기 위한 방법 및 장치 | |
JP6998067B2 (ja) | 適応的学習率でニューラルネットワークを学習する方法及び装置、これを利用したテスト方法及び装置 | |
KR102325025B1 (ko) | 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치 | |
JP2020119518A (ja) | ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置 | |
KR20200091323A (ko) | 핵심성과지표와 같은 사용자 요구 사항에 적합한 타겟 객체 예측 네트워크를 이용한, cnn 기반의 변동에 강인한 객체 검출기를 학습하는 방법 및 학습 장치, 및 이를 이용한 테스팅 방법 및 테스팅 장치 | |
KR102320995B1 (ko) | 객체의 스케일에 따라 모드 전환이 가능한 cnn 기반의 감시용 객체 검출기의 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2020119555A (ja) | 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
KR20200031992A (ko) | 멀티 피딩을 적용한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200094656A (ko) | Gan을 이용해 가상 세계에 대한 가상 데이터로부터 나온 트레이닝 데이터를 생성하여, 자율 주행용 뉴럴 네트워크의 학습 프로세스에 필요한 어노테이션 비용을 줄이는 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2020119531A (ja) | 自律走行自動車のレベル4を満たすために必要なhdマップとのコラボレーションを支援するエンベディングロス及びソフトマックスロスを利用して少なくとも一つの車線を有するイメージをセグメンテーションする学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
KR102375278B1 (ko) | 사진 스타일 변환을 사용하여 런타임 입력 변환에 의해 실제 세계에서 사용되는 가상 세계에서 학습된 cnn을 허용하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
EP3686809B1 (en) | Method and device for transforming cnn layers to optimize cnn parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization | |
Peng et al. | Modified dragonfly algorithm based multilevel thresholding method for color images segmentation | |
US10635941B1 (en) | Method and device for on-device continual learning of neural network which analyzes input data by optimized sampling of training images, and method and device for testing the neural network for smartphones, drones, vessels, or military purpose | |
WO2022242471A1 (en) | Neural network configuration parameter training and deployment method and apparatus for coping with device mismatch | |
KR102313605B1 (ko) | 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치 | |
KR102326278B1 (ko) | 자율주행 차량 레벨4를 충족하기 위해 영역의 클래스에 따라 모드를 전환하기 위하여 그리드 생성기를 이용하는 뉴럴 네트워크 연산 방법 및 이를 이용한 장치 | |
JP2004527172A (ja) | 画像品質についてのアルゴリズムのランダムシステムを最適化するための拡張可能なシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6916549 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |