JP6998067B2 - 適応的学習率でニューラルネットワークを学習する方法及び装置、これを利用したテスト方法及び装置 - Google Patents
適応的学習率でニューラルネットワークを学習する方法及び装置、これを利用したテスト方法及び装置 Download PDFInfo
- Publication number
- JP6998067B2 JP6998067B2 JP2019182935A JP2019182935A JP6998067B2 JP 6998067 B2 JP6998067 B2 JP 6998067B2 JP 2019182935 A JP2019182935 A JP 2019182935A JP 2019182935 A JP2019182935 A JP 2019182935A JP 6998067 B2 JP6998067 B2 JP 6998067B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- gamma
- loss
- iterations
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Feedback Control In General (AREA)
- Complex Calculations (AREA)
Description
このように構成された本発明の一例に係る学習装置100を利用してニューラルネットワークを学習する方法を、図3に基づいて説明する。
その後、学習装置100は、ニューラルネットワークの出力、つまり出力レイヤ(K)から出力された結果及びこれに対応するGTを参照してロスを取得する。
そして、学習装置100は、取得されたロスを利用してバックプロパゲーションを通じてニューラルネットワークを学習する。
[数式2]
ソフトマックス関数は、数式3のように表され得り、費用関数は数式4のように表され得る。
[数式3]
[数式4]
[数式8]
Claims (26)
- 学習のイテレーション(iteration)累積回数が第1ないし第n特定値の中の一つに到達するたびに学習率を調整して、ニューラルネットワーク(neural network)を学習させる方法において、
(a)学習装置が、学習率の変更比率調整のための定数である第1ガンマを予め設定した状態で、(i)前記イテレーションの累積回数が第1特定値以下を満足している間には、トレーニングデータの一部を利用して第1予め設定された学習率で前記ニューラルネットワークの前記学習を繰り返す第1学習プロセスを遂行し、(ii)前記第1学習プロセスによって取得された前記ニューラルネットワークの第1ロスを参照して前記第1ガンマを第2ガンマに変更する段階;
(b)前記学習装置が、kを2から(n-1)まで増加させながら、(b1)前記イテレーション累積回数が第(k-1)特定値より大きく、かつ、第k特定値以下を満足している間には、前記トレーニングデータの一部を利用して第k学習率で前記ニューラルネットワークの前記学習を繰り返す第k学習プロセスを遂行して、(b2)(i)前記第k学習プロセスによって取得された前記ニューラルネットワークの第kロスを参照して第kガンマを第(k+1)ガンマに変更し、(ii)前記第(k+1)ガンマを利用して第k学習率を第(k+1)学習率に変更し、(b3)前記イテレーションの累積回数が第k特定値より大きく、かつ、第(k+1)特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第(k+1)学習率で前記ニューラルネットワークの前記学習を繰り返す第(k+1)学習プロセスを遂行する段階;
を含み、
前記(b)段階で、
前記学習装置は、第kロスグラディエントを参照して前記第kガンマを第(k+1)ガンマに変更し、前記第kロスグラディエントは、前記ニューラルネットワークの(i)前記第kロス及び(ii)第(k-1)ロスを参照して算出され、前記第(k-1)ロスは、前記イテレーションの累積回数が第(k-2)特定値より大きく、かつ、第(k-1)特定値以下を満足している間、前記トレーニングデータの一部を利用して前記ニューラルネットワークの前記学習を繰り返す第(k-1)学習プロセスによって取得されることを特徴とする学習方法。 - 前記学習装置は、前記第kロスグラディエントが予め設定された最小ロスグラディエント以上である場合、前記第kガンマと前記第kロスグラディエントとを掛け算して算出された結果を参照にして、前記第(k+1)ガンマを決定することを特徴とする請求項1に記載の学習方法。
- 前記学習装置は、前記第kロスグラディエントが予め設定された最小ロスグラディエント未満である場合、前記第(k+1)ガンマが前記第kガンマに決定されることを特徴とする請求項1に記載の学習方法。
- 前記学習装置は、前記第(k-1)ロスの和に対する前記第kロスの和の比率を前記第kロスグラディエントに決定することを特徴とする請求項1に記載の学習方法。
- 前記(b)段階で、
前記学習装置は、前記第k学習率と前記第(k+1)ガンマとを掛け算して算出された結果を前記第(k+1)学習率に決定することを特徴とする請求項1に記載の学習方法。 - 前記トレーニングデータの中の前記一部それぞれがバッチデータであり、
前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、
前記イテレーション累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用される前記バッチデータの数は、前記第(k+1)学習プロセスの間のイテレーション回数と同様に決定されることを特徴とする請求項1に記載の学習方法。 - 前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用された前記バッチデータの数は、前記イテレーションの累積回数が前記第k特定値より大きく、かつ、前記(k+1)特定値以下を満足している間に利用されたバッチデータの数と同一であることを特徴とする請求項6に記載の学習方法。
- 前記ニューラルネットワークは、(i)トレーニングデータに少なくとも一つのコンボリューション演算を適用して、少なくとも一つの特徴マップを出力するようにする少なくとも一つのコンボリューションレイヤ(convolutional layer)、(ii)前記特徴マップ上でのROI(Region Of Interest)に対応する領域をプーリングして算出された、少なくとも一つの特徴ベクトルに少なくとも一つのFC(Fully connected)演算を適用して、前記トレーニングデータに含まれた少なくとも一つの物体に対応する確率値を算出するようにする少なくとも一つのFCレイヤ(FC layer)、及び(iii)前記FCレイヤから算出された前記確率値に対応する、少なくとも一つのクラススコア及び少なくとも一つのリグレッションデルタを算出する出力レイヤ(output layer)を含み、
前記学習装置が、前記出力レイヤの少なくとも一つの算出結果とこれに対応するGT(Ground Truth)とを参照して計算したロスを利用してバックプロパゲーションすることにより、前記FCレイヤ及び前記コンボリューションレイヤを学習する場合、前記学習装置は、前記第1学習率ないし前記第k学習率を参照して、前記FCレイヤ及び前記コンボリューションレイヤの少なくとも一つのパラメータの変動幅を決定することを特徴とする請求項1に記載の学習方法。 - (i)前記トレーニングデータの中の前記一部それぞれがバッチデータで、(ii)前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、(iii)前記イテレーション累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用される前記バッチデータの数は、前記第(k+1)学習プロセスの間のイテレーション回数と同一に決定される場合、 前記学習装置は、前記それぞれのバッチデータに対応する前記出力レイヤの少なくとも一つの各算出結果と、それに対応する前記GTとを参照して計算したロスを利用してバックプロパゲーションすることにより、前記FCレイヤ及び前記コンボリューションレイヤを学習することを特徴とする請求項8に記載の学習方法。
- 学習のイテレーション累積回数が第1ないし第n特定値の中の一つに到達するたびに学習率を調整して、ニューラルネットワーク(neural network)をテストする方法において、
(a)学習装置が、(I)学習率の変更比率調整のための定数である第1ガンマを予め設定した状態で、(i)前記イテレーションの累積回数が第1特定値以下を満足している間には、トレーニングデータの一部を利用して、第1予め設定された学習率で前記ニューラルネットワークの前記学習を繰り返す第1学習プロセスを遂行し、(ii)前記第1学習プロセスによって取得された前記ニューラルネットワークの第1ロスを参照して、前記第1ガンマを第2ガンマに変更するプロセス;(II)前記学習装置が、kを2から(n-1)まで増加させながら、(i)前記イテレーションの累積回数が第(k-1)特定値より大きく、かつ、第k特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第k学習率で前記ニューラルネットワークの前記学習を繰り返す第k学習プロセスを遂行し、(ii)(ii-1)前記第k学習プロセスによって取得された前記ニューラルネットワークの第kロスを参照して第kガンマを第(k+1)ガンマに変更し、(ii-2)前記第(k+1)ガンマを利用して第k学習率を第(k+1)学習率に変更し、(iii)前記イテレーションの累積回数が第k特定値より大きく、かつ、第(k+1)特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第(k+1)学習率で前記ニューラルネットワークの前記学習を繰り返す第(k+1)学習プロセス;を経て、前記学習装置のパラメータを取得した状態で、前記学習装置のパラメータを利用したテスト装置が、前記ニューラルネットワークにテストデータを入力する段階;及び
(b)前記テスト装置が、前記ニューラルネットワークをもって、第1学習率ないし第(k+1)学習率によって学習されたパラメータを利用して、テストデータの演算した結果を出力する段階;
を含み、
前記(II)プロセスで、
前記学習装置は、第kロスグラディエントを参照して前記第kガンマを第(k+1)ガンマに変更し、前記第kロスグラディエントは、前記ニューラルネットワークの(i)前記第kロス及び(ii)第(k-1)ロスを参照して算出され、前記第(k-1)ロスは、前記イテレーションの累積回数が第(k-2)特定値より大きく、かつ、第(k-1)特定値以下を満足している間、前記トレーニングデータの一部を利用して前記ニューラルネットワークの前記学習を繰り返す、第(k-1)学習プロセスによって取得されることを特徴とするテスト方法。 - 前記学習装置は、前記第kロスグラディエントが予め設定された最小ロスグラディエント以上である場合、前記第kガンマと前記第kロスグラディエントとを掛け算して算出された結果を参照にして、前記第(k+1)ガンマを決定することを特徴とする請求項10に記載のテスト方法。
- 前記ニューラルネットワークは、(i)トレーニングデータに少なくとも一つのコンボリューション演算を適用して、少なくとも一つの特徴マップを出力させる少なくとも一つのコンボリューションレイヤ(convolutional layer)、(ii)前記特徴マップ上でのROI(Region Of Interest)に対応する領域をプーリングして算出された、少なくとも一つの特徴ベクトルに少なくとも一つのFC(Fully connected)演算を適用して、前記トレーニングデータに含まれた少なくとも一つの物体に対応する確率値を算出するようにする少なくとも一つのFCレイヤ(FC layer)、及び (iii)前記FCレイヤから算出された前記確率値に対応する、少なくとも一つのクラススコア及び少なくとも一つのリグレッションデルタを算出する出力レイヤ(output layer)を含み、
前記出力レイヤの少なくとも一つの算出結果とこれに対応するGT(Ground Truth)とを参照して計算したロスを利用してバックプロパゲーションをすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習する場合、前記学習装置は、前記第1学習率ないし前記第k学習率を参照して、前記FCレイヤ及び前記コンボリューションレイヤの少なくとも一つのパラメータの変動幅を決定することを特徴とする請求項10に記載のテスト方法。 - (i)前記トレーニングデータの中の前記一部それぞれがバッチデータで、(ii)前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、(iii)前記イテレーションの累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用する前記バッチデータの数は、前記第(k+1)学習プロセスの間のイテレーション回数と同様に決定される場合、前記学習装置は、前記それぞれのバッチデータに対応される前記出力レイヤの少なくとも一つの各算出結果と、それに対応される前記GTとを参照して計算したロスを利用してバックプロパゲーションすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習することを特徴とする請求項12に記載のテスト方法。
- 学習のイテレーション累積回数が第1ないし第n特定値の中の一つに到達するたびに学習率を調整して、ニューラルネットワーク(neural network)を学習させる学習装置において、
トレーニングデータを取得する通信部;及び
(I)学習率の変更比率調整のための定数である第1ガンマを予め設定した状態で、(i)前記イテレーションの累積回数が第1特定値以下を満足している間には、トレーニングデータの一部を利用して第1予め設定された学習率で前記ニューラルネットワークの前記学習を繰り返す第1学習プロセスを遂行し、(ii)前記第1学習プロセスによって取得された前記ニューラルネットワークの第1ロスを参照して前記第1ガンマを第2ガンマに変更するプロセス、(II)kを2から(n-1)まで増加させながら、(II-1)前記イテレーションの累積回数が第(k-1)特定値より大きく、かつ、第k特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第k学習率で前記ニューラルネットワークの前記学習を繰り返す第k学習プロセスを遂行し、(II-2)(i)前記第k学習プロセスによって取得された前記ニューラルネットワークの第kロスを参照して第kガンマを第(k+1)ガンマに変更し、(ii)前記第(k+1)ガンマを利用して第k学習率を第(k+1)学習率に変更し、(II-3)前記イテレーションの累積回数が第k特定値より大きく、かつ、第(k+1)特定値以下を満足している間には、前記トレーニングデータの一部を利用して第(k+1)学習率で前記ニューラルネットワークの前記学習を繰り返す第(k+1)学習プロセスを遂行するプロセスを遂行するプロセッサ;
を含み、
前記(II)プロセスで、
前記プロセッサは、第kロスグラディエントを参照して前記第kガンマを第(k+1)ガンマに変更し、前記第kロスグラディエントは、前記ニューラルネットワークの(i)前記第kロス及び(ii)第(k-1)ロスを参照して算出され、前記第(k-1)ロスは、前記イテレーションの累積回数が第(k-2)特定値より大きく、かつ、第(k-1)特定値以下を満足している間、前記トレーニングデータの一部を利用して前記ニューラルネットワークの前記学習を繰り返す第(k-1)学習プロセスによって取得されることを特徴とする学習装置。 - 前記プロセッサは、前記第kロスグラディエントが予め設定された最小ロスグラディエント以上である場合、前記第kガンマと前記第kロスグラディエントとを掛け算して算出された結果を参照にして、前記第(k+1)ガンマを決定することを特徴とする請求項14に記載の学習装置。
- 前記プロセッサは、前記第kロスグラディエントが予め設定された最小ロスグラディエント未満の場合、前記第(k+1)ガンマが前記第kガンマに決定されることを特徴とする請求項14に記載の学習装置。
- 前記プロセッサは、前記第(k-1)ロスの和に対する前記第kロスの和の比率を前記第kロスグラディエントに決定することを特徴とする請求項14に記載の学習装置。
- 前記(II)プロセスで、
前記プロセッサは、前記学習率と前記第(k+1)ガンマとを掛け算して算出された結果を前記第(k+1)学習率に決定することを特徴とする請求項14に記載の学習装置。 - 前記トレーニングデータの中の前記一部それぞれがバッチデータであり、
前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、
前記イテレーション累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用される前記バッチデータの数は、前記第(k+1)学習プロセスの間のイテレーション回数と同一に決定されることを特徴とする請求項14に記載の学習装置。 - 前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用された前記バッチデータの数が、前記イテレーションの累積回数が前記第k特定値より大きく、かつ、前記(k+1)特定値以下を満足している間に利用されたバッチデータの数と同一であることを特徴とする請求項19に記載の学習装置。
- 前記ニューラルネットワークは、(i)トレーニングデータに少なくとも一つのコンボリューション演算を適用して、少なくとも一つの特徴マップを出力するようにする少なくとも一つのコンボリューションレイヤ(convolutional layer)、(ii)前記特徴マップ上でのROI(Region Of Interest)に対応する領域をプーリングして算出された、少なくとも一つの特徴ベクトルに少なくとも一つのFC(Fully connected)演算を適用して、前記トレーニングデータに含まれた少なくとも一つの物体に対応する確率値を算出するようにする少なくとも一つのFCレイヤ(FC layer)、及び(iii)前記FCレイヤから算出された前記確率値に対応する、少なくとも一つのクラススコア及び少なくとも一つのリグレッションデルタを算出する出力レイヤ(output layer)を含み、
前記プロセッサが、前記出力レイヤの少なくとも一つの算出結果とこれに対応するGT(Ground Truth)とを参照して計算したロスを利用してバックプロパゲーションすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習する場合、前記プロセッサは、前記第1学習率ないし前記第k学習率を参照して、前記FCレイヤ及び前記コンボリューションレイヤの少なくとも一つのパラメータの変動幅を決定することを特徴とする請求項14に記載の学習装置。 - (i)前記トレーニングデータの中の前記一部それぞれがバッチデータで、(ii)前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、(iii)前記イタレーションの累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用される前記バッチデータの数は、前記第(k+1)学習プロセスの間のイタレーション回数と同様に決定される場合、前記プロセッサは、前記それぞれのバッチデータに対応される前記出力レイヤの少なくとも一つの各算出結果と、それに対応される前記GTとを参照して計算したロスを利用してバックプロパゲーションすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習することを特徴とする請求項21に記載の学習装置。
- 学習のイテレーション累積回数が第1ないし第n特定値の中の一つに到達するたびに学習率を調整して、ニューラルネットワーク(neural network)を学習させるテスト装置において、
トレーニングデータを取得する通信部;及び
(I)学習率の変更比率調整のための定数である第1ガンマを予め設定した状態で、(i)前記イテレーションの累積回数が第1特定値以下を満足している間には、トレーニングデータの一部を利用して第1予め設定された学習率で前記ニューラルネットワークの前記学習を繰り返す第1学習プロセスを遂行し、(ii)前記第1学習プロセスによって取得された前記ニューラルネットワークの第1ロスを参照して前記第1ガンマを第2ガンマに変更するプロセス、(II)kを2から(n-1)まで増加させながら、(i)前記イテレーションの累積回数が第(k-1)特定値より大きく、かつ、第k特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第k学習率で前記ニューラルネットワークの前記学習を繰り返す第k学習プロセスを遂行し、(ii)(ii-1)前記第k学習プロセスによって取得された前記ニューラルネットワークの第kロスを参照して第kガンマを第(k+1)ガンマに変更し、(ii-2)前記第(k+1)ガンマを利用して第k学習率を第(k+1)学習率に変更し、(iii)前記イテレーションの累積回数が第k特定値より大きく、かつ、第(k+1)特定値以下を満足している間には、前記トレーニングデータの一部を利用して、第(k+1)学習率で前記ニューラルネットワークの前記学習を繰り返す第(k+1)学習プロセスを遂行するプロセス;を経て、前記学習装置のパラメータを遂行した状態で、(1)前記学習装置のパラメータを利用して、前記ニューラルネットワークにテストデータを入力するプロセス;及び(2)前記ニューラルネットワークをもって、第1学習率ないし第(k+1)学習率によって学習されたパラメータを利用して、テストデータの演算した結果を出力するプロセス;を遂行するプロセッサ;
を含み、
前記(II)プロセスで、
前記プロセッサは、第kロスグラディエントを参照して前記第kガンマを第(k+1)ガンマに変更し、前記第kロスグラディエントは、前記ニューラルネットワークの(i)前記第kロス及び(ii)第(k-1)ロスを参照して算出され、前記第(k-1)ロスは、前記イテレーションの累積回数が第(k-2)特定値より大きく、かつ、第(k-1)特定値以下を満足している間、前記トレーニングデータの一部を利用して前記ニューラルネットワークの前記学習を繰り返す第(k-1)学習プロセスによって取得されることを特徴とするテスト装置。 - 前記プロセッサは、前記第kロスグラディエントが予め設定された最小ロスグラディエント以上である場合、前記第kガンマと前記第kロスグラディエントとを掛け算して算出された結果を参照にして、前記第(k+1)ガンマを決定することを特徴とする請求項23に記載のテスト装置。
- 前記ニューラルネットワークは、(i)トレーニングデータに少なくとも一つのコンボリューション演算を適用して、少なくとも一つの特徴マップを出力するようにする少なくとも一つのコンボリューションレイヤ(convolutional layer)、(ii)前記特徴マップ上でのROI(Region Of Interest)に対応する領域をプーリングして算出された、少なくとも一つの特徴ベクトルに少なくとも一つのFC(Fully connected)演算を適用して、前記トレーニングデータに含まれた少なくとも一つの物体に対応する確率値を算出するようにする少なくとも一つのFCレイヤ(FC layer)、及び(iii)前記FCレイヤから算出された前記確率値に対応する、少なくとも一つのクラススコア及び少なくとも一つのリグレッションデルタを算出する出力レイヤ(output layer)を含み、
前記出力レイヤの少なくとも一つの算出結果とこれに対応するGT(Ground Truth)とを参照して計算したロスを利用してバックプロパゲーションをすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習する場合、前記学習装置は、前記第1学習率ないし前記第k学習率を参照して、前記FCレイヤ及び前記コンボリューションレイヤの少なくとも一つのパラメータの変動幅を決定することを特徴とする請求項23に記載のテスト装置。 - (i)前記トレーニングデータの中の前記一部それぞれがバッチデータで、(ii)前記イテレーションの累積回数が前記第1特定値以下を満足している間に利用される前記バッチデータの数は、前記第1学習プロセスの間のイテレーション回数と同一に決定され、(iii)前記イテレーションの累積回数が前記第k特定値より大きく、かつ、前記第(k+1)特定値以下を満足している間に利用される前記バッチデータの数は、前記第(k+1)学習プロセスの間のイテレーション回数と同様に決定される場合、前記学習装置は、前記それぞれのバッチデータに対応される前記出力レイヤの少なくとも一つの各算出結果と、それに対応される前記GTとを参照して計算したロスを利用してバックプロパゲーションすることで、前記FCレイヤ及び前記コンボリューションレイヤを学習することを特徴とする請求項25に記載のテスト装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/154,060 US10528867B1 (en) | 2018-10-08 | 2018-10-08 | Learning method and learning device for neural network at adaptive learning rate, and testing method and testing device using the same |
US16/154,060 | 2018-10-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020077392A JP2020077392A (ja) | 2020-05-21 |
JP6998067B2 true JP6998067B2 (ja) | 2022-01-18 |
Family
ID=67211605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182935A Active JP6998067B2 (ja) | 2018-10-08 | 2019-10-03 | 適応的学習率でニューラルネットワークを学習する方法及び装置、これを利用したテスト方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10528867B1 (ja) |
EP (1) | EP3637329A1 (ja) |
JP (1) | JP6998067B2 (ja) |
KR (1) | KR102349898B1 (ja) |
CN (1) | CN111008690B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733511B1 (en) * | 2019-01-30 | 2020-08-04 | StradVision, Inc. | Learning method and learning device for updating HD map by reconstructing 3D space by using depth estimation information and class information on each object, which have been acquired through V2X information integration technique, and testing method and testing device using the same |
CN111260079B (zh) * | 2020-01-17 | 2023-05-19 | 南京星火技术有限公司 | 电子设备和智能体自训练装置 |
JP7436830B2 (ja) * | 2020-04-06 | 2024-02-22 | 富士通株式会社 | 学習プログラム、学習方法、および学習装置 |
KR102610186B1 (ko) * | 2020-05-07 | 2023-12-04 | 주식회사 하나금융티아이 | 멀티 모델 및 점진적 배치를 이용한 학습률 결정 장치 및 방법 |
CN112183750A (zh) * | 2020-11-05 | 2021-01-05 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
US20230068874A1 (en) * | 2021-08-31 | 2023-03-02 | Samsung Electronics Co., Ltd. | Optimal learning rate selection through step sampling |
JP2023046868A (ja) | 2021-09-24 | 2023-04-05 | 富士通株式会社 | 機械学習プログラム、機械学習方法および情報処理装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137642A1 (en) | 2016-11-15 | 2018-05-17 | Magic Leap, Inc. | Deep learning system for cuboid detection |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715372A (en) * | 1995-01-10 | 1998-02-03 | Lucent Technologies Inc. | Method and apparatus for characterizing an input signal |
US6269351B1 (en) * | 1999-03-31 | 2001-07-31 | Dryken Technologies, Inc. | Method and system for training an artificial neural network |
CN106228512A (zh) * | 2016-07-19 | 2016-12-14 | 北京工业大学 | 基于学习率自适应的卷积神经网络图像超分辨率重建方法 |
CN106295800B (zh) * | 2016-07-28 | 2019-03-05 | 北京工业大学 | 一种基于递归自组织rbf神经网络的出水总氮tn智能检测方法 |
-
2018
- 2018-10-08 US US16/154,060 patent/US10528867B1/en active Active
-
2019
- 2019-07-08 EP EP19184966.0A patent/EP3637329A1/en active Pending
- 2019-08-27 KR KR1020190105488A patent/KR102349898B1/ko active IP Right Grant
- 2019-09-29 CN CN201910936106.5A patent/CN111008690B/zh active Active
- 2019-10-03 JP JP2019182935A patent/JP6998067B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137642A1 (en) | 2016-11-15 | 2018-05-17 | Magic Leap, Inc. | Deep learning system for cuboid detection |
Non-Patent Citations (1)
Title |
---|
ITO, Daiki ほか,A Learning Algorithm with a Gradient Normalization and a Learning Rate Adaptation for the Mini-batch Type Learning,Proceedings of the SICE Annual Conference 2017,IEEE,2017年09月19日,pp.811-816 |
Also Published As
Publication number | Publication date |
---|---|
CN111008690B (zh) | 2023-08-18 |
JP2020077392A (ja) | 2020-05-21 |
US10528867B1 (en) | 2020-01-07 |
EP3637329A1 (en) | 2020-04-15 |
CN111008690A (zh) | 2020-04-14 |
KR20200040185A (ko) | 2020-04-17 |
KR102349898B1 (ko) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6998067B2 (ja) | 適応的学習率でニューラルネットワークを学習する方法及び装置、これを利用したテスト方法及び装置 | |
CN107665230B (zh) | 用于智能家居控制的用户行为预测模型的训练方法及装置 | |
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6849932B2 (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
KR20200094622A (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
CN107103397A (zh) | 一种基于蝙蝠算法的交通流预测方法、装置及系统 | |
CN113825978B (zh) | 用于定义路径的方法和设备、存储装置 | |
KR102316593B1 (ko) | 군사적 목적, 드론 또는 로봇에 이용되기 위해, 하나 이상의 이전 배치를 추가적으로 참조하여 모바일 장치 또는 iot 장치에 적용 가능한 온라인 배치 노말라이제이션, 온-디바이스 학습, 및 연속학습을 수행하는 방법 및 장치 그리고 이를 이용한 테스팅 방법과 테스팅 장치 | |
CN106254330A (zh) | 一种基于bp神经网络的软件定义网络入侵检测方法 | |
JP6856904B2 (ja) | 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
CN109800517B (zh) | 一种改进的磁流变阻尼器逆向建模方法 | |
CN112766603A (zh) | 一种交通流量预测方法、系统、计算机设备及存储介质 | |
JP6970460B2 (ja) | モバイルデバイスまたは高精度の小型ネットワークに適用可能なハードウェアを最適化するために利用されるCNNパラメータ及び特徴値を量子化するために、重み量子化ロス値を利用してFL(Fractional Length)値を決定する方法及び装置{METHOD AND DEVICE FOR DETERMINING FL VALUE BY USING WEIGHTED QUANTIZATION LOSS VALUES TO THEREBY QUANTIZE CNN PARAMETERS AND FEATURE VALUES TO BE USED FOR OPTIMIZING HARDWARE APPLICABLE TO MOBILE DEVICES OR COMPACT NETWORKS WITH HIGH PRECISION} | |
CN113947182A (zh) | 基于双阶段堆叠图卷积网络的交通流预测模型构建方法 | |
CN113705724B (zh) | 基于自适应l-bfgs算法的深度神经网络的批量学习方法 | |
CN109657800A (zh) | 基于参数噪声的强化学习模型优化方法及装置 | |
KR102120150B1 (ko) | 뉴럴 네트워크를 이용한 변분 추론 학습 방법 및 학습 장치, 그리고 이를 이용한 변분 추론 방법 및 장치 | |
CN113516163B (zh) | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 | |
CN117636183A (zh) | 一种基于自监督预训练的小样本遥感图像分类方法 | |
KR102349969B1 (ko) | 스마트폰, 드론, 선박 혹은 군사적 목적을 위한, 트레이닝 이미지의 최적화 샘플링에 의해 입력 데이터를 분석하는 뉴럴 네트워크의 온디바이스 연속 학습 방법 및 장치, 그리고, 이를 이용한 테스트 방법 및 장치 | |
CN114417939B (zh) | 一种基于知识图谱的干扰策略生成方法 | |
KR20190129422A (ko) | 뉴럴 네트워크를 이용한 변분 추론 방법 및 장치 | |
KR102441185B1 (ko) | 가중 클러스터 손실을 이용하여 학습하는 전이학습 기반의 얼굴표정 인식 방법 및 얼굴표정 인식 장치 | |
CN114004421B (zh) | 一种基于时空集成学习的交通数据缺失值插补方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6998067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |