JP6970461B2 - スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 - Google Patents
スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 Download PDFInfo
- Publication number
- JP6970461B2 JP6970461B2 JP2020007173A JP2020007173A JP6970461B2 JP 6970461 B2 JP6970461 B2 JP 6970461B2 JP 2020007173 A JP2020007173 A JP 2020007173A JP 2020007173 A JP2020007173 A JP 2020007173A JP 6970461 B2 JP6970461 B2 JP 6970461B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- volume
- preset
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 164
- 238000013528 artificial neural network Methods 0.000 title claims description 107
- 238000012549 training Methods 0.000 title claims description 78
- 238000005070 sampling Methods 0.000 title claims description 53
- 238000010998 test method Methods 0.000 title claims description 6
- 239000013598 vector Substances 0.000 claims description 195
- 238000003786 synthesis reaction Methods 0.000 claims description 140
- 230000015572 biosynthetic process Effects 0.000 claims description 136
- 230000008569 process Effects 0.000 claims description 118
- 238000012937 correction Methods 0.000 claims description 49
- 238000012360 testing method Methods 0.000 claims description 49
- 230000001174 ascending effect Effects 0.000 claims 2
- 230000001537 neural effect Effects 0.000 claims 2
- 230000010076 replication Effects 0.000 claims 1
- 238000013135 deep learning Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Description
一例として、前記ブースティングネットワークは、少なくとも一つのFCレイヤ(Fully Connected Layer)を含み、前記ブースティングネットワークは、入力された前記k次元ランダムベクトルを、それよりも次元の低いL次元ベクトルに変換し、その後、前記L次元ベクトルを前記k次元修正ベクトルに変換して出力することを特徴とする。
それぞれを利用してm個の新しいデータを選択することができる。
110:メモリ
120:プロセッサ
125:ブースティングネットワーク
130:データ生成器ネットワーク
140:ニューラルネットワーク
150:第1ロスレイヤ
160:判別器
170:第2ロスレイヤ
200:テスト装置
210:メモリ
220:プロセッサ
Claims (30)
- 入力データを分析するニューラルネットワーク(Neural Network)のオンデバイス継続学習(On−Device Continual Learning)のための方法において、
(a)学習のために取得される新しいデータが予め設定された基準ボリューム(Preset Base Volume)になると、学習装置が、前記予め設定された基準ボリュームの前記新しいデータをユニフォームサンプリング(Uniform−Sampling)して前記新しいデータが予め設定された第1ボリュームを有するようにし、少なくとも一つのk次元ランダムベクトル(k−Dimension Random Vector)をブースティングネットワーク(Boosting Network)に入力して、前記ブースティングネットワークをもって、前記k次元ランダムベクトルを、少なくとも一つのk次元修正ベクトル(k−Dimension Modified Vector)に変換するようにし、前記k次元修正ベクトルを、学習が完了したオリジナルデータ生成器ネットワーク(Original Data Generator Network)に入力して、前記オリジナルデータ生成器ネットワークをもって、前記k次元修正ベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられていた以前データ(Previous Data)に対応する、第1合成以前データ(Synthetic Previous Data)を出力するプロセスを繰り返すようにして、前記第1合成以前データが予め設定された第2ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して第1現在学習(Current−Learning)に利用される第1バッチ(batch)を生成する段階;及び
(b)前記学習装置が、前記ニューラルネットワークをもって、前記第1バッチを前記ニューラルネットワークに入力して前記第1バッチに対応する出力情報(Output Information)を生成するようにし、第1ロスレイヤ(Loss Layer)をもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにし、前記第1ロスをバックプロパゲーションすることで前記ニューラルネットワークと前記ブースティングネットワークとの前記第1現在学習を遂行する段階;
を含むことを特徴とする方法。 - (c)前記学習装置が、前記予め設定された基準ボリュームの前記新しいデータをユニフォームサンプリングして前記新しいデータが前記予め設定された第1ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークを複製して複製データ生成器ネットワーク(Cloned Data Generator Network)を生成するようにし、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記以前データに対応する、第2合成以前データを出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応し前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記以前データに対応する、第3合成以前データを出力するプロセスを繰り返すようにして、前記第3合成以前データが、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとの和と同じ予め設定された第3ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して第2現在学習に利用される第2バッチを生成する段階;及び
(d)前記学習装置が、判別器(Discriminator)をもって、前記第2バッチを前記判別器に入力して前記第2バッチに対応するスコアベクトル(Score Vector)を生成するようにし、第2ロスレイヤをもって、前記スコアベクトルとこれに対応するGTとを参照して少なくとも一つの第2ロスを算出するようにし、前記第2ロスをバックプロパゲーションすることで前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記第2ロスをバックプロパゲーションすることで、前記判別器のロス及び前記オリジナルデータ生成器ネットワークのロスがそれぞれ収束するまで前記(c)段階と前記(d)段階とを繰り返すことを特徴とする請求項2に記載の方法。
- 前記(d)段階で、
前記学習装置は、前記第2ロスをバックプロパゲーションすることで前記判別器の少なくとも一つの重み付け値及び前記オリジナルデータ生成器ネットワークの少なくとも一つの重み付け値の最急上昇法(gradient ascent)を遂行することを特徴とする請求項2に記載の方法。 - 前記(d)段階で、
前記学習装置は、前記第2ロスをバックプロパゲーションすることで、前記判別器の前記第2現在学習を遂行中に、前記複製データ生成器ネットワークからの前記第2合成以前データを本物のデータ(Real Data)とみなし、前記判別器の前記第2現在学習を遂行することを特徴とする請求項2に記載の方法。 - 前記(d)段階で、
前記学習装置は、前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行して、前記スコアベクトルのうちの前記第3合成以前データに対応する第3合成以前データスコアベクトルが最大化するようにすることを特徴とする請求項2に記載の方法。 - 前記第2現在学習が最初の学習である場合、
前記(a)段階で、
前記学習装置は、前記予め設定された第1ボリュームの前記新しいデータのみを利用して前記第1バッチを生成し、
前記(c)段階で、
前記学習装置は、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する前記第3合成以前データを出力するプロセスを繰り返すようにして前記第3合成以前データが前記予め設定された第1ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第1ボリュームの前記第3合成以前データを参照して、前記第2バッチを生成することを特徴とする請求項2に記載の方法。 - 前記学習装置は、前記第1ロスをバックプロパゲーションすることで、前記第1ロスが収束するまで前記(a)段階と前記(b)段階とを繰り返すことを特徴とする請求項1に記載の方法。
- 前記(a)段階と前記(b)段階とを前記第1現在学習で繰り返す場合、
前記学習装置は、
(i)最初のイテレーション(Iteration)で、前記(a)段階で前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応するサンプリング確率(Sampling Probability)それぞれを初期化し、初期化された前記サンプリング確率を参照して前記予め設定された基準ボリュームの前記新しいデータを前記ユニフォームサンプリングして前記予め設定された第1ボリュームの前記新しいデータを生成し、前記(b)段階において、前記ニューラルネットワークの前記第1現在学習が完了すれば、前記予め設定された第1ボリュームの前記新しいデータに対応する前記第1ロスを参照して前記予め設定された第1ボリュームの前記新しいデータそれぞれに対応する前記サンプリング確率それぞれをアップデートすることで、前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する前記サンプリング確率それぞれをアップデートし、
(ii)次のイテレーションで、前記(a)段階で前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する以前のイテレーションでアップデートされた前記サンプリング確率それぞれを参照して、前記予め設定された基準ボリュームの前記新しいデータの前記ユニフォームサンプリングによって前記予め設定された第1ボリュームの前記新しいデータを生成し、前記(b)段階において、前記ニューラルネットワークの前記第1現在学習が完了すると、前記予め設定された第1ボリュームの前記新しいデータに対応する前記第1ロスを参照して前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する前記以前のイテレーションでアップデートされた前記サンプリング確率それぞれをアップデートすることを特徴とする請求項8に記載の方法。 - 前記(a)段階と前記(b)段階とを前記第1現在学習で繰り返す場合、
最初のイテレーションで、前記学習装置は、前記(a)段階で、前記ブースティングネットワークを初期化した後、初期化された前記ブースティングネットワークをもって、前記k次元ランダムベクトルを前記k次元修正ベクトルに変換するようにし、
次のイテレーションで、前記学習装置は、前記(a)段階で、以前イテレーションでの前記(b)段階で前記第1現在学習を完了した前記ブースティングネットワークをもって、前記k次元ランダムベクトルを前記k次元修正ベクトルに変換するようにすることを特徴とする請求項8に記載の方法。 - 前記(b)段階で、
前記学習装置は、前記第1ロスをバックプロパゲーションして、前記ニューラルネットワークのロスを最小化するように前記ニューラルネットワークの少なくとも一つの重み付け値の最急降下法(Gradient Descent)を遂行して、前記第1ロスのうちの前記第1合成以前データに対応するロスを最大化するように前記ブースティングネットワークの少なくとも一つの重み付け値の最急上昇法を遂行することを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記ブースティングネットワークの前記重み付け値の前記最急上昇法を遂行する場合、前記ブースティングネットワークの前記重み付け値をクリッピング(Clipping)することを特徴とする請求項11に記載の方法。
- 前記ブースティングネットワークは、少なくとも一つのFCレイヤ(Fully Connected Layer)を含み、前記ブースティングネットワークは、入力された前記k次元ランダムベクトルを、それよりも次元の低いL次元ベクトルに変換し、その後、前記L次元ベクトルを前記k次元修正ベクトルに変換して出力することを特徴とする請求項1に記載の方法。
- 入力データを分析するニューラルネットワーク(Neural Network)をテストする方法において、
(a)学習装置が、(I)学習のために取得される学習用新しいデータが予め設定された基準ボリューム(Preset Base Volume)になると、前記予め設定された基準ボリュームの前記学習用新しいデータをユニフォームサンプリング(Uniform−Sampling)して前記学習用新しいデータが予め設定された第1ボリュームを有するようにし、少なくとも一つの学習用k次元ランダムベクトル(k−Dimension Random Vector)をブースティングネットワーク(Boosting Network)に入力して、前記ブースティングネットワークをもって、前記学習用k次元ランダムベクトルを、少なくとも一つの学習用k次元修正ベクトル(k−Dimension Modified Vector)に変換するようにし、前記学習用k次元修正ベクトルを、学習が完了したオリジナルデータ生成器ネットワーク(Original Data Generator Network)に入力して、前記オリジナルデータ生成器ネットワークをもって、前記学習用k次元修正ベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられていた学習用以前データ(Previous Data)に対応する、学習用第1合成以前データ(Synthetic Previous Data)を出力するプロセスを繰り返すようにして、前記学習用第1合成以前データが予め設定された第2ボリュームを有するようにし、前記予め設定された第1ボリュームの前記学習用新しいデータ及び前記予め設定された第2ボリュームの前記学習用第1合成以前データを参照して第1現在学習(Current−Learning)に利用される学習用第1バッチ(batch)を生成するプロセス、及び(II)前記ニューラルネットワークをもって、前記学習用第1バッチを前記ニューラルネットワークに入力して前記学習用第1バッチに対応する学習用出力情報(Output Information)を生成するようにし、第1ロスレイヤ(Loss Layer)をもって、前記学習用出力情報とこれに対応するGT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにし、前記第1ロスをバックプロパゲーションすることで前記ニューラルネットワークと前記ブースティングネットワークとの前記第1現在学習を遂行するプロセスを完了した状態で、テスト装置がテストデータを取得する段階;及び
(b)前記テスト装置が、前記ニューラルネットワークをもって、前記テストデータを前記ニューラルネットワークに入力して前記テストデータに対応するテスト用出力情報を生成するようにする段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記学習装置が、
(III)前記予め設定された基準ボリュームの前記学習用新しいデータをユニフォームサンプリングして前記学習用新しいデータが前記予め設定された第1ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークを複製して複製データ生成器ネットワーク(Cloned Data Generator Network)を生成するようにし、前記複製データ生成器ネットワークをもって、前記学習用k次元ランダムベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記学習用以前データに対応する、学習用第2合成以前データを出力するプロセスを繰り返すようにして、前記学習用第2合成以前データが前記予め設定された第2ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークをもって、前記学習用k次元ランダムベクトルに対応し前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記学習用以前データに対応する、学習用第3合成以前データを出力するプロセスを繰り返すようにして、前記学習用第3合成以前データが、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとの和と同じ予め設定された第3ボリュームを有するようにし、前記予め設定された第1ボリュームの前記学習用新しいデータと、前記予め設定された第2ボリュームの前記学習用第2合成以前データと、前記予め設定された第3ボリュームの前記学習用第3合成以前データとを参照して、第2現在学習に利用される学習用第2バッチを生成するプロセス、及び(IV)判別器(Discriminator)をもって、前記学習用第2バッチを前記判別器に入力して前記学習用第2バッチに対応する学習用スコアベクトル(Score Vector)を生成するようにし、第2ロスレイヤをもって、前記学習用スコアベクトルとこれに対応するGTとを参照して少なくとも一つの第2ロスを算出するようにし、前記第2ロスをバックプロパゲーションすることで前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行するプロセス;をさらに遂行することを特徴とする請求項14に記載の方法。 - 入力データを分析するニューラルネットワーク(Neural Network)のオンデバイス継続学習(On−Device Continual Learning)のための学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)学習のために取得される新しいデータが予め設定された基準ボリューム(Preset Base Volume)になると、前記予め設定された基準ボリュームの前記新しいデータをユニフォームサンプリング(Uniform−Sampling)して前記新しいデータが予め設定された第1ボリュームを有するようにし、少なくとも一つのk次元ランダムベクトル(k−Dimension Random Vector)をブースティングネットワーク(Boosting Network)に入力して、前記ブースティングネットワークをもって、前記k次元ランダムベクトルを、少なくとも一つのk次元修正ベクトル(k−Dimension Modified Vector)に変換するようにし、前記k次元修正ベクトルを、学習が完了したオリジナルデータ生成器ネットワーク(Original Data Generator Network)に入力して、前記オリジナルデータ生成器ネットワークをもって、前記k次元修正ベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられていた以前データ(Previous Data)に対応する、第1合成以前データ(Synthetic Previous Data)を出力するプロセスを繰り返すようにして、前記第1合成以前データが予め設定された第2ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して第1現在学習(Current−Learning)に利用される第1バッチ(batch)を生成するプロセス;及び(II)前記ニューラルネットワークをもって、前記第1バッチを前記ニューラルネットワークに入力して前記第1バッチに対応する出力情報(Output Information)を生成するようにし、第1ロスレイヤ(Loss Layer)をもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにし、前記第1ロスをバックプロパゲーションすることで前記ニューラルネットワークと前記ブースティングネットワークとの前記第1現在学習を遂行するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする装置。 - 前記プロセッサが、
(III)前記予め設定された基準ボリュームの前記新しいデータをユニフォームサンプリングして前記新しいデータが前記予め設定された第1ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークを複製して複製データ生成器ネットワーク(Cloned Data Generator Network)を生成するようにし、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記以前データに対応する、第2合成以前データを出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応し前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記以前データに対応する、第3合成以前データを出力するプロセスを繰り返すようにして、前記第3合成以前データが、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとの和と同じ予め設定された第3ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して、第2現在学習に利用される第2バッチを生成するプロセス;及び(IV)判別器(Discriminator)をもって、前記第2バッチを前記判別器に入力して前記第2バッチに対応するスコアベクトル(Score Vector)を生成するようにし、第2ロスレイヤをもって、前記スコアベクトルとこれに対応するGTとを参照して少なくとも一つの第2ロスを算出するようにし、前記第2ロスをバックプロパゲーションすることで前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行するプロセス;をさらに遂行することを特徴とする請求項16に記載の装置。 - 前記プロセッサは、前記第2ロスをバックプロパゲーションすることで前記判別器のロス及び前記オリジナルデータ生成器ネットワークのロスがそれぞれ収束するまで、前記(III)プロセスと前記(IV)プロセスとを繰り返すことを特徴とする請求項17に記載の装置。
- 前記(IV)プロセスで、
前記プロセッサは、前記第2ロスをバックプロパゲーションすることで前記判別器の少なくとも一つの重み付け値及び前記オリジナルデータ生成器ネットワークの少なくとも一つの重み付け値の最急上昇法(Gradient Ascent)を遂行することを特徴とする請求項17に記載の装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記第2ロスをバックプロパゲーションすることで、前記判別器の前記第2現在学習を遂行中に、前記複製データ生成器ネットワークからの前記第2合成以前データを本物のデータ(Real Data)とみなし、前記判別器の前記第2現在学習を遂行することを特徴とする請求項17に記載の装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行して、前記スコアベクトルのうちの前記第3合成以前データに対応する第3合成以前データスコアベクトルが最大化するようにすることを特徴とする請求項17に記載の装置。 - 前記第2現在学習が最初の学習である場合、
前記(I)プロセスで、
前記プロセッサは、前記予め設定された第1ボリュームの前記新しいデータのみを利用して前記第1バッチを生成し、
前記(III)プロセスで、
前記プロセッサは、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する前記第3合成以前データを出力するプロセスを繰り返すようにして前記第3合成以前データが前記予め設定された第1ボリュームを有するようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第1ボリュームの前記第3合成以前データを参照して、前記第2バッチを生成することを特徴とする請求項17に記載の装置。 - 前記プロセッサは、前記第1ロスをバックプロパゲーションすることで、前記第1ロスが収束するまで前記(I)プロセスと前記(II)プロセスとを繰り返すことを特徴とする請求項16に記載の装置。
- 前記(I)プロセスと前記(II)プロセスとを前記第1現在学習で繰り返す場合、
前記プロセッサは、
(i)最初のイテレーション(Iteration)で、前記(I)プロセスで前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応するサンプリング確率(Sampling Probability)それぞれを初期化し、初期化された前記サンプリング確率を参照して前記予め設定された基準ボリュームの前記新しいデータを前記ユニフォームサンプリングして前記予め設定された第1ボリュームの前記新しいデータを生成し、前記(II)プロセスにおいて、前記ニューラルネットワークの前記第1現在学習が完了すれば、前記予め設定された第1ボリュームの前記新しいデータに対応する前記第1ロスを参照して前記予め設定された第1ボリュームの前記新しいデータそれぞれに対応する前記サンプリング確率それぞれをアップデートすることで、前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する前記サンプリング確率それぞれをアップデートし、
(ii)次のイテレーションで、前記(I)プロセスで前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する以前のイテレーションでアップデートされた前記サンプリング確率それぞれを参照して、前記予め設定された基準ボリュームの前記新しいデータの前記ユニフォームサンプリングによって前記予め設定された第1ボリュームの前記新しいデータを生成し、前記(II)プロセスにおいて、前記ニューラルネットワークの前記第1現在学習が完了すると、前記予め設定された第1ボリュームの前記新しいデータに対応する前記第1ロスを参照して前記予め設定された基準ボリュームの前記新しいデータそれぞれに対応する前記以前のイテレーションでアップデートされた前記サンプリング確率それぞれをアップデートすることを特徴とする請求項23に記載の装置。 - 前記(I)プロセスと前記(II)プロセスとを前記第1現在学習で繰り返す場合、
最初のイテレーションで、前記プロセッサは、前記(I)プロセスにおいて、前記ブースティングネットワークを初期化した後、初期化された前記ブースティングネットワークをもって、前記k次元ランダムベクトルを前記k次元修正ベクトルに変換するようにし、
次のイテレーションで、前記プロセッサは、前記(I)プロセスで、以前のイテレーションでの前記(II)プロセスで前記第1現在学習を完了した前記ブースティングネットワークをもって、前記k次元ランダムベクトルを前記k次元修正ベクトルに変換するようにすることを特徴とする請求項23に記載の装置。 - 前記(II)プロセスで、
前記プロセッサは、前記第1ロスをバックプロパゲーションして、前記ニューラルネットワークのロスを最小化するように前記ニューラルネットワークの少なくとも一つの重み付け値の最急降下法(Gradient Descent)を遂行して、前記第1ロスのうちの前記第1合成以前データに対応するロスを最大化するように前記ブースティングネットワークの少なくとも一つの重み付け値の最急上昇法を遂行することを特徴とする請求項16に記載の装置。 - 前記プロセッサは、前記ブースティングネットワークの前記重み付け値の前記最急上昇法を遂行する場合、前記ブースティングネットワークの前記重み付け値をクリッピング(Clipping)することを特徴とする請求項26に記載の装置。
- 前記ブースティングネットワークは、少なくとも一つのFCレイヤ(Fully Connected Layer)を含み、前記ブースティングネットワークは、入力された前記k次元ランダムベクトルを、それよりも次元の低いL次元ベクトルに変換し、その後、前記L次元ベクトルを前記k次元修正ベクトルに変換して出力することを特徴とする請求項16に記載の装置。
- 入力データを分析するニューラルネットワーク(Neural Network)をテストするテスト装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(1)学習のために取得される学習用新しいデータが予め設定された基準ボリューム(Preset Base Volume)になると、前記予め設定された基準ボリュームの前記学習用新しいデータをユニフォームサンプリング(Uniform−Sampling)して前記学習用新しいデータが予め設定された第1ボリュームを有するようにし、少なくとも一つの学習用k次元ランダムベクトル(k−Dimension Random Vector)をブースティングネットワーク(Boosting Network)に入力して、前記ブースティングネットワークをもって、前記学習用k次元ランダムベクトルを、少なくとも一つの学習用k次元修正ベクトル(k−Dimension Modified Vector)に変換するようにし、前記学習用k次元修正ベクトルを、学習が完了したオリジナルデータ生成器ネットワーク(Original Data Generator Network)に入力して、前記オリジナルデータ生成器ネットワークをもって、前記学習用k次元修正ベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられていた学習用以前データ(Previous Data)に対応する、学習用第1合成以前データ(Synthetic Previous Data)を出力するプロセスを繰り返すようにして、前記学習用第1合成以前データが予め設定された第2ボリュームを有するようにし、前記予め設定された第1ボリュームの前記学習用新しいデータ及び前記予め設定された第2ボリュームの前記学習用第1合成以前データを参照して第1現在学習(Current−Learning)に利用される学習用第1バッチ(batch)を生成するプロセス、及び(2)前記ニューラルネットワークをもって、前記学習用第1バッチを前記ニューラルネットワークに入力して前記学習用第1バッチに対応する学習用出力情報(Output Information)を生成するようにし、第1ロスレイヤ(Loss Layer)をもって、前記学習用出力情報とこれに対応するGT(Ground Truth)とを参照して少なくとも一つの第1ロスを算出するようにし、前記第1ロスをバックプロパゲーションすることで前記ニューラルネットワークと前記ブースティングネットワークの前記第1現在学習を遂行するプロセスを完了した状態で、前記ニューラルネットワークをもって、テストデータをニューラルネットワークに入力して取得された前記テストデータに対応するテスト用出力情報を出力するようにするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする装置。 - 前記学習装置が、
(3)前記予め設定された基準ボリュームの前記学習用新しいデータをユニフォームサンプリングして前記学習用新しいデータが前記予め設定された第1ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークを複製して複製データ生成器ネットワーク(Cloned Data Generator Network)を生成するようにし、前記複製データ生成器ネットワークをもって、前記学習用k次元ランダムベクトルに対応し、前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記学習用以前データに対応する、学習用第2合成以前データを出力するプロセスを繰り返すようにして、前記学習用第2合成以前データが前記予め設定された第2ボリュームを有するようにし、前記オリジナルデータ生成器ネットワークをもって、前記学習用k次元ランダムベクトルに対応し前記オリジナルデータ生成器ネットワークを学習するのに用いられた前記学習用以前データに対応する、学習用第3合成以前データを出力するプロセスを繰り返すようにして、前記学習用第3合成以前データが、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとの和と同じ予め設定された第3ボリュームを有するようにし、前記予め設定された第1ボリュームの前記学習用新しいデータと、前記予め設定された第2ボリュームの前記学習用第2合成以前データと、前記予め設定された第3ボリュームの前記学習用第3合成以前データとを参照して、第2現在学習に利用される学習用第2バッチを生成するプロセス、及び(4)判別器(Discriminator)をもって、前記学習用第2バッチを前記判別器に入力して前記学習用第2バッチに対応する学習用スコアベクトル(Score Vector)を生成するようにし、第2ロスレイヤをもって、前記学習用スコアベクトルとこれに対応するGTとを参照して少なくとも一つの第2ロスを算出するようにし、前記第2ロスをバックプロパゲーションすることで前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行するプロセス;をさらに遂行することを特徴とする請求項29に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/260,263 | 2019-01-29 | ||
US16/260,263 US10635941B1 (en) | 2019-01-29 | 2019-01-29 | Method and device for on-device continual learning of neural network which analyzes input data by optimized sampling of training images, and method and device for testing the neural network for smartphones, drones, vessels, or military purpose |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123337A JP2020123337A (ja) | 2020-08-13 |
JP6970461B2 true JP6970461B2 (ja) | 2021-11-24 |
Family
ID=69177098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007173A Active JP6970461B2 (ja) | 2019-01-29 | 2020-01-20 | スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10635941B1 (ja) |
EP (1) | EP3690755A1 (ja) |
JP (1) | JP6970461B2 (ja) |
KR (1) | KR102349969B1 (ja) |
CN (1) | CN111488980B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184690B (zh) * | 2020-10-12 | 2021-11-02 | 推想医疗科技股份有限公司 | 冠脉血管走向的预测方法、预测模型的训练方法及装置 |
CN114301637B (zh) * | 2021-12-11 | 2022-09-02 | 河南大学 | 一种用于医疗物联网的入侵检测方法和系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6620439B2 (ja) * | 2015-07-01 | 2019-12-18 | 株式会社リコー | 学習方法、プログラム及び学習装置 |
US11093826B2 (en) * | 2016-02-05 | 2021-08-17 | International Business Machines Corporation | Efficient determination of optimized learning settings of neural networks |
US10909459B2 (en) * | 2016-06-09 | 2021-02-02 | Cognizant Technology Solutions U.S. Corporation | Content embedding using deep metric learning algorithms |
CN106295678B (zh) * | 2016-07-27 | 2020-03-06 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
US20190130266A1 (en) * | 2017-10-27 | 2019-05-02 | Royal Bank Of Canada | System and method for improved neural network training |
CN108805259A (zh) * | 2018-05-23 | 2018-11-13 | 北京达佳互联信息技术有限公司 | 神经网络模型训练方法、装置、存储介质及终端设备 |
CN109063903B (zh) * | 2018-07-19 | 2021-04-09 | 山东建筑大学 | 一种基于深度强化学习的建筑能耗预测方法及系统 |
-
2019
- 2019-01-29 US US16/260,263 patent/US10635941B1/en active Active
- 2019-12-12 KR KR1020190166183A patent/KR102349969B1/ko active IP Right Grant
-
2020
- 2020-01-14 CN CN202010038838.5A patent/CN111488980B/zh active Active
- 2020-01-17 EP EP20152464.2A patent/EP3690755A1/en active Pending
- 2020-01-20 JP JP2020007173A patent/JP6970461B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR102349969B1 (ko) | 2022-01-12 |
CN111488980B (zh) | 2023-10-03 |
KR20200094076A (ko) | 2020-08-06 |
CN111488980A (zh) | 2020-08-04 |
JP2020123337A (ja) | 2020-08-13 |
EP3690755A1 (en) | 2020-08-05 |
US10635941B1 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7081837B2 (ja) | スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス継続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 | |
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
JP6924517B2 (ja) | ディープニューラルネットワーク基盤の多重パッチ組み合わせを利用して顔を認識し、極度の状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させる方法 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6856851B2 (ja) | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP2020502665A (ja) | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 | |
JP7252120B2 (ja) | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
US11416743B2 (en) | Swarm fair deep reinforcement learning | |
JP6970461B2 (ja) | スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 | |
KR20220134429A (ko) | 딥 Q-네트워크를 이용하여 딥러닝 기반의 디텍션 네트워크에 대한 자기지도학습(self-supervised learning)을 수행하는 방법 및 이를 이용한 학습 장치 | |
EP3690718A1 (en) | Learning method and learning device for allowing cnn having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
Zhou et al. | Domain specific inpainting with concurrently pretrained generative adversarial networks | |
Finkelstein et al. | Transfer learning promotes robust parametric mapping of diffusion encoded MR fingerprinting | |
KR20220134428A (ko) | 서로 다른 스펙을 가지는 영상 장치들로부터 획득된 이미지들을 이용하여 퍼셉션 네트워크를 학습 및 테스트하는 방법 및 이를 이용한 학습 및 테스트 장치 | |
CN115294353A (zh) | 基于多层属性引导的人群场景图像字幕描述方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970461 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |