JP7081837B2 - スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス継続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 - Google Patents
スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス継続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 Download PDFInfo
- Publication number
- JP7081837B2 JP7081837B2 JP2020007171A JP2020007171A JP7081837B2 JP 7081837 B2 JP7081837 B2 JP 7081837B2 JP 2020007171 A JP2020007171 A JP 2020007171A JP 2020007171 A JP2020007171 A JP 2020007171A JP 7081837 B2 JP7081837 B2 JP 7081837B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- volume
- preset
- learning
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 126
- 238000013528 artificial neural network Methods 0.000 title claims description 98
- 238000012360 testing method Methods 0.000 title claims description 53
- 230000015572 biosynthetic process Effects 0.000 claims description 171
- 238000003786 synthesis reaction Methods 0.000 claims description 171
- 239000013598 vector Substances 0.000 claims description 137
- 230000008569 process Effects 0.000 claims description 94
- 238000012549 training Methods 0.000 claims description 28
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
Description
そして、前記学習装置100は、前記第1ロスを利用したバックプロパゲーションによって、前記第1が収束するまで前記動作を繰り返す。つまり、前記学習装置100は、前記新しいデータと前記合成以前データとを利用した前記第1バッチの生成と、前記第1バッチを利用した前記ニューラルネットワーク140の前記第1現在学習とを繰り返して、前記第1ロスが収束するようにすることができる。
従って、本発明の思想は前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
Claims (24)
- 入力データを分析するニューラルネットワーク(neural network)をオンデバイス(on-device)継続学習(continual learning)する方法において、
(a)学習のために取得される新しいデータが予め設定された基準ボリュームになると、学習装置が、前記新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成する段階;
(b)前記学習装置が、前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する出力情報を生成するようにし、第1ロスレイヤをもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出するようにすることで、これを利用したバックプロパゲーション(backpropagation)によって前記ニューラルネットワークの前記第1現在学習を遂行する段階;
(c)前記学習装置が、前記新しいデータをサンプリングして前記予め設定された第1ボリュームになるようにし、前記オリジナルデータ生成器ネットワークを複製することで複製データ生成器ネットワークを生成し、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第2合成以前データ(前記第2合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームになるようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データ(前記第3合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第3合成以前データが予め設定された第3ボリューム(前記予め設定された第3ボリュームは、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとを合計したボリュームである)になるようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して、第2現在学習に利用される第2バッチを生成する段階;及び
(d)前記学習装置が、前記第2バッチを判別器に入力して、前記判別器をもって、前記第2バッチに対応するスコアベクトルを出力するようにし、第2ロスレイヤをもって前記スコアベクトルとこれに対応するGTとを参照して一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行する段階;
を含むことを特徴とする方法。 - 前記学習装置は、前記第2ロスを利用したバックプロパゲーションにより前記判別器のロス及び前記オリジナルデータ生成器ネットワークのロスがそれぞれ収束するまで、前記(c)段階と前記(d)段階とを繰り返すことを特徴とする請求項1に記載の方法。
- 前記(d)段階において、
前記学習装置は、前記第2ロスを利用したバックプロパゲーションにより前記判別器及び前記オリジナルデータ生成器ネットワークの最急上昇法(gradient ascent)を遂行することを特徴とする請求項1に記載の方法。 - 前記(d)段階において、
前記学習装置は、前記第2ロスを利用したバックプロパゲーションを通じて前記判別器の前記第2現在学習を遂行する場合、前記複製データ生成器ネットワークからの前記第2合成以前データを実際データとみなし、前記判別器の前記第2現在学習を遂行することを特徴とする請求項1に記載の方法。 - 前記(d)段階において、
前記学習装置は、前記スコアベクトルのうち、前記第3合成以前データに対応する第3合成以前データスコアのベクトルが最大化されるように、前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行することを特徴とする請求項1に記載の方法。 - 前記(d)段階において、
前記学習装置は、前記第2現在学習が完了すると、前記新しいデータを削除し、前記新しいデータ及び前記第2合成以前データが、次の学習に利用されるための前記以前データとして出力されるように前記オリジナルデータ生成器ネットワークをアップデートすることを特徴とする請求項1に記載の方法。 - 前記第2現在学習が最初の学習である場合、
前記(a)段階で、
前記学習装置は、前記予め設定された第1ボリュームの前記新しいデータだけを利用して前記第1バッチを生成し、
前記(c)段階で、
前記学習装置は、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データを出力するプロセスを繰り返すようにして、前記第3合成以前データが前記予め設定された第1ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第1ボリュームの前記第3合成以前データを参照して、前記第2バッチを生成することを特徴とする請求項1に記載の方法。 - 前記学習装置は、前記第1ロスを利用したバックプロパゲーションによって前記第1ロスが収束するまで、前記(a)段階と前記(b)段階とを繰り返すことを特徴とする請求項1に記載の方法。
- 前記(b)段階で、
前記学習装置は、前記第1ロスを利用したバックプロパゲーションにより前記ニューラルネットワークの最急降下法(gradient descent)を遂行することを特徴とする請求項1に記載の方法。 - 入力データを分析するニューラルネットワーク(neural network)をオンデバイス(on-device)継続学習(continual learning)する方法において、
(a)学習のために取得される新しいデータが予め設定された基準ボリュームになると、学習装置が、前記新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成する段階;及び
(b)前記学習装置が、前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する出力情報を生成するようにし、第1ロスレイヤをもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出するようにすることで、これを利用したバックプロパゲーション(backpropagation)によって前記ニューラルネットワークの前記第1現在学習を遂行する段階;
を含み、
前記ニューラルネットワークが少なくとも一つのベクトルを入力として取得する分類器である場合、前記オリジナルデータ生成器ネットワークは、前記k次元ランダムベクトルに対応するk次元情報に少なくとも一つのFC(fully connected)演算を適用して、少なくとも一つのD次元ベクトルと、少なくとも一つのC次元ワンホット(one-hot)ベクトルとを出力する一つ以上のFCレイヤを含むことを特徴とする方法。 - 前記ニューラルネットワークが少なくとも一つのRGBイメージを入力として取得する物体検出器である場合、前記オリジナルデータ生成器ネットワークは、前記k次元ランダムベクトルに対応する1×1×K情報を少なくとも一つのH×W×3テンソルに変形させる一つ以上の転置(transposed)コンボリューションレイヤと、前記H×W×3テンソルを分析して少なくとも一つのRx(4+C)ベクトル(前記Rは少なくとも一つのR次元ベクトルを含み、(4+C)はX1、Y1、X2、Y2及び少なくとも一つのC次元ワンホットベクトルを含む)を出力するFaster R-CNN(Region-based Convolutional Network)とを含むことを特徴とする請求項1に記載の方法。
- オンデバイス(on-device)継続学習を完了したニューラルネットワークをテストするテスティング方法において、
(a)学習装置が、(1)予め設定された基準ボリュームになった新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成するプロセス、及び(2)前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する学習用出力情報を生成するようにし、第1ロスレイヤをもって、前記学習用出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出することで、これを利用したバックプロパゲーション(backpropagation)によって前記ニューラルネットワークの前記第1現在学習を遂行するプロセスを遂行した状態で、テスティング装置がテストデータを取得する段階;及び
(b)前記テスティング装置が、前記テストデータを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記テストデータに対応するテスト用出力情報を生成するようにする段階;
を含み、
前記学習装置が、(3)前記新しいデータをサンプリングして前記予め設定された第1ボリュームになるようにし、前記オリジナルデータ生成器ネットワークを複製することで複製データ生成器ネットワークを生成し、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第2合成以前データ(前記第2合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームになるようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データ(前記第3合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第3合成以前データが予め設定された第3ボリューム(前記予め設定された第3ボリュームは、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとを合計したボリュームである)になるようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して、第2現在学習に利用される第2バッチを生成するプロセス、及び(4)前記第2バッチを判別器に入力して、前記判別器をもって、前記第2バッチに対応するスコアベクトルを出力するようにし、第2ロスレイヤをもって、前記スコアベクトルとこれに対応するGTとを参照して一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行するプロセスをさらに遂行することを特徴とするテスティング方法。 - 入力データを分析するニューラルネットワーク(neural network)をオンデバイス(on-device)継続学習(continual learning)する学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)学習のために取得される新しいデータが予め設定された基準ボリュームになると、前記新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが、予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成するプロセス、及び(II)前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する出力情報を生成するようにし、第1ロスレイヤをもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出することで、これを利用したバックプロパゲーション(backpropagation)によって、前記ニューラルネットワークの前記第1現在学習を遂行するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含み、
前記プロセッサが、(III)前記新しいデータをサンプリングして前記予め設定された第1ボリュームになるようにし、前記オリジナルデータ生成器ネットワークを複製することで複製データ生成器ネットワークを生成し、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第2合成以前データ(前記第2合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームになるようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データ(前記第3合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第3合成以前データが予め設定された第3ボリューム(前記予め設定された第3ボリュームは、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとを合計したボリュームである)になるようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して、第2現在学習に利用される第2バッチを生成するプロセス、及び(IV)前記第2バッチを判別器に入力して、前記判別器をもって、前記第2バッチに対応するスコアベクトルを出力するようにし、第2ロスレイヤをもって、前記スコアベクトルとこれに対応するGTとを参照して一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって前記判別器及び前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行するプロセスをさらに遂行することを特徴とする学習装置。 - 前記プロセッサは、前記第2ロスを利用したバックプロパゲーションにより前記判別器のロス及び前記オリジナルデータ生成器ネットワークのロスがそれぞれ収束するまで、前記(III)プロセスと前記(IV)プロセスとを繰り返すことを特徴とする請求項13に記載の学習装置。
- 前記(IV)プロセスで、
前記プロセッサは、前記第2ロスを利用したバックプロパゲーションにより前記判別器及び前記オリジナルデータ生成器ネットワークの最急上昇法(gradient ascent)を遂行することを特徴とする請求項13に記載の学習装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記第2ロスを利用したバックプロパゲーションによって前記判別器の前記第2現在学習を遂行する場合、前記複製データ生成器ネットワークからの前記第2合成以前データを実際データとみなし、前記判別器の前記第2現在学習を遂行することを特徴とする請求項13に記載の学習装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記スコアベクトルのうち、前記第3合成以前データに対応する第3合成以前データスコアのベクトルが最大化されるように、前記オリジナルデータ生成器ネットワークの前記第2現在学習を遂行することを特徴とする請求項13に記載の学習装置。 - 前記(IV)プロセスで、
前記プロセッサは、前記第2現在学習が完了すると、前記新しいデータを削除し、前記新しいデータ及び前記第2合成以前データが、次の学習に利用されるための前記以前データとして出力されるように前記オリジナルデータ生成器ネットワークをアップデートすることを特徴とする請求項13に記載の学習装置。 - 前記第2現在学習が最初の学習である場合、
前記(I)プロセスで、
前記プロセッサは、前記予め設定された第1ボリュームの前記新しいデータだけを利用して前記第1バッチを生成し、
前記(III)プロセスで、
前記プロセッサは、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データを出力するプロセスを繰り返すようにして、前記第3合成以前データが前記予め設定された第1ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第1ボリュームの前記第3合成以前データを参照して、前記第2バッチを生成することを特徴とする請求項13に記載の学習装置。 - 前記プロセッサは、前記第1ロスを利用したバックプロパゲーションによって前記第1ロスが収束するまで、前記(I)プロセスと前記(II)プロセスとを繰り返すことを特徴とする請求項13に記載の学習装置。
- 前記(II)プロセスで、
前記プロセッサは、前記第1ロスを利用したバックプロパゲーションにより前記ニューラルネットワークの最急降下法(gradient descent)を遂行することを特徴とする請求項13に記載の学習装置。 - 入力データを分析するニューラルネットワーク(neural network)をオンデバイス(on-device)継続学習(continual learning)する学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)学習のために取得される新しいデータが予め設定された基準ボリュームになると、前記新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが、予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成するプロセス、及び(II)前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する出力情報を生成するようにし、第1ロスレイヤをもって、前記出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出することで、これを利用したバックプロパゲーション(backpropagation)によって、前記ニューラルネットワークの前記第1現在学習を遂行するプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含み、
前記ニューラルネットワークが少なくとも一つのベクトルを入力として取得する分類器である場合、前記オリジナルデータ生成器ネットワークは、前記k次元ランダムベクトルに対応するk次元情報に少なくとも一つのFC(fully connected)演算を適用して、少なくとも一つのD次元ベクトルと、少なくとも一つのC次元ワンホット(one-hot)ベクトルとを出力する一つ以上のFCレイヤを含むことを特徴とする学習装置。 - 前記ニューラルネットワークが少なくとも一つのRGBイメージを入力として取得する物体検出器である場合、前記オリジナルデータ生成器ネットワークは、前記k次元ランダムベクトルに対応する1×1×K情報を少なくとも一つのH×W×3テンソルに変形させる一つ以上の転置コンボリューションレイヤと、前記H×W×3テンソルを分析して少なくとも一つのRx(4+C)ベクトル(前記Rは少なくとも一つのR次元ベクトルを含み、(4+C)はX1、Y1、X2、Y2及び少なくとも一つのC次元ワンホットベクトルを含む)を出力するfaster R-CNNとを含むことを特徴とする請求項13に記載の学習装置。
- オンデバイス(on-device)継続学習を完了したニューラルネットワークをテストするテスティング装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
学習装置が、(1)新しいデータが予め設定された基準ボリュームになると、前記新しいデータをサンプリングして予め設定された第1ボリュームになるようにし、少なくとも一つのk次元ランダムベクトル(k-dimensional random vector)を以前学習されたオリジナルデータ生成器ネットワークに入力することで、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第1合成以前データ(前記第1合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第1合成以前データが、予め設定された第2ボリュームになるようにし、前記予め設定された第1ボリュームの前記新しいデータ及び前記予め設定された第2ボリュームの前記第1合成以前データを参照して、第1現在学習に利用される第1バッチ(batch)を生成するプロセス及び(2)前記第1バッチを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記第1バッチに対応する学習用出力情報を生成するようにし、第1ロスレイヤをもって、前記学習用出力情報とこれに対応するGT(Ground Truth)とを参照して一つ以上の第1ロスを算出することで、これを利用したバックプロパゲーション(backpropagation)によって前記ニューラルネットワークの前記第1現在学習を遂行するプロセスを遂行した状態で、テストデータを前記ニューラルネットワークに入力して、前記ニューラルネットワークをもって、前記テストデータに対応するテスト用出力情報を生成するようにするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含み、
前記学習装置が、(3)前記新しいデータをサンプリングして前記予め設定された第1ボリュームになるようにし、前記オリジナルデータ生成器ネットワークを複製することで複製データ生成器ネットワークを生成し、前記複製データ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第2合成以前データ(前記第2合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第2合成以前データが前記予め設定された第2ボリュームになるようにし、前記オリジナルデータ生成器ネットワークをもって、前記k次元ランダムベクトルに対応する第3合成以前データ(前記第3合成以前データは、前記オリジナルデータ生成器ネットワークを以前学習するのに利用された以前データに対応する)を出力するプロセスを繰り返すようにして、前記第3合成以前データが予め設定された第3ボリューム(前記予め設定された第3ボリュームは、前記予め設定された第1ボリュームと前記予め設定された第2ボリュームとを合計したボリュームである)になるようにし、前記予め設定された第1ボリュームの前記新しいデータと、前記予め設定された第2ボリュームの前記第2合成以前データと、前記予め設定された第3ボリュームの前記第3合成以前データとを参照して、第2現在学習に利用される第2バッチを生成するプロセス、及び(4)前記第2バッチを判別器に入力して、前記判別器をもって、前記第2バッチに対応するスコアベクトルを出力するようにし、第2ロスレイヤをもって、前記スコアベクトルとこれに対応するGTとを参照して一つ以上の第2ロスを算出するようにし、前記第2ロスを利用したバックプロパゲーションによって、前記判別器及び前記オリジナルデータ生成器ネットワークの第2現在学習を遂行するプロセスをさらに遂行することを特徴とするテスティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/259,389 US11315021B2 (en) | 2019-01-28 | 2019-01-28 | Method and device for on-device continual learning of a neural network which analyzes input data, and method and device for testing the neural network to be used for smartphones, drones, vessels, or military purpose |
US16/259,389 | 2019-01-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119567A JP2020119567A (ja) | 2020-08-06 |
JP7081837B2 true JP7081837B2 (ja) | 2022-06-07 |
Family
ID=69172613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007171A Active JP7081837B2 (ja) | 2019-01-28 | 2020-01-20 | スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス継続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11315021B2 (ja) |
EP (1) | EP3686811A1 (ja) |
JP (1) | JP7081837B2 (ja) |
KR (1) | KR102349933B1 (ja) |
CN (1) | CN111488979B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544532B2 (en) * | 2019-09-26 | 2023-01-03 | Sap Se | Generative adversarial network with dynamic capacity expansion for continual learning |
CN110991619A (zh) * | 2019-12-09 | 2020-04-10 | Oppo广东移动通信有限公司 | 神经网络处理器、芯片和电子设备 |
US11087215B1 (en) * | 2020-07-25 | 2021-08-10 | Sas Institute Inc. | Machine learning classification system |
CN112257785A (zh) * | 2020-10-23 | 2021-01-22 | 中科院合肥技术创新工程院 | 基于记忆巩固机制与gan模型的序列化任务完成方法及系统 |
CN113450413B (zh) * | 2021-07-19 | 2022-09-27 | 哈尔滨工业大学 | 基于gf4单帧图像的舰船目标检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830285A (zh) | 2018-03-14 | 2018-11-16 | 江南大学 | 一种基于Faster-RCNN的加强学习的目标检测方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8391603B2 (en) * | 2009-06-18 | 2013-03-05 | Omisa Inc. | System and method for image segmentation |
US10140572B2 (en) * | 2015-06-25 | 2018-11-27 | Microsoft Technology Licensing, Llc | Memory bandwidth management for deep learning applications |
US10706327B2 (en) | 2016-08-03 | 2020-07-07 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN108073941A (zh) * | 2016-11-17 | 2018-05-25 | 江南大学 | 一种基于深度学习的图像语义生成方法 |
US10210631B1 (en) * | 2017-08-18 | 2019-02-19 | Synapse Technology Corporation | Generating synthetic image data |
US11120337B2 (en) * | 2017-10-20 | 2021-09-14 | Huawei Technologies Co., Ltd. | Self-training method and system for semi-supervised learning with generative adversarial networks |
CA3022125A1 (en) * | 2017-10-27 | 2019-04-27 | Royal Bank Of Canada | System and method for improved neural network training |
CN107958287A (zh) * | 2017-11-23 | 2018-04-24 | 清华大学 | 面向跨界大数据分析的对抗迁移学习方法及系统 |
US10388002B2 (en) * | 2017-12-27 | 2019-08-20 | Facebook, Inc. | Automatic image correction using machine learning |
US10970765B2 (en) * | 2018-02-15 | 2021-04-06 | Adobe Inc. | Generating user-customized items using a visually-aware image generation network |
US11423282B2 (en) * | 2018-10-30 | 2022-08-23 | Huawei Technologies Co., Ltd. | Autoencoder-based generative adversarial networks for text generation |
US11663483B2 (en) * | 2018-10-30 | 2023-05-30 | Huawei Technologies Co., Ltd. | Latent space and text-based generative adversarial networks (LATEXT-GANs) for text generation |
JP7318197B2 (ja) * | 2018-11-15 | 2023-08-01 | 富士通株式会社 | 逐次学習プログラム、逐次学習装置および逐次学習方法 |
-
2019
- 2019-01-28 US US16/259,389 patent/US11315021B2/en active Active
- 2019-06-17 US US16/442,691 patent/US10783438B2/en active Active
- 2019-12-12 KR KR1020190166181A patent/KR102349933B1/ko active IP Right Grant
-
2020
- 2020-01-14 EP EP20151832.1A patent/EP3686811A1/en active Pending
- 2020-01-14 CN CN202010037850.4A patent/CN111488979B/zh active Active
- 2020-01-20 JP JP2020007171A patent/JP7081837B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830285A (zh) | 2018-03-14 | 2018-11-16 | 江南大学 | 一种基于Faster-RCNN的加强学习的目标检测方法 |
Non-Patent Citations (9)
Title |
---|
「continualとは」,[online], Weblio,2021年02月04日,[令和3年2月4日検索], インターネット, <URL: https://ejje.weblio.jp/content/continual>. |
「continuousとは」,[online], Weblio,2021年02月04日,[令和3年2月4日検索], インターネット, <URL: https://ejje.weblio.jp/content/continuous>. |
Ari Seff, et al.,"Continual Learning in Generative Adversarial Nets",arXiv:1705.08395v1,version v1,[online], arXiv (Cornell University),2017年05月23日,Pages 1-9,[令和3年2月8日検索], インターネット, <URL: https://arxiv.org/abs/1705.08395v1>. |
Hanul Shin, et al.,"Continual Learning with Deep Generative Replay",arXiv:1705.08690v3,version v3,[online], arXiv (Cornell University),2017年12月12日,Pages 1-10,[令和3年2月8日検索], インターネット, <URL: https://arxiv.org/abs/1705.08690v3>. |
Haseeb Shah, et al.,"Distillation Techniques for Pseudo-rehearsal Based Incremental Learning",arXiv:1807.02799v3,version v3,[online], arXiv (Cornell University),2018年07月11日,Pages 1-13,[令和3年2月8日検索], インターネット, <URL: https://arxiv.org/abs/1807.02799v3>. |
Yue Wu, et al.,"Incremental Classifier Learning with Generative Adversarial Networks",arXiv:1802.00853v1,version v1,[online], arXiv (Cornell University),2018年02月02日,Pages 1-10,[令和3年2月8日検索], インターネット, <URL: https://arxiv.org/abs/1802.00853v1>. |
Zhengming Ding, et al.,"One-Shot Face Recognition via Generative Learning",Proceedings of 2018 13th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2018),2018年05月19日,Pages 1-7,ISBN: 978-1-5386-2335-0, <DOI: 10.1109/FG.2018.00011>. |
比田井 真也(外2名),「Generative Adversarial NetsにおけるMode Collapseの抑制」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2018年03月19日,Vol.117, No.520,第1~6頁,ISSN: 0913-5685. |
高木 英行,「ニューラルネット Part II:基礎入門編」,日本ファジィ学会誌,日本,日本ファジィ学会,1992年08月,Vol.4, No.4,第76~87頁. |
Also Published As
Publication number | Publication date |
---|---|
CN111488979A (zh) | 2020-08-04 |
KR102349933B1 (ko) | 2022-01-12 |
JP2020119567A (ja) | 2020-08-06 |
US10783438B2 (en) | 2020-09-22 |
US20200242476A1 (en) | 2020-07-30 |
US11315021B2 (en) | 2022-04-26 |
US20200242475A1 (en) | 2020-07-30 |
CN111488979B (zh) | 2023-11-07 |
EP3686811A1 (en) | 2020-07-29 |
KR20200093427A (ko) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7081837B2 (ja) | スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス継続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 | |
Liu et al. | Compositional visual generation with composable diffusion models | |
Stylianou et al. | Visualizing deep similarity networks | |
JP6865364B2 (ja) | エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 | |
US11416743B2 (en) | Swarm fair deep reinforcement learning | |
JP2020502665A (ja) | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 | |
JP2022503647A (ja) | クロスドメイン画像変換 | |
JP6978104B2 (ja) | Ganを用いて仮想世界における仮想データから取得したトレーニングデータを生成して、自律走行用ニューラルネットワークの学習プロセスに必要なアノテーションコストを削減する学習方法や学習装置、それを利用したテスト方法やテスト装置 | |
CN107636691A (zh) | 用于识别图像中的文本的方法和设备 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP7252120B2 (ja) | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
KR20220134429A (ko) | 딥 Q-네트워크를 이용하여 딥러닝 기반의 디텍션 네트워크에 대한 자기지도학습(self-supervised learning)을 수행하는 방법 및 이를 이용한 학습 장치 | |
Adate et al. | A survey on deep learning methodologies of recent applications | |
WO2024051000A1 (zh) | 一种结构化仿真数据生成系统及生成方法 | |
WO2023061169A1 (zh) | 图像风格迁移和模型训练方法、装置、设备和介质 | |
JP6970461B2 (ja) | スマートフォン、ドローン、船舶または軍事的目的のための、トレーニングイメージの最適化サンプリングにより入力データを分析するニューラルネットワークのオンデバイス継続学習方法及び装置、そして、これを利用したテスト方法及び装置 | |
KR102100973B1 (ko) | 공동 학습을 이용한 기계학습 시스템 및 그 방법 | |
EP3690718B1 (en) | Learning method and learning device for allowing cnn having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same | |
WO2021171768A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置 | |
CN106104513B (zh) | 基于认知的知识处理系统及方法 | |
JP7047665B2 (ja) | 学習装置、学習方法及び学習プログラム | |
KR20200061154A (ko) | 시각 및 텍스트 정보를 포함하는 다이어그램의 분석 방법 및 장치 | |
JP2019219756A (ja) | 制御装置、制御方法、プログラム、ならびに、情報記録媒体 | |
Surendran et al. | Transfer Learning Based Natural Scene Classification for Scene Understanding by Intelligent Machines | |
Rathi et al. | Visual Question Generation Using Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7081837 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |