JP7322620B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP7322620B2
JP7322620B2 JP2019167657A JP2019167657A JP7322620B2 JP 7322620 B2 JP7322620 B2 JP 7322620B2 JP 2019167657 A JP2019167657 A JP 2019167657A JP 2019167657 A JP2019167657 A JP 2019167657A JP 7322620 B2 JP7322620 B2 JP 7322620B2
Authority
JP
Japan
Prior art keywords
bit
neural network
information processing
variables
recognition rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167657A
Other languages
English (en)
Other versions
JP2021043906A (ja
Inventor
靖文 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019167657A priority Critical patent/JP7322620B2/ja
Priority to EP20192763.9A priority patent/EP3796233A1/en
Priority to US17/002,814 priority patent/US20210081785A1/en
Priority to CN202010908955.2A priority patent/CN112508166A/zh
Publication of JP2021043906A publication Critical patent/JP2021043906A/ja
Application granted granted Critical
Publication of JP7322620B2 publication Critical patent/JP7322620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
ニューラルネットワークで使用する変数を量子化して演算することで、浮動小数点数を使用して演算する場合に比べて演算量が削減され、メモリの使用量が削減される。例えば、事前学習により生成された浮動小数点の変数のチャネル別の統計部分に基づいて、変数の固定小数点表現をチャネル別に決定する手法が提案されている(例えば、特許文献1参照)。また、ニューラルネットワークの演算に使用する固定小数点の重みのアップデート値を累積し、累積値が臨界値以上の場合、累積アップデート値を使用して重みをアップデートする手法が提案されている(例えば、特許文献2参照)。
ニューラルネットワークの畳み込み演算後のプーリング処理による処理結果を積算して平均値と標準偏差とを算出し、算出した平均値と標準偏差とを用いて次の層の演算で、プーリング処理の結果を正規化処理する手法が提案されている(例えば、特許文献3参照)。
特開2019-32833号公報 特開2019-79535号公報 特開2017-156941号公報
ニューラルネットワークで使用する変数を量子化する場合、演算量およびメモリの使用量が削減され、計算時間が短縮されるが、ニューラルネットワークの計算の精度が低下する。計算の精度が低下した場合、ニューラルネットワークの学習の精度は低下し、例えば、学習後のニューラルネットワークを用いた推論処理において認識率が劣化するおそれがある。
1つの側面では、本発明は、量子化した変数を使用してニューラルネットワークの計算を実行する場合に、認識率の劣化を低減することを目的とする。
一つの観点によれば、情報処理装置は、プロセッサを有する情報処理装置であって、前記プロセッサは、ニューラルネットワークで使用する複数種の変数の少なくともいずれかの変数を固定小数点数で表した場合の最上位ビットの分布に基づいて、前記分布の最上位ビット側から量子化後の複数のビット範囲を決定し、前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、算出された複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する。
1つの側面では、本発明は、量子化した変数を使用してニューラルネットワークの計算を実行する場合に、認識率の劣化を低減することができる。
一実施形態における情報処理装置の一例を示すブロック図である。 ニューラルネットワークの概要を示す説明図である。 固定小数点による数値表現の一例を示す説明図である。 図1のビット範囲決定部の動作の一例を示す説明図である。 図1の情報処理装置によるニューラルネットワークの学習の概要を示す説明図である。 図1の情報処理装置によるニューラルネットワークの学習の一例を示すフロー図である。 ニューラルネットワークの学習を実行した場合の認識率の推移の一例を示す説明図である。 別の実施形態における情報処理装置の一例を示すブロック図である。 図8の統計情報取得部とビット範囲決定部との動作の一例を示す説明図である。 図8の情報処理装置によるニューラルネットワークの学習の概要を示す説明図である。 図8の情報処理装置によるニューラルネットワークの学習の一例を示すフロー図である。 別の実施形態における情報処理装置の一例を示すブロック図である。 図12の量子化誤差算出部により量子化誤差を算出する一例を示す説明図である。
以下、図面を用いて実施形態を説明する。
図1は、一実施形態における情報処理装置の一例を示す。図1に示す情報処理装置100は、例えば、ニューラルネットワークを用いた画像処理等の学習または推論に使用される。
情報処理装置100は、通信バス40で相互に接続されたCPU(Central Processing Unit)10、メモリ20およびアクセラレータ30を有する。なお、情報処理装置100は、CPU10の代わりに他のプロセッサを有してもよい。また、情報処理装置100は、図示した以外の要素を含んでもよく、さらに、情報処理装置100は、アクセラレータ30を持たずに、アクセラレータ30による計算処理をCPU10により実行してもよい。
CPU10は、ビット範囲決定部12、認識率算出部14および変数決定部16を有する。また、CPU10は、図示しない演算器を有する。図1では、ビット範囲決定部12、認識率算出部14および変数決定部16は、CPU10がメモリ20に保持された情報処理プログラムを実行することで実現される。
ビット範囲決定部12、認識率算出部14および変数決定部16の少なくともいずれかは、ハードウェアにより実現されてもよい。この場合、ビット範囲決定部12、認識率算出部14および変数決定部16は、CPU10内ではなく、図示しないFPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等に含まれてもよい。
ビット範囲決定部12は、ニューラルネットワークで使用する複数種の変数の少なくともいずれかについて、量子化した場合の複数のビット範囲を決定する。例えば、複数種の変数は、重み、活性および勾配を含む。
認識率算出部14は、上記複数種の変数を含み、変数のビット範囲が異なる複数の変数グループの各々を使用して、アクセラレータ30にニューラルネットワークの学習を実行させ、ニューラルネットワークの認識率をそれぞれ算出する。ここで、複数の変数グループは、複数のビット範囲が決定された決定対象の変数について、複数のビット範囲のいずれかをそれぞれ含む。すなわち、複数の変数グループにそれぞれ含まれる決定対象の変数の少なくともいずれかは、ビット範囲が互いに異なる。
変数決定部16は、認識率算出部14が算出した複数の認識率のうち最大の認識率の変数グループをその後のニューラルネットワークの学習に使用することを決定する。ビット範囲決定部12、認識率算出部14および変数決定部16の動作の例は、後述する。
メモリ20は、OS(Operating System)、アプリケーションプログラムおよび情報処理プログラム等の各種プログラムと、ニューラルネットワークの処理で使用するデータおよび変数等とを記憶する。また、ビット範囲決定部12、認識率算出部14および変数決定部16が、CPU10により実行される情報処理プログラムにより実現される場合、メモリ20は、情報処理プログラムを記憶する。
アクセラレータ30は、例えば、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)またはディープラーニング用の専用のプロセッサ等であり、ニューラルネットワークの計算を実行可能である。例えば、アクセラレータ30は、図示しない多数の固定小数点演算器を有し、浮動小数点演算器を持たなくてもよい。なお、アクセラレータ30は、図示しない多数の固定小数点演算器と多数の浮動小数点演算器とを有してもよい。
図2は、ニューラルネットワークの概要を示す。図2に示すニューラルネットワークは、入力層と出力層との間に複数の隠れ層を含むディープニューラルネットワークである。例えば、隠れ層は、畳み込み層、プーリング層または全結合層等である。各層に示す丸印は、所定の計算をそれぞれ実行するノードを示す。
情報処理装置100は、例えば、ミニバッチに含まれる複数の学習データ(入力データ)の各々を入力層に入力し、畳み込み層、プーリング層等の計算を順次実行することで、演算により得られる情報を入力側から出力側に順次伝える順伝播処理を実行する。ここで、ミニバッチは、学習に使用するデータセット(バッチ)を複数に分割したものであり、所定数の入力データ(画像データ等)を含む。例えば、畳み込み層では、前の層からの出力データ(中間データ)である活性と、学習データとして予め準備された重みとが畳み込み演算され、演算により得られた出力データである活性が次の層の入力データとして出力される。
ミニバッチによる順伝播処理の実行後、出力層から出力される出力データと正解データとの差分(例えば、誤差の二乗和)を小さくするために勾配を算出する逆伝播処理が実行される。そして、逆伝播処理の実行に基づいて重み等の変数を更新する更新処理が実行される。例えば、逆伝播処理の計算に使用される重みの更新幅を決定するアルゴリズムとして、勾配降下法(gradient descent)が使用される。例えば、変数が更新された後、判定用のデータを使用してニューラルネットワークを動作させることで、認識率(正解率)が算出される。
以下では、ニューラルネットワークの計算に使用される重み、活性および勾配を、変数とも称する。複数のミニバッチの各々において、順伝播処理、逆伝播処理および変数の更新処理を実行することで、認識率が徐々に上がっていき、ディープニューラルネットワークが最適化される。
図3は、固定小数点による数値表現の一例を示す。図3において、符号Sは符号ビットを示し、黒丸は小数点位置を示す。図3の左欄に示した<a,b>は、aが固定小数点数のビット数を示し、bが小数部のビット数(すなわち、小数点位置)を示す。
<8,3>は、固定小数点数が8ビットであり、小数部が下位の3ビットであり、整数部が符号ビットSを除く上位の4ビットであることを示す。<8,4>は、固定小数点数が8ビットであり、小数部が下位の4ビットであり、整数部が符号ビットSを除く上位の3ビットであることを示す。
<16,10>は、固定小数点数が16ビットであり、小数部が下位の10ビットであり、整数部が符号ビットSを除く上位の5ビットであることを示す。<16,12>は、固定小数点数が16ビットであり、小数部が下位の12ビットであり、整数部が符号ビットSを除く上位の3ビットであることを示す。
図4は、図1のビット範囲決定部12の動作の一例を示す。図4(a)は、図2に示したニューラルネットワークの複数のノードに入出力される変数(重み、活性または勾配)のいずれかのビット位置(有効なビットの範囲)を示す。図4(a)では、変数は正値であり、符号ビットを除いて示される。固定小数点数データ(正値)において、最上位ビットは、符号ビットS(図3)側に最初に"1"が現れるビットである。
なお、図4(a)は、図2に丸印で示した複数のノードが入出力する変数(重み、活性または勾配)のいずれかでもよく、ノードの1つが入出力する変数(重み、活性または勾配)のいずれかでもよい。図4の左側は上位ビット側を示し、図4の右側は下位ビット側を示す。このため、最上位ビットが左側にある変数ほど値が大きい。
あるノードから出力される中間データ(活性、勾配、または学習により最適化された重み)は、例えば、固定小数点演算器による演算結果であり、ノードによる演算の実行毎に固定小数点演算器のアキュムレータ(例えば、40ビット)に格納される。なお、初期の重みは、所定のビット数(8ビットまたは16ビット等)を有するとする。
初期の重みまたは中間データが浮動小数点数データである場合、浮動小数点数データは、40ビット以下の固定小数点数データに変換され、図4(a)に示す状態になる。固定小数点数データへの変換は、CPU10により実行されてもよく、アクセラレータ30により実行されてもよい。
図4(b)は、ビット範囲決定部12により決定されたビット範囲の例を示す。例えば、ビット範囲決定部12は、値が大きい変数の最上位ビット側から複数のビット範囲(ビット範囲1、ビット範囲2、ビット範囲3)を決定する。例えば、各ビット範囲は8ビットであるが、6ビット、7ビットまたは10ビット等、他のビット数でもよい。
さらに、ビット範囲決定部12は、変数の最上位ビットの分布に基づいて、分布の最上位ビット側からビット範囲1-ビット範囲3を決定してもよい。この際、ビット範囲決定部12は、変数の最上位ビットの分布に基づいて、分布の有効範囲内に含まれる最上位ビット側からビット範囲1-ビット範囲3を決定してもよい。
なお、図4(b)では、ビット範囲決定部12は、3つのビット範囲1-ビット範囲3を決定するが、決定するビット範囲の数は、2以上であればよい。また、ビット範囲1-ビット範囲3は、1ビットずつずらされているが、ビット範囲のずらし量は、1ビットに限定されない。
例えば、分布の有効範囲は、変数の総数に対する所定の比率の変数を、値が大きい順に分布から除外することで設定される。変数の最上位ビットの分布に基づいて、複数のビット範囲を決定することで、最上位ビットの分布を使用しない場合に比べて、量子化前の元の変数(例えば、浮動小数点型)との量子化誤差を小さくすることができる。これにより、ニューラルネットワークの学習により得られる認識率の劣化を低減することができる。
最上位ビットの分布の有効範囲内において、分布の最上位ビット側から複数のビット範囲を決定することで、分布において変数の出現頻度の高い領域を使用して複数のビット範囲を決定することが可能になる。これにより、ニューラルネットワークの計算において、量子化した変数を使用する場合と、量子化前の元の変数を使用する場合との誤差を小さくすることができ、精度の低下を抑えて学習を実行することができる。この結果、認識率の劣化を低減することができる。
なお、情報処理装置100は、変数をビット範囲に量子化する場合、ビット範囲の最上位ビットより上位側のビットをビット範囲に取り込む飽和処理と、ビット範囲の最下位ビットより下位側のビットをビット範囲に取り込む丸め処理とを実行する。
ビット範囲決定部12が、変数の最上位ビットの分布に基づいてビット範囲を決定する場合、情報処理装置100は、変数の最上位ビットの分布を取得する統計情報取得部を有してもよい。この場合、統計情報取得部は、複数のビット範囲の決定対象の変数のみの最上位ビットの分布を取得してもよい。
また、ビット範囲決定部12は、変数を複数のビット範囲に量子化する場合の量子化誤差が小さい順に複数のビット範囲を決定してもよい。この場合、情報処理装置100は、変数を複数のビット範囲に量子化する場合の量子化誤差を算出する量子化誤差算出部を有してもよい。量子化誤差算出部は、複数のビット範囲の決定対象の変数についてのみ、量子化誤差を算出してもよい。
図5は、図1の情報処理装置100によるニューラルネットワークの学習の概要を示す。図5では、ビット範囲決定部12は、ニューラルネットワークで使用する重み、活性および勾配のそれぞれについて、予め取得された固定小数点数型の変数の最上位ビットの分布に基づいて、複数のビット範囲を決定する。
図5に示す例では、重みはビット範囲1とビット範囲2とに決定され、活性はビット範囲1とビット範囲2とに決定され、勾配はビット範囲1とビット範囲2とビット範囲3とに決定される。なお、ビット範囲1は、重み、活性および勾配で互いに同じでもよく、相違してもよい。同様に、ビット範囲2は、重み、活性および勾配で互いに同じでもよく、相違してもよい。
認識率算出部14は、ビット範囲決定部12が決定した変数毎のビット範囲を組み合せて複数の変数グループを生成する。図5に示す変数グループの重み、活性、勾配の数字は、ビット範囲を示すビット範囲番号である。なお、変数グループの生成は、CPU10の他の機能部により実行されてもよい。そして、認識率算出部14は、CPU10による制御に基づいてアクセラレータ30が複数の変数グループ毎に、変数グループで選択されるビット範囲の変数を使用して実行する学習に基づいて認識率を算出する。なお、認識率の算出は、評価用のデータを使用して算出されてもよい。変数決定部16は、認識率算出部14が算出した複数の認識率のうち最大の認識率の変数グループをその後の学習に使用する変数グループに決定する。
なお、図5は、ビット範囲決定部12が、ニューラルネットワークに含まれる複数の層でそれぞれ使用する複数の重み(または活性、勾配)の全体の分布に基づいてビット範囲を決定する例を示す。しかしながら、ビット範囲決定部12は、所定数の層で使用する複数の重み(または活性、勾配)の分布に基づいてビット範囲を決定してもよい。例えば、重みの分布が2つある場合、2つの分布毎に複数のビット範囲が決定される。この場合、変数グループの数は、図5の2倍の24個になる。変数グループの数は、分布の数が増える毎に増加する。
図6は、図1の情報処理装置100によるニューラルネットワークの学習の一例を示す。図6に示す処理は、CPU10が情報処理プログラムを実行することで実現される。すなわち、図6は、情報処理装置100の制御方法および情報処理装置100の制御プログラムの一例を示す。図6では、グループ決定期間の動作(ステップS12-S18)と、学習実行期間の動作(ステップS20、S22)とを含む学習サイクルが、所定のデータセットの学習が終了するまで(所定の認識率が得られるまで)繰り返し実行される。
学習実行期間は、グループ決定期間に決定した変数グループを使用してニューラルネットワークの計算を実行する計算実行期間の一例である。グループ決定期間の動作と学習実行期間の動作とを実行する学習サイクルは、計算サイクルの一例であり、例えば、所定のエポック数に対応する。ここで、1エポックは、ユーザにより入力されるデータセット分に対応する1回の学習を示す。
まず、ステップS10において、情報処理装置100は、変数毎に複数のビット範囲を決定する。ステップS10の処理は、ビット範囲決定部12により実行される。次に、ステップS12において、情報処理装置100は、変数毎に複数のビット範囲のいずれかを含む1つの変数グループを選択する。ステップS12の処理は、認識率算出部14またはCPU10の他の機能部により実行される。
次に、ステップS14において、情報処理装置100は、選択した変数グループに対応するビット範囲に合わせて量子化された各変数を使用してニューラルネットワークの学習を実行し、認識率を算出する。ステップS12の処理は、認識率算出部14により実行される。
次に、ステップS16において、情報処理装置100は、全ての変数グループの変数を使用してニューラルネットワークの学習が終了したか否かを判定する。全ての変数グループの変数を使用した学習が終了した場合、処理はステップS18に移行される。学習に使用していない変数グループがある場合、学習に使用していない変数グループの変数を使用した学習を実行するために、処理はステップS12に戻される。
なお、情報処理装置100は、複数の変数グループの中で、認識率が同程度のいくつかの変数グループがあることを予め認識している場合、認識率が同程度の変数グループのいずれかを代表として使用して学習を実行してもよい。この場合、学習の回数を削減することができ、学習時間を削減することができる。
また、図5で説明したように、所定数の層で使用する複数の重み(または活性、勾配)の分布に基づいてビット範囲が決定される場合、変数グループの数は、分布の数が増えるほど増加する。したがって、分布の数が増えるほど、複数の変数グループの学習に掛かる学習時間が増加する。このため、分布の数が予め設定された数より多くなる場合、情報処理装置100は、学習に使用する変数グループの数を制限してもよい。変数グループの数の制限は、分布をランダムに選択することで行われてもよく、過去の学習により得られた認識率に基づいて、認識率が他より低くなると予想される変数グループを学習から除くことで行われてもよい。
次に、ステップS18において、情報処理装置100は、ステップS14で算出された複数の認識率のうち、認識率が最大の変数グループをその後の学習に使用することを決定する。ステップS18の処理は、変数決定部16により実行される。次に、ステップS20において、情報処理装置100は、ステップS18で決定した変数グループの変数を使用して、学習実行期間での学習を実行する。
次に、ステップS22において、情報処理装置100は、例えば、ユーザにより入力されたデータセットに対応する学習(1エポック)を所定の回数実行した場合、図6に示す処理を終了する。情報処理装置100は、学習を所定の回数実行していない場合、処理をステップS12に戻し、次の学習サイクル(グループ決定期間+学習実行期間)の動作を実行する。
この実施形態では、学習サイクルの前半に設定されるグループ決定期間において、複数の変数グループのうち最大の認識率が得られる変数グループの使用を決定し、決定した変数グループを学習サイクルの後半に設定される学習実行期間での学習に使用する。これにより、1つの変数グループに固定して学習サイクルを繰り返し実行する場合に比べて、認識率を向上する可能性を高くすることができる。また、複数の学習サイクルの各々において、学習実行期間の前に認識率が最大の変数グループを決定することで、各学習実行期間において、最大でない認識率の変数グループを使用する場合に比べて、認識率を向上する可能性を高くすることができる。
図7は、ニューラルネットワークの学習を実行した場合の認識率の推移の一例を示す。例えば、図7は、データセットの一種であるImageNetを使用して、学習済みのネットワークの一種であるresnet-50の学習を実行する場合の例を示し、横軸は学習回数を示し、縦軸は認識率を示す。
図5で説明したように、情報処理装置100は、各学習サイクルのグループ決定期間に、複数種の変数のビット範囲の組み合せが異なる複数の変数グループを使用して学習を実行し、最大の認識率の変数グループを使用して、学習実行期間での学習を実行する。これにより、変数に浮動小数点型を使用してニューラルネットワークの学習を実行する場合の認識率の推移(実線)に近い認識率の推移(太い実線)を得ることができ、認識率が劣化する可能性を低減することができる。さらに、変数に固定小数点型を使用する場合にも、学習を続けることで、認識率を徐々に向上することができる。
また、浮動小数点型のデータを量子化により固定小数点型に変換して学習を実行することで、計算時間が短縮され、メモリの使用量が削減される。このため、複数種の変数のビット範囲の組み合せが異なる複数の変数グループ(固定小数点型)を使用して学習を実行することで、認識率の劣化を低減しつつ計算時間を短縮することができる。
これに対して、比較例(破線)に示すように、固定小数点型の変数毎に1つのビット範囲を使用してニューラルネットワークの学習を実行する場合(すなわち、1つの変数グループを使用)、学習を繰り返しても、認識率が向上しない場合がある。なお、1つの変数グループを使用してニューラルネットワークの学習を実行する場合、学習サイクル(例えば、所定のエポック数の学習)は存在するが、グループ決定期間および学習実行期間は存在しない。
以上、この実施形態では、情報処理装置100は、ニューラルネットワークの学習に使用する変数毎に、複数のビット範囲を決定し、変数毎に複数のビット範囲のいずれかを含む複数の変数グループを使用して、ニューラルネットワークの学習を実行する。そして、情報処理装置100は、複数の変数グループをそれぞれ使用して実行したニューラルネットワークの学習により得られた複数の認識率のうち、最大の認識率の変数グループを使用して後続の学習を実行する。認識率が他より高い変数グループを使用してニューラルネットワークの学習を実行することで、固定小数点型の変数毎に1つのビット範囲を使用して学習を実行する場合に比べて、認識率の劣化を低減することができる。また、変数に固定小数点型を使用する場合にも、学習を続けることで、認識率を徐々に向上することができる。
情報処理装置100は、学習サイクルの前半に設定されるグループ決定期間の学習において、複数の変数グループのうち最大の認識率が得られる変数グループの使用を決定する。そして、情報処理装置100は、決定した変数グループを学習サイクルの後半に設定される学習実行期間での学習に使用する。これにより、1つの変数グループに固定して学習サイクルでの学習を実行する場合に比べて、認識率を向上する可能性を高くすることができる。
また、複数の学習サイクルの各々において、学習実行期間の前に認識率が最大の変数グループを決定することで、各学習実行期間において、最大でない認識率の変数グループを使用する場合に比べて、認識率を向上する可能性を高くすることができる。このように、、固定小数点型の変数を含む複数の変数グループを使用して学習を実行することで、認識率の劣化を低減しつつ計算時間を短縮することができる。
固定小数点数型の変数の最上位ビットの分布に基づいて、分布の最上位ビット側から複数のビット範囲(量子化位置)を決定することで、最上位ビットの分布を使用しない場合に比べて、量子化前の元の変数との量子化誤差を小さくすることができる。これにより、ニューラルネットワークの学習により得られる認識率の劣化を低減することができる。
最上位ビットの分布の有効範囲内において、分布の最上位ビット側から複数のビット範囲を決定することで、分布において変数の出現頻度の高い領域を使用して複数のビット範囲を決定することが可能になる。これにより、ニューラルネットワークの計算において、量子化した変数を使用した場合と、量子化前の元の変数を使用した場合との誤差を小さくすることができ、精度の低下を抑えて学習を実行することができる。この結果、認識率の劣化を低減することができる。
図8は、別の実施形態における情報処理装置の一例を示す。図1と同様の要素については同じ符号を付し、詳細な説明は省略する。また、図2から図7と同様の内容については、詳細な説明は省略する。図8に示す情報処理装置100Aは、例えば、ニューラルネットワークを用いた画像処理等の学習または推論に使用され、あるいは、学習および推論の両方に使用される。
例えば、情報処理装置100Aは、サーバであり、通信バス40で相互に接続されたCPU10A、メモリ20、アクセラレータ30、補助記憶装置50、通信インタフェース60および入出力インタフェース70を有する。なお、情報処理装置100Aは、図示した以外の要素を含んでもよい。
CPU10Aは、図1に示すCPU10の構成に加えて、統計情報取得部11を有する。統計情報取得部11は、図2に示したニューラルネットワークの計算に使用する変数(重み、活性、勾配)毎に統計情報を取得する。ビット範囲決定部12は、統計情報取得部11が取得した統計情報に基づいて、変数毎に複数のビット範囲を決定する。
統計情報取得部11、ビット範囲決定部12、認識率算出部14および変数決定部16は、CPU10Aがメモリ20に保持された情報処理プログラムを実行することで実現される。なお、統計情報取得部11、ビット範囲決定部12、認識率算出部14および変数決定部16の少なくともいずれかは、ハードウェアにより実現されてもよい。
補助記憶装置50は、CPU10Aが実行するOS(Operating System)および情報処理プログラム等の各種プログラムと、ニューラルネットワークの計算で使用するデータ、重み等の各種変数等とを記憶する。例えば、補助記憶装置50が記憶するプログラムは、メモリ20に転送され、CPU10Aにより実行される。また、補助記憶装置50が記憶するニューラルネットワークの計算で使用するデータおよび各種変数は、ニューラルネットワークの学習時に補助記憶装置50からメモリ20に転送される。
通信インタフェース60は、例えば、ネットワークを介して他の情報処理装置等と通信する機能を有する。これにより、ニューラルネットワークの計算を複数の情報処理装置を使用して並列に実行することが可能になる。入出力インタフェース70は、情報処理装置100Aに接続される記録媒体80に対してデータを入出力する機能を有する。
例えば、記録媒体80は、CD(Compact Disc:登録商標)、DVD(Digital Versatile Disc:登録商標)またはUSB(Universal Serial Bus)メモリ等であり、情報処理プログラムが記録されてもよい。記録媒体80に記録された情報処理プログラムは、入出力インタフェース70を介して補助記憶装置50に転送された後、メモリ20上に展開され、CPU10Aにより実行される。
図9は、図8の統計情報取得部11とビット範囲決定部12との動作の一例を示す。図9の左側は上位ビット側を示し、図9の右側は下位ビット側を示す。図9の左右両側の破線は、固定小数点演算器による演算結果が格納されるアキュムレータ(例えば、40ビット)のビット範囲を示す。図9(a)は、図4(a)と同様に、ニューラルネットワークの複数のノードに入出力される変数(重み、活性または勾配)のいずれかを示す。
図9(b)は、統計情報取得部11により取得される統計情報の一例として、変数の最上位ビットの分布を示す。例えば、変数の分布は、ニューラルネットワークで使用する変数(重み、活性または勾配)毎に取得される。図9において、符号a(a1-a11)は、ビット位置(例えば、変数の最上位ビットの位置)を示す。符号b(b1-b11)は、各ビット位置における変数の最上位ビットのビン数を示す。
ビット範囲決定部12は、変数の最上位ビットの分布に基づいて、量子化範囲である複数のビット範囲を決定する(図9(c))。ビット範囲決定部12は、統計情報取得部11により取得した変数毎の最大値の分布を使用することで、分布の最上位ビット側から複数のビット範囲(量子化位置)を容易に決定することができる。
この例では、小数点は、符号a6で示すビット位置と符号a7で示すビット位置との間に設定される。ビット範囲1の量子化範囲は<7,1>に設定され、ビット範囲2の量子化範囲は<7,2>に設定され、ビット範囲3の量子化範囲は<7,3>に設定される。なお、ビット範囲決定部12は、変数の総数に対する所定の比率の変数を、値が大きい順に分布から除外することで設定された有効範囲内に含まれる最上位ビット側からビット範囲を決定してもよい。
例えば、分布内の最上位ビットがビット範囲の最上位ビットと一致するビット範囲1では、CPU10Aは、ビット範囲1の最下位ビットより下位側のビットの丸め処理を実行し、変数を量子化する。一方、ビット範囲が分布の内側に含まれるビット範囲2およびビット範囲3では、CPU10Aは、ビット範囲の最上位ビットより上位側のビットの飽和処理と、ビット範囲の最下位ビットより下位側のビットの丸め処理を実行し、変数を量子化する。
図10は、図8の情報処理装置100Aによるニューラルネットワークの学習の概要を示す。図5と同様の内容については、詳細な説明は省略する。図10では、説明を分かりやすくするため、ニューラルネットワークが2つの変数1、変数2(固定小数点数データ)を使用して学習を実行し、変数1、変数2毎に2つのビット範囲1、ビット範囲2が決定されるとする。
まず、図10(a)において、統計情報取得部11は、変数1、変数2のそれぞれの最上位ビットの分布を取得する。次に、図10(b)において、ビット範囲決定部12は、変数1、変数2毎に、分布の最上位ビット側からビット範囲1、ビット範囲2を決定する。例えば、ビット範囲決定部12は、変数2については、予め設定された分布の有効範囲内において、分布の最上位ビット側からビット範囲1、ビット範囲2を決定する。
次に、図10(c)において、認識率算出部14は、ビット範囲決定部12が決定した変数1、変数2毎のビット範囲1、ビット範囲2を組み合せて複数の変数グループGr(Gr1-Gr4)を生成する。そして、認識率算出部14は、変数グループGr毎に、変数グループGrの変数を使用して実行された学習に基づいて認識率を算出する。図5と同様に、認識率は数値が小さいほど高い。
次に、図10(d)において、変数決定部16は、認識率算出部14が算出した複数の認識率のうち最大の認識率(認識率1)の変数グループGr3をその後の学習に使用する変数グループに決定する。
図11は、図8の情報処理装置100Aによるニューラルネットワークの学習の一例を示す。図6と同様の処理については、詳細な説明は省略する。図11は、図6のステップS10の前にステップS8が追加されることを除き、図6と同様である。
ステップS8において、情報処理装置100Aは、ニューラルネットワークで使用する変数の種類(例えば、重み、活性および勾配)毎に、最上位ビットの分布を取得する。ステップS8の処理は、統計情報取得部11により実行される。そして、ステップS10において、情報処理装置100は、ステップS8で取得された変数の種類毎の最上位ビットの分布に基づいて、変数毎に複数のビット範囲を決定する。
なお、ニューラルネットワークの学習を実行した場合の認識率の推移の例は、図7と同様であり、本実施形態においても、変数に浮動小数点型を使用してニューラルネットワークの学習を実行する場合の認識率の推移に近い認識率の推移を得ることができる。そして、変数に固定小数点型を使用する場合にも、学習を続けることで、認識率を徐々に向上することができる。
以上、図8から図11に示す実施形態においても、図1から図7に示す実施形態と同様の効果を得ることができる。例えば、認識率が他より高い変数グループを使用して学習を実行することで、量子化した変数を使用してニューラルネットワークの学習を実行する場合に、認識率の劣化を低減することができる。
さらに、図8から図11に示す実施形態では、ビット範囲決定部12は、統計情報取得部11により取得した変数毎の最大値の分布を使用することで、分布の最上位ビット側から複数のビット範囲(量子化位置)を容易に決定することができる。
図12は、別の実施形態における情報処理装置の一例を示す。図1および図8と同様の要素については同じ符号を付し、詳細な説明は省略する。また、図2から図7および図9から図11と同様の内容については、詳細な説明は省略する。図12に示す情報処理装置100Bは、例えば、ニューラルネットワークを用いた画像処理等の学習または推論に使用され、あるいは、学習および推論の両方に使用される。
情報処理装置100Bは、図8のCPU10Aの代わりにCPU10Bを有する。CPU10Bは、CPU10Aに量子化誤差算出部13が追加されていることを除き、図8の情報処理装置100Aと同様である。すなわち、CPU10Bは、統計情報取得部11、ビット範囲決定部12、認識率算出部14、変数決定部16および量子化誤差算出部13を有する。統計情報取得部11、ビット範囲決定部12、認識率算出部14、変数決定部16および量子化誤差算出部13は、CPU10Bがメモリ20に保持された情報処理プログラムを実行することで実現される。なお、統計情報取得部11、ビット範囲決定部12、認識率算出部14、変数決定部16および量子化誤差算出部13の少なくともいずれかは、ハードウェアにより実現されてもよい。
量子化誤差算出部13は、統計情報取得部11が取得した変数毎の最上位ビットの分布に基づいて、ニューラルネットワークの学習で使用する変数毎に、複数通りのビット範囲で量子化する場合の量子化誤差をそれぞれ算出する。例えば、複数通りのビット範囲の数は、ビット範囲決定部12が決定する複数のビット範囲の数より多いことが好ましい。
ビット範囲決定部12は、ニューラルネットワークの学習で使用する変数毎に、量子化誤差算出部13が算出した量子化誤差が小さい順に、統計情報取得部11が取得した最上位ビットの分布の最上位ビット側から複数のビット範囲を決定する。このため、ビット範囲決定部12は、複数のビット範囲を、分布の最上位ビット側から順に決定するとは限らない。
図13は、図12の量子化誤差算出部13により量子化誤差を算出する一例を示す。図13の左側は上位ビット側を示し、図13の右側は下位ビット側を示す。図4および図9と同様の内容については、詳細な説明は省略する。
図13(a)は、図4(a)および図9(a)と同様に、ニューラルネットワークの複数のノードに入出力される変数(重み、活性または勾配)のいずれかを示す。図13(b)は、図9(b)と同様に、統計情報取得部11により取得される変数のいずれかの最上位ビットの分布を示す。
量子化誤差算出部13は、変数の最上位ビットの分布に基づいて、変数のビット範囲を所定の量子化範囲にする場合の量子化誤差を算出する(図13(c))。この例では、量子化範囲が<7,3>に設定される例を示すが、量子化誤差算出部13は、少なくとも図9に示す複数の量子化範囲のそれぞれについて、量子化誤差を算出する。
例えば、量子化誤差は、量子化範囲の最上位ビットを超えるビットを飽和処理し、量子化範囲の最下位ビットより下のビットを丸め処理することで算出される。図13(c)に示す例では、量子化誤差は式(1)により算出される。
量子化誤差=(a1・b1+a2・b2)-(a3・b1+a3・b2)+(a10・b10+a11・b11)-(a9・b10+a9・b11) ‥(1)
式(1)において、"・"は、積を示し、第1項および第2項は、飽和誤差を示し、第3項および第4項は丸め誤差を示す。そして、例えば、算出された変数毎の量子化誤差の平均値が算出され、閾値と比較する量子化誤差に決定される。
なお、図13(c)では、量子化誤差の算出方法を分かりやすくするために、図13(b)の分布の絵を利用しているが、実際には、図13(a)の各変数において、量子化範囲から外れるビットが飽和処理され、丸め処理される。また、図13では、量子化誤差算出部13は、飽和処理と丸め処理とを両方実行して量子化誤差を算出するが、飽和処理または丸め処理のいずれかを実行して量子化誤差を算出してもよい。
なお、ニューラルネットワークの学習を実行した場合の認識率の推移の例は、図7と同様であり、本実施形態においても、変数に浮動小数点型を使用してニューラルネットワークの学習を実行する場合の認識率の推移に近い認識率の推移を得ることができる。そして、変数に固定小数点型を使用する場合にも、学習を続けることで、認識率を徐々に向上することができる。
以上、この実施形態においても、上述した実施形態と同様に、認識率が他より高い変数グループを使用して学習を実行することで、量子化した変数を使用してニューラルネットワークの学習を実行する場合に、認識率の劣化を低減することができる。さらに、この実施形態では、量子化誤差算出部13により量子化誤差を算出することで、ビット範囲決定部12は、量子化誤差が小さい順に複数のビット範囲を決定することができる。したがって、ニューラルネットワークの計算において、量子化した変数(固定小数点型)を使用した場合と、量子化前の元の変数(浮動小数点型)を使用した場合との誤差を小さくすることができ、精度の低下を抑えて学習を実行することができる。この結果、ニューラルネットワークの学習による認識率の劣化をさらに低減することができる。
なお、上述した実施形態では、複数の変数グループを使用してグループ決定期間での学習を実行し、学習により得られた最大の認識率の変数グループを使用して学習実行期間での学習を実行する例を示した。しかしながら、グループ学習期間において、複数の変数グループを使用した学習時の損失関数(Train LossまたはTest Loss)に基づいて、学習実行期間での学習に使用する複数の変数グループを決定してもよい。
また、上述した実施形態では、変数毎に複数のビット範囲のいずれかを含む複数の変数グループを使用してグループ決定期間での学習を実行し、学習により得られた最大の認識率の変数グループを使用して学習実行期間での学習を実行する例を示した。しかしながら、変数毎に複数のビット範囲のいずれかを含む複数の変数グループを使用してニューラルネットワークの推論を実行し、推論により得られた最大の認識率の変数グループを使用して後続の推論を実行してもよい。
この場合、例えば、図6、図7および図11の学習サイクルは推論サイクルに変更され、図6、図7および図11の学習実行期間は推論実行期間に変更される。推論サイクルの長さは、推論システムが実行する推論の対象物に応じて任意の長さに設定される。また、図1、図5、図6、図7、図10および図11の"学習"は、"推論"に変更される。
これにより、ニューラルネットワークを用いた推論においても、複数の変数グループを使用したグループ決定期間での学習の実行により得られた最大の認識率の変数グループを使用して学習実行期間での学習を実行する場合と同様の効果を得ることができる。例えば、認識率が他より高い変数グループを使用して推論を実行することで、量子化した変数を使用してニューラルネットワークの推論を実行する場合に、浮動小数点型の変数を使用して推論を実行する場合に比べて、認識率の劣化を低減することができる。また、変数に固定小数点型を使用する場合にも、推論を続けることで、認識率を徐々に向上することができる。
なお、上述した実施形態では、ニューラルネットワークで使用する変数の種類毎に、複数のビット範囲を決定する例を示した。すなわち、例えば、ニューラルネットワークで使用する全ての重み(または活性または勾配)に共通の複数のビット範囲を決定する例を示した。しかしながら、例えば、ニューラルネットワークの所定数の層単位で、変数の種類毎に、複数のビット範囲を決定してもよい。すなわち、ある層で使用される重み(または活性または勾配)と、別の層で使用される重み(または活性または勾配)とのそれぞれについて、複数のビット範囲が決定されてもよい。
さらに、ある層で使用される重み(または活性または勾配)について、複数のビット範囲が決定され、別の層で使用される重み(または活性または勾配)について、1つのビット範囲が決定されてもよい。また、例えば、ニューラルネットワークで使用する重みと活性について、複数のビット範囲が決定され、ニューラルネットワークで使用する勾配について、1つのビット範囲が決定されてもよい。どの変数について複数のビット範囲を決定するかは、計算負荷と、過去の学習による認識率の向上効果とを考慮して決められる。
以上の図1から図13に示す実施形態に関し、さらに以下の付記を開示する。
(付記1)
プロセッサを有する情報処理装置であって、
前記プロセッサは、
ニューラルネットワークで使用する複数種の変数の少なくともいずれかについて、量子化後の複数のビット範囲を決定し、
前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
算出された複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、情報処理装置。
(付記2)
前記プロセッサは、グループ決定期間と計算実行期間とを含む複数の計算サイクルに分けて、前記ニューラルネットワークの計算を実行し、
前記認識率を算出するステップおよび前記最大の認識率の前記変数グループを決定するステップは、前記グループ決定期間に動作し、
前記複数の計算サイクルの各々において、前記グループ決定期間に決定した前記変数グループを使用して前記計算実行期間の計算を実行する、付記1に記載の情報処理装置。
(付記3)
前記ビット範囲を決定するステップは、前記複数のビット範囲の決定対象の変数を固定小数点数で表した場合の最上位ビットの分布に基づいて、前記分布の最上位ビット側から前記複数のビット範囲を決定する、付記1または付記2に記載の情報処理装置。
(付記4)
前記ビット範囲を決定するステップは、前記最上位ビットの分布の有効範囲内において、前記分布の最上位ビット側から前記複数のビット範囲を決定する、付記3に記載の情報処理装置。
(付記5)
前記プロセッサは、前記複数のビット範囲の決定対象の前記変数について、複数通りのビット範囲で量子化する場合の量子化誤差をそれぞれ算出し、
前記ビット範囲を決定するステップは、算出された前記量子化誤差が小さい順に、前記分布の最上位ビット側から前記複数のビット範囲を決定する、付記3または付記4に記載の情報処理装置。
(付記6)
前記プロセッサは、前記ニューラルネットワークの計算により算出された前記複数種の変数のうち、前記複数のビット範囲の決定対象の前記変数の前記最上位ビットの分布を取得する、付記3ないし付記5のいずれか1項に記載の情報処理装置。
(付記7)
前記プロセッサは、決定された前記最大の認識率の前記変数グループを使用して、前記ニューラルネットワークの学習を実行する、付記1ないし付記6のいずれか1項に記載の情報処理装置。
(付記8)
前記複数種の変数は、重み、活性および勾配を含む、付記7に記載の情報処理装置。
(付記9)
前記プロセッサは、決定された前記最大の認識率の前記変数グループを使用して、前記ニューラルネットワークの推論を実行する、付記1ないし付記6のいずれか1項に記載の情報処理装置。
(付記10)
ニューラルネットワークで使用する複数種の変数の少なくともいずれかについて、量子化後の複数のビット範囲を決定し、
前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
算出された複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、処理を情報処理装置が有するプロセッサに実行させる情報処理方法。
(付記11)
ニューラルネットワークで使用する複数種の変数の少なくともいずれかについて、量子化後の複数のビット範囲を決定し、
前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
算出した複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、処理を情報処理装置が有するプロセッサに実行させる情報処理プログラム。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10、10A、10B CPU
11 統計情報取得部
12 ビット範囲決定部
13 量子化誤差算出部
14 認識率算出部
16 変数決定部
20 メモリ
30 アクセラレータ
40 通信バス
50 補助記憶装置
60 通信インタフェース
70 入出力インタフェース
80 記録媒体
100、100A 情報処理装置

Claims (7)

  1. プロセッサを有する情報処理装置であって、
    前記プロセッサは、
    ニューラルネットワークで使用する複数種の変数の少なくともいずれかの変数を固定小数点数で表した場合の最上位ビットの分布に基づいて、前記分布の最上位ビット側から量子化後の複数のビット範囲を決定し、
    前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
    算出された複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、情報処理装置。
  2. 前記プロセッサは、グループ決定期間と計算実行期間とを含む複数の計算サイクルに分けて、前記ニューラルネットワークの計算を実行し、
    前記認識率を算出するステップおよび前記最大の認識率の前記変数グループを決定するステップは、前記グループ決定期間に動作し、
    前記複数の計算サイクルの各々において、前記グループ決定期間に決定した前記変数グループを使用して前記計算実行期間の計算を実行する、請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記複数のビット範囲の決定対象の前記変数について、複数通りのビット範囲で量子化する場合の量子化誤差をそれぞれ算出し、
    前記ビット範囲を決定するステップは、算出された前記量子化誤差が小さい順に、前記分布の最上位ビット側から前記複数のビット範囲を決定する、請求項1または請求項2に記載の情報処理装置。
  4. 前記プロセッサは、決定された前記最大の認識率の前記変数グループを使用して、前記ニューラルネットワークの学習を実行する、請求項1ないし請求項3のいずれか1項に記載の情報処理装置。
  5. 前記プロセッサは、決定された前記最大の認識率の前記変数グループを使用して、前記ニューラルネットワークの推論を実行する、請求項1ないし請求項3のいずれか1項に記載の情報処理装置。
  6. ニューラルネットワークで使用する複数種の変数の少なくともいずれかの変数を固定小数点数で表した場合の最上位ビットの分布に基づいて、前記分布の最上位ビット側から量子化後の複数のビット範囲を決定し、
    前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
    算出した複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、処理を情報処理装置が有するプロセッサに実行させる情報処理方法。
  7. ニューラルネットワークで使用する複数種の変数の少なくともいずれかの変数を固定小数点数で表した場合の最上位ビットの分布に基づいて、前記分布の最上位ビット側から量量子化後の複数のビット範囲を決定し、
    前記複数種の変数を含み、前記複数種の変数の少なくともいずれかのビット範囲が異なる複数の変数グループの各々を使用して前記ニューラルネットワークの認識率を算出し、
    算出した複数の前記認識率のうち最大の認識率の前記変数グループを前記ニューラルネットワークの計算に使用することを決定する、処理を情報処理装置が有するプロセッサに実行させる情報処理プログラム。
JP2019167657A 2019-09-13 2019-09-13 情報処理装置、情報処理方法および情報処理プログラム Active JP7322620B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019167657A JP7322620B2 (ja) 2019-09-13 2019-09-13 情報処理装置、情報処理方法および情報処理プログラム
EP20192763.9A EP3796233A1 (en) 2019-09-13 2020-08-25 Information processing device and method, and program
US17/002,814 US20210081785A1 (en) 2019-09-13 2020-08-26 Information processing device and method, and recording medium storing information processing program
CN202010908955.2A CN112508166A (zh) 2019-09-13 2020-09-02 信息处理装置和方法以及存储信息处理程序的记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167657A JP7322620B2 (ja) 2019-09-13 2019-09-13 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2021043906A JP2021043906A (ja) 2021-03-18
JP7322620B2 true JP7322620B2 (ja) 2023-08-08

Family

ID=72242957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167657A Active JP7322620B2 (ja) 2019-09-13 2019-09-13 情報処理装置、情報処理方法および情報処理プログラム

Country Status (4)

Country Link
US (1) US20210081785A1 (ja)
EP (1) EP3796233A1 (ja)
JP (1) JP7322620B2 (ja)
CN (1) CN112508166A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210156538A (ko) * 2020-06-18 2021-12-27 삼성전자주식회사 뉴럴 네트워크를 이용한 데이터 처리 방법 및 데이터 처리 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6528893B1 (ja) 2018-11-07 2019-06-12 富士通株式会社 学習プログラム、学習方法、情報処理装置
JP2019148896A (ja) 2018-02-26 2019-09-05 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI107483B (fi) * 1999-10-22 2001-08-15 Nokia Mobile Phones Ltd Järjestely ja menetelmä sanan pituuden rajoittamiseksi
DE10318830B4 (de) * 2003-04-25 2005-05-12 Infineon Technologies Ag Verfahren und Auswertung einer Bitfehlerratenmessung zur Angabe einer Kanalqualität
US7711062B2 (en) * 2006-12-29 2010-05-04 Intel Corporation Decoding methods and apparatus for MIMO communication systems
WO2012137617A1 (ja) * 2011-04-05 2012-10-11 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体
JP2012221187A (ja) * 2011-04-08 2012-11-12 Fujitsu Ltd 演算回路、演算処理装置、及び演算回路の制御方法
US9088323B2 (en) * 2013-01-09 2015-07-21 Lg Electronics Inc. Method and apparatus for reporting downlink channel state
JP6561877B2 (ja) 2016-03-01 2019-08-21 株式会社デンソー 演算処理装置
US11222263B2 (en) * 2016-07-28 2022-01-11 Samsung Electronics Co., Ltd. Neural network method and apparatus
CN108268947A (zh) * 2016-12-30 2018-07-10 富士通株式会社 用于提高神经网络的处理速度的装置和方法及其应用
KR102601604B1 (ko) * 2017-08-04 2023-11-13 삼성전자주식회사 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치
KR20190044878A (ko) * 2017-10-23 2019-05-02 삼성전자주식회사 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
US10474430B2 (en) * 2017-12-29 2019-11-12 Facebook, Inc. Mixed-precision processing elements, systems, and methods for computational models
US11348009B2 (en) * 2018-09-24 2022-05-31 Samsung Electronics Co., Ltd. Non-uniform quantization of pre-trained deep neural network
US20200302283A1 (en) * 2019-03-18 2020-09-24 Microsoft Technology Licensing, Llc Mixed precision training of an artificial neural network
CN110210619A (zh) * 2019-05-22 2019-09-06 上海商汤智能科技有限公司 神经网络的训练方法及装置、电子设备和存储介质
JP2021111081A (ja) * 2020-01-09 2021-08-02 富士通株式会社 情報処理装置、ニューラルネットワークの演算プログラム及びニューラルネットワークの演算方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148896A (ja) 2018-02-26 2019-09-05 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム
JP6528893B1 (ja) 2018-11-07 2019-06-12 富士通株式会社 学習プログラム、学習方法、情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHOU, Shuchang et al.,DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients,arXiv.org [online],米国,arXiv.org,2018年02月02日,第1頁-第13頁,[検索日 2023.3.6], インターネット:<URL: https://arxiv.org/pdf/1606.06160v3.pdf>

Also Published As

Publication number Publication date
US20210081785A1 (en) 2021-03-18
JP2021043906A (ja) 2021-03-18
CN112508166A (zh) 2021-03-16
EP3796233A1 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
JP7349835B2 (ja) ニューラルネットワークにおいてパラメータを処理する方法及び装置
TWI791610B (zh) 對人工神經網路及浮點神經網路進行量化的方法及裝置
JP2019164793A5 (ja)
KR20190043849A (ko) 뉴럴 네트워크의 파라미터를 양자화하는 장치 및 방법
JP2019079535A (ja) パラメータ処理方法及び装置
CN109697048B (zh) 在神经网络中生成随机性
JP2019139338A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7292297B2 (ja) 確率的丸めロジック
JP7294017B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7322620B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20210097397A1 (en) Information processing apparatus and information processing method
CN104412512B (zh) 编码装置、解码装置、编码方法以及解码方法
JP2020201646A (ja) 演算処理装置、制御方法、及び制御プログラム
US20210216867A1 (en) Information processing apparatus, neural network computation program, and neural network computation method
US20220318611A1 (en) Data processing
JP2019075003A (ja) 近似計算装置、近似計算方法及びプログラム
KR102243119B1 (ko) 가변 정밀도 양자화 장치 및 방법
CN111814955A (zh) 神经网络模型的量化方法、设备及计算机存储介质
CN111985604A (zh) 运算处理设备、用于控制运算处理设备的方法和存储介质
CN112561050A (zh) 一种神经网络模型训练方法及装置
JP7298266B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
EP3792836A1 (en) Information processing apparatus, method of processing information, and information processing program
JP2023069780A (ja) 演算プログラム、演算方法及び計算機
JP2023174473A (ja) 深層学習ネットワーク用の最適化方法及びコンピュータ装置、及びコンピュータ可読記憶媒体
JP2022141513A (ja) 演算装置、共通演算設定装置、演算方法、共通演算設定方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7322620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150