JP7322622B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP7322622B2 JP7322622B2 JP2019168078A JP2019168078A JP7322622B2 JP 7322622 B2 JP7322622 B2 JP 7322622B2 JP 2019168078 A JP2019168078 A JP 2019168078A JP 2019168078 A JP2019168078 A JP 2019168078A JP 7322622 B2 JP7322622 B2 JP 7322622B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- gradient information
- learning
- quantized
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Neurology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
前記プロセッサは、
前記ニューラルネットワークにおいて使用される勾配情報を量子化し、
量子化後の勾配情報に、所定のノイズを付加し、
前記所定のノイズが付加された前記勾配情報を使用して、前記ニューラルネットワークを実行し、
前記ノイズを付加する処理は、量子化後の前記勾配情報に、各値の出現頻度を表すヒストグラムが、前記勾配情報を量子化した際の最小値以上の出現頻度がゼロである正規分布となるノイズを付加する処理である。
<情報処理装置のハードウェア構成>
はじめに、深層学習用のフレームワークにより、ニューラルネットワーク(NN:Neural Network)を実行するプロセッサを有する情報処理装置100のハードウェア構成について説明する。図1は、情報処理装置のハードウェア構成の一例を示す図である。図1に示すように、情報処理装置100は、汎用プロセッサ101、メモリ102、特定用途プロセッサ103を有する。なお、汎用プロセッサ101、メモリ102、特定用途プロセッサ103は、いわゆるコンピュータを形成する。
次に、情報処理装置100の機能構成について説明する。図2は、情報処理装置の機能構成の一例を示す図である。上述したように、情報処理装置100には、情報処理プログラムがインストールされており、情報処理装置100のプロセッサは、当該プログラムを実行することで、深層学習用のフレームワーク200を実現する。図2に示すように、第1の実施形態において、深層学習用のフレームワーク200には、付加ノイズ受付部210と、付加ノイズ設定部220と、学習部230とが含まれる。
次に、学習部230の機能構成について説明する。図3は、情報処理装置の学習部の機能構成の一例を示す図である。図3に示すように、学習部230は、入力層311と、第1のニューロン層312、第2のニューロン層313、第3のニューロン層314と、差分器315とを有する。なお、図3の例では、ニューロン層の数を3つとしているが、学習部230が有するニューロン層の数は、3つに限定されない。
次に、学習部230の各ニューロン層に含まれる各部(ここでは、量子化部322_1~322_3、ノイズ付加部323_1~323_3、更新部324_1~324_3)の処理の具体例について説明する。
はじめに、量子化部322_1~322_3の処理の具体例について説明する。図4は、量子化部の処理の具体例を示す図である。上述したように、量子化部322_1~322_3は、学習時に差分値が逆伝播されるごとに、勾配情報算出部321_1~321_3より勾配情報を受け取る。
次に、ノイズ付加部323_1~323_3の処理の具体例について説明する。図5は、ノイズ付加部により付加されるノイズの特性を示す図である。ノイズ付加部323_1~323_3が付加するノイズN(N1~N3)は、付加ノイズ受付部210が受け付け、付加ノイズ設定部220により設定されたノイズであり、例えば、(0、0.5、-0.8、1.1、・・・)等である。
・量子化後の勾配情報▽wの各値の出現頻度を表すヒストグラム(符号420)と、
・ノイズNの各値の出現頻度を表すヒストグラム(符号500)と、
・量子化後の勾配情報▽wにノイズNを付加した、ノイズ付加後の勾配情報の各値の出現頻度を表すヒストグラム(符号600)と、
の関係を示している。
次に、更新部324_1~324_3による処理の具体例について説明する。図7は、更新部の処理の具体例を示す図である。図7に示すように、更新部324_1~324_3は、ノイズN(N1~N3)が付加された、量子化後の勾配情報▽w(▽w1~▽w3)に、学習率η(η1~η3)をかけ合わせ、前回の重みパラメータWt(W1(t)~W3(t))から減算する。これにより、更新部324_1~324_3では、前回の重みパラメータWt(W1(t)~W3(t))を更新し、更新後の重みパラメータWt+1(W1(t+1)~W3(t+1))を算出する。
次に、情報処理装置100による設定処理及び学習処理の流れについて説明する。図8は、設定処理及び学習処理の流れを示すフローチャートである。
次に、量子化後の勾配情報に、ノイズを付加した場合の効果について説明する。図9は、量子化後の勾配情報に、ノイズを付加した場合の効果を示す図である。図9において、横軸は、学習部230による学習回数を示しており、縦軸は、正解率を示している。図9において、グラフ900は、勾配情報を量子化しないで学習処理を行った場合の正解率の変遷を表している。
上記第1の実施形態では、学習部のNNに使用される各種変数のうち、勾配情報のみが量子化される場合について説明した。しかしながら、学習部のNNに使用される各種変数のうち、量子化される変数は勾配情報に限定されず、他の変数(重みパラメータ、差分値等)が量子化されてもよい。
図10は、学習処理の流れを示すフローチャートである。図8(b)の学習処理との相違点は、ステップS1001~S1004である。なお、図10の学習処理を開始するにあたり、量子化後の勾配情報に付加するノイズ、量子化後の重みパラメータに付加するノイズ、量子化後の差分値に付加するノイズは、予め設定されているものとする。
上記各実施形態では、学習部のNNに使用される各種変数にノイズを付加する場合について説明した。しかしながら、ノイズを付加する各種変数は学習部のNNに使用される各種変数に限定されず、学習部により学習処理が行われた学習済みのNNを推論部として使用する際の各種変数(具体的には、重みパラメータ)に付加してもよい。これにより、各種変数を量子化して推論処理を行った場合の正解率の劣化を抑えることができる。
(付記1)
ニューラルネットワークを実行するプロセッサを有する情報処理装置であって、
前記プロセッサは、
前記ニューラルネットワークにおいて使用される変数の少なくともいずれかを量子化し、
量子化後の変数に所定のノイズを付加し、
前記所定のノイズが付加された、前記量子化後の変数を使用して、前記ニューラルネットワークを実行する、情報処理装置。
(付記2)
前記量子化する処理における量子化する変数には、
学習時に逆伝播する差分値、
学習時に差分値を逆伝播することで算出される勾配情報、
学習時または推論時に入力データの演算に用いられる重みパラメータ、
のいずれかが含まれる、付記1に記載の情報処理装置。
(付記3)
前記付加する処理は、前記量子化後の変数に、各値の出現頻度を表すヒストグラムが所定の確率分布となるノイズを付加する、付記2に記載の情報処理装置。
(付記4)
前記プロセッサは、
前記量子化する処理において学習時に差分値を逆伝播することで算出される勾配情報が量子化され、前記付加する処理において量子化後の勾配情報にノイズが付加された場合に、該ノイズが付加された前記量子化後の勾配情報に学習率をかけ合わせ、前回学習時の重みパラメータから減算することで、前回学習時の重みパラメータを更新する、付記3に記載の情報処理装置。
(付記5)
前記確率分布には、一様分布、正規分布、ラプラス分布、ガンマ分布のいずれかが含まれる、付記4に記載の情報処理装置。
(付記6)
前記確率分布は、平均値がゼロで、分散値が勾配情報の最大値の1/M倍(Mは整数)の正規分布であって、前記勾配情報を量子化した際の最小値以上の出現頻度がゼロである正規分布である、付記5に記載の情報処理装置。
(付記7)
ニューラルネットワークを実行するプロセッサが、
前記ニューラルネットワークにおいて使用される変数の少なくともいずれかを量子化し、
量子化後の変数に所定のノイズを付加する、処理を実行する情報処理方法であって、
前記所定のノイズが付加された、前記量子化後の変数を使用して、前記ニューラルネットワークを実行する、情報処理方法。
(付記8)
ニューラルネットワークを実行するプロセッサに、
前記ニューラルネットワークにおいて使用される変数の少なくともいずれかを量子化し、
量子化後の変数に所定のノイズを付加する、処理を実行させる情報処理プログラムであって、
前記所定のノイズが付加された、前記量子化後の変数を使用して、前記ニューラルネットワークを実行させる、情報処理プログラム。
101 :汎用プロセッサ
103 :特定用途プロセッサ
210 :付加ノイズ受付部
220 :付加ノイズ設定部
230 :学習部
311 :入力層
312~314 :第1~第3のニューロン層
315 :差分器
321_1~321_3 :勾配情報算出部
322_1~322_3 :量子化部
323_3~323_3 :ノイズ付加部
324_1~324_3 :更新部
Claims (5)
- ニューラルネットワークを実行するプロセッサを有する情報処理装置であって、
前記プロセッサは、
前記ニューラルネットワークにおいて使用される勾配情報を量子化し、
量子化後の勾配情報に、所定のノイズを付加し、
前記所定のノイズが付加された前記勾配情報を使用して、前記ニューラルネットワークを実行し、
前記ノイズを付加する処理は、量子化後の前記勾配情報に、各値の出現頻度を表すヒストグラムが、前記勾配情報を量子化した際の最小値以上の出現頻度がゼロである正規分布となるノイズを付加する処理である、情報処理装置。 - 前記ニューラルネットワークにおいて使用される変数には、
学習時に逆伝播する差分値、
学習時に差分値を逆伝播することで算出される勾配情報、
学習時または推論時に入力データの演算に用いられる重みパラメータ、
のいずれかが含まれる、請求項1に記載の情報処理装置。 - 前記プロセッサは、
前記量子化する処理において学習時に差分値を逆伝播することで算出される勾配情報が量子化され、前記付加する処理において量子化後の勾配情報にノイズが付加された場合に、該ノイズが付加された前記量子化後の勾配情報に学習率をかけ合わせ、前回学習時の重みパラメータから減算することで、前回学習時の重みパラメータを更新する、請求項2に記載の情報処理装置。 - ニューラルネットワークを実行するプロセッサが、
前記ニューラルネットワークにおいて使用される勾配情報を量子化し、
量子化後の勾配情報に、所定のノイズを付加し、
前記所定のノイズが付加された前記勾配情報を使用して、前記ニューラルネットワークを実行する、情報処理方法であって、
前記ノイズを付加する処理は、量子化後の前記勾配情報に、各値の出現頻度を表すヒストグラムが、前記勾配情報を量子化した際の最小値以上の出現頻度がゼロである正規分布となるノイズを付加する処理である、情報処理方法。 - ニューラルネットワークを実行するプロセッサに、
前記ニューラルネットワークにおいて使用される勾配情報を量子化し、
量子化後の勾配情報に、所定のノイズを付加する、
処理を実行させ、
前記所定のノイズが付加された前記勾配情報を使用して、前記ニューラルネットワークを実行させる情報処理プログラムであって、
前記ノイズを付加する処理は、量子化後の前記勾配情報に、各値の出現頻度を表すヒストグラムが、前記勾配情報を量子化した際の最小値以上の出現頻度がゼロである正規分布となるノイズを付加する処理である、情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019168078A JP7322622B2 (ja) | 2019-09-17 | 2019-09-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
US16/987,459 US20210081801A1 (en) | 2019-09-17 | 2020-08-07 | Information processing apparatus, method for procesing information, and computer-readable recording medium |
EP20190589.0A EP3796232A1 (en) | 2019-09-17 | 2020-08-11 | Information processing apparatus, method for processing information, and program |
CN202010896137.5A CN112598108A (zh) | 2019-09-17 | 2020-08-31 | 信息处理设备、处理信息的方法和计算机可读记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019168078A JP7322622B2 (ja) | 2019-09-17 | 2019-09-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047481A JP2021047481A (ja) | 2021-03-25 |
JP7322622B2 true JP7322622B2 (ja) | 2023-08-08 |
Family
ID=72050664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019168078A Active JP7322622B2 (ja) | 2019-09-17 | 2019-09-17 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210081801A1 (ja) |
EP (1) | EP3796232A1 (ja) |
JP (1) | JP7322622B2 (ja) |
CN (1) | CN112598108A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7021132B2 (ja) * | 2019-01-22 | 2022-02-16 | 株式会社東芝 | 学習装置、学習方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016114988A (ja) | 2014-12-11 | 2016-06-23 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
US20160328647A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
JP2021043596A (ja) | 2019-09-09 | 2021-03-18 | 株式会社ソシオネクスト | 量子化パラメータ最適化方法、及び、量子化パラメータ最適化装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3192016B1 (en) * | 2014-09-12 | 2019-05-08 | Microsoft Technology Licensing, LLC | Computing system for training neural networks |
JP6227813B1 (ja) | 2017-01-25 | 2017-11-08 | 株式会社Preferred Networks | 分散深層学習装置及び分散深層学習システム |
KR102589303B1 (ko) * | 2017-11-02 | 2023-10-24 | 삼성전자주식회사 | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 |
US11847568B2 (en) * | 2019-07-30 | 2023-12-19 | Perceive Corporation | Quantizing neural networks using shifting and scaling |
-
2019
- 2019-09-17 JP JP2019168078A patent/JP7322622B2/ja active Active
-
2020
- 2020-08-07 US US16/987,459 patent/US20210081801A1/en not_active Abandoned
- 2020-08-11 EP EP20190589.0A patent/EP3796232A1/en active Pending
- 2020-08-31 CN CN202010896137.5A patent/CN112598108A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016114988A (ja) | 2014-12-11 | 2016-06-23 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
US20160328647A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
JP2021043596A (ja) | 2019-09-09 | 2021-03-18 | 株式会社ソシオネクスト | 量子化パラメータ最適化方法、及び、量子化パラメータ最適化装置 |
Non-Patent Citations (1)
Title |
---|
森江 隆 ほか3名,誤差逆伝搬学習におけるノイズの効果とフォールトトレランス,電子情報通信学会技術研究報告 ,日本,社団法人電子情報通信学会,1998年05月22日,第98巻, 第68号,第61頁-第67頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2021047481A (ja) | 2021-03-25 |
US20210081801A1 (en) | 2021-03-18 |
CN112598108A (zh) | 2021-04-02 |
EP3796232A1 (en) | 2021-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11847569B2 (en) | Training and application method of a multi-layer neural network model, apparatus and storage medium | |
KR20190034985A (ko) | 인공 신경망의 양자화 방법 및 장치 | |
CN110073371A (zh) | 用于以降低精度进行深度神经网络训练的损失缩放 | |
US20190251444A1 (en) | Systems and Methods for Modification of Neural Networks Based on Estimated Edge Utility | |
CN110728358B (zh) | 基于神经网络的数据处理方法和装置 | |
KR102214837B1 (ko) | 컨벌루션 신경망 파라미터 최적화 방법, 컨벌루션 신경망 연산방법 및 그 장치 | |
US11657285B2 (en) | Methods, systems, and media for random semi-structured row-wise pruning in neural networks | |
KR102247896B1 (ko) | 학습된 파라미터의 형태변환을 이용한 컨벌루션 신경망 파라미터 최적화 방법, 컨벌루션 신경망 연산방법 및 그 장치 | |
JP7322622B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US20230316080A1 (en) | Sparsity masking methods for neural network training | |
TW202001701A (zh) | 影像的量化方法及神經網路的訓練方法 | |
JP7294017B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP7272121B2 (ja) | 演算処理装置、制御方法、及び制御プログラム | |
US20220405561A1 (en) | Electronic device and controlling method of electronic device | |
KR102042323B1 (ko) | Hs 알고리즘을 이용하여 최적해를 도출하는 방법 및 이를 수행하는 단말 장치 | |
JP2010039723A (ja) | 非負値行列分解の数値計算方法、非負値行列分解の数値計算装置、プログラムおよび記憶媒体 | |
JP7243498B2 (ja) | 演算処理装置、制御プログラム、及び制御方法 | |
US20220383092A1 (en) | Turbo training for deep neural networks | |
CN113313253A (zh) | 神经网络压缩方法、数据处理方法、装置及计算机设备 | |
JP2004110300A (ja) | データ予測方法、データ予測装置、コンピュータプログラム、及び記録媒体 | |
JP7279507B2 (ja) | 情報処理装置、情報処理プログラム及び制御方法 | |
CN109491594B (zh) | 矩阵求逆过程中优化数据存储空间的方法和装置 | |
CN111985604A (zh) | 运算处理设备、用于控制运算处理设备的方法和存储介质 | |
EP3792836A1 (en) | Information processing apparatus, method of processing information, and information processing program | |
CN115906917B (zh) | 一种基于模型算法划分的神经网络模型部署方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322622 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |