JPWO2018155232A1 - 情報処理装置、情報処理方法、並びにプログラム - Google Patents
情報処理装置、情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- JPWO2018155232A1 JPWO2018155232A1 JP2019501225A JP2019501225A JPWO2018155232A1 JP WO2018155232 A1 JPWO2018155232 A1 JP WO2018155232A1 JP 2019501225 A JP2019501225 A JP 2019501225A JP 2019501225 A JP2019501225 A JP 2019501225A JP WO2018155232 A1 JPWO2018155232 A1 JP WO2018155232A1
- Authority
- JP
- Japan
- Prior art keywords
- gradient
- quantization
- distribution
- value
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000009826 distribution Methods 0.000 claims abstract description 131
- 238000013139 quantization Methods 0.000 claims abstract description 128
- 238000010801 machine learning Methods 0.000 claims abstract description 22
- 238000013135 deep learning Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 29
- 230000001186 cumulative effect Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 abstract description 24
- 238000005315 distribution function Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Abstract
Description
本技術は、機械学習における分散学習に適用できる。機械学習としては、多層構造のニューラルネットワークを用いた機械学習であるディープラーニング(深層学習)に対して、本技術を適用できる。ここでは、ディープラーニングに本技術を適用した場合を例に挙げて説明を行うが、他の機械学習に対しても適用可能である。
図3は、ワーカ12において算出された勾配gの結果をまとめたグラフである。図3に示した各グラフは、ワーカ12において6400個のパラメータから構成される勾配gを算出したときの、各パラメータの値とその個数の関係を示すグラフ(累積分布)である。図3に示した各グラフにおいて横軸は、勾配gの値を表し、縦軸は、累積個数(密度)を表す。
図6に示したグラフは、勾配gそのものを量子化した場合を示している。他の量子化として、勾配gの和を量子化する場合もある。
上記した量子化を行うワーカ12の処理(第1の処理とする)について説明する。
{(N1,M1),・・・,(Nt,Mt),・・・,(NT,MT)}
のデータが蓄積され、この蓄積されたデータを用いることで、学習ベースでM=f(n)の関数fを求めることができる。
{(N1,M1),・・・,(Nt,Mt),・・・,(NT,MT)}
のデータが蓄積される。このようなデータが蓄積されると、理論値と実測値との乖離誤差の平均が次式(2)により求められる。
上記した量子化を行うワーカ12の他の処理(第2の処理とする)について説明する。ワーカの第2の処理として、勾配gの和(以下、累積勾配gと記述する)を量子化する場合について説明する。なお、基本的な処理は、図10、図11のフローチャートを参照した説明した場合と同様であるため、同様の処理については適宜その説明を省略する。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
(1)
機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
情報処理装置。
(2)
前記演算は、ディープラーニングにおける演算であり、前記ディープラーニングに基づく演算により算出された勾配の分布が、前記所定の確率分布に基づくとして量子化を行う
前記(1)に記載の情報処理装置。
(3)
複数の装置で分散して機械学習を行う分散学習において、1の装置での学習により得られた値を、他の装置に供給するときに、前記量子化が行われる
前記(1)または(2)に記載の情報処理装置。
(4)
前記所定の確率分布は、ピーク値を中心軸とする左右対称のグラフとなる分布である
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記所定の確率分布は、平均または中央値が1つ計算可能な分布である
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(6)
前記所定の確率分布は、正規化分布、ラプラス分布、コーシー分布、スチューデント-T分布のいずれかである
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(7)
前記算出された値から、前記所定の確率分布の関数の定数を求める
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
量子化する割合を設定し、その割合に対応する前記所定の確率分布における値を閾値とし、前記算出された値のうち、前記閾値以上または以下の値を抽出する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記量子化は、前記勾配そのものを量子化対象とする、または前記勾配を累積加算した累積勾配を量子化対象とする
前記(2)乃至(8)のいずれかに記載の情報処理装置。
(10)
機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
ステップを含む情報処理方法。
(11)
コンピュータに、
機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
ステップを含む処理を実行させるためのプログラム。
Claims (11)
- 機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
情報処理装置。 - 前記演算は、ディープラーニングにおける演算であり、前記ディープラーニングに基づく演算により算出された勾配の分布が、前記所定の確率分布に基づくとして量子化を行う
請求項1に記載の情報処理装置。 - 複数の装置で分散して機械学習を行う分散学習において、1の装置での学習により得られた値を、他の装置に供給するときに、前記量子化が行われる
請求項1に記載の情報処理装置。 - 前記所定の確率分布は、ピーク値を中心軸とする左右対称のグラフとなる分布である
請求項1に記載の情報処理装置。 - 前記所定の確率分布は、平均または中央値が1つ計算可能な分布である
請求項1に記載の情報処理装置。 - 前記所定の確率分布は、正規化分布、ラプラス分布、コーシー分布、スチューデント-T分布のいずれかである
請求項1に記載の情報処理装置。 - 前記算出された値から、前記所定の確率分布の関数の定数を求める
請求項1に記載の情報処理装置。 - 量子化する割合を設定し、その割合に対応する前記所定の確率分布における値を閾値とし、前記算出された値のうち、前記閾値以上または以下の値を抽出する
請求項1に記載の情報処理装置。 - 前記量子化は、前記勾配そのものを量子化対象とする、または前記勾配を累積加算した累積勾配を量子化対象とする
請求項2に記載の情報処理装置。 - 機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
ステップを含む情報処理方法。 - コンピュータに、
機械学習の演算により算出された値の分布が、所定の確率分布に基づくと仮定して量子化を行う
ステップを含む処理を実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017031807 | 2017-02-23 | ||
JP2017031807 | 2017-02-23 | ||
PCT/JP2018/004566 WO2018155232A1 (ja) | 2017-02-23 | 2018-02-09 | 情報処理装置、情報処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018155232A1 true JPWO2018155232A1 (ja) | 2019-12-12 |
JP7095675B2 JP7095675B2 (ja) | 2022-07-05 |
Family
ID=63253269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019501225A Active JP7095675B2 (ja) | 2017-02-23 | 2018-02-09 | 情報処理装置、情報処理方法、並びにプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200380356A1 (ja) |
EP (1) | EP3588394A4 (ja) |
JP (1) | JP7095675B2 (ja) |
WO (1) | WO2018155232A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109951438B (zh) * | 2019-01-15 | 2020-11-20 | 中国科学院信息工程研究所 | 一种分布式深度学习的通信优化方法及系统 |
CN109919313B (zh) * | 2019-01-31 | 2021-06-08 | 华为技术有限公司 | 一种梯度传输的方法及分布式训练系统 |
JP7188237B2 (ja) * | 2019-03-29 | 2022-12-13 | 富士通株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
JP2021044783A (ja) * | 2019-09-13 | 2021-03-18 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
WO2021193815A1 (ja) * | 2020-03-27 | 2021-09-30 | 富士フイルム株式会社 | 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法 |
WO2022153480A1 (ja) * | 2021-01-15 | 2022-07-21 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法および記録媒体 |
CN113095510B (zh) * | 2021-04-14 | 2024-03-01 | 深圳前海微众银行股份有限公司 | 一种基于区块链的联邦学习方法及装置 |
JP2023093838A (ja) * | 2021-12-23 | 2023-07-05 | トヨタ自動車株式会社 | 情報処理方法、情報処理装置及びサーバ装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176000A (ja) * | 1992-12-10 | 1994-06-24 | Hitachi Ltd | ニューロコンピュータ |
JP2005234706A (ja) * | 2004-02-17 | 2005-09-02 | Denso Corp | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク |
JP2016029568A (ja) * | 2014-07-23 | 2016-03-03 | 国立大学法人電気通信大学 | 線形識別器、大規模一般物体認識装置、電子計算機、モバイル端末、データ処理装置、および画像認識システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108595A (ja) | 1991-10-17 | 1993-04-30 | Hitachi Ltd | ニユーラルネツトワークの分散学習装置 |
CN110992935B (zh) * | 2014-09-12 | 2023-08-11 | 微软技术许可有限责任公司 | 用于训练神经网络的计算系统 |
US10373050B2 (en) * | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
-
2018
- 2018-02-09 US US16/463,974 patent/US20200380356A1/en not_active Abandoned
- 2018-02-09 EP EP18758434.7A patent/EP3588394A4/en not_active Withdrawn
- 2018-02-09 WO PCT/JP2018/004566 patent/WO2018155232A1/ja unknown
- 2018-02-09 JP JP2019501225A patent/JP7095675B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176000A (ja) * | 1992-12-10 | 1994-06-24 | Hitachi Ltd | ニューロコンピュータ |
JP2005234706A (ja) * | 2004-02-17 | 2005-09-02 | Denso Corp | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク |
JP2016029568A (ja) * | 2014-07-23 | 2016-03-03 | 国立大学法人電気通信大学 | 線形識別器、大規模一般物体認識装置、電子計算機、モバイル端末、データ処理装置、および画像認識システム |
Non-Patent Citations (3)
Title |
---|
久保 陽太郎: "ニューラルネットワークによる音声認識の進展", 人工知能, vol. 第31巻,第2号, JPN6018015220, 1 March 2016 (2016-03-01), JP, pages 180 - 188, ISSN: 0004656801 * |
武田 龍, 外2名著: "量子化Deep Neural Networkのための有界重みモデルに基づく音響モデル学習", 第46回AIチャレンジ研究会予稿集(SIG−CHALLENGE)[オンライン], JPN6018015214, 9 November 2016 (2016-11-09), JP, pages 2 - 11, ISSN: 0004656802 * |
神谷 龍司、他5名: "Binarized−DCNNによる識別計算の高速化とモデル圧縮", 電子情報通信学会技術研究報告, vol. 第116巻, 第366号, JPN6018015217, 8 December 2016 (2016-12-08), JP, pages 47 - 52, ISSN: 0004656803 * |
Also Published As
Publication number | Publication date |
---|---|
EP3588394A4 (en) | 2020-03-04 |
WO2018155232A1 (ja) | 2018-08-30 |
JP7095675B2 (ja) | 2022-07-05 |
EP3588394A1 (en) | 2020-01-01 |
US20200380356A1 (en) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7095675B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
JP6227813B1 (ja) | 分散深層学習装置及び分散深層学習システム | |
US8904149B2 (en) | Parallelization of online learning algorithms | |
CN111030861B (zh) | 一种边缘计算分布式模型训练方法、终端和网络侧设备 | |
JP5418408B2 (ja) | シミュレーションパラメータ校正方法、装置及びプログラム | |
CN112381209B (zh) | 一种模型压缩方法、系统、终端及存储介质 | |
US20220156633A1 (en) | System and method for adaptive compression in federated learning | |
US20210312295A1 (en) | Information processing method, information processing device, and information processing program | |
CN113487035A (zh) | 量子门的控制脉冲确定方法、装置及电子设备 | |
JP7364699B2 (ja) | 機械学習装置、コンピュータ装置、制御システム、及び機械学習方法 | |
CN111429142A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN116341652A (zh) | 一种面向云际环境的大模型分布式训练方法及相关设备 | |
TW202001701A (zh) | 影像的量化方法及神經網路的訓練方法 | |
Khojasteh et al. | The value of timing information in event-triggered control: The scalar case | |
JP2019212111A (ja) | 分散学習方法及び分散学習装置 | |
US20230024977A1 (en) | Method of processing data, data processing device, data processing program, and method of generating neural network model | |
US20220164664A1 (en) | Method for updating an artificial neural network | |
TWI584667B (zh) | 多請求的排程方法及排程裝置 | |
CN116050557A (zh) | 电力负荷预测方法、装置、计算机设备和介质 | |
KR102243119B1 (ko) | 가변 정밀도 양자화 장치 및 방법 | |
CN114548421A (zh) | 一种针对联邦学习通信开销的优化处理方法及装置 | |
CN114298319A (zh) | 联合学习贡献值的确定方法、装置、电子设备及存储介质 | |
CN112699994A (zh) | 一种深度学习模型的自动化训练与测试系统 | |
KR20200104959A (ko) | 분산 딥러닝 환경에서 데이터 압축 장치 및 방법 | |
JP2021082014A (ja) | 推定装置、訓練装置、推定方法、訓練方法、プログラム及び非一時的コンピュータ可読媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7095675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |