JP6227813B1 - 分散深層学習装置及び分散深層学習システム - Google Patents

分散深層学習装置及び分散深層学習システム Download PDF

Info

Publication number
JP6227813B1
JP6227813B1 JP2017011699A JP2017011699A JP6227813B1 JP 6227813 B1 JP6227813 B1 JP 6227813B1 JP 2017011699 A JP2017011699 A JP 2017011699A JP 2017011699 A JP2017011699 A JP 2017011699A JP 6227813 B1 JP6227813 B1 JP 6227813B1
Authority
JP
Japan
Prior art keywords
gradient
unit
quantization
quantized
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017011699A
Other languages
English (en)
Other versions
JP2018120441A (ja
Inventor
拓哉 秋葉
拓哉 秋葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to JP2017011699A priority Critical patent/JP6227813B1/ja
Application granted granted Critical
Publication of JP6227813B1 publication Critical patent/JP6227813B1/ja
Priority to US15/879,168 priority patent/US20180211166A1/en
Publication of JP2018120441A publication Critical patent/JP2018120441A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】計算の効率と通信量の削減とを両立させた分散深層学習装置を提供すること。【解決手段】複数の学習装置との間で量子化勾配を交換して分散して深層学習を行うための分散深層学習装置であって、他の学習装置との間で通信によって量子化勾配を交換する通信部と、現在のパラメータの勾配を計算する勾配計算部と、勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に所定倍率を乗算したものを加算する量子化剰余加算部と、量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、通信部で受信した量子化勾配を本来の精度の勾配に復元する勾配復元部と、勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、通信部で集められた勾配を集約して集約された勾配を計算する勾配集約部と、勾配集約部で集約された勾配に基づいてパラメータを更新するパラメータ更新部とを備える。【選択図】図1

Description

本発明は、計算の効率と通信量の削減とを両立させた分散深層学習装置及び分散深層学習システムに関するものである。
従来、機械学習、深層学習において採用される関数の最適化手法の一つとして確率的勾配降下法(Stochastic Gradient Descent:以下、SGDともいう)が存在する。
特許文献1は、深い階層を持つニューラルネットワーク学習方法において、学習が短時間で完了するものを提供することを目的としたものであり、学習工程において確率的勾配降下法を用いることが開示されている。
特開2017−16414号公報
複数の計算装置を並列化して、複数の計算装置によって処理を行う分散深層学習が行われる場合がある。その際に、得られた勾配(gradient)を量子化(quantize)して共有することで、通信量と精度(=学習速度)とのトレードオフを制御可能であることがわかっている。
一般に、量子化を行うことにより各学習ノードにおける剰余成分が発生することから、剰余成分を次回のイテレーションに繰り込んで各学習ノードにおける計算を行う。先行研究においては、剰余成分の情報を残すことにより学習を効率化することを期待している。
しかし、量子化により勾配の剰余成分が次のイテレーションに継承されることで、SGDの収束が遅くなることが分かっていなかった。すなわち、計算の効率と通信量の削減とを両立できないという問題がある。
本発明は、上記問題点に鑑みなされたものであり、計算の効率と通信量の削減とを両立させた分散深層学習装置及び分散深層学習システムを提供することを目的とする。
少なくとも1以上の学習装置との間で量子化された勾配を交換して分散して深層学習を行うための分散深層学習装置であって、他の学習装置との間で通信によって量子化された勾配を交換する通信部と、現在のパラメータの勾配を計算する勾配計算部と、前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に所定倍率を乗算したものを加算する量子化剰余加算部と、前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、前記通信部で受信した量子化された勾配を本来の精度の勾配に復元する勾配復元部と、前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、前記通信部で集められた勾配を集約して集約された勾配を計算する勾配集約部と、前記勾配集約部で集約された勾配に基づいてパラメータを更新するパラメータ更新部とを備えるようにしたことを特徴とする。
また、分散深層学習装置は、前記所定倍率は、0より大きく1より小さいものであることを特徴とする。
本発明に係る分散深層学習システムは、1以上のマスターノードと、1以上のスレーブノードとの間で量子化された勾配を交換して分散して深層学習を行うための分散深層学習システムであって、前記マスターノードは、前記スレーブノードとの間で通信によって量子化された勾配を交換する通信部と、現在のパラメータの勾配を計算する勾配計算部と、前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に所定倍率を乗算したものを加算する量子化剰余加算部と、前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、前記通信部で受信した量子化された勾配を本来の精度の勾配に復元する勾配復元部と、前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、前記通信部で集められた勾配を集約して集約された勾配を計算する勾配集約部と、前記勾配集約部で集約された勾配に対して、前回集約勾配を量子化した時の集約勾配剰余分に所定倍率を乗算して加算する集約勾配剰余加算部と、前記集約勾配剰余加算部で剰余分が加算された集約勾配について量子化を行う集約勾配量子化部と、前記集約勾配量子化部で量子化した時の剰余分を記憶させる集約勾配剰余記憶部と、前記勾配集約部で集約された勾配に基づいてパラメータを更新するパラメータ更新部とを備え、前記スレーブノードは、前記マスターノードに対して量子化された勾配を送信し、前記マスターノードから前記集約勾配量子化部で量子化された集約勾配を受信する通信部と、現在のパラメータの勾配を計算する勾配計算部と、前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に所定倍率を乗算したものを加算する量子化剰余加算部と、前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、前記通信部で受信した量子化された集約勾配を本来の精度の勾配に復元する勾配復元部と、前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、前記勾配復元部で復元した集約勾配に基づいてパラメータを更新するパラメータ更新部とを備えたことを特徴とする。
また、本発明に係る分散深層学習システムは、前記所定倍率は、0より大きく1より小さいものであることを特徴とする。
本発明に係る分散深層学習装置及び分散深層学習システムによれば、勾配の剰余部分をイテレーション毎に適切に減衰させることで、Quantized SGDの剰余成分が次のイテレーションに残ることによるStale Gradientの影響を減じつつ、分散深層学習を安定的に、かつネットワーク帯域を効率的に利用して実施できる。すなわち、分散深層学習における学習の計算の効率を維持しつつ、通信量を削減し、限られた帯域において大規模な分散深層学習を実現することが可能となる。
本発明に係る分散深層学習装置10の構成を表したブロック図である。 本発明に係る分散深層学習装置10におけるパラメータ更新処理の流れを表したフローチャート図である。 本発明に係る分散深層学習装置10による学習について減衰率毎に反復回数とテスト精度の関係を表したグラフである。
[第1の実施の形態]
以下、図面を参照しながら、本発明に係る分散深層学習装置10について説明する。図1は、本発明に係る分散深層学習装置10の構成を表したブロック図である。なお、分散深層学習装置10は、専用マシンとして設計した装置であってもよいが、一般的なコンピュータによって実現可能なものであるものとする。この場合に、分散深層学習装置10は、一般的なコンピュータが通常備えているであろうCPU(Central Processing Unit:中央演算処理装置)、GPU(Graphics Processing Unit:画像処理装置)、メモリ、ハードディスクドライブ等のストレージを具備しているものとする(図示省略)。また、これらの一般的なコンピュータを本例の分散深層学習装置10として機能させるためにプログラムよって各種処理が実行されることは言うまでもない。
図1に示すように、分散深層学習装置10は、通信部11と、勾配計算部12と、量子化剰余加算部13と、勾配量子化部14と、勾配復元部15と、量子化剰余記憶部16と、勾配集約部17と、パラメータ更新部18とを少なくとも備えている。
通信部11は、量子化された勾配を分散深層学習装置の間で通信によって交換する機能を有する。交換には、MPI(Message Passing Interface)におけるallgather(データの集約機能)を用いてもよいし、他の通信パターンを用いてもよい。この通信部11において、全ての分散深層学習装置間で勾配を交換する。
勾配計算部12は、現在のパラメータにおけるモデルを用い、与えられた学習データによるロス関数に対するパラメータの勾配を計算する機能を有する。
量子化剰余加算部13は、前回のイテレーションにおいて量子化剰余記憶部16に記憶した量子化時の剰余分に所定倍率を乗算したものを勾配計算部12で求めた勾配に加える機能を有する。ここで、所定倍率は、0.0より大きく1.0より小さいものとする。というのも、倍率を1.0とすると普通のquantized SGDとなってしまい、倍率を0.0とすると剰余分を使わないケース(学習が安定しないため有用性なし)となってしまい、本例の意図するところではなくなってしまうためである。このときの倍率は、固定倍率としてもよいし、可変倍率としてもよい。
勾配量子化部14は、量子化剰余加算部13によって所定倍後の剰余分が加算された勾配を、所定の手法に従って量子化する機能を有する。量子化する手法としては、例えば、1-bit SGD、sparse gradient、random quantizationなどが考えられる。この勾配量子化部14で量子化された勾配は通信部11に送られ、量子化時の剰余分は、後述する量子化剰余記憶部16に送られる。
勾配復元部15は、通信部11によって交換された量子化された勾配を、本来の精度の勾配に復元する機能を有する。この勾配復元部15における復元の具体的な手法は、勾配量子化部14における量子化手法に対応したものである。
量子化剰余記憶部16は、勾配量子化部14から送信された量子化時の剰余分を記憶する機能を有する。記憶させた剰余分は、量子化剰余加算部13において次回の勾配計算部12の計算結果に対して加算するために利用される。また、所定倍率の乗算は、量子化剰余加算部13において行うものとして説明したが、この量子化剰余記憶部16において所定倍率を乗算した上で記憶させるようにしてもよい。
勾配集約部17は、通信部で集められた勾配を集約し、分散深層学習装置間での集約された勾配を計算する機能を有する。ここでの集約とは、平均又は何らかの計算を想定したものである。
パラメータ更新部18は、勾配集約部17で集約された勾配に基づいてパラメータを更新する機能を有する。
以上の構成の分散深層学習装置10は、他の分散深層学習装置と相互に通信を行って量子化された勾配を交換する。他の分散深層学習装置との接続は、例えば、パケットスイッチ装置のようなものが利用される。また、同一の端末において仮想的に複数の分散深層学習装置を駆動させて、仮想の分散深層学習装置間で量子化された勾配を交換する構成であってもよい。また、クラウド上で仮想的に複数の分散深層学習装置を駆動させる場合も同様である。
次に、本発明に係る分散深層学習装置10における処理の流れについて説明する。図2は、本発明に係る分散深層学習装置10におけるパラメータ更新処理の流れを表したフローチャート図である。この図2において、パラメータ更新処理は、現在のパラメータに基づいて勾配の計算を行うことによって開始される(ステップS11)。次に、求めた勾配に対して、前回のイテレーションで記憶させた前回量子化時の剰余分に所定倍率を乗算したものを加算する(ステップS12)。ここでの所定倍率は、0<所定倍率<1の条件を満たす値に設定される。例えば、所定倍率=0.9の場合は、剰余分×0.9の値を求めた勾配に加えることになる。なお、この所定倍率0.9を乗算した場合を、減衰率=0.1と表現するものとする。次に、所定倍後の剰余分を加算した勾配を量子化して他装置に送信するとともに、今回の量子化時の剰余分を記憶させる(ステップS13)。ここでいう他装置とは、並列化して一緒に分散深層学習を実現するための他の分散深層学習装置のことであり、他の分散深層学習装置においても同様のパラメータ更新処理を行っており、他装置からは量子化された勾配が送信されてくることになる。他装置から受信した量子化された勾配を元の精度に復元する(ステップS14)。次に、他装置との通信で得られた勾配を集約して、集約された勾配を計算する(ステップS15)。ここでの集約の計算は、何らかの演算処理を行うが、例えば、集約した勾配の平均を求める演算処理を行う。そして、集約した勾配に基づいてパラメータを更新する(ステップS16)。そして、更新されたパラメータを記憶させて(ステップS17)、パラメータ更新処理を終了する。
図3は、本発明に係る分散深層学習装置10による学習について減衰率毎に反復回数とテスト精度の関係を表したグラフである。分散学習を行わずに1台の学習装置で演算を行った場合、分散した場合に比較して少ない反復回数でテスト精度の向上が認められるが、一回のイテレーションに要する処理時間が分散した場合に比較して膨大になってしまう。また、16台の分散深層学習装置で処理を分散した場合については、減衰率=1.0(所定倍率=0.0)、すなわち量子化剰余分を加えない場合については、学習が安定せずにテスト精度の向上が見られない結果であった。これに対して、16台の分散深層学習装置で処理を分散し、減衰率=0.0、0.1、0.5、0.9とした各場合については、反復回数を増やすことでほぼ同じテスト精度に収束するという結果が得られた。減衰率=0.0については剰余分をそのまま加える場合であり、減衰率=0.1については剰余分に所定倍率=0.9を乗算して加える場合であるが、これらはテスト精度が大きく変動する傾向があるものの、最終的にほぼ同じテスト精度に収束している。また、減衰率=0.9(所定倍率=0.1)の場合については、大幅に剰余分を減衰させているが、最終的にほぼ同じテスト精度に収束していることが分かる。
以上のように、本発明に係る分散深層学習装置10によれば、勾配の剰余部分をイテレーション毎に適切に減衰させることで、Quantized SGDの剰余成分が次のイテレーションに残ることによるStale Gradientの影響を減じつつ、分散深層学習を安定的に、かつネットワーク帯域を効率的に利用して実施できる。すなわち、分散深層学習における学習の計算の効率を維持しつつ、通信量を削減し、限られた帯域において大規模な分散深層学習を実現することが可能となる。
[第2の実施の形態]
前記第1の実施の形態においては、分散深層学習装置10のそれぞれが同様に、勾配の演算、所定倍後の剰余分の加算、勾配の量子化、剰余分の記憶、勾配の復元、勾配の集約、パラメータの更新の各機能を実行するものとして説明を行っていたが、これに限定されるものではない。
例えば、1つのマスターノードと、1以上のスレーブノードとで分散深層学習システムを構成するようにしてもよい。1つのマスターノードとしての分散深層学習装置10aは、第1の実施の形態における分散深層学習装置10と同様に、通信部11、勾配計算部12、量子化剰余加算部13、勾配量子化部14、勾配復元部15、量子化剰余記憶部16、勾配集約部17、パラメータ更新部18を備え、これに加えて、勾配集約部17で集約された勾配に対して前回のイテレーション時の集約勾配剰余分に所定倍率を乗算して加算する集約勾配剰余加算部19と、剰余分が加算された集約勾配について量子化を行う集約勾配量子化部20と、集約勾配量子化部20で量子化した時の剰余分を記憶させる集約勾配剰余記憶部21とを備えるようにする。集約勾配を量子化したものを通信部11を介してスレーブノードとしての分散深層学習装置10bに送信する。
他方、1以上のスレーブノードとしての分散深層学習装置10bは、第1の実施の形態における分散深層学習装置10と同様に、通信部11、勾配計算部12、量子化剰余加算部13、勾配量子化部14、勾配復元部15、量子化剰余記憶部16、パラメータ更新部18を備えるが、勾配集約部17は備えておらず、集約勾配を量子化したものを勾配復元部15において復元し、直接パラメータ更新部18に与えるようにする。すなわち、スレーブノードにおけるパラメータの更新は、マスターノードから受信した集約勾配を用いて行われることになる。
なお、1つのマスターノードである分散深層学習システムとして説明したが、2以上のマスターノードからなる分散深層学習システムであってもよい。マスターノードが複数の場合には、複数のマスターノードでパラメータを分担し、各マスターノードは担当したパラメータについて処理を行うようにしてもよい。
10 分散深層学習装置
11 通信部
12 勾配計算部
13 量子化剰余加算部
14 勾配量子化部
15 勾配復元部
16 量子化剰余記憶部
17 勾配集約部
18 パラメータ更新部
19 集約勾配剰余加算部
20 集約勾配量子化部
21 集約勾配剰余記憶部

Claims (2)

  1. 少なくとも1以上の学習装置との間で量子化された勾配を交換して分散して深層学習を行うための分散深層学習装置であって、
    他の学習装置との間で通信によって量子化された勾配を交換する通信部と、
    現在のパラメータの勾配を計算する勾配計算部と、
    前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に0より大きく1より小さい所定倍率を乗算したものを加算する量子化剰余加算部と、
    前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、
    前記通信部で受信した量子化された勾配を本来の精度の勾配に復元する勾配復元部と、
    前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、
    前記通信部で集められた勾配を集約して集約された勾配を計算する勾配集約部と、
    前記勾配集約部で集約された勾配に基づいてパラメータを更新するパラメータ更新部と
    を備えた分散深層学習装置。
  2. 1以上のマスターノードと、1以上のスレーブノードとの間で量子化された勾配を交換して分散して深層学習を行うための分散深層学習システムであって、
    前記マスターノードは、
    前記スレーブノードとの間で通信によって量子化された勾配を交換する通信部と、
    現在のパラメータの勾配を計算する勾配計算部と、
    前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に0より大きく1より小さい所定倍率を乗算したものを加算する量子化剰余加算部と、
    前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、
    前記通信部で受信した量子化された勾配を本来の精度の勾配に復元する勾配復元部と、
    前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、
    前記通信部で集められた勾配を集約して集約された勾配を計算する勾配集約部と、
    前記勾配集約部で集約された勾配に対して、前回集約勾配を量子化した時の集約勾配剰余分に0より大きく1より小さい所定倍率を乗算して加算する集約勾配剰余加算部と、
    前記集約勾配剰余加算部で剰余分が加算された集約勾配について量子化を行う集約勾配量子化部と、
    前記集約勾配量子化部で量子化した時の剰余分を記憶させる集約勾配剰余記憶部と、
    前記勾配集約部で集約された勾配に基づいてパラメータを更新するパラメータ更新部
    とを備え、
    前記スレーブノードは、
    前記マスターノードに対して量子化された勾配を送信し、前記マスターノードから前記集約勾配量子化部で量子化された集約勾配を受信する通信部と、
    現在のパラメータの勾配を計算する勾配計算部と、
    前記勾配計算部で求めた勾配に対して、前回勾配を量子化した時の剰余分に0より大きく1より小さい所定倍率を乗算したものを加算する量子化剰余加算部と、
    前記量子化剰余加算部によって所定倍後の剰余分が加算された勾配を量子化する勾配量子化部と、
    前記通信部で受信した量子化された集約勾配を本来の精度の勾配に復元する勾配復元部と、
    前記勾配量子化部において勾配を量子化した時の剰余分を記憶する量子化剰余記憶部と、
    前記勾配復元部で復元した集約勾配に基づいてパラメータを更新するパラメータ更新部
    とを備えた分散深層学習システム。
JP2017011699A 2017-01-25 2017-01-25 分散深層学習装置及び分散深層学習システム Expired - Fee Related JP6227813B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017011699A JP6227813B1 (ja) 2017-01-25 2017-01-25 分散深層学習装置及び分散深層学習システム
US15/879,168 US20180211166A1 (en) 2017-01-25 2018-01-24 Distributed deep learning device and distributed deep learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011699A JP6227813B1 (ja) 2017-01-25 2017-01-25 分散深層学習装置及び分散深層学習システム

Publications (2)

Publication Number Publication Date
JP6227813B1 true JP6227813B1 (ja) 2017-11-08
JP2018120441A JP2018120441A (ja) 2018-08-02

Family

ID=60265783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011699A Expired - Fee Related JP6227813B1 (ja) 2017-01-25 2017-01-25 分散深層学習装置及び分散深層学習システム

Country Status (2)

Country Link
US (1) US20180211166A1 (ja)
JP (1) JP6227813B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635922A (zh) * 2018-11-20 2019-04-16 华中科技大学 一种分布式深度学习参数量化通信优化方法及系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080232A (ja) * 2017-10-26 2019-05-23 株式会社Preferred Networks 勾配圧縮装置、勾配圧縮方法及びプログラム
JP7238376B2 (ja) * 2018-12-14 2023-03-14 富士通株式会社 情報処理システム及び情報処理システムの制御方法
US11501160B2 (en) 2019-03-28 2022-11-15 International Business Machines Corporation Cloud computing data compression for allreduce in deep learning
WO2020217965A1 (ja) * 2019-04-24 2020-10-29 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP3745314A1 (en) * 2019-05-27 2020-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method, apparatus and computer program for training deep networks
CN110531617B (zh) * 2019-07-30 2021-01-08 北京邮电大学 多无人机3d悬停位置联合优化方法、装置和无人机基站
CN110659678B (zh) * 2019-09-09 2023-11-17 腾讯科技(深圳)有限公司 一种用户行为分类方法、系统及存储介质
JP7322622B2 (ja) 2019-09-17 2023-08-08 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN112651411B (zh) * 2019-10-10 2022-06-07 中国人民解放军国防科技大学 分布式深度学习的梯度量化方法和系统
CN112463189B (zh) * 2020-11-20 2022-04-22 中国人民解放军国防科技大学 基于通信操作稀疏化的分布式深度学习多步延迟更新方法
JP2022136575A (ja) 2021-03-08 2022-09-21 オムロン株式会社 推論装置、モデル生成装置、推論方法、及び推論プログラム
KR20230135435A (ko) * 2022-03-16 2023-09-25 서울대학교산학협력단 이력 현상을 이용한 파라미터 양자화 기반 인공 신경망 연산 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020959A1 (ja) * 2012-07-30 2014-02-06 日本電気株式会社 分散処理装置及び分散処理システム並びに分散処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020959A1 (ja) * 2012-07-30 2014-02-06 日本電気株式会社 分散処理装置及び分散処理システム並びに分散処理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SEIDE, FRANK ET AL.: "1-Bit Stochastic Gradient Descent and its Application to Data-Parallel Distributed Training of Speec", INTERSPEECH 2014 [ONLINE], vol. [検索日 2017.06.14], JPN6017022886, 14 September 2014 (2014-09-14), pages 1058 - 1062 *
SU, HANG ET AL., EXPERIMENTS ON PARALLEL TRAINING OF DEEP NEURAL NETWORK USING MODEL AVERAGING [ONLINE], vol. [検索日 2017.06.14], JPN6017022887, 18 June 2016 (2016-06-18) *
久保 陽太郎: "ニューラルネットワーク研究のフロンティア", 人工知能, vol. 第31巻, 第2号, JPN6017022888, 1 March 2016 (2016-03-01), JP, pages 第180-188頁 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635922A (zh) * 2018-11-20 2019-04-16 华中科技大学 一种分布式深度学习参数量化通信优化方法及系统
CN109635922B (zh) * 2018-11-20 2022-12-02 华中科技大学 一种分布式深度学习参数量化通信优化方法及系统

Also Published As

Publication number Publication date
US20180211166A1 (en) 2018-07-26
JP2018120441A (ja) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6227813B1 (ja) 分散深層学習装置及び分散深層学習システム
CN109740755B (zh) 一种基于梯度下降法的数据处理方法及相关装置
CN114745317B (zh) 面向算力网络的计算任务调度方法及相关设备
CN113469373B (zh) 基于联邦学习的模型训练方法、系统、设备及存储介质
CN107729138B (zh) 一种高性能分布式矢量空间数据的分析方法和装置
CN111277511A (zh) 传输速率控制方法、装置、计算机系统及可读存储介质
CN108304256B (zh) 一种边缘计算中低开销的任务调度方法及装置
CN115357351A (zh) 算力网络调度方法、装置、系统、设备及介质
Prasad et al. Resource allocation and SLA determination for large data processing services over cloud
CN105760227A (zh) 云环境下资源调度方法及系统
CN111126613A (zh) 用于深度学习的方法、设备和计算机程序产品
CN116541106B (zh) 计算任务卸载方法、计算设备及存储介质
CN109684077A (zh) 用于spark streaming的资源动态分配和反馈方法及装置
CN113163004A (zh) 一种工业互联网边缘任务卸载决策方法、装置及存储介质
CN116996938A (zh) 车联网任务卸载方法、终端设备及存储介质
Mukherjee et al. Timed loops for distributed storage in wireless networks
Ferragut et al. Content dynamics in P2P networks from queueing and fluid perspectives
CN103873388A (zh) 一种网络内容控制方法和网络设备
Liu Parallel simulation of hybrid network traffic models
US10235415B1 (en) Iterative variance and/or standard deviation calculation for big data using components
US10318530B1 (en) Iterative kurtosis calculation for big data using components
JP6602252B2 (ja) リソース管理装置及びリソース管理方法
CN112953844B (zh) 一种网络流量优化方法及装置
CN117939572B (zh) 电力物联网终端接入方法
US11729273B2 (en) Adjusting idle timeout for a session

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171011

R150 Certificate of patent or registration of utility model

Ref document number: 6227813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees