JP2018036779A - 電子装置、方法及び情報処理システム - Google Patents

電子装置、方法及び情報処理システム Download PDF

Info

Publication number
JP2018036779A
JP2018036779A JP2016168189A JP2016168189A JP2018036779A JP 2018036779 A JP2018036779 A JP 2018036779A JP 2016168189 A JP2016168189 A JP 2016168189A JP 2016168189 A JP2016168189 A JP 2016168189A JP 2018036779 A JP2018036779 A JP 2018036779A
Authority
JP
Japan
Prior art keywords
gradients
client
sum
gradient
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016168189A
Other languages
English (en)
Other versions
JP6699891B2 (ja
Inventor
武 戸田
Takeshi Toda
武 戸田
光宏 木村
Mitsuhiro Kimura
光宏 木村
耕祐 春木
Kosuke Haruki
耕祐 春木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016168189A priority Critical patent/JP6699891B2/ja
Publication of JP2018036779A publication Critical patent/JP2018036779A/ja
Application granted granted Critical
Publication of JP6699891B2 publication Critical patent/JP6699891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】通信量を低減しながら並列分散学習処理を効率的に実行できる電子装置を実現する。【解決手段】実施形態によれば、電子装置は、受信手段と処理手段とを具備する。前記受信手段は、前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する。前記処理手段は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する。【選択図】図4

Description

本発明の実施形態は、並列分散学習のための技術に関する。
近年、機械学習の一つであるディープラーニングによるデータの有効活用が期待されている。ディープラーニングにおいて、大規模なデータを用いた学習結果をより高速に得るためには、複数のコンピュータ(プロセッサ)による学習の並列処理を実行し、各コンピュータによる学習経過を共有する並列分散学習処理が求められる。このような並列分散学習処理では、コンピュータ間での通信によって学習経過を示すデータが共有される。
国際公開第2014/020959号
しかし、ディープラーニングにおける並列分散学習処理ではコンピュータ間で共有されるデータ量が大きく、したがって、通信コストが高くなる場合がある。そのため、通信コストを低減しながら並列分散学習処理を効率的に実行できる新たな技術の実現が要求される。
本発明の一形態は、通信コストを低減しながら並列分散学習処理を効率的に実行できる電子装置、方法及び情報処理システムを提供することを目的とする。
実施形態によれば、電子装置は、受信手段と処理手段とを具備する。前記受信手段は、前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する。前記処理手段は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する。
第1実施形態に係る情報処理システムの構成の例を示すブロック図。 目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。 図1の情報処理システムにおいて、目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。 図1の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される例を説明するための図。 図1の情報処理システム内のサーバのシステム構成を示すブロック図。 図1の情報処理システム内のクライアントのシステム構成を示すブロック図。 図1の情報処理システム内のサーバ及びクライアントの機能構成の例を示すブロック図。 勾配の和を送信するクライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。 勾配の和を受信するサーバによって実行される並列分散学習処理の手順の例を示すフローチャート。 図7のクライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。 図7のサーバによって実行される並列分散学習処理の手順の例を示すフローチャート。 第2実施形態に係る情報処理システムの構成の例を示すブロック図。 目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の別の例を説明するための図。 図12の情報処理システムにおいて、目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。 図12の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される例を説明するための図。 図12の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される別の例を説明するための図。 図12の情報処理システム内の第1クライアント及び第2クライアントの機能構成の例を示すブロック図。 図17の第1クライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。 図17の第2クライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。 図12の情報処理システムにおいて、複数のクライアントによる並列分散学習の効果を説明するための図。 図12の情報処理システムにおいて、勾配の和だけでなく勾配の数も用いることによる並列分散学習の効果を説明するための図。
以下、実施の形態について図面を参照して説明する。
(第1実施形態)
まず、図1を参照して、第1実施形態に係る情報処理システムの構成を説明する。この情報処理システム1は、ネットワーク50等を介して相互に接続されたサーバコンピュータ(以下、サーバとも称する)10と複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40とによって構成されるサーバ−クライアント型のシステムである。ネットワーク50は、例えば、イーサネット(登録商標)であるが、これに限るものではない。情報処理システム1内のサーバ10及びクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。なお、図1では、情報処理システム1に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
図1に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータをサーバ10に送信する。そして、サーバ10は、その学習経過を示すデータを利用して、サーバ10に格納されている目的関数のパラメータを更新し、更新されたパラメータをクライアント20,30,40に送信する。
より具体的には、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。また、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータとクライアント30から送信された学習経過を示すデータとを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。
これにより、各クライアントの学習経過が、情報処理システム1内の別のクライアントでも共有されることになるので、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。
ところで、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(stochastic gradient descent: SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(以下、重みベクトルとも称する)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(1)で表される。なお、以下では、重みべクトル、勾配ベクトルのそれぞれを、単に、重み、勾配とも称する。
W(t+1)=W(t)−ε(t)∇W(t) 式(1)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配ベクトル∇W(t)に依存して減衰する。
また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム1内で共有される学習経過として勾配ベクトルが用いられることがある。このような並列分散学習の一例として、次の参考文献が挙げられる。
参考文献:Jeffrey Dean, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc’Aurelio Ranzato, Andrew Senior, Paul Tucker, Ke Yang, and Andrew Y. Ng, “Large Scale Distributed Deep Networks,” Advances in Neural Information Processing Systems 25, 2012.
一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム1内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを抑制するために、例えば、クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配をその複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferをサーバ10に送信することによって、複数回の更新に対応する学習経過を一度に共有することが考えられる。その場合、サーバ10は、以下の式(2)に従って、勾配の和∇Wtransferを用いて、別のクライアント30,40の重み係数Wを更新する。
Figure 2018036779
サーバ10は、この更新された重み係数Wをクライアント30,40に送信する。これにより、クライアント30,40は、クライアント20による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。
なお、サーバ10によって処理される、複数のクライアント20,30,40に対応する複数の重み係数Wは同一のものであってもよい。その場合、サーバ10は、複数のクライアント20,30,40に共通の重み係数W(マスタパラメータ)を保持し、各クライアント20,30,40による学習経過(勾配の和∇Wtransfer)を用いて、この共通の重み係数を更新する。サーバ10は、更新された重み係数Wをクライアント20,30,40に送信する。各クライアント20,30,40は、サーバから受信した重み係数Wで、そのクライアントで用いられる重み係数Wを上書きする。これにより、クライアント20,30,40は、各クライアント20,30,40による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。
しかし、クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、サーバ10は勾配の和∇Wtransferを用いて重み係数Wを更新するので、クライアント20上で更新される重み係数Wとサーバ10上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。
図2は、重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52が送信される。そして、サーバ10は、この勾配の和52を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。
図2に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新するのに対して、サーバ10は一つの勾配(勾配の和)52を用いて、別のクライアントの重み係数を更新する。換言すると、送信側のクライアントが式(1)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(2)に基づく重み係数の更新処理を1回実行している。式(1)及び式(2)に含まれる学習係数εは、上述したように学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)52を用いた重み係数の更新処理とでは、処理工程に差が生じることになる。これによって、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映されない、すなわち、情報処理システム1内で学習経過が十分に共有されない可能性がある。
このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40からサーバ10に、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信する。この複数の勾配の数は、複数の勾配の和が算出される間に重み係数が更新された回数に対応する。なお、複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
図3は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。サーバ10は、この勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。
図3に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新しているのと同様に、サーバ10も四つの勾配551,552,553,554を用いて、別のクライアントの重み係数を更新している。より具体的には、サーバ10は、次の式(3)を用いて別のクライアントの重み係数を更新する。
Figure 2018036779
サーバ10は、送信側のクライアントによる四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映でき、したがって、情報処理システム1内で学習経過を十分に共有することができる。
また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、送信側のクライアントとサーバ10とによる重み係数更新の処理工程の差を低減することができる。
図4は、情報処理システム1内のサーバ10とクライアント20,30,40とによって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。
まず、第1クライアント20、第2クライアント30及び第3クライアント40は、サーバ10によって割り当てられた学習データを受信する(S11)。そして、各クライアント20,30,40は、受信した学習データを用いて、目的関数の重み係数WをN回(ここでは、3回)更新する(S12)。
次いで、各クライアント20,30,40は、それらN回の更新毎に算出されたN個の勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S13)。サーバ10には、各クライアント20,30,40から送信された勾配の和∇Wtransferと勾配の数Nとを利用して、各クライアント20,30,40で用いられる目的関数の重み係数Wを更新する。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S14)。
同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し(S15)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S16)。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S17)。
このように、各クライアント20,30,40は、例えば、予め規定された同期タイミングで(例えば、3回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信し、サーバ10から更新された重み係数Wを受信する。これにより、情報処理システム1内で、各クライアント20,30,40による学習経過が共有され、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。なお、この同期タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとを送信してからの経過時間に基づいて決定されてもよい。また、クライアント20,30,40は、別々のタイミングで、勾配の和∇Wtransferと勾配の数Nとを送信するようにしてもよい。
次いで、図5は、サーバ10のシステム構成の例を示す。サーバ10は、CPU101、システムコントローラ102、主メモリ103、BIOS−ROM104、不揮発性メモリ105、通信デバイス106、エンベデッドコントローラ(EC)107、等を備える。
CPU101は、サーバ10内の様々なコンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ105から主メモリ103にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)201、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習サーバプログラム202が含まれている。この並列分散学習サーバプログラム202は、例えば、クライアント20,30,40に学習データを割り当てる機能、クライアント20,30,40から学習経過を受信する機能、学習経過を用いて更新された目的関数のパラメータをクライアント20,30,40に送信する機能、等を有している。
また、CPU101は、BIOS−ROM104に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。
通信デバイス106は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス106は、信号を送信する送信部と、信号を受信する受信部とを含む。EC107は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC107は、ユーザによるパワーボタンの操作に応じてサーバ10を電源オン又は電源オフする機能を有している。
また、図6は、クライアント20,30,40のシステム構成の例を示す。クライアント20,30,40は、CPU301、システムコントローラ302、主メモリ303、BIOS−ROM304、不揮発性メモリ305、通信デバイス306、エンベデッドコントローラ(EC)307、等を備える。
CPU301は、クライアント20,30,40内の様々なコンポーネントの動作を制御するプロセッサである。CPU301は、ストレージデバイスである不揮発性メモリ305から主メモリ303にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)401、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習クライアントプログラム402が含まれている。この並列分散学習クライアントプログラム402は、例えば、目的関数のパラメータを更新する機能、学習経過をサーバ10に送信する機能、サーバ10によって更新された目的関数のパラメータを受信する機能、等を有している。
また、CPU301は、BIOS−ROM304に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ302は、CPU301のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ302には、主メモリ303をアクセス制御するメモリコントローラも内蔵されている。
通信デバイス306は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス306は、信号を送信する送信部と、信号を受信する受信部とを含む。EC307は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC307は、ユーザによるパワーボタンの操作に応じてクライアント20,30,40を電源オン又は電源オフする機能を有している。
図7は、サーバ10によって実行される並列分散学習サーバプログラム202と、クライアント20,30,40によって実行される並列分散学習クライアントプログラム402との機能構成の一例を示す。サーバ10とクライアント20,30,40とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム1において、第1クライアント20が学習経過を示すデータをサーバ10に送信し、サーバ10がこのデータを用いて第2クライアント30の重み係数を更新し、その更新された重み係数を第2クライアント30に送信する場合を主に例示する。
サーバ10上で実行される並列分散学習サーバプログラム202は、例えば、データ割当部12、送信制御部13、受信制御部14、及び算出部15を備える。また、サーバ10は、情報処理システム1内で用いられる学習データ11Aが格納される記憶媒体11(例えば、不揮発性メモリ105)を有している。
データ割当部12は、学習データ11Aの内、各クライアント20,30,40に割り当てられるデータを決定する。データ割当部12は、例えば、学習データ11Aを3つに分割し、分割されたデータのそれぞれを割り当てるクライアント20,30,40を決定する。
送信制御部13及び受信制御部14は、通信デバイス106を介して、各クライアント20,30,40との間でデータを送受信する機能を有する。送信制御部13は、データ割当部12によって割り当てられたデータを、各クライアント20,30,40に送信する。
受信制御部14は、各クライアント20,30,40から、各々のクライアント上での学習経過を示す複数の勾配の和とそれら複数の勾配の数を特定可能な情報とを受信する。受信制御部14は、例えば、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bとそれら複数の勾配の数29Cを特定可能な情報とを受信する。
算出部15は、あるクライアントから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、別のクライアントに関連付けられた重み係数を更新する。送信制御部13は、算出部15によって更新された重み係数を、その重み係数が関連付けられたクライアントに送信する。より具体的には、例えば、算出部15は、受信制御部14を介して、第1クライアント20から複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを受信した場合、この複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30に関連付けられた重み係数19A(第2重み係数)を更新する。算出部15は、例えば、上述した式(3)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30に関連付けられた重み係数19Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて決定される。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。
また、第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。受信制御部22及び送信制御部24は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。
受信制御部22は、サーバ10によって割り当てられた学習データ21Aを受信し、この受信した学習データ21Aを記憶媒体21(例えば、不揮発性メモリ305)に格納する。
算出部23は、学習データ21Aを用いて、目的関数の重み係数29Aを更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和29Bを算出すると共に、積算された勾配の数29Cをカウントする。なお、この第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。
送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータをサーバ10に送信する。送信制御部24は、例えば、算出された勾配の和29Bと、カウントされた勾配の数29Cを特定可能な情報とをサーバ10に送信する。
また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。受信制御部32及び送信制御部34は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。
受信制御部32は、サーバ10によって割り当てられた学習データ31Aを受信し、この受信した学習データ31Aを記憶媒体31(例えば、不揮発性メモリ305)に格納する。
算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。
また、受信制御部32は、サーバ10によって更新された重み係数19Aを受信する。この受信される重み係数19Aは、上述したように、第1クライアント20から送信された勾配の和29Bと勾配の数29Cとを用いて更新された重み係数19Aである。受信制御部32は、例えば、受信した重み係数19Aで、作業メモリ39に格納された重み係数39Aを置き換える。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。
なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。
また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータをサーバ10に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とをサーバ10に送信してもよい。
その場合、サーバ10の算出部15及び送信制御部13は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20に関連付けられた重み係数を更新し、更新された重み係数を第1クライアント20に送信することもできる。第1クライアント20の受信制御部22は、サーバ10によって更新された重み係数を受信する。受信制御部22は、例えば、受信した重み係数で、作業メモリ29に格納された重み係数29Aを置き換える。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。
なお、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、サーバ10の算出部15は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、上述した方法で、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、送信制御部13は、更新された重み係数Wを各クライアント20,30,40に送信する。例えば、第1クライアントの受信制御部22は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ29に格納された重み係数29Aを置き換える。同様に、第2クライアント30の受信制御部32は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ39に格納された重み係数39Aを置き換える。これにより、第1クライアント20及び第2クライアント30は、クライアント20,30,40による学習経過が反映された重み係数29A,39Aを用いて、並列分散学習処理を効率的に進めることができる。
情報処理システム1には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム1では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができ、また複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。
なお、上述した構成では、複数の勾配の和だけでなく複数の勾配の数Nを特定可能な情報もクライアント20からサーバ10に送信される例を示したが、この勾配の数Nの代わりに、クライアント20で算出された複数の勾配(勾配ベクトル)の大小関係を特定可能な情報がサーバ10に送信されるようにしてもよい。この複数の勾配の大小関係を特定可能な情報は、複数の勾配の大小関係を特定できればどのような情報であってもよく、例えば、数値(例えば、複数の勾配の各々の大きさの比を表すN次元のベクトル)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
例えば、目的関数が凸関数である場合、SGDにより最適化を進めることにより得られる勾配ベクトルの大きさは徐々に小さくなる。そのため、クライアント20は、勾配の数Nに代わるメタデータとして、N個の勾配(勾配ベクトル)の各々の大きさの比を表すN次元のベクトルを送信することもできる。また、N次元のベクトルも、勾配ベクトルが有する非常に大きな次元(例えば、数百万)と比較すると十分に小さいと云える。
サーバ10の受信制御部14は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の大小関係を特定可能な情報とを受信する。そして、算出部15は、複数の勾配の和29Bと、複数の勾配の大小関係を特定可能な情報とを用いて、例えば、勾配の和29Bが、複数の勾配の大小関係(例えば、N次元ベクトルによって表される大きさの比)に基づいて分割された複数の勾配を算出する。算出部15は、算出された複数の勾配を用いて、例えば、第2クライアント30に関連付けられた重み係数19Aを更新する。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数の更新に、より反映させることができる。
次いで、図8から図11のフローチャートを参照して、並列分散学習処理の手順の例を示す。図8及び図9のフローチャートが、勾配の和だけが送受信される場合の処理を示すのに対して、図10及び図11のフローチャートは、勾配の和と勾配の数とが送受信される本実施形態の処理を示している。以下では、目的関数の最適化に用いられる学習データが、サーバからクライアントに対して既に割り当てられている場合を例示する。
まず、図8のフローチャートは、勾配の和を送信するクライアントによって実行される処理の手順を示す。
クライアントのCPUは、勾配の和を送信するための∇Wtransferを初期化する(ブロックB11)、すなわち、∇Wtransferに0を設定する。CPUは、送信される勾配の数Nに応じて、N回、ブロックB13からブロックB14までの手順を実行する(ブロックB12)。より具体的には、CPUは、目的関数の重みWを更新する(ブロックB13)。そして、CPUは、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB14)。
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPUは勾配の和∇Wtransferをサーバに送信する(ブロックB15)。また、CPUは、他のクライアントによる学習経過を示す勾配の和∇Wtransferを用いて更新された重みWをサーバ10から受信する(ブロックB16)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB17)。
図9のフローチャートは、勾配の和を受信するサーバによって実行される処理の手順を示す。
まず、サーバのCPUは、クライアントから勾配の和∇Wtransferを受信したか否かを判定する(ブロックB21)。クライアントから勾配の和∇Wtransferを受信していない場合(ブロックB21のNO)、ブロックB22の手順に戻る。
クライアントから勾配の和∇Wtransferを受信した場合(ブロックB21のYES)、CPUは、この勾配の和∇Wtransferを送信したクライアント以外のクライアントの内、重みWを更新する対象のクライアントを選択する(ブロックB22)。そして、CPUは、対象のクライアントに関連付けられた重みW(すなわち、対象のクライアント上で更新された重みW)を、受信した勾配の和∇Wtransferを用いて更新し(ブロックB23)、その更新された重みWをその対象のクライアントに送信する(ブロックB24)。
次いで、CPUは、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB25)。別のクライアントがある場合(ブロックB25のYES)、ブロックB22に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB25のNO)、ブロックB21の手順に戻る。
次いで、図10のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。
まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB33からブロックB34までの手順を実行する(ブロックB32)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB33)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB34)。
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(ブロックB35)。また、CPU301は、クライアント20,30,40による学習経過を示す勾配の和∇Wtransferと勾配の数Nとを用いて更新された重みWをサーバ10から受信する(ブロックB36)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB37)。
また、図11のフローチャートを参照して、勾配の和と勾配の数とを受信するサーバ10によって実行される処理の手順を説明する。
まず、サーバ10のCPU101は、クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB401)。いずれのクライアント20,30,40からも勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB401のNO)、ブロックB401の手順に戻る。
クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB401のYES)、CPU101は、これら勾配の和∇Wtransferと勾配の数Nの送信元のクライアント以外のクライアントから、重みWを更新する対象のクライアントを選択する(ブロックB402)。CPU101は、例えば、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合、第2クライアント30と第3クライアント40のいずれか一方を、重みWを更新する対象のクライアントとして選択する。
次いで、CPU101は、更新のための勾配∇Wupdateを初期化する(ブロックB403)、すなわち、∇Wupdateに0を設定する。また、CPU101は、ブロックB405からブロックB408までの繰り返し処理に用いられる変数iに1を設定する(ブロックB404)。CPU101は、変数iが勾配の数N以下である間、ブロックB406からブロックB408までの手順を繰り返す(ブロックB405)。より具体的には、CPU101は学習係数εiを算出する(ブロックB406)。CPU101は、例えば、学習の進度に対応する変数iと、勾配の和∇Wtransferを勾配の数Nで除した値である勾配の平均値∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU101は、更新のための勾配∇Wupdateに、学習係数εiと∇Wtransfer/Nとを乗じた値を加算する(ブロックB407)。CPU101は、変数iに1を加算する(ブロックB409)。そして、変数iがN以下であるならば、ブロックB406の手順に戻る。
一方、変数iがNより大きいならば、CPU101は、対象のクライアントに関連付けられた重みWを、更新のための勾配∇Wupdateを用いて更新する(ブロックB409)。CPU101は、通信デバイス106を介して、その更新された重みWを対象のクライアントに送信する(ブロックB410)。
次いで、CPU101は、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB411)。別のクライアントがある場合(ブロックB411のYES)、ブロックB402に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB411のNO)、ブロックB401の手順に戻る。
なお、上述したように、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、CPU101は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、ブロックB402の手順で重みWを更新する対象のクライアントを選択することなく、ブロックB403からブロックB409の手順において、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、CPU101は、ブロックB410において、更新された重み係数Wを各クライアント20,30,40に送信する。
また、CPU101は、複数のクライアントから受信した複数の勾配の和∇Wtransferと複数の勾配の数Nとを用いて、それら複数のクライアント以外のクライアントに関連付けられた重みWを更新してもよい。例えば、CPU101は、第1クライアント20から受信した勾配の和∇Wtransfer及び勾配の数Nと、第2クライアント30から受信した勾配の和∇Wtransfer及び勾配の数Nとを用いて、第3クライアント40に関連付けられた重みWを更新するようにしてもよい。その場合、CPU101は、第1クライアント20から受信した勾配の和∇Wtransferと、第2クライアント30から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第2クライアント30から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB403以降の手順を実行する。
以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。サーバ10の受信制御部14は、サーバ10及びクライアント20,30,40によって、ディープラーニングによる目的関数を基準とする並列分散学習処理が実行される場合に、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。サーバ10の算出部15は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数19A(第2重み係数)を更新する。
これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数19Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数19Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。
(第2実施形態)
図12を参照して、第2実施形態に係る情報処理システムの構成を説明する。この情報処理システム5は、ネットワーク50等を介して相互に接続された複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40によって構成される。情報処理システム5内のクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。クライアント20,30,40は、第1実施形態において図6を参照して上述したシステム構成を有する。図12では、情報処理システム5に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
図12に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータを相互に送受信し得る。各クライアント20,30,40は、受信した学習経過を示すデータを利用して、各クライアント20,30,40の目的関数のパラメータをさらに更新する。
より具体的には、例えば、クライアント20は、クライアント30から送信された学習経過を示すデータを用いて、クライアント20の目的関数のパラメータをさらに更新する。また、例えば、クライアント30は、クライアント20から送信された学習経過を示すデータと、クライアント40から送信された学習経過を示すデータとを用いて、クライアント30の目的関数のパラメータをさらに更新する。
これにより、各クライアントの学習経過が、情報処理システム5内の別のクライアントでも共有されることになるので、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。
第1実施形態でも述べたように、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(重みベクトル)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(4)で表される。
W(t+1)=W(t)−ε(t)∇W(t) 式(4)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配∇W(t)に依存して減衰する。
また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム5内で共有される学習経過として勾配ベクトルが用いられることがある。
しかし、一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム5内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを減少させるために、例えば、第1クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配を複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferを第2クライアント30に送信することが考えられる。その場合、第2クライアント30は、以下の式(5)に従って、受信した勾配の和∇Wtransferと、第2クライアント30上で算出された勾配∇Wlocalとを用いて、重み係数Wを更新する。
Figure 2018036779
これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。
しかし、第1クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、第2クライアント30は、受信した勾配の和∇Wtransferを用いて重み係数Wを更新するので、第1クライアント20上で更新される重み係数Wと第2クライアント30上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。
図13は、重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52が送信される。そして、第2クライアント30は、この勾配の和52と第2クライアント30で算出された勾配53との和(すなわち、勾配の和52と勾配53との合成ベクトル)54を用いて、重み係数を更新する。
図13に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は一つの勾配(勾配の和)54を用いて重み係数を更新している。換言すると、第1クライアント20が式(4)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(5)に基づく重み係数の更新処理を1回実行している。式(4)及び式(5)に含まれる学習係数εは、学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)54を用いた重み係数の更新処理とでは、処理工程の差が生じることになる。これによって、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映されない、すなわち、情報処理システム5内で学習経過が十分に共有されない可能性がある。
このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40間で、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信するこの複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
図14は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。第2クライアント30は、この第2クライアント30自体で算出された勾配53だけでなく、受信した勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554も用いて、第2クライアント30の重み係数を更新する。
図14に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は、四つの勾配551,552,553,554と、この第2クライアント30自体で算出された勾配53とを用いて重み係数を更新している。より具体的には、第2クライアント30は、次の式(6)を用いて第2クライアント30の重み係数を更新する。
Figure 2018036779
第2クライアント30は、送信側の第1クライアント20による四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映でき、したがって、情報処理システム5内で学習経過を十分に共有することができる。
また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、クライアント20,30,40間での重み係数更新の処理工程の差を低減することができる。
図15は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。以下では、各クライアント20,30,40に学習データ21A,31A,41Aが既に割り当てられている場合を想定する。各クライアント20,30,40は、割り当てられた学習データを用いて、目的関数の重み係数Wを繰り返し更新する。
図15に示す例では、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wtransferを算出する(S21)。そして、第1クライアント20は、算出された勾配の和∇Wtransferと勾配の数とを示すデータ(∇Wtransfer, 4)を第2クライアント30に送信する(S22)。
次いで、第2クライアント30は、このデータ(∇Wtransfer, 4)を受信し、勾配の和∇Wtransfer及び勾配の数と、第2クライアント30上で算出された勾配∇Wlocalとを用いて、第2クライアント30の重み係数Wを更新する(S23)。
同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し、勾配の和∇Wtransferと勾配の数Nとを示すデータを別のクライアント20,30,40に送信することができる。そして、各クライアント20,30,40は、別のクライアント20,30,40から受信した勾配の和∇Wtransfer及び勾配の数Nと、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。
このように、各クライアント20,30,40は、例えば、予め規定されたタイミングで(例えば、4回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとを、予め規定された別のクライアント20,30,40に送信し得る。これにより、情報処理システム5内で、各クライアント20,30,40による学習経過が共有され、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。なお、この送信タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとが送信されてからの経過時間に基づいて決定されてもよい。
また、図16は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される別の例を示す。各クライアント20,30,40は、割り当てられた学習データ21A,31A,41Aを用いて、目的関数の重み係数Wを繰り返し更新する。
図16に示す例では、第3クライアント40は、割り当てられた学習データ41Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wt1を算出する(S31)。そして、第3クライアント40は、算出された勾配の和∇Wt1と勾配の数とを示すデータ(∇Wt1, 4)を第1クライアント30に送信する(S32)。第1クライアント20は、第3クライアント40によって送信されたデータ(∇Wt1, 4)を受信する。
また、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和を算出している(S33)。第1クライアント20は、この算出した勾配の和と第3クライアント40から受信した勾配の和∇Wt1との総和∇Wt2を算出し、さらに、受信した勾配の数(=4)と、第1クライアント20上で算出した勾配の数(=4)との和(=8)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt2, 8)を第2クライアント30に送信する(S34)。第2クライアント30は、第1クライアント20によって送信されたデータ(∇Wt2, 8)を受信する。なお、第1クライアント20は、第3クライアント40から受信したデータ(∇Wt1, 4)と、第1クライアント20上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第1クライアント20の重み係数Wを更新するようにしてもよい。
また、第2クライアント30は、割り当てられた学習データ31Aを用いて、重み係数Wを6回更新し、その6回の更新毎に算出された6個の勾配の和を算出している(S35)。第2クライアント30は、この算出した勾配の和と第1クライアント20から受信した勾配の和∇Wt2との総和∇Wt3を算出し、さらに、受信した勾配の数(=8)と、第2クライアント30上で算出した勾配の数(=6)との和(=14)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt3, 14)を第3クライアント40に送信する(S36)。第3クライアント40は、第2クライアント30によって送信されたデータ(∇Wt3, 14)を受信する。なお、第2クライアント30は、第1クライアント20から受信したデータ(∇Wt2, 8)と、第2クライアント30上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第2クライアント30の重み係数Wを更新するようにしてもよい。
次いで、第3クライアント40は、第2クライアント30から受信したデータ(∇Wt3, 14)と、第3クライアント40上で、例えば直前に算出された勾配∇Wlocalとを用いて、第3クライアント40の重み係数Wを更新する(S37)。より具体的には、第3クライアント40は、受信したデータ(∇Wt3, 14)と、S31においてこの第3クライアント40上で算出されたデータ(∇Wt1, 4)とを用いて、第3クライアント40で共有すべき勾配の和と勾配の数とを算出する。すなわち、第3クライアント40は、受信した勾配の総和∇Wt3から、第3クライアント40自体で算出された勾配の和∇Wt1を引いた値(∇Wt3−∇Wt1)を第3クライアント40で共有すべき勾配の和として算出する。また、第3クライアント40は、受信した勾配の数(=14)から、第3クライアント40自体で算出された勾配の数(=4)を引いた値(=10)を第3クライアント40で共有すべき勾配の数として算出する。第3クライアント40は、算出された勾配の和(∇Wt3−∇Wt1)と勾配の数(=10)と、第3クライアント40上で直前に算出された勾配∇Wlocalとを用いて、上述した式(6)に従って第3クライアント40の重み係数Wを更新する。
このように、各クライアント20,30,40は、別のクライアントから受信した勾配の和と勾配の数とに、そのクライアント自体で算出した勾配の和と勾配の数とをそれぞれ加算し、加算結果である勾配の総和と勾配の数の和とをさらに別のクライアントに送信することができる。各クライアント20,30,40は、受信した勾配の総和と勾配の数の和と、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。なお、各クライアント20,30,40は、受信した勾配の総和と勾配の数の和とに、そのクライアント自体で算出した勾配の和と勾配の数とがそれぞれ含まれている場合には、それらを引いた値を用いて、重み係数Wを更新することができる。
図17は、第1クライアント20と第2クライアント30とによってそれぞれ実行される並列分散学習クライアントプログラム402の機能構成の一例を示す。第1クライアント20と第2クライアント30とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム5において、第1クライアント20が学習経過を示すデータを第2クライアント30に送信し、第2クライアント30がこの学習経過を用いて重み係数を更新する場合を主に例示する。
第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。第1クライアント20に設けられた記憶媒体21(例えば、不揮発性メモリ305)には、第1クライアント20に割り当てられた学習データ21Aが格納されている。
算出部23は、学習データ21Aを用いて、目的関数の重み係数29A(第1重み係数)を更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、複数の勾配の和29Bを算出すると共に、積算された複数の勾配の数29Cをカウントする。なお、第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。
受信制御部22及び送信制御部24は、通信デバイス306を介して、第2クライアント30との間でデータを送受信する機能を有する。
送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータを第2クライアント30に送信する。送信制御部24は、例えば、算出された複数の勾配の和29Bと、カウントされた複数の勾配の数29Cを特定可能な情報とを第2クライアント30に送信する。
また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。第2クライアント30に設けられた記憶媒体31(例えば、不揮発性メモリ305)には、第2クライアント30に割り当てられた学習データ31Aが格納されている。
算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。
受信制御部32及び送信制御部34は、通信デバイス306を介して、第1クライアント20との間でデータを送受信する機能を有する。
受信制御部32は、第1クライアント20から、学習経過を示す複数の勾配の和29Bと、それら複数の勾配の数29Cを特定可能な情報とを受信する。
算出部33は、第1クライアント20から受信した複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30の重み係数39Aを更新する。算出部33は、例えば、上述した式(6)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30の重み係数39Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて決定される。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。
なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。
また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータを第1クライアント20に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とを第1クライアント20に送信してもよい。
その場合、第1クライアント20の算出部23は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20の重み係数29Aを更新することができる。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。
なお、上述した構成では、勾配の和だけでなく勾配の数Nも含む学習経過が第1クライアント20から第2クライアント30に送信される例を示したが、この勾配の数Nの代わりに、第1クライアント20で算出されたN個の勾配(勾配ベクトル)の大きさの比を表すN次元のベクトルが第2クライアント30に送信されるようにしてもよい。
第2クライアント30の受信制御部32は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の各々の大きさの比を表すベクトルとを受信する。そして、算出部33は、複数の勾配の和29Bと、複数の勾配の各々の大きさの比を表すベクトルとを用いて、例えば、勾配の和29Bが、ベクトルによって表される大きさの比に基づいて分割された複数の勾配を算出する。算出部33は、算出された複数の勾配を用いて重み係数39Aを更新する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数39Aの更新に、より反映させることができる。
また、情報処理システム5には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム5では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができる。
さらに、情報処理システム5では、複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。
例えば、第1クライアント20が、第3クライアント40から、この第3クライアント40によって目的関数の重み係数(第3重み係数)を更新するために算出された複数の第1の勾配の和と、複数の第1の勾配の数を特定可能な情報とを受信した場合を想定する。この場合、第1クライアント20の送信制御部24は、複数の第1の勾配の和と、算出部23によって重み係数29A(第1重み係数)を更新するために算出された複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを、第2クライアント30に送信する。
第2クライアント30の受信制御部32は、複数の第1の勾配の和と複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを受信する。そして、算出部33は、これら総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて、重み係数39A(第2重み係数)を更新する。
このように、第3クライアント40と第1クライアント20とを経由して得られた複数の学習経過を、別の第2クライアント30の重み係数39Aの更新に反映することもできる。
図18のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。以下では、目的関数の最適化に用いられる学習データが、クライアント20,30,40に対して既に割り当てられている場合を想定する。
まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB53及びブロックB54の手順を実行する(ブロックB52)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB53)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB54)。
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとを別のクライアント(例えば、第2クライアント30)に送信する(ブロックB55)。
次いで、図19のフローチャートを参照して、勾配の和と勾配の数とを受信する第2クライアント30によって実行される処理の手順を説明する。
まず、第2クライアント30のCPU301は、学習データ31Aを用いて重みWを更新する(ブロックB61)。そして、CPU301は、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB62)。第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB62のNO)、ブロックB61の手順に戻る。
第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB62のYES)、CPU301は、更新のための勾配∇Wupdateを初期化する(ブロックB63)、すなわち、∇Wupdateに0を設定する。また、CPU301は、ブロックB65からブロックB68までの繰り返し処理に用いられる変数iに1を設定する(ブロックB64)。CPU301は、iが勾配の数N以下である間、ブロックB66からブロックB68までの手順を繰り返す(ブロックB65)。より具体的には、CPU301は学習係数εiを算出する(ブロックB66)。CPU301は、例えば、学習の進度に対応するiと、勾配の和∇Wtransferを勾配の数Nで除した勾配の平均∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU301は、更新のための勾配∇Wupdateに、学習係数εiと勾配の平均∇Wtransfer/Nとを乗じた値を加算する(ブロックB67)。そして、CPU301は、変数iに1を加算する(ブロックB68)。
変数iがNより大きいならば、CPU301は、ブロックB61で更新された重みWを、更新のための勾配の和∇Wupdateを用いてさらに更新する(ブロックB69)。
なお、第2クライアント30のCPU301は、第1クライアント20が第3クライアント40から、第3クライアント40によって目的関数の重みWを更新するために算出された複数の第1の勾配の和∇Wtransferと第1の勾配の数Nとを受信した場合に、第1クライアント20から、
(1)複数の第1の勾配の和∇Wtransferと、第1クライアント20によって目的関数の重みWを更新するために算出された複数の第2の勾配の和∇Wtransferとの総和、及び
(2)複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和
を受信してもよい。その場合、CPU301は、複数の第1の勾配の和∇Wtransferと複数の第2の勾配の和∇Wtransferとの総和と、複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和とを用いて、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。
また、CPU301は、第1クライアント20と第3クライアント40の各々から、勾配の和∇Wtransferと勾配の数Nとを受信してもよい。その場合、CPU301は、第1クライアント20から受信した勾配の和∇Wtransferと、第3クライアント40から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第3クライアント40から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。
次いで、図20は、本実施形態の複数のクライアント20,30,40による並列分散学習の効果を示す。図20に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、処理が1台のクライアントで実行された場合の折れ線グラフ61と、処理が3台のクライアントで実行された場合の折れ線グラフ62とで示されている。これら折れ線グラフ61,62から、処理が3台のクライアントで実行された場合の方が、より早く最適解に収束し、より早く一定水準の認識精度(例えば、0.8)に到達していることが分かる。
また、図21は、勾配の和だけでなく勾配の数も用いることによる並列分散学習の効果を示す。図21に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、勾配の和だけを用いて処理が実行された場合の折れ線グラフ71と、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72とで示されている。勾配の和だけを用いて処理が実行された場合の折れ線グラフ71では、勾配の和だけが用いられることによる処理工程の差に起因して、認識精度の変動がクライアントによって大きく異なる箇所がある。つまり、この折れ線グラフ71は、最適解への収束に関して、クライアント間で異なる挙動が生じていることを示している。
これに対して、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72では、処理工程の差が低減されたことによって、各クライアントの認識精度の変動がほぼ同様になっている。つまり、この折れ線グラフ72は、最適解への収束に関して、クライアント間で同様の挙動が生じていることを示している。したがって、勾配の和だけでなく勾配の数も用いることによって、クライアント間で学習経過が十分に共有され、並列分散学習が効率的に進められていることが分かる。
以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。第2クライアント30と少なくとも一つの他のクライアント20,40とによって目的関数を基準とする並列分散処理が実行される場合に、第2クライアント30の受信制御部32は、少なくとも一つの他のクライアント20,40の内の第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。第2クライアント20の算出部33は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数39A(第2重み係数)を更新する。
これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数39Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数39Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。
また、本発明のいくつかの実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。これら実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。
また、本発明のいくつかの実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、これら実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…情報処理システム、10…サーバ、20,30,40…クライアント、21A,31A,41A…学習データ、101…CPU、102…システムコントローラ、103…主メモリ、104…BIOS−ROM、105…不揮発性メモリ、106…通信デバイス、107…EC、201…OS、202…並列分散学習サーバプログラム、301…CPU、302…システムコントローラ、303…主メモリ、304…BIOS−ROM、305…不揮発性メモリ、306…通信デバイス、307…EC、401…OS、402…並列分散学習クライアントプログラム。

Claims (11)

  1. 電子装置であって、
    前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する受信手段と、
    前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する処理手段とを具備する電子装置。
  2. 前記受信手段は、前記第1電子装置から、前記複数の勾配の大小関係を特定可能な情報を受信し、
    前記処理手段は、さらに、前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。
  3. 前記処理手段は、前記複数の勾配の和を前記複数の勾配の数で除した値に、学習係数を掛けた値を用いて、前記第2重み係数を更新する請求項1記載の電子装置。
  4. 前記学習係数は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて決定される請求項3記載の電子装置。
  5. 前記受信手段は、さらに、前記第1電子装置が、前記少なくとも一つの他の電子装置の内の第2電子装置から、前記第2電子装置によって前記目的関数の第3重み係数を更新するために算出された複数の第1の勾配の和と、前記複数の第1の勾配の数を特定可能な情報とを受信した場合に、前記第1電子装置から、前記複数の第1の勾配の和と、前記第1電子装置によって前記第1重み係数を更新するために算出された複数の第2の勾配の和との総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを受信し、
    前記処理手段は、さらに、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。
  6. 複数の電子装置によって目的関数を基準とする並列分散処理が実行される場合に、前記複数の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信し、
    前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する方法。
  7. 前記第1電子装置から、前記複数の勾配の大小関係を特定可能な情報を受信することを含み、
    前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新することを含む請求項6記載の方法。
  8. 前記複数の勾配の和を前記複数の勾配の数で除した値に、学習係数を掛けた値を用いて、前記第2重み係数を更新することを含む請求項6記載の方法。
  9. 前記学習係数は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて決定される請求項8記載の方法。
  10. 前記受信することは、前記第1電子装置が、前記複数の電子装置の内の第2電子装置から、前記第2電子装置によって前記目的関数の第3重み係数を更新するために算出された複数の第1の勾配の和と、前記複数の第1の勾配の数を特定可能な情報とを受信した場合に、前記第1電子装置から、前記第1の勾配の和と、前記第1電子装置によって前記第1重み係数を更新するために算出された複数の第2の勾配の和との総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを受信することをさらに含み、
    前記更新することは、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新することをさらに含む請求項6記載の方法。
  11. サーバ装置と第1クライアント装置と第2クライアント装置とによって構成される情報処理システムであって、
    前記第1クライアント装置は、
    前記情報処理システムにおいて目的関数を基準とする並列分散処理が実行される場合に、前記目的関数の第1重み係数を更新し、
    前記第1重み係数の更新のために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを前記サーバ装置に送信し、
    前記サーバ装置は、
    前記送信された複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新し、
    前記更新された第2重み係数を前記第2クライアント装置に送信する情報処理システム。
JP2016168189A 2016-08-30 2016-08-30 電子装置、方法及び情報処理システム Active JP6699891B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016168189A JP6699891B2 (ja) 2016-08-30 2016-08-30 電子装置、方法及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168189A JP6699891B2 (ja) 2016-08-30 2016-08-30 電子装置、方法及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2018036779A true JP2018036779A (ja) 2018-03-08
JP6699891B2 JP6699891B2 (ja) 2020-05-27

Family

ID=61566340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168189A Active JP6699891B2 (ja) 2016-08-30 2016-08-30 電子装置、方法及び情報処理システム

Country Status (1)

Country Link
JP (1) JP6699891B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919313A (zh) * 2019-01-31 2019-06-21 华为技术有限公司 一种梯度传输的方法及分布式训练系统
GB2572537A (en) * 2018-03-27 2019-10-09 Nokia Technologies Oy Generating or obtaining an updated neural network
WO2020003849A1 (ja) * 2018-06-25 2020-01-02 日本電信電話株式会社 分散深層学習システム、分散深層学習方法、およびコンピューティングインタコネクト装置
JP2020064491A (ja) * 2018-10-18 2020-04-23 国立大学法人神戸大学 学習システム、学習方法、およびプログラム
WO2020109891A1 (en) * 2018-11-30 2020-06-04 International Business Machines Corporation Decentralized distributed deep learning
JP2020149460A (ja) * 2019-03-14 2020-09-17 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2020240844A1 (ja) * 2019-05-31 2020-12-03
WO2020245864A1 (ja) * 2019-06-03 2020-12-10 日本電信電話株式会社 分散処理システムおよび分散処理方法
JP2021081871A (ja) * 2019-11-15 2021-05-27 株式会社豊田中央研究所 都市構造設計装置及び都市構造設計プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム
JP2017519282A (ja) * 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 分散モデル学習
JP2018018451A (ja) * 2016-07-29 2018-02-01 富士通株式会社 機械学習方法、機械学習プログラム及び情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム
JP2017519282A (ja) * 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 分散モデル学習
JP2018018451A (ja) * 2016-07-29 2018-02-01 富士通株式会社 機械学習方法、機械学習プログラム及び情報処理装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2572537A (en) * 2018-03-27 2019-10-09 Nokia Technologies Oy Generating or obtaining an updated neural network
JP7001004B2 (ja) 2018-06-25 2022-01-19 日本電信電話株式会社 分散深層学習システム、分散深層学習方法、およびコンピューティングインタコネクト装置
WO2020003849A1 (ja) * 2018-06-25 2020-01-02 日本電信電話株式会社 分散深層学習システム、分散深層学習方法、およびコンピューティングインタコネクト装置
JP2020003848A (ja) * 2018-06-25 2020-01-09 日本電信電話株式会社 分散深層学習システム、分散深層学習方法、およびコンピューティングインタコネクト装置
JP2020064491A (ja) * 2018-10-18 2020-04-23 国立大学法人神戸大学 学習システム、学習方法、およびプログラム
JP7181585B2 (ja) 2018-10-18 2022-12-01 国立大学法人神戸大学 学習システム、学習方法、およびプログラム
JP2022511716A (ja) * 2018-11-30 2022-02-01 インターナショナル・ビジネス・マシーンズ・コーポレーション 非集中的な分散型深層学習
WO2020109891A1 (en) * 2018-11-30 2020-06-04 International Business Machines Corporation Decentralized distributed deep learning
JP7308003B2 (ja) 2018-11-30 2023-07-13 インターナショナル・ビジネス・マシーンズ・コーポレーション 非集中的な分散型深層学習
US11521067B2 (en) 2018-11-30 2022-12-06 International Business Machines Corporation Decentralized distributed deep learning
GB2593070A (en) * 2018-11-30 2021-09-15 Ibm Decentralized distributed deep learning
CN109919313B (zh) * 2019-01-31 2021-06-08 华为技术有限公司 一种梯度传输的方法及分布式训练系统
CN109919313A (zh) * 2019-01-31 2019-06-21 华为技术有限公司 一种梯度传输的方法及分布式训练系统
JP2020149460A (ja) * 2019-03-14 2020-09-17 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2020240844A1 (ja) * 2019-05-31 2020-12-03
JP7248110B2 (ja) 2019-05-31 2023-03-29 日本電信電話株式会社 分散深層学習システム
WO2020240844A1 (ja) * 2019-05-31 2020-12-03 日本電信電話株式会社 分散深層学習システム
JPWO2020245864A1 (ja) * 2019-06-03 2020-12-10
WO2020245864A1 (ja) * 2019-06-03 2020-12-10 日本電信電話株式会社 分散処理システムおよび分散処理方法
JP2021081871A (ja) * 2019-11-15 2021-05-27 株式会社豊田中央研究所 都市構造設計装置及び都市構造設計プログラム

Also Published As

Publication number Publication date
JP6699891B2 (ja) 2020-05-27

Similar Documents

Publication Publication Date Title
JP6699891B2 (ja) 電子装置、方法及び情報処理システム
US9104497B2 (en) Method and system for work load balancing
US20130097321A1 (en) Method and system for work load balancing
CN107272876B (zh) 用于管理多核片上系统上的全局芯片功率的方法和装置
US20200219028A1 (en) Systems, methods, and media for distributing database queries across a metered virtual network
JP7035606B2 (ja) エッジコンピューティングシステム、エッジサーバ、システム制御方法、及びプログラム
Al-maamari et al. Task scheduling using hybrid algorithm in cloud computing environments
EP2710470A1 (en) Extensible centralized dynamic resource distribution in a clustered data grid
US20190188563A1 (en) System
CN111429142B (zh) 一种数据处理方法、装置及计算机可读存储介质
CN108845874A (zh) 资源的动态分配方法及服务器
TW201447763A (zh) 虛擬主機控制系統及方法
CN111813523A (zh) 时长预估模型生成方法、系统资源调度方法、装置、电子设备和存储介质
JP6877393B2 (ja) システム、プログラム及び方法
CN110504716B (zh) 光伏逆变器无功模式优化选择方法、终端设备及存储介质
CN111831415B (zh) 一种多队列多集群的任务调度方法及系统
CN109976901A (zh) 一种资源调度方法、装置、服务器及可读存储介质
US8683477B2 (en) Performance degradation based at least on computing application priority and in a relative manner that is known and predictable beforehand
JP2015173570A (ja) 自動周波数制御装置および自動周波数制御方法
KR102336297B1 (ko) 공유 gpu 클러스터를 위한 분산 딥러닝 작업 스케줄링 방법 및 이를 기록한 컴퓨터 판독 가능 기록매체
CN111258729B (zh) 基于Redis的任务分配方法、装置、计算机设备及存储介质
CN103399789A (zh) 分布式流计算系统中可构建的动态过载控制方法
TW201720208A (zh) 多請求的排程方法及排程裝置
JP5699589B2 (ja) 処理割り当て装置、処理割り当てシステム、処理割り当て方法、処理割り当てプログラム
Madhumathi et al. Dynamic resource allocation in cloud using bin-packing technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200424

R150 Certificate of patent or registration of utility model

Ref document number: 6699891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150