JP2018032344A - 分散同期処理システムおよび分散同期処理方法 - Google Patents
分散同期処理システムおよび分散同期処理方法 Download PDFInfo
- Publication number
- JP2018032344A JP2018032344A JP2016166182A JP2016166182A JP2018032344A JP 2018032344 A JP2018032344 A JP 2018032344A JP 2016166182 A JP2016166182 A JP 2016166182A JP 2016166182 A JP2016166182 A JP 2016166182A JP 2018032344 A JP2018032344 A JP 2018032344A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- calculation
- distributed
- vertex
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Multi Processors (AREA)
Abstract
【解決手段】分散同期処理システム1の処理サーバ30は、分散処理部20による所定の計算ステップにおける計算・送信処理の完了を検出して、完了報告を管理サーバ10に送信するとともに、管理サーバ10から次ステップ移行指示を受信して分散処理部20に出力する分散処理管理部(バーテックス管理部33)を備える。管理サーバ10は、完了報告を受信し、次の計算ステップにおいて必要な計算結果の取得が完了しているか否かを判定し、取得が完了しているときに次ステップ移行指示を処理サーバ30に送信する隣接同期処理部11を備える。
【選択図】図9
Description
具体的には、複数のノード(ノード1〜ノード4)のうちのいずれかのノードがデータを受信すると、そのノード(例えば、ノード1)がフェーズPH1において、そのデータについての計算処理(ローカル計算(LC))を実行する。続いて、フェーズPH2において、各ノードが保持しているローカル計算の結果であるデータについて、ノード間でのデータ交換を実行する。次に、フェーズPH3において、同期処理を行う、より詳細には、すべてのノード間でのデータ交換の終了を待つ。
そして、スーパーステップSS1として、一連のスーパーステップの処理(PH1〜PH3)が終了すると、各ノードはその計算結果を保持した上で、次の一連の処理であるスーパーステップSS2へと進む。
図2においては、各交差点(v)がバーテックス(vertex)に対応付けられる(図2のv1〜v4)。また、各交差点を結ぶ道路(e)がエッジ(edge)に対応付けられる(図2のe1〜e6)。ここで、エッジ(edge)は一方通行であり、双方向の道路は2つのエッジに対応付けられる。また、あるバーテックス(vertex)から見て、車両が出てゆく方向のエッジを、「出力エッジ(outgoing edge)」と呼び、車両が流入する方向のエッジを「入力エッジ(incoming edge)」と呼ぶ。例えば、図2において、バーテックスv2からみると、エッジe1は入力エッジであり、エッジe2は出力エッジになる。逆に、バーテックスv1からみると、エッジe1は出力エッジであり、エッジe2は入力エッジになる。
この交通シミュレーションにおいては、このように交差点(バーテックス)単位で、並列処理することにより、計算時間を短縮することが可能となる。
また、worker(処理サーバ30a)の役割は、各スーパーステップにおけるフェーズPH1のローカル計算、フェーズPH2における、隣接するバーテックスとの間のデータの送受信、masterへの報告である。
また、大規模なグラフGを処理対象とする場合、つまり、多数のバーテックスとエッジを備えた計算対象を扱うときには、master/worker構成では、一つのmasterでグラフ全体を管理するため、グラフGの規模が大きいと、masterがボトルネックとなってしまう。
さらに、各処理サーバが自律分散的に、次の計算ステップへの移行を判定するため、処理サーバおよび分散処理部が多数となる大規模なシステムであっても、システム全体の処理遅延を低減することが可能となる。
初めに、本実施形態に係る分散同期処理システム1および分散同期処理方法の特徴構成を説明するため、比較例として従来技術における分散同期処理システム1aおよび分散同期処理方法を、詳細に説明する。
バーテックスは、BSPのフェーズPH1において、現在のバーテックスの状態、出力エッジの状態、および、前スーパーステップ(以下、単に「ステップ」と称することがある。)の入力メッセージにより取得した情報(入力エッジの状態)をパラメータとして計算を行い、バーテックスの状態および出力エッジの状態を更新する。そして、バーテックスは、フェーズPH2において、更新した出力エッジの状態を出力メッセージとして、その出力エッジに隣接するバーテックスに送信する。なお、この「出力エッジに隣接するバーテックス」は、「計算結果の出力先として接続されたバーテックス」を意味する。
f(vvid,n,Eout,n,Min,n-1)=(vvid,n+1,Eout,n+1,Mout,n) ・・・式(1)
ここで、バーテックスの各構成要素の定義について、図4に示す。
なお、「sn」の状態フラグは、そのバーテックスがBSPのフェーズ1,2の処理を実行している間は、「active」の状態とし、フェーズPH3の同期処理で他のバーテックスの処理待ち状態であるときに、「inactive」の状態とする。また、「sn+1」は、次のステップの処理に移行する設定の場合に「active」の状態とし、シミュレーション処理の設定時間が終了したこと等により、次のステップにおいて処理を実行しない設定の場合に、「inactive」の状態とする。
図5に示すように、現在のステップ「n」における「vertex ID」が「1」のバーテックス「1」は、ステップ「n」おけるバーテックスの状態「v1,n」を保持する。また、バーテックス「1」は、出力エッジの状態として、「e1,3,n」をバーテックス「3」に出力し、「e1,4,n」をバーテックス「4」に出力する。そして、バーテックス「1」は、入力メッセージの情報(入力エッジの状態)として、バーテックス「2」から「m2,1,n」を受信し、バーテックス「3」から「m3,1,n」を受信する。
ここでは、図6に示すように、バーテックスv1〜v6のうち、バーテックスv1〜v3をworker1に割り振り、バーテックスv4〜v6をworker2に割り振るものとする。
ここで、masterは、グラフトポロジに変更がある場合、例えば、バーテックスやエッジの追加や削除がある場合には、そのグラフトポロジの変更を、各workerに通知する。
また、master/worker構成では、一つのmasterで全体を管理することになるため、グラフGの規模が大きくなった場合、つまり、バーテックスの数やworkerの数が多くなるときに、masterがボトルネックとなる。
ここで、非特許文献4は、「Low, Y., et al., “Distributed GraphLab”, Proc. of the VLDB Endowment, 2012.」である。
具体的には、非同期型では、各バーテックスによって、同じスーパーステップを実行していることが保証されないため、プログラマが、バーテックス間の処理の追い越しや上書きの考慮が必要となる。追い越されたイテレーション(反復処理)は、無効になってしまうため、精度の低下をまねくこととなる。また、スーパーステップの追い越し数が無制限に増えることにより、精度の理論的保証が困難になってしまう。
さらに、masterのボトルネック化を回避し、大規模なグラフGでも処理速度/効率性を担保することを課題とする。
次に、本実施形態に係る分散同期処理システム1が実行する処理の概要について説明する。
本実施形態に係る分散同期処理システム1(後記する図9)では、master(後記する「管理サーバ10」)による全バーテックス(後記する「分散処理部20」)での同期処理を行わず、バーテックス毎に次のスーパーステップへの移行を判断することを特徴とする。これにより、分散同期処理システム1は、著しく処理の遅いバーテックスの影響を低減する。
本実施形態に係る分散同期処理システム1では、上記のように、「自バーテックスおよび入力エッジで接する全てのバーテックスの計算・送信処理fnが完了していること」(「隣接同期」)により、次のスーパーステップに移行する。
バーテックスv3に着目すると、バーテックスv3は、入力エッジで接するバーテックスv2,v4の計算・送信処理fnと自身の計算・送信処理fnが終わった時点が隣接同期する隣接同期ポイントとなる。ここでバーテックスv3は、スーパーステップSS1のとき、自身の計算・送信処理f1が終わった時点では、バーテックスv4の計算・送信処理f1は終わっているが、バーテックスv2の計算・送信処理f1が終わっていないため、「inactive」の状態で待機し(図8(b)の符号α)、バーテックスv2の計算・送信処理f1が終わった時点が隣接同期する隣接同期ポイントとなる。
また、バーテックスv1に着目すると、バーテックスv1は、入力エッジで接するバーテックスは存在しない、よって、スーパーステップSS1のとき、自バーテックスの計算・送信処理f1が終了した時点が隣接同期する隣接同期ポイントとなる。
また、図8(a)に示す比較例にくらべ、inactiveとして同期待ちをする時間が大幅に削減されるため(図8(b)の符号β)、処理速度/効率性を改善することが可能となる。つまり、システム全体としての処理速度の遅延や、フェーズPH3において処理をせず同期待ちが多いこと(処理の効率性)の問題を解決することができる。
次に、本実施形態に係る分散同期処理システム1の構成について具体的に説明する。
図9に示すように、分散同期処理システム1は、管理サーバ10(master)と、管理サーバ10にそれぞれ接続され並列に処理を行う複数の処理サーバ30(worker)と、処理サーバ30上で動作する複数の分散処理部20(vertex)と、を備える。
以下、分散同期処理システム1を構成する各装置について詳細に説明する。
管理サーバ10は、対象とする計算処理に必要な個々の計算処理(vertex)の設定と、その個々の計算処理(vertex)の各処理サーバ30(worker)への割り振りを行う。また、管理サーバ10は、システム上に設定したバーテックス(vertex)毎に、BSPにおける、次のスーパーステップに移行するか否かを判断する処理を行うことにより、対象とする計算処理の全体を管理する。
図3に示した、従来の分散同期処理システム1aのmasterとの違いは、次のスーパーステップへの移行を、全てのバーテックスの処理が終了していることにより判断するのではなく、本実施形態に係る管理サーバ10(master)では、バーテックス毎に、上記した「隣接同期」に基づき判定することである。
隣接同期処理部11は、各処理サーバ30(worker)から、分散処理部20(vertex)毎に、計算・送信処理fnが完了したとき、つまり、フェーズPH1(ローカル計算)およびフェーズPH2(データ交換)が完了したときに、計算・送信処理fnの完了報告(以下、「計算・送信処理完了報告」と称する。)を受信する。
そして、隣接同期処理部11は、受信した計算・送信処理完了報告で示される分散処理部20(vertex)、すなわち、計算・送信処理が完了した分散処理部20(vertex)について、次のスーパーステップへの移行判断を上記の「隣接同期」の条件に基づき行う。つまり、隣接同期処理部11は、「自バーテックスおよび入力エッジで接する全てのバーテックスの計算・送信処理fnが完了していること」(隣接同期)の条件を満たすか否かを判定する。なお、この隣接同期の判定は、次のスーパーステップにおいて必要な計算結果の取得が完了しているか否かを、隣接する分散処理部20(vertex)からの計算・送信処理完了報告を受信しているか否かに基づき判定することを意味する。
このようにすることで、自身の計算・送信処理fnが終了し、inactive状態で待機していた分散処理部20(vertex)について、次にステップに移行させることができる。
図9に戻り、分散処理部20(vertex)は、所定単位に区分された計算処理を実行し、数値計算部21およびメッセージ送受信部22を含んで構成される。
また、このメッセージ送受信部22は、自身が属する処理サーバ30(worker)から、次ステップ移行指示を受信し、数値計算部21に出力する。
処理サーバ30(worker)(図9参照)は、管理サーバ10(master)や他の処理サーバ30(worker)と接続される。この処理サーバ30(worker)は、処理単位となる分散処理部20(vertex)を複数備え、自身が備える分散処理部20(vertex)の処理の進行状態等を管理するとともに、他の処理サーバ30(worker)や管理サーバ10(master)との間での情報の送受信を行う。また、この処理サーバ30(worker)は、仮想化制御部31、メッセージ処理部32およびバーテックス管理部33(分散処理管理部)を含んで構成される。
(タイミング1)
自分散処理部20(vertex)の計算終了後に直ちに送信する。
具体的には、メッセージ処理部32は、自分散処理部20(vertex)から、出力メッセージを受信した場合に、出力エッジで接続する分散処理部20(vertex)が、自身に属する分散処理部20(vertex)であるとき、および、他の処理サーバ30に属する分散処理部20(vertex)であるときに、直ちに、その分散処理部20(vertex)に送信する。
このようにすることにより、通信遅延の影響を低減させることができる。
出力エッジで接続する分散処理部20(vertex)(隣接バーテックス)が、次のスーパーステップに移行する直前までバッファリングする。
具体的には、メッセージ処理部32は、自分散処理部20(vertex)から、出力メッセージを受信した場合に、出力エッジで接続する分散処理部20(vertex)が、他の処理サーバ30に属する分散処理部20(vertex)であるときに、その分散処理部20(vertex)が次のスーパーステップに移行する情報(次ステップ移行指示)を受ける状態になった時点で、管理サーバ10から、その次ステップ移行指示を出す旨の情報を事前に取得する。そして、移行直前にバッファリングしたメッセージをまとめて出力エッジで接続する分散処理部20(vertex)に送信する。
このようにすることで、他の処理サーバ30に属する分散処理部20(vertex)に送信する回数(通信回数)を削減することができる。
なお、メッセージ処理部32は、自分散処理部20(vertex)から、出力メッセージを受信した場合に、出力エッジで接続する分散処理部20(vertex)が、自身に属する分散処理部20(vertex)であるとき、上記のような通信回数の削減効果は得られないので、バッファリングせず、直ちに送信するようにする。
そして、バーテックス管理部33は、管理サーバ10(master)から、計算・送信処理完了報告に対する応答として、次ステップ移行指示を受信した場合に、その次ステップ移行指示を対象となる分散処理部20(vertex)に出力する。
次に、分散同期処理システム1の動作について説明する。
図10は、本実施形態に係る分散同期処理システム1の処理の流れを示すシーケンス図である。
なお、ここでは、管理サーバ10(master)により、対象とする計算処理に必要な個々の計算処理(vertex)の設定と、その個々の計算処理(vertex)の各処理サーバ30(worker)への割り振りがすでに終わっているものとして説明する。
また、プログラマは、バーテックス間の処理の追い越しや上書きを考慮する必要がなく、シンプルなフレームワークとして、本システムのプログラムを作成することが可能となる。
次に、本実施形態に係る分散同期処理システム1の変形例について説明する。
図11は、本実施形態の変形例に係る分散同期処理システム1Aの全体構成を示す図である。
図9で示した本実施形態に係る分散同期処理システム1では、管理サーバ10(master)が、各分散処理部20(vertex)について、隣接同期の条件を満たすか否かの判定を行っていた。つまり、隣接同期の判定を管理サーバ10が行う「master集中型」であった。これに対し、図11に示す、分散同期処理システム1Aは、管理サーバ10(master)を備えず、各分散処理部20(vertex)について、隣接同期の条件を満たすか否かの判定を、各処理サーバ30(worker)において自律分散的に実行する。つまり、分散同期処理システム1Aは、自律分散型(master-less型)で、隣接同期を行うことを特徴とする。
具体的には、本実施形態の変形例に係る分散同期処理システム1Aでは、図9に示す分散同期処理システム1における管理サーバ10(master)を備えない構成とするとともに、各処理サーバ30A(worker)におけるバーテックス管理部33を備えないものとし、その代わりに、図11に示すように、処理サーバ30Aに、隣接同期バーテックス管理部34(隣接同期分散管理部)を備えるものとした。
なお、図9で示す構成と同じ機能を備える構成については、同一の名称と符号を付し、説明を省略する。
なお、本実施形態の変形例においても、本実施形態と同様に、処理全体のある時点でみると、各バーテックス間においてスーパーステップがずれる可能性がある。そのため、バーテックス間でメッセージを送受信するときには上書きせずに、スーパーステップ毎に管理する。よって、各バーテックスは、自身のスーパーステップよりも先に、次のスーパーステップに移行した入力エッジで接するバーテックスから取得した入力エッジの状態を、「Min,n+m」として入力メッセージのバッファに記憶しておく。
次に、変形例に係る分散同期処理システム1Aの動作について説明する。
図12は、本実施形態の変形例に係る分散同期処理システム1Aの処理の流れを示すフローチャートである。
なお、ここでは、予め対象とする計算処理に必要な個々の計算処理(vertex)の設定と、その個々の計算処理(vertex)の各処理サーバ30A(worker)への割り振りが終わっているものとして説明する。この個々の計算処理(vertex)の設定と、各処理サーバ30A(worker)への割り振りとは、例えば、これらの機能を、システム全体の管理サーバを備えさせたり、処理サーバ30Aの中の代表サーバに備えさせたりすることにより、事前に実行しておけばよい。
10 管理サーバ(master)
11 隣接同期処理部
20 分散処理部(vertex)
21 数値計算部
22 メッセージ送受信部
30,30A 処理サーバ(worker)
31 仮想化制御部
32 メッセージ処理部
33 バーテックス管理部(分散処理管理部)
34 隣接同期バーテックス管理部(隣接同期分散管理部)
Claims (4)
- 並列に処理を行う複数の処理サーバと、前記処理サーバ上で動作する複数の分散処理部と、対象とする計算処理に必要な複数の前記分散処理部を複数の前記処理サーバに対して割り当てる管理サーバと、を有する分散同期処理システムであって、
前記処理サーバは、
前記分散処理部による所定の計算ステップにおける、計算処理および計算結果の出力先として接続された分散処理部への送信処理を示す計算・送信処理の完了を検出し、前記計算・送信処理の完了を示す完了報告を生成して、前記管理サーバに送信するとともに、
前記管理サーバから次の前記計算ステップへの移行の指示である次ステップ移行指示を受信し、前記計算・送信処理を完了した分散処理部に出力する分散処理管理部を備え、
前記管理サーバは、
前記完了報告を受信し、前記計算・送信処理を完了した分散処理部が、次の前記計算ステップにおいて必要な計算結果の取得が完了しているか否かを前記計算結果の入力元として接続された分散処理部からの完了報告を受信しているか否かに基づき判定し、前記計算結果の取得が完了しているときに、前記次ステップ移行指示を前記完了報告を送信してきた処理サーバに送信する隣接同期処理部を備えること
を特徴とする分散同期処理システム。 - 並列に処理を行う複数の処理サーバと、前記処理サーバ上で動作する複数の分散処理部と、を有する分散同期処理システムであって、
前記処理サーバは、
前記分散処理部による所定の計算ステップにおける、計算処理および計算結果の出力先として接続された分散処理部への送信処理を示す計算・送信処理の完了を検出し、
前記計算・送信処理を完了した分散処理部が、計算結果の入力元として接続された分散処理部から、次の前記計算ステップにおいて必要な計算結果の取得が完了しているか否かを判定し、前記計算結果の取得が完了しているときに、次の前記計算ステップへの移行の指示である次ステップ移行指示を、前記計算・送信処理を完了した分散処理部に出力する隣接同期分散管理部を備えること
を特徴とする分散同期処理システム。 - 並列に処理を行う複数の処理サーバと、前記処理サーバ上で動作する複数の分散処理部と、対象とする計算処理に必要な複数の前記分散処理部を複数の前記処理サーバに対して割り当てる管理サーバと、を有する分散同期処理システムの分散同期処理方法であって、
前記処理サーバは、
前記分散処理部による所定の計算ステップにおける、計算処理および計算結果の出力先として接続された分散処理部への送信処理を示す計算・送信処理の完了を検出し、前記計算・送信処理の完了を示す完了報告を生成して、前記管理サーバに送信する手順と、
前記管理サーバから次の前記計算ステップへの移行の指示である次ステップ移行指示を受信し、前記計算・送信処理を完了した分散処理部に出力する手順と、を実行し、
前記管理サーバは、
前記完了報告を受信し、前記計算・送信処理を完了した分散処理部が、次の前記計算ステップにおいて必要な計算結果の取得が完了しているか否かを前記計算結果の入力元として接続された分散処理部からの完了報告を受信しているか否かに基づき判定し、前記計算結果の取得が完了しているときに、前記次ステップ移行指示を前記完了報告を送信してきた処理サーバに送信する手順を実行すること
を特徴とする分散同期処理方法。 - 並列に処理を行う複数の処理サーバと、前記処理サーバ上で動作する複数の分散処理部と、を有する分散同期処理システムの分散同期処理方法であって、
前記処理サーバは、
前記分散処理部による所定の計算ステップにおける、計算処理および計算結果の出力先として接続された分散処理部への送信処理を示す計算・送信処理の完了を検出する手順と、
前記計算・送信処理を完了した分散処理部が、計算結果の入力元として接続された分散処理部から、次の前記計算ステップにおいて必要な計算結果の取得が完了しているか否かを判定し、前記計算結果の取得が完了しているときに、次の前記計算ステップへの移行の指示である次ステップ移行指示を、前記計算・送信処理を完了した分散処理部に出力する手順と、を実行すること
を特徴とする分散同期処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016166182A JP6535304B2 (ja) | 2016-08-26 | 2016-08-26 | 分散同期処理システムおよび分散同期処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016166182A JP6535304B2 (ja) | 2016-08-26 | 2016-08-26 | 分散同期処理システムおよび分散同期処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018032344A true JP2018032344A (ja) | 2018-03-01 |
JP6535304B2 JP6535304B2 (ja) | 2019-06-26 |
Family
ID=61303509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016166182A Active JP6535304B2 (ja) | 2016-08-26 | 2016-08-26 | 分散同期処理システムおよび分散同期処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6535304B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188256A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | モデル学習装置、秘密連合学習装置、それらの方法、およびプログラム |
WO2023188257A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05290005A (ja) * | 1992-04-10 | 1993-11-05 | Fujitsu Ltd | 並列処理の負荷均一化方法 |
US20100124241A1 (en) * | 2008-11-19 | 2010-05-20 | Fujitsu Limited | Barrier synchronization apparatus, barrier synchronization system, and barrier synchronization method |
JP2013069189A (ja) * | 2011-09-26 | 2013-04-18 | Hitachi Ltd | 並列分散処理方法および並列分散処理システム |
JP2016024614A (ja) * | 2014-07-18 | 2016-02-08 | 株式会社デンソー | データ処理装置 |
-
2016
- 2016-08-26 JP JP2016166182A patent/JP6535304B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05290005A (ja) * | 1992-04-10 | 1993-11-05 | Fujitsu Ltd | 並列処理の負荷均一化方法 |
US20100124241A1 (en) * | 2008-11-19 | 2010-05-20 | Fujitsu Limited | Barrier synchronization apparatus, barrier synchronization system, and barrier synchronization method |
JP2010122848A (ja) * | 2008-11-19 | 2010-06-03 | Fujitsu Ltd | バリア同期装置、バリア同期処理システム及び方法、リダクション演算装置、リダクション演算処理システム及び方法 |
JP2013069189A (ja) * | 2011-09-26 | 2013-04-18 | Hitachi Ltd | 並列分散処理方法および並列分散処理システム |
JP2016024614A (ja) * | 2014-07-18 | 2016-02-08 | 株式会社デンソー | データ処理装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188256A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | モデル学習装置、秘密連合学習装置、それらの方法、およびプログラム |
WO2023188257A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6535304B2 (ja) | 2019-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2834755B1 (en) | Platform for continuous graph update and computation | |
CN112069265B (zh) | 配置数据的同步方法、业务数据系统、计算机系统和介质 | |
JP6450330B2 (ja) | 並列計算処理装置および並列計算処理方法 | |
CN110795503A (zh) | 分布式存储系统的多集群数据同步方法及相关装置 | |
US9400767B2 (en) | Subgraph-based distributed graph processing | |
CN103488775A (zh) | 一种用于大数据处理的计算系统及计算方法 | |
US10498817B1 (en) | Performance tuning in distributed computing systems | |
CN106855834B (zh) | 一种数据备份方法、装置和系统 | |
US20180068040A1 (en) | Handover Techniques For Simulation Systems And Methods | |
WO2020186836A1 (zh) | 任务调度 | |
CN113778615B (zh) | 一种快速稳定的网络靶场虚拟机构建系统 | |
Yamaoka et al. | Dracena: A real-time iot service platform based on flexible composition of data streams | |
CN106354563A (zh) | 用于3d重建的分布式计算系统以及3d重建方法 | |
Nguyen et al. | A low-cost two-tier fog computing testbed for streaming IoT-based applications | |
CN111552701B (zh) | 确定分布式集群中数据一致性的方法及分布式数据系统 | |
Li et al. | Wide-area spark streaming: Automated routing and batch sizing | |
JP6535304B2 (ja) | 分散同期処理システムおよび分散同期処理方法 | |
CN105808340B (zh) | 负载均衡方法及系统 | |
Yoginath et al. | Parallel vehicular traffic simulation using reverse computation-based optimistic execution | |
JP6688240B2 (ja) | 分散同期処理システムおよび分散同期処理方法 | |
JP6036848B2 (ja) | 情報処理システム | |
US10353735B2 (en) | Computing system including independent coupling facilities maintaining equivalency based on sequence values | |
CN113227975B (zh) | 一种同步方法及装置 | |
US10230583B1 (en) | Multi-node object simulation | |
JP6778161B2 (ja) | 分散同期処理システム、分散同期処理方法および分散同期処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6535304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |