JP2002014941A - 多階層分散処理装置 - Google Patents

多階層分散処理装置

Info

Publication number
JP2002014941A
JP2002014941A JP2000200086A JP2000200086A JP2002014941A JP 2002014941 A JP2002014941 A JP 2002014941A JP 2000200086 A JP2000200086 A JP 2000200086A JP 2000200086 A JP2000200086 A JP 2000200086A JP 2002014941 A JP2002014941 A JP 2002014941A
Authority
JP
Japan
Prior art keywords
task
result
client
address
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000200086A
Other languages
English (en)
Inventor
Masataka Musha
正隆 武者
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000200086A priority Critical patent/JP2002014941A/ja
Publication of JP2002014941A publication Critical patent/JP2002014941A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】 【課題】現行のネットワーク上の分散処理は、課題の並
列化をクライアントPCで行い、他のプロセッサ・エレメ
ントとなるPCは得られる並列化後の課題の処理と返送の
みを行うので、前記クライアントPCに掛かる並列化の
負荷が高く、またプロセッサ・エレメントとなるPCは得
られる課題をすべて自ら処理する事が必要で結果的に課
題要求をより多くの前記PCに課し、ネットワーク負荷が
高い。 【解決手段】プロセッサ・エレメントとなるPCが、課題
の負荷と自らの稼動状況から並列化の数を算出する分散
処理算出手段と、課題を並列化する並列コンパイラと、
並列化された課題に自らのアドレスと階層と該階層内の
部位を示す識別子を追加する階層部位記述手段と、統合
結果の得られる迄の所用時間と、前記アドレス群と分散
比率を対応させ記憶するパス記憶手段を備える、クライ
アントPCを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は複数のプロセッサで
分散処理を行うプロセッサ・エレメントにかかり、特に
インターネットに接続され分散処理を行う個々のPCに関
する。
【0002】
【従来の技術】インターネットに接続されるPCを用い分
散処理をさせるクライアントPCは、処理を請負う事を予
め登録したPCに、課題の並列化の後、分配し、該PCでの
課題の処理結果を回収し、結果を得る。
【0003】
【発明が解決しようとする課題】高負荷の課題は並列化
や分散によるCPU負荷やネットワーク負荷が高く、該負
荷が高い事を原因とし高速化が困難であったり、多くの
高価なプロセッサ・エレメントを使用したにも関わらず
妥当な処理速度を得られない可能性があった。
【0004】
【課題を解決するための手段】ネットワークに接続され
るPCにおいて、ネットワークを介し得られる課題の負荷
と自らのPCの稼動条件から、自他のPCの分散処理比率を
求める、分散処理算出手段と、前記分散比率に従い課題
を並列化する並列コンパイラと、該並列化された課題の
識別子に、前記並列化前の課題の識別子と、自らのPCの
アドレスと並列化の階層の増加情報と該階層内の部位を
示す位置情報を追加する、階層部位記述手段と、前記統
合結果の得られる所用時間と、前記アドレス群と階層と
部位と分散比率を対応付け記憶する、パス記憶手段を備
える。
【0005】
【発明の実施の形態】本発明の実施の形態を図1〜図1
0を用い説明する。
【0006】図1はインターネットの物理接続構成を示
す。
【0007】図2は、図1の前記物理接続上で実現され
る、論理接続構成を示す。
【0008】図3は、図2の前記論理接続上で実行され
る課題分配の経路を示す。
【0009】図4は、図3の前記経路で分配される課題
の構成を示す。
【0010】図5は、図2の前記論理接続上で実行され
る結果統合の経路を示す。
【0011】図6は、図5の前記経路で回収される結果
の構成を示す。
【0012】図7は、本発明によるインターネット上の
課題分散の経路を示す。
【0013】図8は、本発明による課題の構成を示す。
【0014】図9は、本発明によるインターネット上の
結果回収の経路を示す。
【0015】図10は、本発明による結果の構成を示
す。
【0016】始めに図1を用い、インターネットの物理
接続構成を説明する。
【0017】クライアントPC 101は、インターネットに
接続される他のPC 106と通信可能なLANインタフェース
やドライバ、プロトコル、アプリケーションを備えたパ
ソコンで、後述するLAN 102に接続される。
【0018】LAN 102は、コネクタ付きLANケーブルとバ
ス型又はスター型のリピータで、前記クライアントPC 1
01と後述するルータ103の備えるLANインタフェースに接
続される。
【0019】ルータ103は、ネットワーク接続装置で、
前記LAN 102と後述するWAN 104に接続される。
【0020】WAN構内引込線104は、電話線で、前記ルー
タ104と後述するWAN 105の所定の交換機に接続される。
【0021】WAN 105は、公衆網で、前記ルータ 104と
他のルータに接続される。
【0022】PC 106は、図示を省略しているが、前記ル
ータと該ルータを介し前記WAN 105に接続される、イン
ターネットに接続される他のPC 106と通信可能なLANイ
ンタフェースやドライバ、プロトコル、アプリケーショ
ンを備えたパソコンである。
【0023】以上の物理的構成を介し、クライアントPC
101はインターネット上のPC 106にアクセスする。
【0024】次に図2を用い、インターネットの論理接
続構成を説明する。
【0025】論理接続201は、前記物理接続上で、ドラ
イバ、プロトコル、アプリケーションを備えたパソコン
が確立可能な接続である。
【0026】以上の論理的構成を介し、クライアントPC
101はインターネット上のPC 106にアクセスを可能とす
る。
【0027】次に図3を用い、インターネット上で分散
処理を行う時の、課題分散経路を説明する。
【0028】課題分散経路301は、前記論理接続上で想
定される課題の転送経路群で、図示するように前記論理
接続201で示す接続の拡散方向の転送を用いる。
【0029】クライアントPC 101は備える並列コンパイ
ラで課題を並列化し、該並列化後の夫々の課題をPC 106
に転送する。
【0030】次に図4を用い、インターネット上で分散
処理を行う時の、課題構成を説明する。
【0031】図4に示すものは、前記並列コンパイラで
並列化後の課題であり、1PC 106に1課題が送付される。
該課題を受信したPC 106は示す課題の左端から走査す
る。
【0032】ヘッダ401は、カプセル化後のパケットに
おいては前記クライアントPC 101のプロトコルやアプリ
ケーションが、LANインタフェースのハードウエア固有
のアドレス、前記プロトコルが付加・使用するアドレ
ス、前記2アドレスを対応付ける情報や、ネットワーク
の制御情報、エラーチェック情報、フレーム情報を書込
むが、これらはいずれのネットワーク運用にも必ず必要
な基本的要求事項であるので省略し、前記ヘッダ401は
カプセル化前のヘッダとする。
【0033】課題の実行開始を示す標識402は、前記PC
106の前記走査で検知される固有の文字列と文字列長を
記述し、該標識402の末尾以降から前記PC 106が実行可
能なポータブルなコードが含まれている事を示す。
【0034】課題実行部位403は、前記PC 106で実行可
能なポータブルなコードである。
【0035】課題の停止を示す標識404は、前記PC 106
の前記走査で検知される固有の文字列と文字列長を記述
し、前記PC 106で実行可能なポータブルなコードの末尾
を示す。
【0036】フッタ405は、前記ヘッダ401と同様にカプ
セル化前のフッタとする。
【0037】本課題を、クライアントPC 101はPC 106
に、前記課題分配経路を介し転送し、PC 106は示す課題
の左端から走査し、前記課題の実行開始を示す標識402
を検出したら該課題の実行開始を示す標識402以降の課
題実行部位403を、課題の停止を示す標識404を検知する
まで実行する。
【0038】次に図5を用い、インターネット上で分散
処理を行う時の、結果統合経路を説明する。
【0039】結果回収経路501は、前記論理接続上で想
定される結果の転送経路群で、図示するように前記論理
接続で示す接続の集約方向の転送を用いる。
【0040】PCアドレス追記手段502は、各々のPC 106
に内包される転送データの加工手段で、PC 106から参照
可能な入出力インタフェースを備え、転送されたデータ
のヘッダ401に前記PC 106のアドレスを追記する、PC 10
6のCPUで実行されるプログラムである。
【0041】結果転送経路503は、各々のPC 106に内包
されるデータの転送手段で、PC 106のCPUで課題を実行
した結果を、前記CPUから受取り、前記PCアドレス追記
手段502の入力インタフェースに書込む、PC 106のCPUで
実行される転送プログラムである。
【0042】以上の構成で、PC 106は課題を実行した結
果を、前記結果転送経路503を介し、PCアドレス追記手
段502に転送し、前記アドレスを追加し、前記結果回収
経路501を介し、クライアントPC 101に返送し、これを
受けたクライアントPCは並列コンパイラでの並列化に従
い、結果の統合を実行し、前記ヘッダ401に書込まれたP
C 106のアドレスを記録する。
【0043】次に図6を用い、インターネット上で分散
処理を行った、結果構成を説明する。
【0044】図6に示すものは、前記PC 106での処理後
の結果であり、1PC 106から1結果が出力される。該結果
を受信した前記クライアントPC 101は示す結果の左端か
ら走査する。
【0045】ヘッダ401は、前記同様にカプセル化後の
パケットにおいては前記クライアントPC 101のプロトコ
ルやアプリケーションが、LANインタフェースのハード
ウエア固有のアドレス、前記プロトコルが付加・使用す
るアドレス、前記2アドレスを対応付ける情報や、ネッ
トワークの制御情報、エラーチェック情報、フレーム情
報を書込むが、これらはいずれのネットワーク運用にも
必ず必要な基本的要求事項であるので省略し、該ヘッダ
401はカプセル化以前のヘッダとする。
【0046】結果の先頭を示す標識601は、前記クライ
アントPC 101の前記走査で検知される固有の文字列と文
字列長を記述し、該標識601の末尾以降から前記クライ
アントPC 101が統合可能な結果が含まれている事を示
す。
【0047】結果602は、前記クライアントPC 101で統
合可能な部分的結果データである。
【0048】結果の末尾を示す標識603は、前記クライ
アントPC 101の前記走査で検知される固有の文字列と文
字列長を記述し、前記クライアントPC 101で統合可能な
結果の末尾を示す。
【0049】フッタ405は、前記ヘッダ401と同様にカプ
セル化以前のフッタを示す。
【0050】本結果を前記PC 106はクライアントPC 101
に、前記結果統合経路を介し転送し、クライアントPC 1
01は示す結果の左端から走査し、前記結果の先頭を示す
標識601検出したら該結果の先頭を示す標識601以降の結
果602を、結果の末尾を示す標識603を検知するまで読取
り、ヘッダ401に含まれる結果の部位情報に従い、並列
化前の結果に統合する。またヘッダ401に追記されたPC
106のアドレスを、前記並列化前後の課題の識別子と、
時刻と共に記録する。
【0051】次に図7を用い、本発明によるインターネ
ット上の分散処理を行う時の、課題分散経路を説明す
る。
【0052】課題分散経路701は、前記論理接続上で想
定される課題の転送経路群で、図示するように前記論理
接続で示す接続の拡散方向の転送を用いる。
【0053】分散処理算出手段702は、後述するPC 706
に内包し実行される処理プログラムで、前記課題分散経
路701を介し得られる課題のデータ長から10段階の負荷
を想定、具体的には (1)〜10KB (2)10KB〜100KB (3)100KB〜1MB (4)1MB〜10MB (5)10MB〜100MB (6)100MB〜1GB (7)1GB〜10GB (8)10GB〜100GB (9)100GB〜1TB (10)1TB〜 の10段階のデータ長から、対応する10段階の負荷1〜10
を想定し、自らのPC 706の負荷状態、すなわちCPUの稼
働率を、 (1)0%〜33% (2)33%〜50% (3)50%〜75% (4)75%〜85% (5)85%〜90% (6)90%〜95% (7)95%〜97% (8)97%〜98% (9)98%〜99% (10)99%〜100% に対応付けた1〜10の10段階で評価し、自らのPC 706のC
PUクロックから10段階の処理能力を想定、具体的には (1)〜100MHz (2)100MHz〜500MHz (3)500MHz〜1GHz (4)1GHz〜5GHz (5)5GHz〜10GHz (6)10GHz〜50GHz (7)50GHz〜100GHz (8)100GHz〜500GHz (9)500GHz〜1THz (10)1THz〜 の10段階のデータ長から、対応する10段階のCPUクロッ
ク1〜10を想定し、自他の処理比率と分散構成を次のよ
うに求める。
【0054】分散数=負荷(1〜10)÷(CPUクロック(1〜1
0)÷CPU稼働率(1〜10)) 自他の処理比率=1:(分散数−1) 自らのPCからの分散数=分散数−1 次に算出手段は、得られる課題を以上の計算により求め
られた分散数分に並列化する。
【0055】階層部位記述手段704は、前記並列化され
た夫々の課題の後述するヘッダに自らのPC 706のアドレ
ス、階層、階層内の部位を追記する。
【0056】PC 706は、前記課題が1つ即ち分散数が1で
並列化を要しなかった場合前記課題を実行し、前記課題
が2以上即ち分散数が2以上で並列化を要した場合並列コ
ンパイラで並列化された課題の1つを保持し、他の並列
化された課題を分散経路を介し他のPCに送信し、前記保
持された課題を実行する。
【0057】クライアントPC 101は備える並列コンパイ
ラで並列化した課題を複数のPCに負わせ、該PC706は上
記並列化のルールに従い必要に応じ並列化した課題を他
の複数のPCに負わせる。
【0058】次に図8を用い、インターネット上で分散
処理を行う時の、課題構成を説明する。
【0059】図8に示すものは、前記並列コンパイラで
並列化後の課題であり、1PC 706に1課題が送付される。
該課題を受信したPC 706は示す課題の左端から走査す
る。
【0060】ヘッダ801は、前記ヘッダ401と同様にカプ
セル化後のパケットにおいては前記クライアントPC 101
のプロトコルやアプリケーションが、LANインタフェー
スのハードウエア固有のアドレス、前記プロトコルが付
加・使用するアドレス、前記2アドレスを対応付ける情
報や、ネットワークの制御情報、エラーチェック情報、
フレーム情報を書込むが、これらはいずれのネットワー
ク運用にも必ず必要な基本的要求事項であるので省略
し、該ヘッダ801はカプセル化前のヘッダとする。
【0061】課題の実行開始を示す標識402は、前記PC
706の前記走査で検知される固有の文字列と文字列長を
記述し、該標識402の末尾以降から前記PC 706が実行可
能なポータブルなコードが含まれている事を示す。
【0062】課題実行部位403は、前記PC 706で実行可
能なポータブルなコードである。
【0063】課題の停止を示す標識404は、前記PC 706
の前記走査で検知される固有の文字列と文字列長を記述
し、前記PC 706で実行可能なポータブルなコードの末尾
を示す。
【0064】フッタ802は、前記ヘッダ801と同様にカプ
セル化前のフッタとする。
【0065】本課題を、クライアントPC 101はPC 706
に、前記課題分配経路を介し転送し、PC 706は示す課題
の左端から走査し、備える前記算出手段で自他の処理比
率と他のPCの処理の分散構成を算出し、備える並列コン
パイラで前記課題を前記算出結果の前記分散構成数に並
列化し、該並列化された課題のヘッダ801に自らのアド
レスと分散の階層と該階層内の部位を示す識別子を追加
する。次に自らのPCの課題を保持し、他の課題が存在す
る場合他のPCに送付し、前記課題の実行開始を示す標識
402を検出したら該課題の実行開始を示す標識402以降の
課題実行部位403を、課題の停止を示す標識404を検知す
るまで実行する。
【0066】次に図9を用い、インターネット上で分散
処理を行う時の、結果統合経路を説明する。
【0067】結果回収経路901は、前記論理接続上で想
定される結果の転送経路群で、図示するように前記論理
接続で示す接続の集約方向の転送を用いる。
【0068】PCアドレス追記手段902は、各々のPC 904
に内包される転送データの加工手段で、PC 904から参照
可能な入出力インタフェースを備え、転送されたデータ
のヘッダに前記PC 904のアドレスを追記する、PC 904の
CPUで実行されるプログラムである。
【0069】結果転送経路903は、各々のPC 904に内包
されるデータの転送手段で、PC 904のCPUで課題を実行
した結果を、前記CPUから受取り、前記PCアドレス追記
手段902の入力インタフェースに書込む、PC 904のCPUで
実行される転送プログラムである。
【0070】以上の構成で、PC 904は課題を実行した結
果を、前記結果転送経路903を介し、PCアドレス追記手
段902に転送し、前記アドレスを追加し、前記結果回収
経路901を介し、クライアントPC 101に返送し、これを
受けたクライアントPCは並列コンパイラでの並列化に従
い、結果の統合を実行し、統合の完了順に前記ヘッダに
書込まれたPC 904のアドレス群のパスと、前記クライア
ントPCが該当する課題に着手した時刻と統合が完了した
時刻から求められる所要時間と、分散比率を記録する。
【0071】次に図10を用い、インターネット上で分
散処理を行った、結果構成を説明する。
【0072】図10に示すものは、前記PC 904での処理
後の結果であり、1PC 904から1結果が出力される。該結
果を受信した前記クライアントPC 101は示す結果の左端
から走査する。
【0073】ヘッダ1001は、前記同様にカプセル化後の
パケットにおいては前記クライアントPC 101のプロトコ
ルやアプリケーションが、LANインタフェースのハード
ウエア固有のアドレス、前記プロトコルが付加・使用す
るアドレス、前記2アドレスを対応付ける情報や、ネッ
トワークの制御情報、エラーチェック情報、フレーム情
報を書込むが、これらはいずれのネットワーク運用にも
必ず必要な基本的要求事項であるので省略し、該ヘッダ
1001はカプセル化前のヘッダとする。
【0074】結果の先頭を示す標識601は、前記クライ
アントPC 101の前記走査で検知される固有の文字列と文
字列長を記述し、該標識601の末尾以降から前記クライ
アントPC 101が統合可能な結果が含まれている事を示
す。
【0075】結果602は、前記クライアントPC 101で統
合可能な部分的結果データである。
【0076】結果の末尾を示す標識603は、前記クライ
アントPC 101の前記走査で検知される固有の文字列と文
字列長を記述し、前記クライアントPC 101で統合可能な
結果の末尾を示す。
【0077】フッタ1002は、前記ヘッダ401と同様にカ
プセル化前のフッタを示す。
【0078】本結果を前記PC 904はクライアントPC 101
に、前記結果統合経路を介し転送し、クライアントPC 1
01は示す結果の左端から走査し、前記結果の先頭を示す
標識601検出したら該結果の先頭を示す標識601以降の結
果602を、結果の末尾を示す標識603を検知するまで読取
り、ヘッダ1001に含まれる結果の部位情報に従い、並列
化前に期待された結果に統合する。またヘッダ1001に追
記されたPC 904のアドレスを備えるパス記憶手段に、前
記並列化前後の課題の識別子と、時刻と共に記録する。
【0079】
【発明の効果】前記分散処理算出手段及び前記階層部位
記述手段は、該当するPCに課せられる課題をの負荷と自
らの稼動状況をもとに最適な分散処理を設定し、課題の
計算の実行により得られる結果の統合に必要な自らのア
ドレス、分散の階層、該階層内の部位を示す識別子を追
加する事により、クライアントPCやネットワーク負荷の
低い多階層分散処理を可能とする。
【0080】また前記パス記憶手段は、階層的分散処理
で使用されたPCのアドレス群と、該当する課題の所用時
間を関連付けて記憶する事により、後の課題を最速で分
散処理可能なPC群のアドレス群とそれに伴うネットワー
クパスと、それにかかる所用時間を予測可能とする。
【図面の簡単な説明】
【図1】インターネットの物理接続構成図。
【図2】インターネットの論理接続構成図。
【図3】課題分配経路図。
【図4】課題構成図。
【図5】結果統合経路図。
【図6】結果構成図。
【図7】本発明によるインターネット上の課題分散経路
図。
【図8】本発明による課題構成図。
【図9】本発明によるインターネット上の結果統合経路
図。
【図10】本発明による結果構成図。
【符号の説明】
101…クライアントPC(パーソナルコンピュータ)、102…
LAN(ローカルエリア・ネットワーク)、103…ルータ、10
4…WAN(ワイドエリア・ネットワーク)構内引込線、105
…WAN(ワイドエリア・ネットワーク)、106…PC(パーソ
ナルコンピュータ)、201…論理接続、301…課題分散経
路、401…ヘッダ、402…課題(プログラム)の実行開始を
示す標識(マーカーコード)、403…課題(プログラム)実
行部位、404…課題(プログラム)の停止を示す標識(マー
カーコード)、405…フッタ、501…結果回収経路、502…
PC(パーソナルコンピュータ)アドレス追加手段、503…
結果転送経路、601…結果(データ)の先頭を示す標識(マ
ーカーコード)、602…結果(データ)、603…結果(デー
タ)の末尾を示す標識(マーカーコード)、701…本発明に
よる課題分散経路、702…分散処理算出手段、703…課題
及び算出結果転送経路、704…階層部位記述手段、705…
課題及び算出結果転送経路、706…PC(パーソナルコンピ
ュータ)、801…ヘッダ、802…フッタ、901…結果回収経
路、902…パス記述手段、903…結果転送経、904…PC(パ
ーソナルコンピュータ)、1001…ヘッダ、1002…フッ
タ。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 ネットワークに接続されるPCにおいて、 ネットワークを介し得られる課題の負荷と自らのPCの稼
    動条件から、自他のPCの分散処理比率を求める、分散処
    理算出手段と、 前記分散比率に従い課題を並列化する並列コンパイラ
    と、 該並列化された課題の識別子に、前記並列化前の課題の
    識別子と、自らのPCのアドレスと並列化の階層の増加情
    報と該階層内の部位を示す位置情報を追加する、階層部
    位記述手段と、 前記統合結果の得られる所用時間と、前記アドレス群と
    階層と部位と分散比率を対応付け記憶する、パス記憶手
    段を備える事を特徴とするPC。
JP2000200086A 2000-06-28 2000-06-28 多階層分散処理装置 Pending JP2002014941A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000200086A JP2002014941A (ja) 2000-06-28 2000-06-28 多階層分散処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000200086A JP2002014941A (ja) 2000-06-28 2000-06-28 多階層分散処理装置

Publications (1)

Publication Number Publication Date
JP2002014941A true JP2002014941A (ja) 2002-01-18

Family

ID=18698004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000200086A Pending JP2002014941A (ja) 2000-06-28 2000-06-28 多階層分散処理装置

Country Status (1)

Country Link
JP (1) JP2002014941A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1755037A1 (en) 2005-08-19 2007-02-21 Sony Corporation System-independent application state management
JP2014035717A (ja) * 2012-08-10 2014-02-24 Hitachi Ltd 多階層の各ノードを考慮した負荷分散方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1755037A1 (en) 2005-08-19 2007-02-21 Sony Corporation System-independent application state management
JP2014035717A (ja) * 2012-08-10 2014-02-24 Hitachi Ltd 多階層の各ノードを考慮した負荷分散方法

Similar Documents

Publication Publication Date Title
US20220317906A1 (en) Technologies for providing manifest-based asset representation
Baker et al. MPJ Express: towards thread safe Java HPC
US9778856B2 (en) Block-level access to parallel storage
JP2779587B2 (ja) コンピュータシステムに用いる名前スペースの一部分を別の名前スペースの一部分として利用可能にするための装置及びその方法
TW544589B (en) Loosely coupled-multi processor server
EP2628080B1 (en) A computer cluster arrangement for processing a computation task and method for operation thereof
CN104303174A (zh) 通过处理器间互连来隧道传输平台管理消息
CN102119508B (zh) 将交换机层级结构后面的多功能设备呈现为单功能设备
US10698711B2 (en) Cloud computing systems
TWI345153B (en) System to accelerate identification of hardware platform classes
BRPI1013629B1 (pt) Sistema, método, e equipamento de computação em nuvem
CN101661494A (zh) 一种分布式中间件与数据库数据交互方法
CN102693230B (zh) 用于存储区域网络的文件系统
CN105378694A (zh) 用于执行与通用串行总线(usb)装置的管理组件传输协议(mctp)通信的方法、设备和系统
JP7369860B2 (ja) アクセスドッキングコンポーネント、システム、並びに、そのアクセスドッキングコンポーネントを用いた方法及び装置
WO2013145001A1 (ja) 情報処理システムおよびグラフ処理方法
WO2014101475A1 (zh) 云平台应用部署方法及装置
CN104754021A (zh) 用于促进对分布式存储系统中的数据的访问的装置和方法
Albrecht et al. Making work queue cluster-friendly for data intensive scientific applications
US7991962B2 (en) System and method of using threads and thread-local storage
US9146694B2 (en) Distribution processing unit of shared storage
JP2002014941A (ja) 多階層分散処理装置
CN108459885A (zh) 一种资源分散加载的方法及其单片机
WO2012171363A1 (zh) 分布式缓存系统中的数据操作方法和装置
CN115567526A (zh) 数据监控方法、装置、设备及介质