JP2016048536A - クラスタコンピューティングシステム用のマスタデバイス、スレーブデバイスおよびそのコンピューティング方法 - Google Patents
クラスタコンピューティングシステム用のマスタデバイス、スレーブデバイスおよびそのコンピューティング方法 Download PDFInfo
- Publication number
- JP2016048536A JP2016048536A JP2015000221A JP2015000221A JP2016048536A JP 2016048536 A JP2016048536 A JP 2016048536A JP 2015000221 A JP2015000221 A JP 2015000221A JP 2015000221 A JP2015000221 A JP 2015000221A JP 2016048536 A JP2016048536 A JP 2016048536A
- Authority
- JP
- Japan
- Prior art keywords
- feature model
- job
- processor
- resource feature
- slave device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims description 45
- 238000000034 method Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013468 resource allocation Methods 0.000 abstract description 3
- 239000002674 ointment Substances 0.000 abstract 2
- 238000007726 management method Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 9
- 230000010354 integration Effects 0.000 description 7
- 239000002699 waste material Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/36—Handling requests for interconnection or transfer for access to common bus or bus system
- G06F13/362—Handling requests for interconnection or transfer for access to common bus or bus system with centralised access control
- G06F13/364—Handling requests for interconnection or transfer for access to common bus or bus system with centralised access control using independent requests or grants, e.g. using separated request and grant lines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
- Multi Processors (AREA)
- Automatic Analysis And Handling Materials Therefor (AREA)
Abstract
【解決手段】マスタデバイス11は、スレーブデバイス13のデバイス情報22を受信し、デバイス情報及びジョブ21に応じてスレーブデバイスに対するリソースフィーチャーモデル23を選択し、リソースフィーチャーモデルに応じてスレーブデバイスのコンテナ構成パラメータ24を推定し、コンテナ構成パラメータをスレーブデバイスに伝送し、スレーブデバイスにジョブを割り当てる。スレーブデバイスは、デバイス情報をマスタデバイスに伝送し、マスタデバイスによって割り当てられたジョブをコンテナ構成パラメータとともにマスタデバイスから受信し、コンテナ構成パラメータに応じてジョブを計算するために少なくとも1つのコンテナを生成し、ジョブに対応するジョブ情報およびメトリックファイルに応じてリソースフィーチャーモデルを生成する。
【選択図】図1
Description
動作時には、クラスタコンピューティングシステムは通常、マスタデバイスおよび複数のスレーブデバイスを備えている。マスタデバイスは、スレーブデバイスにジョブを割り当てるように構成されている。各々のスレーブデバイスは、ジョブに対応して割り当てられたタスクを実行するためのコンテナを生成するように構成されている。したがって、無駄を避けるためには、クラスタコンピューティングシステムでリソースを的確に割り当ててビッグデータを計算しなければならない。
このほか、コンテナ仕様は各々のコンテナに対して一定であるため、従来のスレーブデバイスで生成できるコンテナ数も一定であり、それによってリソースはアイドル状態になる。例えば、1つのジョブに必要なコンテナ数が合計コンテナ数よりも少ない場合、リソースがアイドル状態であることでコンテナ数が過剰になる。また、コンテナ仕様は各々のコンテナに対して一定であるため、複数のスレーブデバイスが異なるデバイス性能を有する場合は、リソースの不適切な割り当てが起こる傾向がある。例えば、2つのスレーブデバイスのコンテナ仕様が同じであってもデバイス性能が異なる場合、2つのスレーブデバイスの処理効率が異なるために、リソースの不適切な割り当てが起こる。
(A)スレーブデバイスのデバイス情報をプロセッサで受信するステップと、
(B)スレーブデバイスに対するリソースフィーチャーモデルを、デバイス情報およびジョブに応じてプロセッサによって選択するステップと、
(C)スレーブデバイスのコンテナ構成パラメータを、リソースフィーチャーモデルに応じてプロセッサによって推定するステップと、
(D)プロセッサによってコンテナ構成パラメータをスレーブデバイスに伝送するステップと、
(E)プロセッサによってスレーブデバイスにジョブを割り当てるステップと
を含む。
(A)プロセッサによってデバイス情報をマスタデバイスに伝送するステップと、
(B)マスタデバイスによって割り当てられたジョブおよびコンテナ構成パラメータを、プロセッサによってマスタデバイスから受信するステップと、
(C)プロセッサによってコンテナ構成パラメータに応じてジョブを計算するために、少なくとも1つのコンテナを生成するステップと、
(D)ジョブに対応するジョブ情報およびメトリックファイルに応じて、プロセッサによってリソースフィーチャーモデルを作成するステップと
を含む。
図1に示したように、クラスタコンピューティングシステム1は、マスタデバイス11および少なくとも1つのスレーブデバイス13(すなわち1つまたは複数のスレーブデバイス)を備えていてよい。マスタデバイスは、接続インターフェース111およびプロセッサ113を備えていてよく、両者は互いに直接または間接的に電気接続されて互いに通信してよい。各々のスレーブデバイス13は、接続インターフェース131およびプロセッサ133を備えていてよく、両者は互いに直接または間接的に電気接続されて互いに通信してよい。
マスタデバイス11の接続インターフェース111は、多様な媒体(図示せず)を介して各々のスレーブデバイス13の接続インターフェース111に接続されてこれと通信してよい。マスタデバイス11の接続インターフェース111は、様々な媒体(例えばネットワーク、バスなど)に応じて多様な有線または無線の方式で、各々のスレーブデバイス13の接続インターフェース111に接続してこれと通信してよい。各々のマスタデバイス11およびスレーブデバイス13は、スタンドアローンのコンピュータであってもよいし、コンピュータ内にあるスタンドアローンのコンピューティングユニットであってもよい。
分散ファイルシステム15は、マスタデバイス11とスレーブデバイス13とに共有される。具体的には、マスタデバイス11の接続インターフェース111とスレーブデバイス13の接続インターフェース131との間の接続を通して、マスタデバイス11および各々のスレーブデバイス13は、分散ファイルシステム15内のデータにアクセスできる。換言すれば、マスタデバイス11および各々のスレーブデバイス13は、分散ファイルシステム15の中にデータを記憶できるほか、分散ファイルシステム15からデータを読み出すこともできる。任意選択として、マスタデバイス11は、他のインターフェースを介して、または他の方法で、分散ファイルシステム15内のデータに直接アクセスしてもよい。
マスタデバイス11は、各々のスレーブデバイス13によって伝送されたデバイス情報22を、マスタデバイスの接続インターフェース111を介して受信できる。したがって、クラスタコンピューティングシステム1がジョブ21を計算するようになっている場合、マスタデバイス11のプロセッサ113は、全スレーブデバイス13によって事前に伝送されたデバイス情報22を取得してよい。ジョブ21は、マスタデバイス11自体によって生成されてもよいし、マスタデバイスの外部の他のデバイスによって入力されてもよい。スレーブデバイス13のデバイス情報22は、ハードウェア、ソフトウェア、およびこれらの計算能力に関する情報を含んでいてよい。
CPUフィーチャーモデルは、コンテナを計算するジョブに必要なCPU仕様を推定するために使用されてよい。メモリフィーチャーモデルは、コンテナを計算するジョブに必要なメモリ仕様を推定するために使用されてよい。ネットワークフィーチャーモデルは、コンテナを計算するジョブに必要なネットワーク仕様を推定するために使用されてよい。ディスクIOフィーチャーモデルは、コンテナを計算するジョブにディスクIO仕様を推定するために使用されてよい。
マスタデバイス11のプロセッサ113は、各々のスレーブデバイス13に対して、対応するデバイス情報22およびジョブ21に応じてリソースフィーチャーモデルのサンプルからリソースフィーチャーモデル23を選択できる。前述のリソースフィーチャーモデルのサンプルは、リソースフィーチャーモデル23自体であってもよいし、リソースフィーチャーモデルに関連する情報であってもよい。
例えば、マスタデバイス11のプロセッサ113は、K平均アルゴリズムを用いて複数のリソースフィーチャーモデルのサンプルを複数のグループに分類できる。次に、マスタデバイス11のプロセッサ113は、各々のスレーブデバイス13に対して、対応するデバイス情報22およびジョブ21に応じてリソースフィーチャーモデルの代表からリソースフィーチャーモデル23を選択できる。前述のリソースフィーチャーモデルのサンプルは、リソースフィーチャーモデル23自体であってもよいし、リソースフィーチャーモデルに関連する情報であってもよい。
判断結果が「はい」であれば、マスタデバイス11のプロセッサ113は、対応するリソースフィーチャーモデルをリソースフィーチャーモデル23として選択する。判断結果が「いいえ」であれば、マスタデバイス11のプロセッサ113は、対応するデバイス情報22およびジョブ21に応じて、同様のリソースフィーチャーモデル(すなわちデバイス情報22およびジョブ21にほぼ対応するリソースフィーチャーモデル)があるかどうかを判断する。判断結果が「はい」であれば、マスタデバイス11のプロセッサ113は、同様のリソースフィーチャーモデルをリソースフィーチャーモデル23として選択する。判断結果が「いいえ」であれば、マスタデバイス11のプロセッサ113は、事前設定されたリソースフィーチャーモデル(すなわち事前設定されているリソースフィーチャーモデル)をリソースフィーチャーモデル23として選択する。
具体的には、マスタデバイス11のプロセッサ113は、各々のリソースフィーチャーモデル23に応じて、対応するスレーブデバイス13に必要な多様な仕様(例えばCPU仕様、メモリ仕様、ネットワーク仕様、ディスクIO仕様など)を推定してジョブ21を計算するためのコンテナを開けられる。次に、マスタデバイス11のプロセッサ113は、スレーブデバイス13のデバイス情報22および推定した仕様(例えばCPU仕様、メモリ仕様、ネットワーク仕様、ディスクIO仕様など)に応じて、スレーブデバイス13によって開けられる必要のあるコンテナ数を推定できる。
クラスタコンピューティングシステム1が同システム内に利用可能なスレーブデバイス13を1つしか有していなければ、ジョブ21は、その単一のスレーブデバイス13のみで計算される。クラスタコンピューティングシステム1が同システム内に利用可能なスレーブデバイス13を複数有していれば、ジョブ21は、これらのスレーブデバイス13全部で計算される。後者の場合、マスタデバイス11のプロセッサ113は、ジョブ21を複数のタスクに分割した後、これらのタスクをこれらのスレーブデバイス13に割り当てる。ジョブ21を複数のタスクに分割し、そのタスクを複数のスレーブデバイス13に割り当てるという方法は、当業者には公知のものであり、これについては本明細書ではこれ以上説明しない。
クラスタコンピューティングシステム1では、各々のスレーブデバイス13は、多様なローカルデータを記憶するためのメトリックファイルを有する。したがって、少なくとも1つのコンテナによってジョブ21(またはマスタデバイスによって割り当てられたジョブ21に対応するタスク)を計算するプロセスの過程で、スレーブデバイス13のプロセッサ133は、少なくとも1つのコンテナのジョブステータスを収集して、ジョブステータスのステータス情報をメトリックファイルに記憶できる。
図2は、クラスタコンピューティングシステム1にあるマスタデバイス11および単一のスレーブデバイス13の動作を示す概略構造図である。図2に示したスレーブデバイス13は、図1に示した複数のスレーブデバイス13のいずれであってもよい
このほか、スレーブデバイス13は、任意選択として、前述した接続インターフェース131およびプロセッサ133の機能を達成するのを補助するために、以下の素子を備えていてよい。スレーブ管理部1331、少なくとも1つのコンテナ1333、モデル生成部1335、ジョブステータス収集部1337およびメトリックファイル1339。
ジョブ21およびデバイス情報22を取得した後、最適なリソースモジュール1135は、ジョブ21およびデバイス情報22に応じてモデル管理部1137からリソースフィーチャーモデル23を取得する。同時に、最適なリソースモジュール1135は、ジョブ21に対応するジョブ情報25を分散ファイルシステム15に記憶できる。次に、最適なリソースモジュール1135は、スレーブデバイス13のコンテナ構成パラメータ24をリソースフィーチャーモデル23に応じて推定し、その後、コンテナ構成パラメータ24をジョブ管理部1133に伝送する。最後に、ジョブ管理部1133は、コンテナ構成パラメータ24をリソース管理部1131に伝送する。
スレーブ管理部1331は、コンテナ構成パラメータ24に応じて、コンテナ数1333のほか、コンテナ1333のCPU仕様およびメモリ仕様も判断できる。コンテナ1333によってジョブ21(またはリソース管理部1131によって割り当てられたジョブ21に対応するタスク)を計算するプロセスの過程で、ジョブステータス収集部1337は、コンテナ1333がジョブ21(またはリソース管理部1131によって割り当てられたジョブ21に対応するタスク)を計算しているジョブステータスを収集し、そのジョブステータスに対応するステータス情報26をメトリックファイル1339に記憶する。
ステータス情報26は、以下のものを含んでいてよいがこれに限定されない。各々のコンテナ1333のCPU消費量およびメモリ消費量。
モデル生成部1335は、分散ファイルシステム15から、かつ/またはスレーブ管理部1331からジョブ情報25を取得できる。
分散ファイルシステム15から取得したジョブ情報25は、以下のものを含んでいてよいがこれに限定されない。データサイズ、Map/Reduceの見せかけの数など。スレーブ管理部1331から取得したジョブ情報25は、以下のものを含んでいてよいがこれに限定されない。各々のコンテナによるMap/Reduce計算に関する情報など。メトリックファイル1339から取得した情報は、以下のものを含んでいてよいがこれに限定されない。ステータス情報26、計算プロセス中のハードウェア性能に関する情報など。
入力データサイズおよび全Map/Reduceタスクはその後、分散ファイルシステム15に記憶される。利用可能なノード(すなわち利用可能なスレーブデバイス13)がクラスタコンピューティングシステム1に現れると、ノード名は、利用可能なノード検査部1135bによって受信される。次に、モデル搭載部1135cは、ジョブ名およびノード名に応じて、モデル管理部1137内の対応するリソースフィーチャーモデル23を検索する。
したがって、前述した最適なリソース予測部1135dおよび最適なコンテナ数予測部1135eの動作を通して、ノードのコンテナ構成パラメータ24は、最適なリソースモジュール1135によって推定され、その後、ジョブ管理部1133に伝送されることが可能である。
例えば、モデル統合部は、K平均アルゴリズムを用いてリソースフィーチャーモデルのサンプルを複数のグループに分類してよい。このほか、任意選択として、モデル統合部は、リソースフィーチャーモデルのサンプルをリソースフィーチャーモデルの代表として、各々のグループから選択してよく、要求管理部1137aは、最適なリソースモジュール1135によって伝送されたジョブ名およびノード名に応じて、リソースフィーチャーモデルの代表からリソースフィーチャーモデル23を選択してよい。新たなリソースフィーチャーモデルのサンプルが現れると、グループ決定部は、新たなリソースフィーチャーモデルのサンプルの多様な情報に応じて、その新たなリソースフィーチャーモデルのサンプルを最も適切なグループに追加する。
例えば、ノード統合部は、K平均アルゴリズムを用いてノードを複数のグループに分類してよい。新たなノードが現れると、グループ決定部は、その新たなノードの多様な情報に応じて、最も適切なグループに新たなノードを追加する。このほか、グループモデル生成部は、新たなノードが属するグループ内の訓練データを回収し、サポートベクトル回帰モジュール生成部を用いて新たなノードに対してリソースフィーチャーモデル23を作成し、リソースフィーチャーモデル23を分散ファイルシステム15に記憶する。他の実施形態では、同質ノードエンジン1137dは、同質モデルエンジン1137cと組み合わされてよい。
ジョブ21(またはリソース管理部1131によって割り当てられたジョブ21に対応するタスク)が終了した後、ジョブ情報回収部1335bは、分散ファイルシステム15からジョブ21に対応するジョブ情報25を取得し、メトリックファイル1339から多様な情報(ステータス情報26を含む)を取得する。次に、サポートベクトル回帰モジュール生成部1335cは、リソースフィーチャーモデル23を作成し、これをジョブ情報25およびメトリックファイル1339の多様な情報に応じて分散ファイルシステム15に記憶する。
履歴ジョブ内の単一タスクのCPU使用率は、動作中のMap数およびReduce数で割ったCPU使用率に等しく、履歴ジョブ内の単一タスクのメモリ使用率は、動作中のMap数およびReduce数で割ったメモリ使用率に等しい。ジョブ情報25およびメトリックファイル1339の多様な情報は、以下のものを含んでいてよいが、これに限定されない。入力データサイズ、割り当てられたMapタスク、割り当てられたReduceタスク、割り当てられたMapスロット、割り当てられたReduceスロット、1タスク当たりの平均CPU使用率、1タスク当たりの平均メモリ使用率など。
メトリック集計部1337cは、ハードウェア性能収集部1337aおよびジョブステータス収集部1337bによってメトリックファイル1339内に収集された情報を集計するように構成されている。メトリックファイル1339内に集計された情報は、以下のものを含むが、これに限定されない。割り当てられたMapスロット、割り当てられたReduceスロット、1タスク当たりの平均CPU使用率、1タスク当たりの平均メモリ使用率など。1タスク当たりの平均CPU使用率は、CPU使用率を、計算されているMapタスク数と計算されているリデュース処理されたタスク数との和で割ったものに等しく、1タスク当たりの平均メモリ使用率は、メモリ使用率を、計算されているMapタスク数と動作しているリデュース処理されたタスク数との和で割ったものに等しい。
図7は、クラスタコンピューティングシステム内にあるマスタデバイスおよびスレーブデバイス用のコンピューティング方法を示す概略図である。
ステップS21〜S29を示す順序は、本発明を限定する意図はなく、本発明の精神を逸脱しない限り適切に調整できるものである。
本発明によれば、スレーブデバイスが、スレーブデバイスのデバイス情報をマスタデバイスに伝送し、マスタデバイスによって割り当てられたジョブおよびコンテナ構成パラメータをマスタデバイスから受信し、コンテナ構成パラメータに応じてジョブを計算するために少なくとも1つのコンテナを生成し、ジョブに対応するジョブ情報およびメトリックファイルに応じてリソースフィーチャーモデルを作成する。
Claims (24)
- クラスタコンピューティングシステム用のマスタデバイスであって、
少なくとも1つのスレーブデバイスと接続するように構成されている接続インターフェースと、
前記接続インターフェースに電気接続されているプロセッサであって、前記スレーブデバイスからデバイス情報を受信し、前記デバイス情報およびジョブに応じて前記スレーブデバイスに対するリソースフィーチャーモデルを選択し、前記リソースフィーチャーモデルに応じて前記スレーブデバイスのコンテナ構成パラメータを推定し、前記コンテナ構成パラメータを前記スレーブデバイスへ伝送し、前記スレーブデバイスに前記ジョブを割り当てるように構成されている、プロセッサと、を備える、
マスタデバイス。 - 前記前記クラスタコンピューティングシステムはさらに、分散ファイルシステムを備え、前記マスタデバイスは、前記分散ファイルシステムを前記スレーブデバイスと共有し、前記プロセッサは、前記分散ファイルシステムから前記スレーブデバイスに対するリソースフィーチャーモデルを選択する、請求項1に記載のマスタデバイス。
- 前記プロセッサはさらに、ジョブに対応するジョブ情報を前記分散ファイルシステムに記憶する、請求項2に記載のマスタデバイス。
- 前記リソースフィーチャーモデルは、中央処理装置(CPU)フィーチャーモデルおよびメモリフィーチャーモデルを含み、前記コンテナ構成パラメータは、コンテナ数およびコンテナ仕様を含み、前記コンテナ仕様は、CPU仕様およびメモリ仕様を含む、請求項1に記載のマスタデバイス。
- 前記プロセッサは、対応するリソースフィーチャーモデル、同様のリソースフィーチャーモデルおよび事前設定されたリソースフィーチャーモデルのうちの1つを、前記リソースフィーチャーモデルとして選択し、前記対応するリソースフィーチャーモデルは、前記同様のリソースフィーチャーモデルに対して優先的に選択され、前記同様のリソースフィーチャーモデルは、前記事前設定されたリソースフィーチャーモデルに対して優先的に選択される、請求項1に記載のマスタデバイス。
- 前記プロセッサはさらに、複数のリソースフィーチャーモデルのサンプルを複数のグループに分類し、リソースフィーチャーモデルのサンプルを各々の前記グループからリソースフィーチャーモデルの代表として選択し、前記スレーブデバイスに対するリソースフィーチャーモデルを前記リソースフィーチャーモデルの代表から選択する、請求項1に記載のマスタデバイス。
- クラスタコンピューティングシステム用のスレーブデバイスであって、
マスタデバイスと接続するように構成されている接続インターフェースと、
前記接続インターフェースに電気接続されているプロセッサであって、デバイス情報を前記マスタデバイスに伝送し、前記マスタデバイスによって割り当てられたジョブおよびコンテナ構成パラメータを前記マスタデバイスから受信し、前記コンテナ構成パラメータに応じて前記ジョブを計算するために少なくとも1つのコンテナを生成し、ジョブに対応するジョブ情報およびメトリックファイルに応じてリソースフィーチャーモデルを作成するように構成されている、プロセッサと、を備える、
スレーブデバイス。 - 前記クラスタコンピューティングシステムはさらに、分散ファイルシステムを備え、前記マスタデバイスは、前記分散ファイルシステムを前記スレーブデバイスと共有し、前記プロセッサは、前記リソースフィーチャーモデルを前記分散ファイルシステム内に作成する、請求項7に記載のスレーブデバイス。
- 前記プロセッサはさらに、前記分散ファイルシステムから前記ジョブ情報を取得する、請求項8に記載のスレーブデバイス。
- 前記プロセッサはさらに、前記コンテナが前記ジョブを計算しているジョブステータスを収集し、該ジョブステータスに対応するステータス情報を前記メトリックファイルに記憶する、請求項7に記載のスレーブデバイス。
- 前記リソースフィーチャーモデルは、CPUフィーチャーモデルおよびメモリフィーチャーモデルを含み、前記コンテナ構成パラメータは、コンテナ数およびコンテナ仕様を含み、前記コンテナ仕様は、CPU仕様およびメモリ仕様を含む、請求項7に記載のスレーブデバイス。
- 前記プロセッサは、サポートベクトル回帰モジュール生成部を使用して、前記ジョブ情報および前記メトリックファイルに応じてリソースフィーチャーモデルを作成する、請求項7に記載のスレーブデバイス。
- クラスタコンピューティングシステム内にあるマスタデバイスに対するコンピューティング方法であって、前記マスタデバイスは、接続インターフェースおよびプロセッサを備え、前記接続インターフェースは、少なくとも1つのスレーブデバイスと接続するように構成されているコンピューティング方法において、
(A)前記スレーブデバイスのデバイス情報を前記プロセッサで受信するステップと、
(B)前記スレーブデバイスに対するリソースフィーチャーモデルを、前記デバイス情報およびジョブに応じて前記プロセッサによって選択するステップと、
(C)前記スレーブデバイスのコンテナ構成パラメータを、前記リソースフィーチャーモデルに応じて前記プロセッサによって推定するステップと、
(D)前記プロセッサによって前記コンテナ構成パラメータを前記スレーブデバイスに伝送するステップと、
(E)前記プロセッサによって前記スレーブデバイスに前記ジョブを割り当てるステップとを含む、
コンピューティング方法。 - 前記クラスタコンピューティングシステムはさらに、分散ファイルシステムを備え、前記マスタデバイスは、前記分散ファイルシステムを前記スレーブデバイスと共有し、前記ステップ(B)は、前記デバイス情報および前記ジョブに応じて、前記スレーブデバイスに対するリソースフィーチャーモデルを前記分散ファイルシステムから前記プロセッサによって選択することを含む、請求項13に記載のコンピューティング方法。
- (F)前記ジョブに対応するジョブ情報を、前記プロセッサによって前記分散ファイルシステム内に記憶するステップをさらに含む、請求項14に記載のコンピューティング方法。
- 前記リソースフィーチャーモデルは、CPUフィーチャーモデルおよびメモリフィーチャーモデルを含み、前記コンテナ構成パラメータは、コンテナ数およびコンテナ仕様を含み、前記コンテナ仕様は、CPU仕様およびメモリ仕様を含む、請求項13に記載のコンピューティング方法。
- 前記ステップ(B)は、対応するリソースフィーチャーモデル、同様のリソースフィーチャーモデルおよび事前設定されたリソースフィーチャーモデルのうちの1つを、前記プロセッサによってデバイス情報および前記ジョブに応じて、前記スレーブデバイスに対するリソースフィーチャーモデルとして選択することを含み、前記対応するリソースフィーチャーモデルは、前記同様のリソースフィーチャーモデルに対して優先的に選択され、前記同様のリソースフィーチャーモデルは、前記事前設定されたリソースフィーチャーモデルに対して優先的に選択される、請求項13に記載のコンピューティング方法。
- 前記ステップ(B)は、複数のリソースフィーチャーモデルのサンプルを前記プロセッサによって複数のグループに分類することと、前記プロセッサによって、リソースフィーチャーモデルのサンプルを各々の前記グループからリソースフィーチャーモデルの代表として選択することと、前記スレーブデバイスに対するリソースフィーチャーモデルを、前記プロセッサによってデバイス情報および前記ジョブに応じて、前記リソースフィーチャーモデルの代表から選択することとを含む、請求項13に記載のコンピューティング方法。
- クラスタコンピューティングシステム内にあるスレーブデバイスに対するコンピューティング方法であって、前記スレーブデバイスは、接続インターフェースおよびプロセッサを備え、前記接続インターフェースは、マスタデバイスと接続するように構成されているコンピューティング方法において、
(A)前記プロセッサによってデバイス情報を前記マスタデバイスに伝送するステップと、
(B)前記マスタデバイスによって割り当てられたジョブおよびコンテナ構成パラメータを、前記プロセッサによって前記マスタデバイスから受信するステップと、
(C)前記プロセッサによって前記コンテナ構成パラメータに応じて前記ジョブを計算するために、少なくとも1つのコンテナを生成するステップと、
(D)ジョブに対応するジョブ情報およびメトリックファイルに応じて、前記プロセッサによってリソースフィーチャーモデルを作成するステップとを含む、
コンピューティング方法。 - 前記クラスタコンピューティングシステムはさらに、分散ファイルシステムを備え、前記マスタデバイスは、前記分散ファイルシステムを前記スレーブデバイスと共有し、前記ステップ(D)は、前記プロセッサによって前記ジョブ情報および前記メトリックファイルに応じて、前記リソースフィーチャーモデルを前記分散ファイルシステム内に作成することを含む、請求項19に記載のコンピューティング方法。
- (E)前記プロセッサによって前記ジョブ情報を前記分散ファイルシステムから取得するステップをさらに含む、請求項20に記載のコンピューティング方法。
- (F)前記コンテナが前記ジョブを計算しているジョブステータスを収集し、該ジョブステータスに対応するステータス情報を前記プロセッサによって前記メトリックファイル内に記憶するステップをさらに含む、請求項19に記載のコンピューティング方法。
- 前記リソースフィーチャーモデルは、CPUフィーチャーモデルおよびメモリフィーチャーモデルを含み、前記コンテナ構成パラメータは、コンテナ数およびコンテナ仕様を含み、前記コンテナ仕様は、CPU仕様およびメモリ仕様を含む、請求項19に記載のコンピューティング方法。
- 前記ステップ(D)は、前記プロセッサによってサポートベクトル回帰モジュール生成部を使用して、前記ジョブ情報および前記メトリックファイルに応じてリソースフィーチャーモデルを作成する、請求項19に記載のコンピューティング方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103129437A TWI510931B (zh) | 2014-08-27 | 2014-08-27 | 用於一叢集運算系統之主裝置、從屬裝置及其運算方法 |
TW103129437 | 2014-08-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016048536A true JP2016048536A (ja) | 2016-04-07 |
JP6001690B2 JP6001690B2 (ja) | 2016-10-05 |
Family
ID=55402666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015000221A Active JP6001690B2 (ja) | 2014-08-27 | 2015-01-05 | クラスタコンピューティングシステム用のマスタデバイス、スレーブデバイスおよびそのコンピューティング方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20160062929A1 (ja) |
JP (1) | JP6001690B2 (ja) |
CN (1) | CN105511955A (ja) |
TW (1) | TWI510931B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190061241A (ko) * | 2017-11-27 | 2019-06-05 | 주식회사 비디 | 리소스 통합관리를 위한 메소스 처리 장치 및 방법 |
JP7459014B2 (ja) | 2021-05-18 | 2024-04-01 | トヨタ自動車株式会社 | コンテナ管理装置、及びコンテナ管理プログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9672064B2 (en) * | 2015-07-13 | 2017-06-06 | Palo Alto Research Center Incorporated | Dynamically adaptive, resource aware system and method for scheduling |
US10733023B1 (en) * | 2015-08-06 | 2020-08-04 | D2Iq, Inc. | Oversubscription scheduling |
CN107885595B (zh) * | 2016-09-30 | 2021-12-14 | 华为技术有限公司 | 一种资源分配方法、相关设备及系统 |
TWI641951B (zh) * | 2017-11-20 | 2018-11-21 | 宏碁股份有限公司 | 動態分派工作及提供資源的方法、裝置及其系統 |
EP3882771B1 (en) * | 2020-03-16 | 2024-09-11 | Leica Microsystems CMS GmbH | Control system and method for operating a system |
TWI742774B (zh) * | 2020-07-22 | 2021-10-11 | 財團法人國家實驗研究院 | 運算系統及其主機資源分配方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009057208A1 (ja) * | 2007-10-31 | 2009-05-07 | Fujitsu Limited | 資源割当プログラム、管理ノード、資源割当方法、および並列計算機システム |
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013534334A (ja) * | 2010-07-26 | 2013-09-02 | アリババ・グループ・ホールディング・リミテッド | 照会結果をソートするための方法および装置 |
US20140122546A1 (en) * | 2012-10-30 | 2014-05-01 | Guangdeng D. Liao | Tuning for distributed data storage and processing systems |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8458691B2 (en) * | 2004-04-15 | 2013-06-04 | International Business Machines Corporation | System and method for dynamically building application environments in a computational grid |
US8230070B2 (en) * | 2007-11-09 | 2012-07-24 | Manjrasoft Pty. Ltd. | System and method for grid and cloud computing |
-
2014
- 2014-08-27 TW TW103129437A patent/TWI510931B/zh active
- 2014-09-24 CN CN201410494012.4A patent/CN105511955A/zh active Pending
- 2014-10-20 US US14/518,411 patent/US20160062929A1/en not_active Abandoned
-
2015
- 2015-01-05 JP JP2015000221A patent/JP6001690B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009057208A1 (ja) * | 2007-10-31 | 2009-05-07 | Fujitsu Limited | 資源割当プログラム、管理ノード、資源割当方法、および並列計算機システム |
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013534334A (ja) * | 2010-07-26 | 2013-09-02 | アリババ・グループ・ホールディング・リミテッド | 照会結果をソートするための方法および装置 |
US20140122546A1 (en) * | 2012-10-30 | 2014-05-01 | Guangdeng D. Liao | Tuning for distributed data storage and processing systems |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190061241A (ko) * | 2017-11-27 | 2019-06-05 | 주식회사 비디 | 리소스 통합관리를 위한 메소스 처리 장치 및 방법 |
KR102014246B1 (ko) | 2017-11-27 | 2019-10-21 | 주식회사 비디 | 리소스 통합관리를 위한 메소스 처리 장치 및 방법 |
JP7459014B2 (ja) | 2021-05-18 | 2024-04-01 | トヨタ自動車株式会社 | コンテナ管理装置、及びコンテナ管理プログラム |
Also Published As
Publication number | Publication date |
---|---|
TWI510931B (zh) | 2015-12-01 |
JP6001690B2 (ja) | 2016-10-05 |
US20160062929A1 (en) | 2016-03-03 |
TW201608382A (zh) | 2016-03-01 |
CN105511955A (zh) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6001690B2 (ja) | クラスタコンピューティングシステム用のマスタデバイス、スレーブデバイスおよびそのコンピューティング方法 | |
US10635664B2 (en) | Map-reduce job virtualization | |
CN110301128B (zh) | 基于学习的资源管理数据中心云架构的实现方法 | |
TWI547817B (zh) | 叢集運算架構的資源規劃方法、系統及裝置 | |
CN116501683A (zh) | 用于协调解聚的加速器装置资源的技术 | |
WO2017186123A1 (en) | System and method for distributed resource management | |
US8739169B2 (en) | Method for monitoring operating experiences of images to improve workload optimization in cloud computing environments | |
WO2019001319A1 (en) | CLOUD RESOURCE MANAGEMENT WITHOUT ANY AGENT | |
US20140282540A1 (en) | Performant host selection for virtualization centers | |
US12026536B2 (en) | Rightsizing virtual machine deployments in a cloud computing environment | |
US20160048413A1 (en) | Parallel computer system, management apparatus, and control method for parallel computer system | |
US9699109B1 (en) | Assessing performance of networked computing environments | |
KR101656706B1 (ko) | 고성능 컴퓨팅 환경에서의 작업 분배 시스템 및 방법 | |
CN110688213A (zh) | 一种基于边缘计算的资源管理方法、系统及电子设备 | |
US8819239B2 (en) | Distributed resource management systems and methods for resource management thereof | |
US10892940B2 (en) | Scalable statistics and analytics mechanisms in cloud networking | |
KR20190061247A (ko) | 빅데이터 처리 플랫폼의 실시간 자원 사용률 모니터링 시스템 | |
Wadhwa et al. | iez: Resource contention aware load balancing for large-scale parallel file systems | |
CN112000460A (zh) | 一种基于改进贝叶斯算法的服务扩缩容的方法及相关设备 | |
WO2016084327A1 (ja) | 資源予測装置、資源予測方法、資源予測プログラムおよび分散処理システム | |
Guo | Ant colony optimization computing resource allocation algorithm based on cloud computing environment | |
RU2015109182A (ru) | Способ и система интеллектуального управления распределением ресурсов в облачных вычислительных средах | |
Shinwari et al. | Auto scalable big data as-a-service in the cloud: a literature review | |
CN111158847A (zh) | 一种开源信息采集虚拟主机资源调度方法和系统 | |
US20240354150A1 (en) | Rightsizing virtual machine deployments in a cloud computing environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6001690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |