JP2012032990A - 複合型資源管理システム - Google Patents
複合型資源管理システム Download PDFInfo
- Publication number
- JP2012032990A JP2012032990A JP2010171755A JP2010171755A JP2012032990A JP 2012032990 A JP2012032990 A JP 2012032990A JP 2010171755 A JP2010171755 A JP 2010171755A JP 2010171755 A JP2010171755 A JP 2010171755A JP 2012032990 A JP2012032990 A JP 2012032990A
- Authority
- JP
- Japan
- Prior art keywords
- server
- gccs
- servers
- traffic
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】本発明は、複数のサーバとルータを組み合わせることにより、全体としての処理やトラヒックの負荷を効率的に分散することができる負荷分散システムの提供を目的とする。
【解決手段】 通信可能な状態で互いに接続された複数のサーバと、該サーバに通信可能な状態に接続されたルータとを備えるサーバ群が複数存在し、各サーバ群の間において、各サーバが互いに通信可能な状態に接続されるとともに、各ルータが互いに通信可能な状態で接続される。某サーバ群において多量の処理を行う場合、他のサーバ群において当該処理を分散して行い、某サーバ群において多量のトラヒックがある場合、他のサーバ群のルータにおいて当該トラヒックを分散して行うことを特徴とする。
【選択図】図1
【解決手段】 通信可能な状態で互いに接続された複数のサーバと、該サーバに通信可能な状態に接続されたルータとを備えるサーバ群が複数存在し、各サーバ群の間において、各サーバが互いに通信可能な状態に接続されるとともに、各ルータが互いに通信可能な状態で接続される。某サーバ群において多量の処理を行う場合、他のサーバ群において当該処理を分散して行い、某サーバ群において多量のトラヒックがある場合、他のサーバ群のルータにおいて当該トラヒックを分散して行うことを特徴とする。
【選択図】図1
Description
本発明は、ネットワークに接続された複数のクライアントに対しサービスを提供する複数のサーバとルータの負荷を分散する俯瞰分散システムに関する。
従来、ネットワーク上のコンピュータリソースを融通し合って、仮想的に高性能のコンピュータを構成したり、柔軟に資源配分を行ったりできるようにする負荷分散システムが知られている。
この負荷分散システムは、一般には図5に示すように、一つのルータに対して複数のサーバが接続されており、当該複数のサーバの間で負荷分散されていた。そして、大規模なシステムの場合には、このような負荷分散システムが複数群設けられるものであった。
例えば、特許文献1には、グリッドコンピューティングシステムのミドルウェアに、データベースを特定するjobIDと、データベースを共有可能なユーザのuserIDとを対応付けて記憶するデータベース共有情報記憶手段43と、一のユーザが、他のユーザが使用するデータベースのjobIDを指定してジョブを投入した際に、データベース共有情報記憶手段43を検索し、他のユーザが使用するデータベースのjobIDに対応するuserIDに一のユーザのuserIDが含まれる場合に、一のユーザが投入したジョブの実行時に、他のユーザが使用するデータベースへの接続を設定するデータ処理装置5と、を備えたものが開示されている。
また、特許文献2には、クライアントの端末アプリケーションが起動されてサーバ決定が依頼されると、サーバ情報ファイルから、レスポンス時間が最短で、かつCPU使用率が最も低いサーバを検索して、クライアントに通知する通信経路変換装置5を設けて、クライアントが検索されたサーバに対して発行した接続要求にもとづいて、該サーバがクライアントを接続して通信を開始可能にするものが開示されている。
しかしながら、従来の負荷分散システムによると、一つのサーバ群(例えばサーバ群A)において処理量が限界に達するとそれ以上は処理を制限せざるを得ない一方、他のサーバ群(例えばサーバ群B)ではリソースに余裕があるなどして、サーバの負荷分散を効率的に行えていなかった。
また、一つのサーバ群(例えばサーバ群A)においてルータのトラヒック量が限界に達すると通信を制限せざるを得ない一方、他のサーバ群(例えばサーバ群B)では処理に余裕があるなどして、ルータの負荷分散を効率的に行えていなかった。
すなわち、従来の負荷分散システムは、単に一つのサーバ群においてのみサーバの処理やルータのトラヒックの負荷を分散しているにすぎなかった。
なお、特許文献3,4には、サーバに複数のルータを設けるシステムが開示されているが、あくまでも単一のサーバに対するトラヒック量の負荷を分散するものである。このためサーバごとに常に複数のルータを設けなければならず、使用していないルータが常時存在することから無駄が多く、装置構成のコスト高を招くものであった。
本発明は、上述の問題に鑑みてなされたものであって、複数のサーバとルータを組み合わせることにより、サーバやルータの資源を効率的に管理する複合型資源管理システムの提供を目的とする。
本発明は、上記目的を達成するために、サーバやルータの負荷を分散するための複合型資源管理システムであって、通信可能な状態で互いに接続された複数のサーバと、該サーバに通信可能な状態に接続されたルータとを備えるサーバ群が複数存在し、各サーバ群の間において、各サーバが互いに通信可能な状態に接続されるとともに、各ルータが互いに通信可能な状態で接続され、某サーバ群において多量の処理を行う場合、他のサーバ群において当該処理を分散して行い、某サーバ群において多量のトラヒックがある場合、他のサーバ群のルータにおいて当該トラヒックを分散して行うことを特徴とする。
また、前記各サーバ群における前記サーバと前記ルータと通信可能な状態に設けられたコントロールサーバを備え、該コントロールサーバは、某サーバ群において多量の処理を行う場合、某サーバ群のサーバからリソースオーバー通知を受けたあと、他のサーバ群のサーバのリソース状況を確認して、リソースに余裕のあるサーバ群のサーバにおいて処理を分散して行わせ、某サーバ群において多量のトラヒックがある場合、某サーバ群のルータからトラヒックオーバー通知を受けたあと、他のサーバ群のルータのトラヒック状況を確認して、トラヒックに余裕のあるサーバ群においてトラヒックを分散して行わせるのが好ましい。
また、前記ルータは、前記サーバと同様にCPU、メモリ、通信制御部、WAN制御部およびLAN制御部から構成されるのが好ましい。
本発明によれば、個々のサーバー・ルータの使用率(CPU・MM・GPU)を総合管理し運用することにより、個々のサーバーが一つの高性能サーバーとして運用できる。また、ルータの回線制御を総合管理することにより、個々の回線が一つの高速回線と同じ処理が出来る。そして、大型サーバーを設置することなく、小型サーバーを統合することにより大型サーバーを設置したのと同様の性能を利用できる。このようにサーバーとルータを効率よく運用することにより、個々のサーバー・ルータが機能増設することなく、他サーバー・ルータの空いているリソースを利用し仮想的に性能を上げることができ、全体としての処理やトラヒックの負荷を効率的に分散することができる。この結果、一台のサーバーでは処理時間がかかっていたジョブを他のサーバーを仮想的に利用することで大幅に処理時間を短縮することができる。
次に本発明の一実施形態に係る複合型資源管理システム(以下、本システムという)について、図面を参照しつつ説明する。
本システムは、図1に示すように、複数のサーバ群A、Bから構成される。なお、図1では紙面の関係上、サーバ群A,Bのみ図示しているが、実際にはそれ以上のサーバ群から構成される場合が多い。
このサーバ群Aは、通信可能な状態で互いに接続された複数のサーバと、該サーバに通信可能な状態に接続されたルータとを備える。また、各サーバ群A、Bの間において、各サーバが互いに通信可能な状態に接続されるとともに、各ルータが互いに通信可能な状態で接続されている。
そして、某サーバ群において多量の処理を行う場合、他のサーバ群において当該処理を分散して行う。また、某サーバ群において多量のトラヒックがある場合、他のサーバ群のルータにおいて当該トラヒックを分散して行う。この動作について後に詳述することとする。
前記サーバは、図2に示すように、LAN制御、CPU、MM,DISKおよびGPU
などから構成される。このLAN(Local Area Network)制御は、他のサーバやルータのLAN制御とのローカルアドレスを使用して通信を行う。CPU(Central Processing Unit:中央演算装置)はDISKからMMに読み込んだプログラムを実行し、各LAN制御・GPPU・DISKを制御する。MM(Main Memory:主記憶装置)は実行プログラムの格納や処理データーの格納処理を行う。DISK(Disk Drive)は、プログラムやデーターを格納保存を行う。このDISKは、装置全体を制御するオペレーティングシステムであるLinux、ホームページ・アプリケーションであってデーターベースの制御プログラムであるWEB・AP・DB制御、装置内のリソース管理や、他のサーバやルータのGCCS−Sの管理、GCCSーMとのの制御情報管理を行うGCCS−Sからなる。GPU(Graphics Processing Unit)は、画面制御や画像処理制御を行う。
などから構成される。このLAN(Local Area Network)制御は、他のサーバやルータのLAN制御とのローカルアドレスを使用して通信を行う。CPU(Central Processing Unit:中央演算装置)はDISKからMMに読み込んだプログラムを実行し、各LAN制御・GPPU・DISKを制御する。MM(Main Memory:主記憶装置)は実行プログラムの格納や処理データーの格納処理を行う。DISK(Disk Drive)は、プログラムやデーターを格納保存を行う。このDISKは、装置全体を制御するオペレーティングシステムであるLinux、ホームページ・アプリケーションであってデーターベースの制御プログラムであるWEB・AP・DB制御、装置内のリソース管理や、他のサーバやルータのGCCS−Sの管理、GCCSーMとのの制御情報管理を行うGCCS−Sからなる。GPU(Graphics Processing Unit)は、画面制御や画像処理制御を行う。
前記ルータは、図3に示すように、モデム、WAN、CPU、MM、SSD、GPU、LANなどから構成される。このモデム(Modem)は、WAN制御から送られてくるデジタルデーターを音声信号に変換して通信回線に送ったり、通信回線から送られてくる音声信号をデジタルデーターに変換しWAN制御に送る機器である。WAN(Wide Area Network)制御はモデムから送られてくるデジタルデーターを自己のデーターか判断(IPアドレス)し、自己のデーターであればCPUに従い、BUS経由でMMにデーターを送ったり。CPUに従いMMやSSDからのデーターをBUS経由で受けてデジタルデーターとしてモデムに送る。CPU(Central Processing Unit:中央演算装置)は、SDからMMに読み込んだプログラムを実行し、各WAN制御・GPU・LAN制御・SSDを制御する。MM(Main Memory:主記憶装置)は、実行プログラムの格納や処理データーの格納処理を行う。SSD(Solid State Drive)は、プログラムやデーターを格納保存を行う。このSSDは、装置全体を制御するオペレーティングシステムLinux、WAN・LANの通信制御とLANに接続されるサーバー機器などの制御制御(ローカルアドレス管理)を行う通信制御、装置内のリソース管理や、他装置のGCCS−Rの管理、GCCS−Mとの制御情報管理を行うGCCS−Rからなる。GPU(Graphics Processing Unit)は、画面制御や画像処理制御を行う。LAN(Local Area Network)制御は、他のサーバやルータのLAN制御とのローカルアドレスを使用して通信を行う。このようにルータをサーバによって構成することができる。
また、本実施形態では、前記各サーバ群における前記サーバと前記ルータと通信可能な状態に設けられたコントロールサーバが設けられている。
前記コントロールサーバは、某サーバ群において多量の処理を行う場合、某サーバ群のサーバからリソースオーバー通知を受けたあと、他のサーバ群のサーバのリソース状況を確認して、リソースに余裕のあるサーバ群のサーバにおいて処理を分散して行わせる機能を有する。また、某サーバ群において多量のトラヒックがある場合、某サーバ群のルータからトラヒックオーバー通知を受けたあと、他のサーバ群のルータのトラヒック状況を確認して、トラヒックに余裕のあるサーバ群においてトラヒックを分散して行わせる機能を有する。この動作については後に詳述することとする。
前記コントロールサーバは、図4に示すように、CPU、MM、SSD、GPU、LANなどから構成される。このLAN(Local Area Network)制御は、他のサーバやLAN制御とのローカルアドレスを使用して通信を行う。また、CPU(Central Processing Unit:中央演算装置)はDISKからMMに読み込んだプログラムを実行し、各LAN制御・GPU・DISKを制御する。MM(Main Memory:主記憶装置)は実行プログラムの格納や処理データーの格納処理を行う。DISK(Disk Drive)はプログラムやデーターを格納保存を行う。このDISKは、装置全体を制御するオペレーティングシステムであるLinux、ホームページ・アプリケーションであってデーターベースの制御プログラムであるWEb・AP・DB制御、装置内のリソース管理や、他装置のGCCS−Sの管理、GCCS−Mとの制御情報管理を行うGCCS−Sからなる。GPU(Graphics Processing Unit)は画面制御や画像処理制御を行う。
次に本システムの動作について説明する。
図1に示すように、サーバーA群に於いてサーバーA−1はGCCS−Sオペレーティングシステムにより、サーバーA−1内のリソース(CPU・MM・GPUの使用率)を監視し、リソースの空き状況をコントロールサーバーのGCCS−Mに通知すると共に、サーバーA群内のサーバーA−2・A−3のGCCS−Sにも通知する。
同様に、サーバーA−2のGCCS−Sオペレーティングシステムにより、リソースの空き状況をコントロールサーバーのGCCS−Mに通知すると共に、サーバーA群内のサーバーA−1・A−3のGCCS−Sにも通知する。
サーバーA−3もGCCS−Sオペレーティングシステムにより、リソースの空き状況をコントロールサーバーのGCCS−Mに通知すると共に、サーバーA群内のサーバーA−1・A−2のGCCS−Sにも通知する。
これにより、サーバーA群内でのリソースの空き状況をサーバーA−1・A−2・A−3間で監視し、必要時にいつでも他リソースを利用できリソースの有効活用が出来る。
また、ルータAはGCCS−Rオペレーティングシステムにより、ルータ内のリソースを監視しコントロールサーバーのGCCS−Mにリソースの空き状況を通知するとともに、通信制御の通信回線トラヒック状況をコントロールサーバーのGCCS−Mに通知する。
これにより、サーバーA−1・A−2・A−3は自己の回線使用率に合わせた通信回線の確保を、コントロールサーバーのGCCS−Mが制御することにより行われる。これらの機能は、サーバーB群・ルータBに於いても同様に、リソースの監視と通信回線の監視を行う。
また、ジョブの実行に関して、サーバーA群内のサーバーA−1に於いて画像処理等で多量のデーターや処理を行う場合、サーバーA−1はGCCS−Sの機能により、大きなデーターを他サーバーに分散して処理を行う機能と、大きな処理(ジョブ)を小さな単位(タスク)に分割して、他サーバーに分散し並列処理する機能がある。
これらの機能により、サーバーA−1に於いて大きな処理を行う場合、サーバーA−1は、コントロールサーバーのGCCS−Mに対しリソースオーバー通知を行う。コントロールサーバーGCCS−Mは、サーバーA−2・A−3のリソース状況を確認し、リソースの空いているサーバーGCCS−Sに利用通知を出すと共に、サーバーA−1のGCCS−Sに使用許可を出す。
コントロールサーバーGCCS−Mから使用通知をもらったサーバーA−1のGCCS−Sは、使用許可の出たサーバーA−2・A−3のGCCS−Sに使用通知を出し、ジョブを分割化したタスク処理の一つをサーバーA−1・A−2のGCCS−Sに渡しタスクの実行指示を行う。タスク処理を受けたサーバーA−1・A−2のGCCS−Sはタスクの実行を行い、進捗状況をサーバーA−1のGCCS−Sに通知すると共にコントロールサーバーのGCCS−Mにも通知する。
サーバーA−1は、GCCS−Sによりジョブの進行状況の管理とサーバーA−2・A−3に渡したタスク処理の進捗状況の管理を行う。サーバーA−1のGCCS−Sは、自己のタスクの進捗状況とサーバーA−2・A−3のGCCS−Sからタスクの進捗状況の通知を受け、すべてのタスク完了通知を受けてジョブの処理完了となり、サーバーA−2・A−3のGCCS−SとコントロールサーバーのGCCS−Mに完了通知を行う。完了通知を受けたサーバーA−2・A−3はリソースの解放となり、コントロールサーバーのGCCS−Mに新たに空きリソース状況を通知する。
ところで、サーバーA−1の処理が、サーバーA群内の空きリソースだけでは処理能力が不足する場合には、サーバーA群の処理と同時に、サーバーB群の空きリソースも利用可能になっている。ただし、本実施形態では、利用に際してはコントロールサーバー経由での利用に限られ、直接サーバーB群のサーバーB−1・B−2・B−3に指示を出せないようになっている。
サーバーB群を利用する際には、サーバーA−1のGCCS−Sは、コントロールサーバーのGCCS−Mに使用通知を出し、コントロールサーバーのGCCS−Mから使用許可を受けて、サーバーA−1のGCCS−Sは、コントロールサーバーのGCCS−Mにタスク処理を依頼する。
コントロールサーバーGCCS−Mは、空きリソースの通知のあったサーバーB−1・B−2・B−3のGCCS−Sに使用通知を出し、サーバーA−1のジョブの分割化されたタスク処理の一つをサーバーB−1・B−2・B−3に渡しタスクの実行指示を行う。
サーバーB−1・B−2・B−3のGCCS−Sはタスクの実行と進捗状況を、コントロールサーバーのGCCS−Mに通知する。コントロールサーバーのGCCS−Mは、サーバーB−1・B−2・B−3のGCCS−Sからタスクの進捗状況を受けると、サーバーA−1のGCCS−Sにタスクの進捗状況の通知を行う。
サーバーA−1のGCCS−Sは、自己のタスクの実行完了とサーバーA−2・A−3のGCCS−SとコントロールサーバーのGCCS−Mからタスクの実行完了(サーバーB−1・B−2・B−3のタスクの実行完了)の通知を受けて、すべてのタスク実行完了としてジョブの処理完了となり、サーバーA−2・A−3のGCCS−SとコントロールサーバーのGCCS−Mにジョブの完了通知を行う。
コントロールサーバーのGCCS−Mは、サーバーA−1のGCCS−Sから完了通知を受け、各サーバーB−1・B−2・B−3のGCCS−Sに完了通知を行う。完了通知を受けたサーバーA−2・A−3・B−1・B−2・B−3はリソースの解放となり、コントロールサーバーのGCCS−Mに新たに空きリソース状況を通知する。
コントロールサーバーGCCS−Mは、サーバー群単位での空きリソースやタスク処理の管理制御を行い、サーバー群が増えた場合でもコントロールサーバーのGCCS−Mにてサーバー群単位での空きリソースやタスク処理の管理制御を行う。
この機能は、ルータAとルータB間でも同じことが出来、ルータAのGCCS−Rは、通信制御の通信回線使用状況(トラヒック)をコントロールサーバーのGCCS−Mに通知する。同様にルータBのGCCS−Rは、通信制御のトラヒックをコントロールサーバーのGCCS−Mに通知する。
ルータAのトラヒックがオーバーする場合、ルータAのGCCS−RはコントロールサーバーのGCCS−Mにトラヒックオーバー通知を行う。コントロールサーバーのGCCS−Mは、ルータBのGCCS−Rに通信回線の空きが有るか確認通知を出す。ルータBに空きがある場合、ルータBのGCCS−Rより、コントロールサーバーのGCCS−Mに対しトラヒックに空きがあることを通知する。コントロールサーバーのGCCS−Mは、ルータBのGCCS−Rに通信回線の使用通知を出す。
このようにルーターAは、ルータBの通信回線の空きを利用し通信回線のトラヒックオーバーを回避する。
A−1、2、3…サーバA群のサーバ
B−1、2、3…サーバB群のサーバ
M…コントロールサーバ
B−1、2、3…サーバB群のサーバ
M…コントロールサーバ
Claims (3)
- 複数のサーバやルータの資源を管理するであって、
通信可能な状態で互いに接続された複数のサーバと、該サーバに通信可能な状態に接続されたルータとを備えるサーバ群が複数存在し、
各サーバ群の間において、各サーバが互いに通信可能な状態に接続されるとともに、各ルータが互いに通信可能な状態で接続され、
某サーバ群において多量の処理を行う場合、他のサーバ群において当該処理を分散して行い、
某サーバ群において多量のトラヒックがある場合、他のサーバ群のルータにおいて当該トラヒックを分散して行うことを特徴とする複合型資源管理システム。 - 前記各サーバ群における前記サーバと前記ルータと通信可能な状態に設けられたコントロールサーバを備え、
該コントロールサーバは、某サーバ群において多量の処理を行う場合、某サーバ群のサーバからリソースオーバー通知を受けたあと、他のサーバ群のサーバのリソース状況を確認して、リソースに余裕のあるサーバ群のサーバにおいて処理を分散して行わせ、
某サーバ群において多量のトラヒックがある場合、某サーバ群のルータからトラヒックオーバー通知を受けたあと、他のサーバ群のルータのトラヒック状況を確認して、トラヒックに余裕のあるサーバ群においてトラヒックを分散して行わせる請求項1に記載の複合型資源管理システム。 - 前記ルータは、前記サーバと同様にCPU、メモリ、通信制御部、WAN制御部およびLAN制御部から構成される請求項1または請求項2に記載の複合型資源管理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171755A JP2012032990A (ja) | 2010-07-30 | 2010-07-30 | 複合型資源管理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171755A JP2012032990A (ja) | 2010-07-30 | 2010-07-30 | 複合型資源管理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012032990A true JP2012032990A (ja) | 2012-02-16 |
Family
ID=45846329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010171755A Pending JP2012032990A (ja) | 2010-07-30 | 2010-07-30 | 複合型資源管理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012032990A (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006227963A (ja) * | 2005-02-18 | 2006-08-31 | Fujitsu Ltd | 多段負荷分散装置、方法及びプログラム |
JP2007094465A (ja) * | 2005-09-27 | 2007-04-12 | Cns:Kk | 負荷分散システムおよび方法並びにプログラム |
-
2010
- 2010-07-30 JP JP2010171755A patent/JP2012032990A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006227963A (ja) * | 2005-02-18 | 2006-08-31 | Fujitsu Ltd | 多段負荷分散装置、方法及びプログラム |
JP2007094465A (ja) * | 2005-09-27 | 2007-04-12 | Cns:Kk | 負荷分散システムおよび方法並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170031622A1 (en) | Methods for allocating storage cluster hardware resources and devices thereof | |
US9384058B2 (en) | Method for executing virtual application delivery controllers having different application versions over a computing device | |
WO2013163865A1 (zh) | 虚拟机热迁移和部署的方法、服务器及集群系统 | |
JP2008226181A (ja) | 並列実行プログラム、該プログラムを記録した記録媒体、並列実行装置および並列実行方法 | |
KR20070006906A (ko) | Hpc 환경에서의 토폴로지-인식 작업 스케쥴링 및백필링을 위한 시스템 및 방법 | |
JP2009532771A (ja) | 複数のコンピュータシステムによるプログラムの実行を管理する方法及びシステム | |
US9819626B1 (en) | Placement-dependent communication channels in distributed systems | |
KR20110083084A (ko) | 가상화를 이용한 서버 운영 장치 및 방법 | |
WO2013117079A1 (zh) | 一种虚拟机负载均衡方法、管理模块及虚拟机集群系统 | |
CN113886089A (zh) | 一种任务处理方法、装置、系统、设备及介质 | |
KR20110109074A (ko) | 그리드 컴퓨팅 시스템 및 그리드 컴퓨팅 서비스 제공방법 | |
WO2022271223A9 (en) | Dynamic microservices allocation mechanism | |
WO2005116832A1 (ja) | 分散処理環境におけるジョブの実行を制御するためのコンピュータシステム、方法及びプログラム | |
JP5151509B2 (ja) | 仮想マシンシステム及びそれに用いる仮想マシン分散方法 | |
JP2008107966A (ja) | 計算機システム | |
Megino et al. | Managing the atlas grid through harvester | |
WO2016121879A1 (ja) | 仮想化制御装置、配置先選択方法及びプログラム | |
Hollowell et al. | Mixing HTC and HPC workloads with HTCondor and slurm | |
US10862821B1 (en) | Managing processor load in a multi-tenant environment | |
JP2010231601A (ja) | グリッドコンピューティングシステム、リソース制御方法およびリソース制御プログラム | |
JP2012032990A (ja) | 複合型資源管理システム | |
US11663026B2 (en) | Allocation of accelerator resources based on job type | |
JP2023522554A (ja) | サーバシステム及びサーバシステム管理方法 | |
JP4021684B2 (ja) | 並列処理システム、サーバ及び記録媒体 | |
JP6478618B2 (ja) | トランザクション制御システム、トランザクション制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140327 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140724 |