JP2003131894A - コンピュータ環境の資源管理方法 - Google Patents
コンピュータ環境の資源管理方法Info
- Publication number
- JP2003131894A JP2003131894A JP2001330109A JP2001330109A JP2003131894A JP 2003131894 A JP2003131894 A JP 2003131894A JP 2001330109 A JP2001330109 A JP 2001330109A JP 2001330109 A JP2001330109 A JP 2001330109A JP 2003131894 A JP2003131894 A JP 2003131894A
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- allocation
- logical partition
- logical
- computer system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
割して実行する計算機システムにおいて、CPU資源の
動的変更を実施する時、特に各論理区画の負荷の変動が
大きい場合に、適切な資源の割当てを保証することがで
きない。 【解決手段】各論理区画内に構築した計算機システムイ
メージのいずれかへ1つの処理を投入する時に、上記処
理を投入する上記計算機システムイメージが属する上記
論理区画の上記CPU資源の割り振りを、予め定められ
た分量だけ増加させ、また、上記処理が終了する時に、
上記処理を実行していた上記計算機システムイメージが
属する上記論理区画の上記CPU資源の割り振りを、予
め定められた分量だけ減少させる。
Description
ステムの資源を、複数の論理区画に分割して実行するコ
ンピュータ環境の資源管理方法に関し、特に、システム
稼動中に資源の割当て状態を動的に変更する資源管理方
法に関する。
の論理区画に分割し、各論理区画上にひとつの計算機シ
ステムイメージを構築する技術が一般化している。こう
した技術は、特開平5−181823号公報、及び特開
2000−259434号公報に開示されている。
数の計算機ノードを用いて、一連の処理を進めるネット
ワークコンピューティングが進展している。このような
環境下では、計算機ノード間で、リクエストをやりとり
しながら処理を進めるのが一般的である。そのため、リ
クエストのやり取りのたびに、計算機ノード間の負荷が
大きく変動する。
ング環境で実行されてきた処理を、論理区画を用いて、
ひとつの計算機システム上に、複数の計算機システムイ
メージを構築することによって実行させるようなことが
考えられる。これにより、分散していた計算機ノード
を、ひとつの計算機ノードに集約することができるた
め、運用負荷を軽減できるというメリットがある。
ステムイメージ間で、リクエストのやり取りをしながら
処理を進めるため、特定の計算機システムイメージに対
して、負荷が集中するといった状況が発生しうる。最初
に定めた各論理区画への資源の配分量を変更できない計
算機システムでは、このような負荷の変動が発生したと
き、負荷が集中した計算機システムイメージの実行が遅
延する結果を招く。
1−142858号公報や、特開2001−14782
4号公報では、各論理区画に割当てた資源を、動的に調
整する技術を開示している。これらの公報で示された技
術では、計算機システム内の各論理区画の負荷に対し
て、論理区画への資源のCPU割当て量が十分ではな
く、その論理区画で稼動するワークロードの実行が遅れ
ていることを検出したとき、論理区画間で計算機システ
ム資源の調整を行う。すなわち、負荷の高い論理区画へ
のCPU割当てを増やすことで、ワークロードの実行の
遅れを助けることができるような、論理区画間で動的な
資源の移動を行うことができる。
去の負荷状況を判断基準にして、その後の資源割当てを
動的に変更することになる。このような技術は、時間が
変化しても、各論理区画の負荷状況が急激に変化しない
ときには有効である。しかし、計算機システムを利用す
る際、各論理区画の負荷の変化が小さいものばかりであ
るという保証はない。ある短い時間に、計算機システム
内のいずれかの論理区画に対する処理要求が急激に増加
し、それを処理するために多くの資源を必要とするよう
な状況が発生したときに、過去の負荷状況をもとにした
動的変更では、適切な資源の割当てを行うことができな
い。また、ある短い時間に負荷が高まったという過去の
実行履歴をもとに、その論理区画への資源の割当てを増
加したとしても、そのときには既に同論理区画の負荷は
低くなっていることもある。この状況では、資源の動的
割当てを無駄に行うことになる。
を複数の論理区画に分割して実行する計算機システムに
おいて、資源の動的変更を実施する時、特に各論理区画
の負荷の変動が大きい場合に、適切な資源の割当てを保
証する方法を提供することである。
に、1つのコンピュータ環境のCPU資源を、予め定め
られた1つ以上の論理区画に割り振ることで、当該論理
区画の各々に、計算機システムイメージを構築すること
を可能とするコンピュータ環境の資源管理方法におい
て、当該計算機システムイメージのいずれかへ1つの処
理を投入する時に、当該処理を投入する当該計算機シス
テムイメージが属する当該論理区画の当該CPU資源の
割り振りを予め定められた分量だけ増加させ、また、当
該処理が終了する時に、当該処理を実行していた当該計
算機システムイメージが属する当該論理区画の当該CP
U資源の割り振りを予め定められた分量だけ減少させる
ステップを設ける。
当該処理を投入する当該計算機システムイメージが属す
る当該論理区画の当該CPU資源の割り振りを、当該処
理の当該クラスに応じた分量だけ増加させる。
CPU資源を割り振る上限を設け、上記処理を投入する
上記計算機システムイメージが属する上記論理区画の上
記CPU資源の割り振りを、予め定めた分量だけ増加さ
せた時に、当該論理区画の当該CPU資源の割り振り
が、当該上限を超過した時に、当該論理区画への当該C
PU資源の割り振りを、当該上限に制限する。
資源の割り振り量は、上記ステップにより求められた上
記論理区画の各々への上記CPU資源の割り振り量の相
対値に基づいて決定する。
の実施の形態を説明する。
1の実施の形態を説明する。
システムの構成である。計算機100の中には、CPU
(200)と主記憶装置(300)がある。
(310)と、論理区画1(320)と、論理区画2
(330)に分割されている。ハイパバイザ(310)
は、計算機(100)の資源を、複数の論理区画(32
0、330)に分割し、各論理区画上(320、33
0)で計算機システムイメージを構築するための処理プ
ログラム、およびデータを有している。
処理部1000は、論理区画1(320)および論理区
画2(330)に対して、CPU(200)を割当て、
それぞれの論理区画(320、330)内での処理を実
行可能とする。CPU割当て量変更処理部2000は、
各論理区画(320、330)からの通知に従い、各論
理区画(320、330)に割当てるCPU(200)
の量を変更する。CPU割当て登録表(3000)は、
各論理区画(320、330)に割当てるべきCPU
(200)の量を記録しておく。
0)は、論理区画1(320)内で実行する計算機シス
テムイメージを管理する。また、アプリケーションAP
1(5000)は、論理区画1(320)内で実行さ
れ、このAP1(5000)の実行開始、終了といった
制御は、OS1(4000)が行う。
(6000)およびアプリケーションAP2(700
0)は、論理区画2(330)内で実行される。
の構成図である。CPU割当て登録表(3000)は、
各時点において、各論理区画(320、330)に割当
てるべきCPUの量を記録した情報である。CPU割当
て登録表(3000)は、論理区画番号(3100)と
CPU割当て量(3200)の対から構成される情報
を、論理区画1(320)および論理区画2(330)
それぞれに対して定義する。図2は、論理区画1(32
0)に対するCPU割当て量が20であり、論理区画2
(330)に対するCPU割当て量が30である状態を
示している。これらの割当て量が示す数字は、予め定め
た一定の時間内に、各論理区画(320、330)への
CPU割当て時間の長さを絶対値で示している。これら
の数字の単位は、例えばミリ秒やマイクロ秒などであ
る。
AP1(5000)を実行する際の、OS1(400
0)の処理内容を示した処理フローチャートである。
た(ステップ4100)とき、OS1(4000)は、
ハイパバイザ(310)に対して、AP1(5000)
の開始を通知(ステップ4200)する。通知を受け取
ったハイパバイザ(310)側では、CPU割当て量変
更処理(2000)を実行し、論理区画1(320)に
割当てるCPU量を変更する。
(4000)は、AP1(5000)の実行を開始(ス
テップ4300)する。その後、AP1(5000)の
処理が終了(ステップ4400)したとき、AP1(5
000)は実行終了を、ハイパバイザ(310)に通知
(ステップ4500)する。ハイパバイザ(310)
は、再びCPU割当て量変更処理(2000)を実行
し、論理区画1(320)に割当てるCPU量を変更す
る。
000)も、AP2(7000)の実行に際して、図3
で示したOS1(4000)と同様の処理を実行する。
(6000)から通知を受けたときに実行されるCPU
割当て量変更処理部(2000)の処理フローチャート
である。
参照し、通知を受けた論理区画(320、330)に一
致する論理区画番号(3100)を選択し、その論理区
画(320、330)に対するCPU割当て量(320
0)を取得(ステップ2100)する。次に、論理区画
(320、330)からの通知の種類が、アプリケーシ
ョンAP(5000、7000)の開始及び終了のいず
れかを判定(ステップ2200)する。この情報は、通
知の際に論理区画(320、330)内のオペレーテイ
ングシステムOS(4000、6000)からハイパバ
イザ(310)に対して連絡される。
の開始であった場合、通知元の論理区画(320、33
0)に対するCPU割当て量(3200)に、単位時間
を加算(ステップ2300)する。ここで加算する単位
時間とは、各AP(5000、7000)を実行するた
めに必要とされるCPU割当て量のことであり、本実施
の形態では、この単位時間の大きさはあらかじめハイパ
バイザが定めておく。この処理によって、論理区画(3
20、330)でAP(5000、7000)を実行す
る前に、これらの論理区画(320、330)へのCP
U割当て量を増加しておくことができる。
種類がAP(5000、7000)の終了であった場合
は、通知元の論理区画(320、330)に対するCP
U割当て量(3200)から、単位時間を減算(ステッ
プ2400)する。
部(2000)によって、各論理区画(320、33
0)に割当てるべきCPU量は動的に変更されるが、実
際にCPU(200)の割当てを実行するのは、CPU
割当て処理部(1000)である。図5に、CPU割当
て処理部(1000)の処理フローチャートを示す。な
お、CPU割当て処理部(1000)は、あらかじめ定
めた一定時間ごとに、各論理区画(320、330)へ
のCPU割当て処理を定期的に繰り返す。図5は、そう
した繰り返し処理1回あたりの処理内容を示している。
PU(200)を割当てるために、CPU割当て登録表
(3000)を参照し、論理区画番号(3100)=1
に対応するCPU割当て量(3200)を取得(ステッ
プ1100)する。この値は、既に図2の説明で示した
ように、あらかじめ定めた単位に基づく時間の長さを示
している。ここで取得した時間の長さを指定して、論理
区画1(320)にCPU(200)の割当て(ステッ
プ1200)を行う。なお、このようにCPU(20
0)を時分割して論理区画(320、330)の処理を
実行させる方法は、従来技術で示した特開2000−2
59434号公報などにて示されている公知の技術を利
用する。即ち、CPU(200)の処理時間全体を時分
割し、時分割された時間帯の配分を各論理区画ごとに変
えることによってCPU(200)の割当てを変える。 CPU(200)を割当てられた論理区画1(320)
では、その時までの実行状況に応じて、OS1(400
0)ないしAP1(5000)の処理を順次実行(ステ
ップ8000)する。そして、ハイパバイザ(310)
がステップ1200で指定したCPU割当て時間が経過
すると、CPU(200)の実行はハイパバイザ(31
0)側に戻される。
自身に戻ったあと、ハイパバイザ(310)は引き続
き、ステップ1300およびステップ1400により、
論理区画2(330)へのCPU(200)の割当てを
行う。これらの処理ステップは、対象となる論理区画
(320、330)が異なる以外、ステップ1100お
よびステップ1200と同様であるため、説明は省略す
る。
2(330)では、OS2(6000)ないしAP2
(7000)の処理を順次実行(ステップ9000)
し、指定された割当て時間が経過したのち、CPU(2
00)の割当てをハイパバイザ(310)に戻す。
2の実施の形態を説明する。
画(320、330)で実行するアプリケーションAP
(5000、7000)を複数のクラスに分類し、その
クラスに応じて、AP(5000、7000)の開始お
よび終了時のCPU割当ての変更量を切り替える。
計算機システムの構成である。図6に示す構成は、ハイ
パバイザ(310)内に、クラス対応表(10000)
を新たに設け、第2の実施の形態におけるCPU割当て
量変更処理部(11000)を設けたものである。CP
U割当て量変更処理部(11000)は、クラス対応表
(10000)をもとにして、各論理区画(320、3
30)へのCPU(200)割当て量を動的に変更す
る。それ以外の構成は、図1で示した第1の実施の形態
と同一である。
成を示している。クラス対応表(10000)は、クラ
ス番号(10100)と、それに対するCPU変更量
(10200)の対を、n個並べた構成となっている。
図7では、クラス番号(10100)=1に属するAP
(5000、7000)に対しては、CPU割当て量を
5増加させることを表わし、同様に、クラス番号(10
100)=2に属するAP(5000、7000)に対
しては、CPU割当て量を10増加させることを表わ
す。
AP(5000、7000)が、どのクラスに属するか
は、各論理区画(320、330)内のOS(400
0、6000)が決定する。ここで、OS(4000、
6000)は、利用者がAP(5000、7000)を
起動要求したときに指定した実行優先度をもとに、より
優先度の高いAP(5000、7000)を、よりクラ
ス番号(10100)の大きいクラスに分類するといっ
た方針に従い、各AP(5000、7000)のクラス
を決定することができる。
割当て量変更処理部(11000)の処理フローチャー
トである。
は、第1の実施の形態と同様、AP(5000、700
0)の開始または終了時に、OS(4000、600
0)からの通知を受け取った時に実行される。まず、通
知の際にOS(4000、6000)から示されたクラ
ス番号を取得(ステップ11100)する。次に、クラ
ス対応表(10000)を参照して、取得したクラス番
号(10100)に対応するCPU変更量(1020
0)を取得(ステップ11200)する。
スに応じて変更するCPU割当て量に違いが生じるとい
う点が、常に同じ値のCPU割当て変更量を利用してい
た第1の実施の形態との違いである。その点を除き、以
下、ステップ11300からステップ11600の処理
内容は、図4で説明した第1の実施の形態におけるCP
U割当て量変更処理部(2000)のステップ2100
からステップ2400の処理内容と同一である。
第3の実施の形態を説明する。
(320、330)ごとに、CPU(200)の割当て
量に上限値を設定する場合である。
計算機システムの構成である。図9に示す構成は、ハイ
パバイザ(310)内に、上限値管理表(12000)
を新たに設け、第3の実施の形態におけるCPU割当て
量変更処理部(13000)を設けたものである。CP
U割当て量変更処理部(13000)は、上限値管理表
(12000)で示された値を越えない範囲で、各論理
区画(320、330)へのCPU(200)の割当て
量を動的に変更する。それ以外の構成は、図1で示した
第1の実施の形態と同一である。
構成を示している。上限値管理表(12000)は、論
理区画番号(12100)と、それに対するCPU割当
て上限値(12200)の対から構成される情報を、論
理区画1(320)および論理区画2(330)それぞ
れに対して定義する。図10は、論理区画1(320)
に対するCPU割当て上限値が40であり、論理区画2
(330)に対するCPU割当て上限値が60である状
態を示している。すなわち、AP(5000、700
0)の実行時間が増えたとき、論理区画1(320)よ
り論理区画2(330)に対して多くの時間、CPU
(200)を割当てることができる定義内容となってい
る。
U割当て量変更処理部(13000)の処理フローチャ
ートである。
は、第1の実施の形態と同様、AP(5000、700
0)の開始または終了時に、OS(4000、600
0)からの通知を受け取った時に実行される。ここで、
ステップ13100およびステップ13200は、図4
で説明した第1の実施の形態におけるCPU割当て量変
更処理部(2000)のステップ2100およびステッ
プ2200と同一である。
区画(320、330)からの通知の種類がAP開始だ
った場合、上限値管理表(12000)を参照し、通知
のあった論理区画番号(12100)に対応するCPU
割当て上限値(12200)を取得(ステップ1330
0)する。次に、ステップ13100で取得した現在の
割当て量(3200)と、1回のAP(5000、70
00)ごとに割当てる単位時間を足した値が、ステップ
13300で取得した上限値(12200)を越えてい
ないか否かを判定(ステップ13400)する。
は、通知があった論理区画(320、330)へのCP
U割当て量(3200)に、単位時間を加算(ステップ
13500)する。一方、現在の割当て量(3200)
と変更すべき単位時間の合計値が上限値(12200)
を越えている場合、通知があった論理区画(320、3
30)へのCPU割当て量(3200)を、上限値(1
2200)と同じ値に設定(ステップ13600)す
る。
区画(320、330)からの通知の種類がAP終了だ
った場合は、上限値管理表(12000)の内容にかか
わらず、通知があった論理区画(320、330)への
CPU割当て量(3200)から、単位時間を減算(ス
テップ13700)する。
の第4の実施の形態を説明する。
00、7000)の実行状況に応じて変更したCPU割
当て量を、更に相対量に補正して、各論理区画(32
0、330)に割当てる場合である。
す計算機システムの構成である。図12において、ハイ
パバイザ(310)内には、第4の実施の形態における
CPU割当て処理部(14000)、各論理区画(32
0、330)へ割当てるべきCPUの量を絶対量および
相対量で示した第4の実施の形態におけるCPU割当て
管理表(15000)、第4の実施の形態におけるCP
U割当て量変更処理部(16000)、及びCPU割当
て量補正処理部(17000)が設けられている。それ
以外の構成は、図1で示した第1の実施の形態と同一で
ある。
の流れは、各論理区画(320、330)にCPU(2
00)を割当てる際、CPU割当て管理表(1500
0)で示される相対量を利用するということ以外、図5
で示した第1の実施の形態におけるCPU割当て処理部
(1000)の処理の流れと同一である。
0)の構成を示している。第4の実施の形態では、CP
U割当て管理表(15000)は、論理区画番号(15
100)と、それに対するCPU割当て絶対量(152
00)およびCPU割当て相対量(15300)から構
成される。ここで、CPU割当て絶対量(15200)
は、第1の実施の形態と同じように、AP(5000、
7000)の開始および終了に合わせて、単位時間を加
算または減算した値である。図13では、論理区画1
(320)には20、論理区画2(330)には40の
割当てが要求されたことを示している。
値をそのままではCPU割当て量として利用しない。こ
れらの割当て量の合計値は60となるが、CPU(20
0)の処理能力が高く、更に多くのCPU割当てを実行
することができるとすれば、これらの値をそのまま使っ
たのでは、CPU(200)の実行時間に空きが生じ
る。例えば、第4の実施の形態として、CPU割当て時
間の合計が100までは、各論理区画(320、33
0)に割当てることができるCPU(200)を利用す
る。そこで、論理区画1(320)への割当て量と、論
理区画2(330)への割当て量の合計値が100とな
るよう、絶対量(15200)を補正する。
て量変更処理部(16000)が、CPU割当て絶対量
(15200)を求めたあと、CPU割当て量補正処理
部(17000)を呼び出すことで処理を行う。なお、
CPU割当て量変更処理部(16000)によるCPU
割当て絶対量(15200)の変更処理部分について
は、図4で示した第1の実施の形態と同一である。
00)の処理フローチャートである。
を参照し、CPU割当て絶対量(15200)の合計値
を計算(ステップ17100)する。次に、この合計値
と、各論理区画(320、330)のCPU割当て絶対
量(15200)をもとに、CPU割当て相対量(15
300)を計算する。既に示したように、第4の実施の
形態では、CPU割当て量は合計で100まで可能であ
る。そこで、「論理区画1(320)のCPU割当て相
対量(15300)=論理区画1(320)のCPU割
当て絶対量(15200)×100/絶対量合計値」を
計算(ステップ17200)する。この値が、論理区画
1(320)への補正後のCPU割当て量である。同様
に、「論理区画2(330)のCPU割当て相対量(1
5300)=論理区画1(330)のCPU割当て絶対
量(15200)×100/絶対量合計値」を計算(ス
テップ17300)する。
施の形態を説明する。
ンザクション処理を、複数の論理区画上で実行される一
連のAPで連携して処理する場合である。
す計算機システムの構成である。図15において、論理
区画3(340)、同様に、論理区画n(n≧4)(3
50)が追加され、それに伴って、論理区画3で実行され
るOS3(18000)と論理区画3で実行されるAP
3(19000)、同様に、論理区画nで実行されるO
Sn(20000)およびAPn(21000)がそれ
ぞれ追加される。それ以外の構成は、図1で示した第1
の実施の形態と同一である。
0)から論理区画n(350)は、それぞれ目的のこと
なるAP1(5000)からAPn(21000)を実
行する。そして、ひとつのトランザクションは、AP1
(5000)からAP2(7000)、AP3(190
00)...、APn(21000)が処理を引き継ぐ
ことによって処理される。このとき、トランザクション
が投入され、以後、各AP(5000、7000、19
000、21000)と処理が進むのに合わせて、CP
U割当て量変更処理部(2000)は、各論理区画(3
20、330、340、350)に対するCPU(20
0)割当て量を動的に変更する。それにより、トランザ
クションを複数の論理区画にまがたって処理するような
場合でも、各論理区画(320、330、340、35
0)でのAP実行状況に合わせたCPU(200)の割
当てが可能となる。
施の形態を説明する。
区画上のAPが、それぞれ独立にトランザクション処理
を受け付ける場合である。
す計算機システムの構成である。計算機(100)内の
構成は、図15で示した第4の実施の形態と同一であ
る。第4の実施の形態との違いは、ひとつのトランザク
ションが、各論理区画(320、330、340、35
0)の各AP(5000、7000、19000、21
000)で連携して処理を実行するのではなく、それぞ
れが独立にトランザクション処理を受け付ける点であ
る。このような場合でも、それぞれの論理区画(32
0、330、340、350)に投入されたトランザク
ションを処理するためのAP実行状況に合わせ、CPU
割当て量変更処理部(2000)は、各論理区画(32
0、330、340、350)へのCPU(200)割
当て量を動的に変更する。
ムの資源を、複数の論理区画に分割した計算機システム
において、論理区画の負荷の変動が急激であったり、ま
た、負荷の変動が大きい場合でも、それに迅速に対応し
て資源の割当て状態を動的に変更できる。また、本発明
によれば、ひとつの計算機システムの資源を、複数の論
理区画に分割した計算機システムにおいて、資源の割当
て状態を動的に変更するために、各論理区画の負荷状況
をモニタする処理を削減できる。
図である。
図である。
である。
処理フローチャートである。
ローチャートである。
図である。
る。
処理フローチャートである。
図である。
ある。
の処理フローチャートである。
成図である。
成図である。
の処理フローチャートである。
成図である。
成図である。
憶装置、320……ハイパバイザ、320……論理区画
1、330……論理区画2、1000……CPU割当て
処理部、2000……CPU割当て量変更処理部、30
00……CPU割当て登録表、4000……OS1、5
000……AP1、6000……OS2、7000……
AP2
Claims (7)
- 【請求項1】1つのコンピュータ環境のCPU資源を、
予め定められた1つ以上の論理区画に割り振ることで、
当該論理区画の各々に、計算機システムイメージを構築
することを可能とするコンピュータ環境の資源管理方法
において、 当該計算機システムイメージのいずれかへ1つの処理を
投入する時に、当該処理を投入する当該計算機システム
イメージが属する当該論理区画の当該CPU資源の割り
振りを、予め定められた分量だけ増加させるステップ
と、 当該処理が終了する時に、当該処理を実行していた当該
計算機システムイメージが属する当該論理区画の当該C
PU資源の割り振りを、予め定められた分量だけ減少さ
せるステップとを有することを特徴とするコンピュータ
環境の資源管理方法。 - 【請求項2】請求項1記載のコンピュータ環境の資源管
理方法において、 前記処理を複数のクラスに分類し、 当該処理を投入する当該計算機システムイメージが属す
る当該論理区画の当該CPU資源の割り振りを、当該処
理の当該クラスに応じた分量だけ増加させることを特徴
とするコンピュータ環境の資源管理方法。 - 【請求項3】請求項1と請求項2記載のコンピュータ環
境の資源管理方法において、 前記論理区画の各々に対して、前記CPU資源を割り振
る上限を設け、 前記処理を投入する前記計算機システムイメージが属す
る前記論理区画の前記CPU資源の割り振りを、予め定
めた分量だけ増加させた時に、当該論理区画の当該CP
U資源の割り振りが、当該上限を超過した時に、 当該論理区画への当該CPU資源の割り振りを、当該上
限に制限することを特徴とするコンピュータ環境の資源
管理方法。 - 【請求項4】請求項1から請求項3記載のコンピュータ
環境の資源管理方法において、 前記論理区画の各々への前記CPU資源の割り振り量
は、 前記ステップにより求められた前記論理区画の各々への
前記CPU資源の割り振り量の相対値に基づいて決定す
ることを特徴とするコンピュータ環境の資源管理方法。 - 【請求項5】請求項1から請求項4記載のコンピュータ
環境の資源管理方法において、 前記論理区画の各々には、一つのトランザクション処理
を行なう複数のアプリケーションのそれぞれを割り当
て、前記論理区画の各々に割り当てられた前記複数のア
プリケーションを連携して実行しながら、前記論理区画
への前記CPU資源の割り振り量を可変することを特徴
とするコンピュータ環境の資源管理方法。 - 【請求項6】請求項1から請求項4記載のコンピュータ
環境の資源管理方法において、 前記論理区画の各々には、それぞれ独立したトランザク
ション処理に対応したアプリケーションを割り当て、前
記論理区画の各々に割り当てられた前記複数のアプリケ
ーションの実行状況に応じて、前記論理区画への前記C
PU資源の割り振り量を可変することを特徴とするコン
ピュータ環境の資源管理方法。 - 【請求項7】1つのコンピュータ環境のCPU資源を、
予め定められた1つ以上の論理区画に割り振ることで、
当該論理区画の各々に、計算機システムイメージを構築
することを可能とするコンピュータ環境の資源管理装置
は、当該計算機システムイメージのいずれかへ1つの処
理を投入する時に、当該処理を投入する当該計算機シス
テムイメージが属する当該論理区画の当該CPU資源の
割り振りを、予め定められた分量だけ増加させる手段
と、 当該処理が終了する時に、当該処理を実行していた当該
計算機システムイメージが属する当該論理区画の当該C
PU資源の割り振りを、予め定められた分量だけ減少さ
せる手段とを有することを特徴とするコンピュータ環境
の資源管理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001330109A JP2003131894A (ja) | 2001-10-29 | 2001-10-29 | コンピュータ環境の資源管理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001330109A JP2003131894A (ja) | 2001-10-29 | 2001-10-29 | コンピュータ環境の資源管理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003131894A true JP2003131894A (ja) | 2003-05-09 |
Family
ID=19145889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001330109A Pending JP2003131894A (ja) | 2001-10-29 | 2001-10-29 | コンピュータ環境の資源管理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003131894A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8161161B2 (en) | 2005-10-31 | 2012-04-17 | Sony Computer Entertainment, Inc. | Information processing method and information processing apparatus |
US8490104B2 (en) | 2005-10-31 | 2013-07-16 | Sony Corporation | Method and apparatus for reservation and reallocation of surplus resources to processes in an execution space by a local resource manager after the execution space is generated succeeding the initialization of an application for which the execution space is created and the resources are allocated to the execution space by a global resource manager prior to application execution |
-
2001
- 2001-10-29 JP JP2001330109A patent/JP2003131894A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8161161B2 (en) | 2005-10-31 | 2012-04-17 | Sony Computer Entertainment, Inc. | Information processing method and information processing apparatus |
US8490104B2 (en) | 2005-10-31 | 2013-07-16 | Sony Corporation | Method and apparatus for reservation and reallocation of surplus resources to processes in an execution space by a local resource manager after the execution space is generated succeeding the initialization of an application for which the execution space is created and the resources are allocated to the execution space by a global resource manager prior to application execution |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810045B2 (en) | Method and apparatus for allocating central processing unit (CPU) resources in a default resource pool | |
US9442763B2 (en) | Resource allocation method and resource management platform | |
EP3073374B1 (en) | Thread creation method, service request processing method and related device | |
US8261281B2 (en) | Optimizing allocation of resources on partitions of a data processing system | |
EP3553657A1 (en) | Method and device for allocating distributed system task | |
JP4112420B2 (ja) | 重みを使用してアプリケーションにシステム資源を割当てる方法およびシステム | |
CN109564528B (zh) | 分布式计算中计算资源分配的系统和方法 | |
WO2016078178A1 (zh) | 一种虚拟cpu调度方法 | |
US20170024251A1 (en) | Scheduling method and apparatus for distributed computing system | |
JP2004062911A (ja) | コンピュータ資源の割り当てを管理するシステム | |
CN108900626B (zh) | 一种云环境下数据存储方法、装置及系统 | |
JPH09167141A (ja) | 負荷分散制御方法 | |
US7225223B1 (en) | Method and system for scaling of resource allocation subject to maximum limits | |
CN112882827A (zh) | 用于负载均衡的方法、电子设备和计算机程序产品 | |
CN111240824A (zh) | 一种cpu资源调度方法及电子设备 | |
CN109189581B (zh) | 一种作业调度方法和装置 | |
CN112685167A (zh) | 资源使用方法、电子设备和计算机程序产品 | |
JP2003131894A (ja) | コンピュータ環境の資源管理方法 | |
JP6461224B2 (ja) | 中央処理装置のリソース割当方法及び計算ノード | |
KR20150070930A (ko) | 최적 비용을 고려한 마이그레이션 자원 할당 시스템 및 할당 방법 | |
Peng et al. | BQueue: A coarse-grained bucket QoS scheduler | |
CN111694635A (zh) | 一种服务质量控制方法及装置 | |
JP2012038275A (ja) | 取引計算シミュレーションシステム、方法及びプログラム | |
Aluri et al. | Priority based non-preemptive shortest job first resource allocation technique in cloud computing | |
WO2022142515A1 (zh) | 管理实例的方法、装置以及云应用引擎 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060314 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060419 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060512 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061212 |