JP2003131894A - コンピュータ環境の資源管理方法 - Google Patents

コンピュータ環境の資源管理方法

Info

Publication number
JP2003131894A
JP2003131894A JP2001330109A JP2001330109A JP2003131894A JP 2003131894 A JP2003131894 A JP 2003131894A JP 2001330109 A JP2001330109 A JP 2001330109A JP 2001330109 A JP2001330109 A JP 2001330109A JP 2003131894 A JP2003131894 A JP 2003131894A
Authority
JP
Japan
Prior art keywords
cpu
allocation
logical partition
logical
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001330109A
Other languages
English (en)
Inventor
Masahiro Kiyoi
雅広 清井
Hirofumi Nagasuga
弘文 長須賀
Tatsutoshi Sakuraba
健年 櫻庭
Kenta Futase
健太 二瀬
Kazuhisa Miyata
和久 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001330109A priority Critical patent/JP2003131894A/ja
Publication of JP2003131894A publication Critical patent/JP2003131894A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】1つのコンピュータ環境を複数の論理区画に分
割して実行する計算機システムにおいて、CPU資源の
動的変更を実施する時、特に各論理区画の負荷の変動が
大きい場合に、適切な資源の割当てを保証することがで
きない。 【解決手段】各論理区画内に構築した計算機システムイ
メージのいずれかへ1つの処理を投入する時に、上記処
理を投入する上記計算機システムイメージが属する上記
論理区画の上記CPU資源の割り振りを、予め定められ
た分量だけ増加させ、また、上記処理が終了する時に、
上記処理を実行していた上記計算機システムイメージが
属する上記論理区画の上記CPU資源の割り振りを、予
め定められた分量だけ減少させる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ひとつの計算機シ
ステムの資源を、複数の論理区画に分割して実行するコ
ンピュータ環境の資源管理方法に関し、特に、システム
稼動中に資源の割当て状態を動的に変更する資源管理方
法に関する。
【0002】
【従来の技術】ひとつの計算機システムの資源を、複数
の論理区画に分割し、各論理区画上にひとつの計算機シ
ステムイメージを構築する技術が一般化している。こう
した技術は、特開平5−181823号公報、及び特開
2000−259434号公報に開示されている。
【0003】一方、近年、ネットワークで接続された複
数の計算機ノードを用いて、一連の処理を進めるネット
ワークコンピューティングが進展している。このような
環境下では、計算機ノード間で、リクエストをやりとり
しながら処理を進めるのが一般的である。そのため、リ
クエストのやり取りのたびに、計算機ノード間の負荷が
大きく変動する。
【0004】今後は、このネットワークコンピューティ
ング環境で実行されてきた処理を、論理区画を用いて、
ひとつの計算機システム上に、複数の計算機システムイ
メージを構築することによって実行させるようなことが
考えられる。これにより、分散していた計算機ノード
を、ひとつの計算機ノードに集約することができるた
め、運用負荷を軽減できるというメリットがある。
【0005】しかし、先にも述べたように、各計算機シ
ステムイメージ間で、リクエストのやり取りをしながら
処理を進めるため、特定の計算機システムイメージに対
して、負荷が集中するといった状況が発生しうる。最初
に定めた各論理区画への資源の配分量を変更できない計
算機システムでは、このような負荷の変動が発生したと
き、負荷が集中した計算機システムイメージの実行が遅
延する結果を招く。
【0006】以上、課題を解決するために、特開200
1−142858号公報や、特開2001−14782
4号公報では、各論理区画に割当てた資源を、動的に調
整する技術を開示している。これらの公報で示された技
術では、計算機システム内の各論理区画の負荷に対し
て、論理区画への資源のCPU割当て量が十分ではな
く、その論理区画で稼動するワークロードの実行が遅れ
ていることを検出したとき、論理区画間で計算機システ
ム資源の調整を行う。すなわち、負荷の高い論理区画へ
のCPU割当てを増やすことで、ワークロードの実行の
遅れを助けることができるような、論理区画間で動的な
資源の移動を行うことができる。
【0007】
【発明が解決しようとする課題】上記従来技術では、過
去の負荷状況を判断基準にして、その後の資源割当てを
動的に変更することになる。このような技術は、時間が
変化しても、各論理区画の負荷状況が急激に変化しない
ときには有効である。しかし、計算機システムを利用す
る際、各論理区画の負荷の変化が小さいものばかりであ
るという保証はない。ある短い時間に、計算機システム
内のいずれかの論理区画に対する処理要求が急激に増加
し、それを処理するために多くの資源を必要とするよう
な状況が発生したときに、過去の負荷状況をもとにした
動的変更では、適切な資源の割当てを行うことができな
い。また、ある短い時間に負荷が高まったという過去の
実行履歴をもとに、その論理区画への資源の割当てを増
加したとしても、そのときには既に同論理区画の負荷は
低くなっていることもある。この状況では、資源の動的
割当てを無駄に行うことになる。
【0008】本発明の目的は、ひとつの計算機システム
を複数の論理区画に分割して実行する計算機システムに
おいて、資源の動的変更を実施する時、特に各論理区画
の負荷の変動が大きい場合に、適切な資源の割当てを保
証する方法を提供することである。
【0009】
【課題を解決するための手段】上記目的を達成するため
に、1つのコンピュータ環境のCPU資源を、予め定め
られた1つ以上の論理区画に割り振ることで、当該論理
区画の各々に、計算機システムイメージを構築すること
を可能とするコンピュータ環境の資源管理方法におい
て、当該計算機システムイメージのいずれかへ1つの処
理を投入する時に、当該処理を投入する当該計算機シス
テムイメージが属する当該論理区画の当該CPU資源の
割り振りを予め定められた分量だけ増加させ、また、当
該処理が終了する時に、当該処理を実行していた当該計
算機システムイメージが属する当該論理区画の当該CP
U資源の割り振りを予め定められた分量だけ減少させる
ステップを設ける。
【0010】また、上記処理を複数のクラスに分類し、
当該処理を投入する当該計算機システムイメージが属す
る当該論理区画の当該CPU資源の割り振りを、当該処
理の当該クラスに応じた分量だけ増加させる。
【0011】また、上記論理区画の各々に対して、上記
CPU資源を割り振る上限を設け、上記処理を投入する
上記計算機システムイメージが属する上記論理区画の上
記CPU資源の割り振りを、予め定めた分量だけ増加さ
せた時に、当該論理区画の当該CPU資源の割り振り
が、当該上限を超過した時に、当該論理区画への当該C
PU資源の割り振りを、当該上限に制限する。
【0012】また、上記論理区画の各々への上記CPU
資源の割り振り量は、上記ステップにより求められた上
記論理区画の各々への上記CPU資源の割り振り量の相
対値に基づいて決定する。
【0013】
【発明の実施の形態】図1から図16を用いて、本発明
の実施の形態を説明する。
【0014】まず、図1から図5を用いて、本発明の第
1の実施の形態を説明する。
【0015】図1は、本発明の実施の形態を示す計算機
システムの構成である。計算機100の中には、CPU
(200)と主記憶装置(300)がある。
【0016】主記憶装置(300)は、ハイパバイザ
(310)と、論理区画1(320)と、論理区画2
(330)に分割されている。ハイパバイザ(310)
は、計算機(100)の資源を、複数の論理区画(32
0、330)に分割し、各論理区画上(320、33
0)で計算機システムイメージを構築するための処理プ
ログラム、およびデータを有している。
【0017】ハイパバイザ(310)内のCPU割当て
処理部1000は、論理区画1(320)および論理区
画2(330)に対して、CPU(200)を割当て、
それぞれの論理区画(320、330)内での処理を実
行可能とする。CPU割当て量変更処理部2000は、
各論理区画(320、330)からの通知に従い、各論
理区画(320、330)に割当てるCPU(200)
の量を変更する。CPU割当て登録表(3000)は、
各論理区画(320、330)に割当てるべきCPU
(200)の量を記録しておく。
【0018】オペレーテイングシステムOS1(400
0)は、論理区画1(320)内で実行する計算機シス
テムイメージを管理する。また、アプリケーションAP
1(5000)は、論理区画1(320)内で実行さ
れ、このAP1(5000)の実行開始、終了といった
制御は、OS1(4000)が行う。
【0019】同様に、オペレーテイングシステムOS2
(6000)およびアプリケーションAP2(700
0)は、論理区画2(330)内で実行される。
【0020】図2は、CPU割当て登録表(3000)
の構成図である。CPU割当て登録表(3000)は、
各時点において、各論理区画(320、330)に割当
てるべきCPUの量を記録した情報である。CPU割当
て登録表(3000)は、論理区画番号(3100)と
CPU割当て量(3200)の対から構成される情報
を、論理区画1(320)および論理区画2(330)
それぞれに対して定義する。図2は、論理区画1(32
0)に対するCPU割当て量が20であり、論理区画2
(330)に対するCPU割当て量が30である状態を
示している。これらの割当て量が示す数字は、予め定め
た一定の時間内に、各論理区画(320、330)への
CPU割当て時間の長さを絶対値で示している。これら
の数字の単位は、例えばミリ秒やマイクロ秒などであ
る。
【0021】図3は、論理区画1(320)において、
AP1(5000)を実行する際の、OS1(400
0)の処理内容を示した処理フローチャートである。
【0022】AP1(5000)の実行要求を受け付け
た(ステップ4100)とき、OS1(4000)は、
ハイパバイザ(310)に対して、AP1(5000)
の開始を通知(ステップ4200)する。通知を受け取
ったハイパバイザ(310)側では、CPU割当て量変
更処理(2000)を実行し、論理区画1(320)に
割当てるCPU量を変更する。
【0023】その後、論理区画1(320)のOS1
(4000)は、AP1(5000)の実行を開始(ス
テップ4300)する。その後、AP1(5000)の
処理が終了(ステップ4400)したとき、AP1(5
000)は実行終了を、ハイパバイザ(310)に通知
(ステップ4500)する。ハイパバイザ(310)
は、再びCPU割当て量変更処理(2000)を実行
し、論理区画1(320)に割当てるCPU量を変更す
る。
【0024】論理区画2(330)におけるOS2(6
000)も、AP2(7000)の実行に際して、図3
で示したOS1(4000)と同様の処理を実行する。
【0025】図4は、OS1(4000)およびOS2
(6000)から通知を受けたときに実行されるCPU
割当て量変更処理部(2000)の処理フローチャート
である。
【0026】まず、CPU割当て登録表(3000)を
参照し、通知を受けた論理区画(320、330)に一
致する論理区画番号(3100)を選択し、その論理区
画(320、330)に対するCPU割当て量(320
0)を取得(ステップ2100)する。次に、論理区画
(320、330)からの通知の種類が、アプリケーシ
ョンAP(5000、7000)の開始及び終了のいず
れかを判定(ステップ2200)する。この情報は、通
知の際に論理区画(320、330)内のオペレーテイ
ングシステムOS(4000、6000)からハイパバ
イザ(310)に対して連絡される。
【0027】通知の種類がAP(5000、7000)
の開始であった場合、通知元の論理区画(320、33
0)に対するCPU割当て量(3200)に、単位時間
を加算(ステップ2300)する。ここで加算する単位
時間とは、各AP(5000、7000)を実行するた
めに必要とされるCPU割当て量のことであり、本実施
の形態では、この単位時間の大きさはあらかじめハイパ
バイザが定めておく。この処理によって、論理区画(3
20、330)でAP(5000、7000)を実行す
る前に、これらの論理区画(320、330)へのCP
U割当て量を増加しておくことができる。
【0028】ステップ2200の判定において、通知の
種類がAP(5000、7000)の終了であった場合
は、通知元の論理区画(320、330)に対するCP
U割当て量(3200)から、単位時間を減算(ステッ
プ2400)する。
【0029】このようにして、CPU割当て量変更処理
部(2000)によって、各論理区画(320、33
0)に割当てるべきCPU量は動的に変更されるが、実
際にCPU(200)の割当てを実行するのは、CPU
割当て処理部(1000)である。図5に、CPU割当
て処理部(1000)の処理フローチャートを示す。な
お、CPU割当て処理部(1000)は、あらかじめ定
めた一定時間ごとに、各論理区画(320、330)へ
のCPU割当て処理を定期的に繰り返す。図5は、そう
した繰り返し処理1回あたりの処理内容を示している。
【0030】まず、論理区画1(320)に対して、C
PU(200)を割当てるために、CPU割当て登録表
(3000)を参照し、論理区画番号(3100)=1
に対応するCPU割当て量(3200)を取得(ステッ
プ1100)する。この値は、既に図2の説明で示した
ように、あらかじめ定めた単位に基づく時間の長さを示
している。ここで取得した時間の長さを指定して、論理
区画1(320)にCPU(200)の割当て(ステッ
プ1200)を行う。なお、このようにCPU(20
0)を時分割して論理区画(320、330)の処理を
実行させる方法は、従来技術で示した特開2000−2
59434号公報などにて示されている公知の技術を利
用する。即ち、CPU(200)の処理時間全体を時分
割し、時分割された時間帯の配分を各論理区画ごとに変
えることによってCPU(200)の割当てを変える。 CPU(200)を割当てられた論理区画1(320)
では、その時までの実行状況に応じて、OS1(400
0)ないしAP1(5000)の処理を順次実行(ステ
ップ8000)する。そして、ハイパバイザ(310)
がステップ1200で指定したCPU割当て時間が経過
すると、CPU(200)の実行はハイパバイザ(31
0)側に戻される。
【0031】CPU(200)の割当てがハイパバイザ
自身に戻ったあと、ハイパバイザ(310)は引き続
き、ステップ1300およびステップ1400により、
論理区画2(330)へのCPU(200)の割当てを
行う。これらの処理ステップは、対象となる論理区画
(320、330)が異なる以外、ステップ1100お
よびステップ1200と同様であるため、説明は省略す
る。
【0032】CPU(200)を割当てられた論理区画
2(330)では、OS2(6000)ないしAP2
(7000)の処理を順次実行(ステップ9000)
し、指定された割当て時間が経過したのち、CPU(2
00)の割当てをハイパバイザ(310)に戻す。
【0033】次に、図6から図8を用いて、本発明の第
2の実施の形態を説明する。
【0034】本発明の第2の実施の形態では、各論理区
画(320、330)で実行するアプリケーションAP
(5000、7000)を複数のクラスに分類し、その
クラスに応じて、AP(5000、7000)の開始お
よび終了時のCPU割当ての変更量を切り替える。
【0035】図6は、本発明の第2の実施の形態を示す
計算機システムの構成である。図6に示す構成は、ハイ
パバイザ(310)内に、クラス対応表(10000)
を新たに設け、第2の実施の形態におけるCPU割当て
量変更処理部(11000)を設けたものである。CP
U割当て量変更処理部(11000)は、クラス対応表
(10000)をもとにして、各論理区画(320、3
30)へのCPU(200)割当て量を動的に変更す
る。それ以外の構成は、図1で示した第1の実施の形態
と同一である。
【0036】図7は、クラス対応表(10000)の構
成を示している。クラス対応表(10000)は、クラ
ス番号(10100)と、それに対するCPU変更量
(10200)の対を、n個並べた構成となっている。
図7では、クラス番号(10100)=1に属するAP
(5000、7000)に対しては、CPU割当て量を
5増加させることを表わし、同様に、クラス番号(10
100)=2に属するAP(5000、7000)に対
しては、CPU割当て量を10増加させることを表わ
す。
【0037】各論理区画(320、330)で実行する
AP(5000、7000)が、どのクラスに属するか
は、各論理区画(320、330)内のOS(400
0、6000)が決定する。ここで、OS(4000、
6000)は、利用者がAP(5000、7000)を
起動要求したときに指定した実行優先度をもとに、より
優先度の高いAP(5000、7000)を、よりクラ
ス番号(10100)の大きいクラスに分類するといっ
た方針に従い、各AP(5000、7000)のクラス
を決定することができる。
【0038】図8は、第2の実施の形態におけるCPU
割当て量変更処理部(11000)の処理フローチャー
トである。
【0039】CPU割当て量変更処理部(11000)
は、第1の実施の形態と同様、AP(5000、700
0)の開始または終了時に、OS(4000、600
0)からの通知を受け取った時に実行される。まず、通
知の際にOS(4000、6000)から示されたクラ
ス番号を取得(ステップ11100)する。次に、クラ
ス対応表(10000)を参照して、取得したクラス番
号(10100)に対応するCPU変更量(1020
0)を取得(ステップ11200)する。
【0040】このように、第2の実施の形態では、クラ
スに応じて変更するCPU割当て量に違いが生じるとい
う点が、常に同じ値のCPU割当て変更量を利用してい
た第1の実施の形態との違いである。その点を除き、以
下、ステップ11300からステップ11600の処理
内容は、図4で説明した第1の実施の形態におけるCP
U割当て量変更処理部(2000)のステップ2100
からステップ2400の処理内容と同一である。
【0041】次に、図9から図11を用いて、本発明の
第3の実施の形態を説明する。
【0042】本発明の第3の実施の形態は、論理区画
(320、330)ごとに、CPU(200)の割当て
量に上限値を設定する場合である。
【0043】図9は、本発明の第3の実施の形態を示す
計算機システムの構成である。図9に示す構成は、ハイ
パバイザ(310)内に、上限値管理表(12000)
を新たに設け、第3の実施の形態におけるCPU割当て
量変更処理部(13000)を設けたものである。CP
U割当て量変更処理部(13000)は、上限値管理表
(12000)で示された値を越えない範囲で、各論理
区画(320、330)へのCPU(200)の割当て
量を動的に変更する。それ以外の構成は、図1で示した
第1の実施の形態と同一である。
【0044】図10は、上限値管理表(12000)の
構成を示している。上限値管理表(12000)は、論
理区画番号(12100)と、それに対するCPU割当
て上限値(12200)の対から構成される情報を、論
理区画1(320)および論理区画2(330)それぞ
れに対して定義する。図10は、論理区画1(320)
に対するCPU割当て上限値が40であり、論理区画2
(330)に対するCPU割当て上限値が60である状
態を示している。すなわち、AP(5000、700
0)の実行時間が増えたとき、論理区画1(320)よ
り論理区画2(330)に対して多くの時間、CPU
(200)を割当てることができる定義内容となってい
る。
【0045】図11は、第3の実施の形態におけるCP
U割当て量変更処理部(13000)の処理フローチャ
ートである。
【0046】CPU割当て量変更処理部(13000)
は、第1の実施の形態と同様、AP(5000、700
0)の開始または終了時に、OS(4000、600
0)からの通知を受け取った時に実行される。ここで、
ステップ13100およびステップ13200は、図4
で説明した第1の実施の形態におけるCPU割当て量変
更処理部(2000)のステップ2100およびステッ
プ2200と同一である。
【0047】ステップ13200の判定において、論理
区画(320、330)からの通知の種類がAP開始だ
った場合、上限値管理表(12000)を参照し、通知
のあった論理区画番号(12100)に対応するCPU
割当て上限値(12200)を取得(ステップ1330
0)する。次に、ステップ13100で取得した現在の
割当て量(3200)と、1回のAP(5000、70
00)ごとに割当てる単位時間を足した値が、ステップ
13300で取得した上限値(12200)を越えてい
ないか否かを判定(ステップ13400)する。
【0048】上限値(12200)を越えていない場合
は、通知があった論理区画(320、330)へのCP
U割当て量(3200)に、単位時間を加算(ステップ
13500)する。一方、現在の割当て量(3200)
と変更すべき単位時間の合計値が上限値(12200)
を越えている場合、通知があった論理区画(320、3
30)へのCPU割当て量(3200)を、上限値(1
2200)と同じ値に設定(ステップ13600)す
る。
【0049】ステップ13200の判定において、論理
区画(320、330)からの通知の種類がAP終了だ
った場合は、上限値管理表(12000)の内容にかか
わらず、通知があった論理区画(320、330)への
CPU割当て量(3200)から、単位時間を減算(ス
テップ13700)する。
【0050】次に、図12から図14を用いて、本発明
の第4の実施の形態を説明する。
【0051】本発明の第4の実施の形態は、AP(50
00、7000)の実行状況に応じて変更したCPU割
当て量を、更に相対量に補正して、各論理区画(32
0、330)に割当てる場合である。
【0052】図12は、本発明の第4の実施の形態を示
す計算機システムの構成である。図12において、ハイ
パバイザ(310)内には、第4の実施の形態における
CPU割当て処理部(14000)、各論理区画(32
0、330)へ割当てるべきCPUの量を絶対量および
相対量で示した第4の実施の形態におけるCPU割当て
管理表(15000)、第4の実施の形態におけるCP
U割当て量変更処理部(16000)、及びCPU割当
て量補正処理部(17000)が設けられている。それ
以外の構成は、図1で示した第1の実施の形態と同一で
ある。
【0053】CPU割当て処理部(14000)の処理
の流れは、各論理区画(320、330)にCPU(2
00)を割当てる際、CPU割当て管理表(1500
0)で示される相対量を利用するということ以外、図5
で示した第1の実施の形態におけるCPU割当て処理部
(1000)の処理の流れと同一である。
【0054】図13は、CPU割当て管理表(1500
0)の構成を示している。第4の実施の形態では、CP
U割当て管理表(15000)は、論理区画番号(15
100)と、それに対するCPU割当て絶対量(152
00)およびCPU割当て相対量(15300)から構
成される。ここで、CPU割当て絶対量(15200)
は、第1の実施の形態と同じように、AP(5000、
7000)の開始および終了に合わせて、単位時間を加
算または減算した値である。図13では、論理区画1
(320)には20、論理区画2(330)には40の
割当てが要求されたことを示している。
【0055】しかし、第4の実施の形態では、これらの
値をそのままではCPU割当て量として利用しない。こ
れらの割当て量の合計値は60となるが、CPU(20
0)の処理能力が高く、更に多くのCPU割当てを実行
することができるとすれば、これらの値をそのまま使っ
たのでは、CPU(200)の実行時間に空きが生じ
る。例えば、第4の実施の形態として、CPU割当て時
間の合計が100までは、各論理区画(320、33
0)に割当てることができるCPU(200)を利用す
る。そこで、論理区画1(320)への割当て量と、論
理区画2(330)への割当て量の合計値が100とな
るよう、絶対量(15200)を補正する。
【0056】絶対量から相対量への補正は、CPU割当
て量変更処理部(16000)が、CPU割当て絶対量
(15200)を求めたあと、CPU割当て量補正処理
部(17000)を呼び出すことで処理を行う。なお、
CPU割当て量変更処理部(16000)によるCPU
割当て絶対量(15200)の変更処理部分について
は、図4で示した第1の実施の形態と同一である。
【0057】図14は、CPU割当て量補正部(170
00)の処理フローチャートである。
【0058】まず、CPU割当て登録表(15000)
を参照し、CPU割当て絶対量(15200)の合計値
を計算(ステップ17100)する。次に、この合計値
と、各論理区画(320、330)のCPU割当て絶対
量(15200)をもとに、CPU割当て相対量(15
300)を計算する。既に示したように、第4の実施の
形態では、CPU割当て量は合計で100まで可能であ
る。そこで、「論理区画1(320)のCPU割当て相
対量(15300)=論理区画1(320)のCPU割
当て絶対量(15200)×100/絶対量合計値」を
計算(ステップ17200)する。この値が、論理区画
1(320)への補正後のCPU割当て量である。同様
に、「論理区画2(330)のCPU割当て相対量(1
5300)=論理区画1(330)のCPU割当て絶対
量(15200)×100/絶対量合計値」を計算(ス
テップ17300)する。
【0059】次に、図15を用いて、本発明の第5の実
施の形態を説明する。
【0060】本発明の第5の実施の形態は、一つのトラ
ンザクション処理を、複数の論理区画上で実行される一
連のAPで連携して処理する場合である。
【0061】図15は、本発明の第5の実施の形態を示
す計算機システムの構成である。図15において、論理
区画3(340)、同様に、論理区画n(n≧4)(3
50)が追加され、それに伴って、論理区画3で実行され
るOS3(18000)と論理区画3で実行されるAP
3(19000)、同様に、論理区画nで実行されるO
Sn(20000)およびAPn(21000)がそれ
ぞれ追加される。それ以外の構成は、図1で示した第1
の実施の形態と同一である。
【0062】第5の実施の形態は、論理区画1(32
0)から論理区画n(350)は、それぞれ目的のこと
なるAP1(5000)からAPn(21000)を実
行する。そして、ひとつのトランザクションは、AP1
(5000)からAP2(7000)、AP3(190
00)...、APn(21000)が処理を引き継ぐ
ことによって処理される。このとき、トランザクション
が投入され、以後、各AP(5000、7000、19
000、21000)と処理が進むのに合わせて、CP
U割当て量変更処理部(2000)は、各論理区画(3
20、330、340、350)に対するCPU(20
0)割当て量を動的に変更する。それにより、トランザ
クションを複数の論理区画にまがたって処理するような
場合でも、各論理区画(320、330、340、35
0)でのAP実行状況に合わせたCPU(200)の割
当てが可能となる。
【0063】次に、図16を用いて、本発明の第6の実
施の形態を説明する。
【0064】本発明の第6の実施の形態は、複数の論理
区画上のAPが、それぞれ独立にトランザクション処理
を受け付ける場合である。
【0065】図15は、本発明の第6の実施の形態を示
す計算機システムの構成である。計算機(100)内の
構成は、図15で示した第4の実施の形態と同一であ
る。第4の実施の形態との違いは、ひとつのトランザク
ションが、各論理区画(320、330、340、35
0)の各AP(5000、7000、19000、21
000)で連携して処理を実行するのではなく、それぞ
れが独立にトランザクション処理を受け付ける点であ
る。このような場合でも、それぞれの論理区画(32
0、330、340、350)に投入されたトランザク
ションを処理するためのAP実行状況に合わせ、CPU
割当て量変更処理部(2000)は、各論理区画(32
0、330、340、350)へのCPU(200)割
当て量を動的に変更する。
【0066】
【発明の効果】本発明によれば、ひとつの計算機システ
ムの資源を、複数の論理区画に分割した計算機システム
において、論理区画の負荷の変動が急激であったり、ま
た、負荷の変動が大きい場合でも、それに迅速に対応し
て資源の割当て状態を動的に変更できる。また、本発明
によれば、ひとつの計算機システムの資源を、複数の論
理区画に分割した計算機システムにおいて、資源の割当
て状態を動的に変更するために、各論理区画の負荷状況
をモニタする処理を削減できる。
【図面の簡単な説明】
【図1】第1の実施の形態を示す計算機システムの構成
図である。
【図2】第1の実施の形態のCPU割当て登録表の構成
図である。
【図3】第1の実施の形態のOSの処理フローチャート
である。
【図4】第1の実施の形態のCPU割当て量変更処理の
処理フローチャートである。
【図5】第1の実施の形態のCPU割当て処理の処理フ
ローチャートである。
【図6】第2の実施の形態を示す計算機システムの構成
図である。
【図7】第2の実施の形態のクラス対応表の構成図であ
る。
【図8】第2の実施の形態のCPU割当て量変更処理の
処理フローチャートである。
【図9】第3の実施の形態を示す計算機システムの構成
図である。
【図10】第3の実施の形態の上限値管理表の構成図で
ある。
【図11】第3の実施の形態のCPU割当て量変更処理
の処理フローチャートである。
【図12】第4の実施の形態を示す計算機システムの構
成図である。
【図13】第4の実施の形態のCPU割当て登録表の構
成図である。
【図14】第4の実施の形態のCPU割当て量補正処理
の処理フローチャートである。
【図15】第5の実施の形態を示す計算機システムの構
成図である。
【図16】第6の実施の形態を示す計算機システムの構
成図である。
【符号の説明】
100……計算機、200……CPU、300……主記
憶装置、320……ハイパバイザ、320……論理区画
1、330……論理区画2、1000……CPU割当て
処理部、2000……CPU割当て量変更処理部、30
00……CPU割当て登録表、4000……OS1、5
000……AP1、6000……OS2、7000……
AP2
───────────────────────────────────────────────────── フロントページの続き (72)発明者 櫻庭 健年 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 二瀬 健太 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 宮田 和久 神奈川県横浜市戸塚区戸塚町5030番地 株 式会社日立製作所ソフトウェア事業部内 Fターム(参考) 5B098 AA10 GA01 GA02 GD02 GD14 HH04

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】1つのコンピュータ環境のCPU資源を、
    予め定められた1つ以上の論理区画に割り振ることで、
    当該論理区画の各々に、計算機システムイメージを構築
    することを可能とするコンピュータ環境の資源管理方法
    において、 当該計算機システムイメージのいずれかへ1つの処理を
    投入する時に、当該処理を投入する当該計算機システム
    イメージが属する当該論理区画の当該CPU資源の割り
    振りを、予め定められた分量だけ増加させるステップ
    と、 当該処理が終了する時に、当該処理を実行していた当該
    計算機システムイメージが属する当該論理区画の当該C
    PU資源の割り振りを、予め定められた分量だけ減少さ
    せるステップとを有することを特徴とするコンピュータ
    環境の資源管理方法。
  2. 【請求項2】請求項1記載のコンピュータ環境の資源管
    理方法において、 前記処理を複数のクラスに分類し、 当該処理を投入する当該計算機システムイメージが属す
    る当該論理区画の当該CPU資源の割り振りを、当該処
    理の当該クラスに応じた分量だけ増加させることを特徴
    とするコンピュータ環境の資源管理方法。
  3. 【請求項3】請求項1と請求項2記載のコンピュータ環
    境の資源管理方法において、 前記論理区画の各々に対して、前記CPU資源を割り振
    る上限を設け、 前記処理を投入する前記計算機システムイメージが属す
    る前記論理区画の前記CPU資源の割り振りを、予め定
    めた分量だけ増加させた時に、当該論理区画の当該CP
    U資源の割り振りが、当該上限を超過した時に、 当該論理区画への当該CPU資源の割り振りを、当該上
    限に制限することを特徴とするコンピュータ環境の資源
    管理方法。
  4. 【請求項4】請求項1から請求項3記載のコンピュータ
    環境の資源管理方法において、 前記論理区画の各々への前記CPU資源の割り振り量
    は、 前記ステップにより求められた前記論理区画の各々への
    前記CPU資源の割り振り量の相対値に基づいて決定す
    ることを特徴とするコンピュータ環境の資源管理方法。
  5. 【請求項5】請求項1から請求項4記載のコンピュータ
    環境の資源管理方法において、 前記論理区画の各々には、一つのトランザクション処理
    を行なう複数のアプリケーションのそれぞれを割り当
    て、前記論理区画の各々に割り当てられた前記複数のア
    プリケーションを連携して実行しながら、前記論理区画
    への前記CPU資源の割り振り量を可変することを特徴
    とするコンピュータ環境の資源管理方法。
  6. 【請求項6】請求項1から請求項4記載のコンピュータ
    環境の資源管理方法において、 前記論理区画の各々には、それぞれ独立したトランザク
    ション処理に対応したアプリケーションを割り当て、前
    記論理区画の各々に割り当てられた前記複数のアプリケ
    ーションの実行状況に応じて、前記論理区画への前記C
    PU資源の割り振り量を可変することを特徴とするコン
    ピュータ環境の資源管理方法。
  7. 【請求項7】1つのコンピュータ環境のCPU資源を、
    予め定められた1つ以上の論理区画に割り振ることで、
    当該論理区画の各々に、計算機システムイメージを構築
    することを可能とするコンピュータ環境の資源管理装置
    は、当該計算機システムイメージのいずれかへ1つの処
    理を投入する時に、当該処理を投入する当該計算機シス
    テムイメージが属する当該論理区画の当該CPU資源の
    割り振りを、予め定められた分量だけ増加させる手段
    と、 当該処理が終了する時に、当該処理を実行していた当該
    計算機システムイメージが属する当該論理区画の当該C
    PU資源の割り振りを、予め定められた分量だけ減少さ
    せる手段とを有することを特徴とするコンピュータ環境
    の資源管理装置。
JP2001330109A 2001-10-29 2001-10-29 コンピュータ環境の資源管理方法 Pending JP2003131894A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001330109A JP2003131894A (ja) 2001-10-29 2001-10-29 コンピュータ環境の資源管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001330109A JP2003131894A (ja) 2001-10-29 2001-10-29 コンピュータ環境の資源管理方法

Publications (1)

Publication Number Publication Date
JP2003131894A true JP2003131894A (ja) 2003-05-09

Family

ID=19145889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001330109A Pending JP2003131894A (ja) 2001-10-29 2001-10-29 コンピュータ環境の資源管理方法

Country Status (1)

Country Link
JP (1) JP2003131894A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8161161B2 (en) 2005-10-31 2012-04-17 Sony Computer Entertainment, Inc. Information processing method and information processing apparatus
US8490104B2 (en) 2005-10-31 2013-07-16 Sony Corporation Method and apparatus for reservation and reallocation of surplus resources to processes in an execution space by a local resource manager after the execution space is generated succeeding the initialization of an application for which the execution space is created and the resources are allocated to the execution space by a global resource manager prior to application execution

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8161161B2 (en) 2005-10-31 2012-04-17 Sony Computer Entertainment, Inc. Information processing method and information processing apparatus
US8490104B2 (en) 2005-10-31 2013-07-16 Sony Corporation Method and apparatus for reservation and reallocation of surplus resources to processes in an execution space by a local resource manager after the execution space is generated succeeding the initialization of an application for which the execution space is created and the resources are allocated to the execution space by a global resource manager prior to application execution

Similar Documents

Publication Publication Date Title
US10810045B2 (en) Method and apparatus for allocating central processing unit (CPU) resources in a default resource pool
US9442763B2 (en) Resource allocation method and resource management platform
EP3073374B1 (en) Thread creation method, service request processing method and related device
US8261281B2 (en) Optimizing allocation of resources on partitions of a data processing system
EP3553657A1 (en) Method and device for allocating distributed system task
JP4112420B2 (ja) 重みを使用してアプリケーションにシステム資源を割当てる方法およびシステム
CN109564528B (zh) 分布式计算中计算资源分配的系统和方法
WO2016078178A1 (zh) 一种虚拟cpu调度方法
US20170024251A1 (en) Scheduling method and apparatus for distributed computing system
JP2004062911A (ja) コンピュータ資源の割り当てを管理するシステム
CN108900626B (zh) 一种云环境下数据存储方法、装置及系统
JPH09167141A (ja) 負荷分散制御方法
US7225223B1 (en) Method and system for scaling of resource allocation subject to maximum limits
CN112882827A (zh) 用于负载均衡的方法、电子设备和计算机程序产品
CN111240824A (zh) 一种cpu资源调度方法及电子设备
CN109189581B (zh) 一种作业调度方法和装置
CN112685167A (zh) 资源使用方法、电子设备和计算机程序产品
JP2003131894A (ja) コンピュータ環境の資源管理方法
JP6461224B2 (ja) 中央処理装置のリソース割当方法及び計算ノード
KR20150070930A (ko) 최적 비용을 고려한 마이그레이션 자원 할당 시스템 및 할당 방법
Peng et al. BQueue: A coarse-grained bucket QoS scheduler
CN111694635A (zh) 一种服务质量控制方法及装置
JP2012038275A (ja) 取引計算シミュレーションシステム、方法及びプログラム
Aluri et al. Priority based non-preemptive shortest job first resource allocation technique in cloud computing
WO2022142515A1 (zh) 管理实例的方法、装置以及云应用引擎

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061212