JP2001142858A - コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品 - Google Patents
コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品Info
- Publication number
- JP2001142858A JP2001142858A JP2000290086A JP2000290086A JP2001142858A JP 2001142858 A JP2001142858 A JP 2001142858A JP 2000290086 A JP2000290086 A JP 2000290086A JP 2000290086 A JP2000290086 A JP 2000290086A JP 2001142858 A JP2001142858 A JP 2001142858A
- Authority
- JP
- Japan
- Prior art keywords
- partition
- resources
- cpu
- weight
- partitions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
Abstract
U)リソースを管理すること。 【解決手段】 コンピュータ環境の区画へのCPUリソ
ースの割振りを調整しなければならない時に、割振り
が、動的に調整される。この動的調整は、コンピュータ
環境の少なくとも2つの区画にまたがる。この調整に
は、区画に関連するプロセッサ重みの変更が含まれる。
Description
ュータ・システム内のワークロードの管理に関し、具体
的には、論理分割されたシステムなどの分割されたシス
テムでのワークロードの管理に関する。
または中央演算処理装置複合システム(CPC)内で複
数のシステム・イメージを確立することができる。各シ
ステム・イメージは、別々のコンピュータ・システムで
あるかのように動作することができる。すなわち、各論
理区画は、独立にリセットでき、論理区画ごとに異なる
ものとすることのできるオペレーティング・システムを
当初にロードでき、異なる入出力装置を使用して異なる
ソフトウェア・プログラムと共に動作することができ
る。
例は、たとえば、米国特許第4564903号明細書、
米国特許第4843541号明細書、および米国特許第
5564040号明細書に記載されている。
は、たとえば、プロセッサ・リソース/システム管理機
構(PR/SM)を備えたIBM S/390プロセッ
サが含まれ、PR/SMは、たとえば、IBM社の出版
物「Processor Resource/Systems Manager Planning Gu
ide」、GA22−7236−04、1999年3月に
記載されている。
ムの重要な態様の1つが、そのシステムの区画内で稼動
するワークロードの管理である。たとえば、S/390
システムでは、ワークロード・マネージャを使用して、
区画内および区画間でワークロードを管理する。ワーク
ロード・マネージャは、作業をシステムの物理リソース
に移動することによって、ワークロードの平衡化を試み
る。しかし、作業を移動するためには、リロケートされ
る作業が必要とするデータが、移動先の位置にあること
を保証することが重要である。この必要が、作業の移動
を制限することがしばしばである。したがって、論理分
割されたシステム内でワークロードを平衡化するための
努力が行われてきたが、さらなる必要が存在し、さらな
る努力が必要である。
央処理装置(CPU)リソースを管理する方法を提供す
ることにより、従来技術の短所が克服され、追加の長所
がもたらされる。この方法には、たとえば、コンピュー
タ環境の区画へのCPUリソースの割振りを調整しなけ
ればならないことを判定するステップと、その区画とコ
ンピュータ環境の別の区画との間で割振りを動的に調整
するステップが含まれる。
整が、少なくともその区画のワークロード目標に応答す
る。さらに、もう1つの例では、動的調整は、コンピュ
ータ環境の複数の区画にまたがる。
びコンピュータ・プログラム製品も、本明細書に記載さ
れ、請求される。
態様によって、コンピュータ環境内の中央処理装置リソ
ースの管理が可能になる。たとえば、ワークロード・マ
ネージャは、論理区画に関連するCPUプロセッサ重み
を動的に調整することによって、論理区画にまたがって
CPUリソースを分配することができる。WLMは、た
とえば、それが稼動する区画の重みが低すぎるので重要
なワークロードが遅れている時を理解する。WLMは、
たとえば、この区画の重みを引き上げ、別の区画の重み
を引き下げ、これによって、追加のCPU容量を重要な
ワークロードに提供することによって、このワークロー
ドを助けることができる。本発明のこの態様によって、
有利なことに、ワークロード要件が変化する際に、必要
な区画に動的にCPUリソースを移動することが可能に
なる。
介して実現される。本発明の他の実施形態および態様
は、本明細書に記載されており、請求される発明の一部
とみなされる。
振りの動的調整によって、その環境のワークロードを平
衡化できるようにする、ワークロード管理機能を提供す
る。一例では、コンピュータ環境に、複数の論理区画が
含まれ、ワークロードは、複数の区画にまたがって管理
される。
れ、これを使用するコンピュータ環境の一実施形態を、
図1に関連して説明する。コンピュータ環境100は、
たとえば、米国ニューヨーク州アーモンクのInternatio
nal Business Machines Corporationが提供するエンタ
ープライズ・システム・アーキテクチャー(ESA)/
390に基づく。ESA/390は、IBM社の出版
物、「Enterprise Systems Architecture/390 Principl
es Of Operation」、IBM Publication No.SA2
2−7201−04、1997年6月に記載されてい
る。ESA/390に基づくコンピュータ環境の一例
が、International Business Machines Corporationが
提供する9672 Parallel Enterprise Serverである。
1つまたは複数の中央処理装置106(たとえばCP1
ないしCP4)、1つまたは複数の論理区画108(た
とえば論理区画(LP1ないしLP4))、および少な
くとも1つの論理区画マネージャ110を有する中央演
算処理装置複合システム(CPC)102が含まれる。
これらのそれぞれを、下で説明する。
られる物理プロセッサ・リソースである。具体的に言う
と、各論理区画108は、1つまたは複数の論理プロセ
ッサ(図を明瞭にするために特に図示せず)を有し、こ
の論理プロセッサのそれぞれが、その区画に割り振られ
た物理プロセッサである中央処理装置106のすべてま
たは共用部分を表す。特定の論理区画108の論理プロ
セッサは、その区画専用(その結果、基礎になる中央処
理装置106がその区画のために予約される)とする
か、別の区画と共用する(その結果、基礎になるプロセ
ッサ・リソースが、潜在的に別の区画から使用可能にな
る)のいずれかとすることができる。
しLP4のそれぞれが、常駐するオペレーティング・シ
ステム112(論理区画ごとに異なるものとすることが
できる)と1つまたは複数のアプリケーション114を
有する別々のシステムとして機能する。一実施形態で
は、オペレーティング・システム112は、Internatio
nal Business Machines Corporationが提供するOS/
390またはMVS/ESAオペレーティング・システ
ムである。
(またはそのサブセット)には、区画内および区画間で
ワークロードを管理するためのワークロード・マネージ
ャ116が含まれる。ワークロード・マネージャの一例
が、International Business Machines Corporationが
提供するWLMである。WLMは、たとえば、米国特許
第5473773号明細書および米国特許第56757
39号明細書に記載されている。
で稼動するマイクロコードによって実施される論理区画
マネージャ110によって管理される。論理区画108
(LP1ないしLP4)および論理区画マネージャ11
0のそれぞれには、中央処理装置に関連する中央記憶装
置のそれぞれの部分に常駐する1つまたは複数のプログ
ラムが含まれる。論理区画マネージャ110の一例が、
PR/SMである。
は、複数の中央演算処理装置複合システムが、図2に示
されているように互いに結合されて、シスプレックスを
形成する。一例として、中央演算処理装置複合システム
(CPC)102は、たとえば結合装置122を介し
て、1つまたは複数の他のCPC120に結合される。
理区画124(たとえばLP1ないしLP3)が含ま
れ、これらの論理区画は、論理区画マネージャ126に
よって管理される。1つまたは複数の論理区画に、オペ
レーティング・システムが含まれ、この論理区画は、ワ
ークロード・マネージャおよび1つまたは複数のアプリ
ケーション・プログラムを有することができる(図を明
瞭にするためにこの例では図示せず)。さらに、CPC
120には、複数の中央処理装置128(たとえばCP
1ないしCP3)が含まれ、その中央処理装置のリソー
スは、複数の論理区画の間で割り振られる。具体的に言
うと、リソースは、各区画の1つまたは複数の論理プロ
セッサ130の間で割り振られる(他の実施形態では、
各CPCが、1つまたは複数の論理区画と、1つまたは
複数の中央処理装置を有することができる)。
ージ(SES)プロセッサ)は、中央演算処理装置複合
システムによってアクセス可能な記憶装置を含み、CP
C内のプログラムによって要求される動作を実行する。
結合装置は、共用リソース再分配決定を行う際に使用さ
れる状態情報の共用のために本発明のさまざまな態様に
よって使用される(一実施形態では、各中央演算処理装
置複合システムが、複数の結合装置に結合される)。結
合装置の動作の諸態様は、米国特許第5317739号
明細書、米国特許第5561809号明細書、および米
国特許第5706432号明細書などの参考文献に詳細
に記載されている。
理装置が、少なくとも1つのチャネル・サブシステムに
結合され、このチャネル・サブシステムは、入出力装置
との通信に使用される。たとえば、中央処理装置200
(図3)は、主記憶装置202および少なくとも1つの
チャネル・サブシステム204に結合される。チャネル
・サブシステム204は、さらに、1つまたは複数の制
御装置206に結合される。制御装置は、1つまたは複
数の入出力装置208に結合される。
主記憶装置の間の情報の流れを指示する。チャネル・サ
ブシステムは、中央処理装置を、入出力装置と直接に通
信するという作業から解放し、入出力処理と並列にデー
タ処理を進行できるようにする。チャネル・サブシステ
ムは、入出力装置208との間の情報の流れを管理する
際の通信リンクとして、1つまたは複数のチャネル・パ
ス214を使用する。
チャネル・サブシステム204のチャネル210、制御
装置206、およびチャネルと制御装置の間のリンク2
12が含まれる。他の実施形態では、チャネル・パス
が、複数のチャネル、制御装置またはリンクを有するこ
とができる。さらに、もう1つの例では、チャネル・パ
スの一部として、1つまたは複数の動的交換機を有する
ことも可能である。動的交換機は、チャネルおよび制御
装置に結合され、交換機に付加されるリンクの任意の2
つを物理的に相互接続する能力を提供する。チャネル・
サブシステムに関するさらなる詳細は、参照によってそ
の全体を本明細書に組み込まれる米国特許第55264
84号明細書に記載されている。
ースが、1つまたは複数のワークロード・マネージャの
指示の下で、コンピュータ環境の論理区画の間で動的に
再分配される。この動的再分配は、アプリケーション・
サブシステムにとって透過的である。例として、再分配
される物理リソースには、CPUリソース、論理プロセ
ッサ・リソース、入出力リソース、コプロセッサ、チャ
ネル・リソース、ネットワーク・アダプタ、およびメモ
リ・リソースが含まれる。一例として、コプロセッサ
は、特定の機能をサービスする、CPC内のマイクロプ
ロセッサ(CPU以外の)である。コプロセッサの例に
は、たとえば、チャネル・サブシステム、ネットワーク
・アダプタ・カード、および暗号コプロセッサが含まれ
る。上記の物理リソースは、例として提供されるものに
すぎない。他の共用可能リソースも、本発明の主旨から
逸脱せずに再分配することができる。
に、一実施形態では、論理区画が、グループの区画の間
でリソースを共用するためにグループ化される。各グル
ープのサイズは、1区画からn区画まで変更できる(一
実施形態では、1つまたは複数のグループに1つまたは
複数の区画が含まれるが、区画の数はコンピュータ環境
のすべての区画より少ない)。具体的に言うと、各グル
ープには、たとえば、計算機の独立のドメインで稼動す
る1つまたは複数のオペレーティング・システム・イメ
ージが含まれ、このドメインは、ワークロードおよびリ
ソースを分配するために共通のワークロード・マネージ
ャ機能によって管理される。一例では、これらのドメイ
ンは、論理分割モードで稼動する論理区画であり、オペ
レーティング・システムは、論理区画内で稼動するOS
/390である。グループの論理区画は、システム(た
とえばCPC)またはシスプレックスの区画のサブセッ
ト、システムまたはシスプレックス全体、または、異な
るシスプレックス(たとえば単一のCPC上の)または
異なるシステムの区画とすることができる。
理区画グループ(またはクラスタ)の一実施形態を、図
4に示す。図からわかるように、それぞれに1つまたは
複数の論理区画が含まれる、論理区画グループA300
および論理区画グループB302がある。論理区画のグ
ループ化によって、リソース割振り(たとえば、優先順
位に基づくリソース割振り)を介するグループの区画の
間でのリソース共用が可能になる。
Uリソース、入出力リソース、およびメモリならびに、
コプロセッサまたは他の、計算機が提供することのでき
る共用可能リソースが含まれる。特定の論理区画グルー
プは、特定の計算機のすべてのリソースへのアクセス権
を有する場合とそうでない場合がある。実際に、複数の
論理区画グループを、単一の計算機上で同時に動作する
ように定義することができる。各論理区画グループを効
率的に管理するために、特定の論理区画グループを構成
するリソースは、効果的にそのグループにスコーピング
される。
能であるリソースの識別が含まれる。具体的に言うと、
有効範囲によって、どのリソースがそのグループに制限
され、そのグループのために管理可能であるかが定義さ
れる。論理区画グループを構成する論理区画は、リソー
スのコンテナとみなすことができる。これらのコンテナ
は、論理区画から使用可能なリソース全体の組の境界の
中に存在する。一例では、これは、特定のCPC上で使
用可能なリソース全体の組である。
画グループA)を構成する論理区画には、共用可能なす
べてのリソースのうちの特定の部分が割り当てられる。
たとえば、共用可能なリソースがCPUリソースである
と仮定する。共用CPUリソースについて、論理区画グ
ループAに含まれる論理区画には、中央演算処理装置複
合システムCPUリソース全体のうちの特定の部分が割
り当てられる。これらのリソースは、特定のグループ内
の論理区画ならびに、潜在的に、他の論理区画グループ
内の論理区画およびどの論理区画グループにも含まれな
い論理区画によって共用されている。したがって、グル
ープ内でのリソース移動(たとえば、論理区画グループ
内の1区画からそのグループ内の別の区画へ)に関する
決定を行おうとするワークロード・マネージャは、グル
ープを構成するリソースの理解ならびに、より大きいコ
ンテナ(たとえばCPC)に含まれるものの理解を有す
る必要がある。ワークロード・リソース管理に関する決
定を行うのに使用される測定フィードバック(たとえ
ば、結合装置に記憶された状態情報)は、上記のように
顧客が定義したコンテナを理解するのに十分なものでな
ければならない。
・マネージャが指示する、所与のグループの論理区画で
のリソース割振りに対する変更は、通常は、コンテナ・
サイズ(すなわち、論理区画グループに割り振られるリ
ソース)を一定に保つ形で行われる。たとえば、管理さ
れるリソースがCPUリソースであると仮定し、さら
に、各論理区画に、優先順位を示すCPU処理重みが割
り当てられると仮定する。CPU相対重みを管理するた
めに、所与のグループ内の論理区画の相対重みの合計
が、たとえばワークロード・マネージャを介する、指示
された変更の前と後で一定にならなければならない。こ
れによって、顧客が指定した、グループおよび計算機上
に存在する他の論理区画へのリソースの割振りが維持さ
れる。
リソースが指定された所有者によって使用されていない
時に、区画のグループが、定義されたコンテナより多い
リソースを使用することが望ましく、可能である場合が
ある。しかし、リソースの競合が発生すると同時に、リ
ソースは、定義されたコンテナのサイズ(たとえば、こ
の例では処理重み)に従って、LPARマネージャによ
って管理される。しかし、そのコンテナを超えてグルー
プを拡張することを許可してはならない場合もありえ
る。これは、スコーピングに関してもありえる。他のリ
ソースは、リソースの使用の正確なイメージを得るため
に、単一のグループに完全にスコーピングされる必要が
ある可能性がある。この形での制限によって、所与のグ
ループの外部の論理区画がそのリソースにアクセスでき
なくなる。
ースの可用性に対する外部変更の影響にも考慮を払う。
たとえば、ユーザが、なんらかの外部手段を介して(ワ
ークロード・マネージャの指示の下ではなく)リソース
の割振りを変更する可能性がある。これは、ある計算機
での実際のワークロードの変化、またはグループ間また
は他の論理区画間のビジネス優先順位のシフトが原因で
行われる可能性がある。これらの変更が行われる時に
は、これらの変更は、ワークロード・マネージャによっ
て理解されなければならず、これらの変更の影響は、合
理的に分配されなければならない。変更は、論理区画が
グループに追加または除去される時、グループの外部の
他の論理区画が追加または除去される時、または、単に
外部手段を介して処理重みの変更が行われる時に、発生
する可能性がある。これらの外部変更が実行される時に
は、コンテナのサイズが変更される可能性があり、ワー
クロード・マネージャは、その新しいサイズのコンテナ
のマネージャになる。
スが外部から変更される時には、グループ内のリソース
の再分配が必要になる可能性がある。たとえば、論理区
画がグループから除去される時には、その論理区画に関
連する処理重みが、そのグループから除去される。その
論理区画について現在ワークロード・マネージャが割り
当てている重みが、除去される論理区画の重み(すなわ
ち、当初に論理区画に関連する処理重み)より大きい場
合には、これらの重みの間の差が、そのグループ内の他
の論理区画に追加される。これは、たとえば、グループ
内の他の論理区画での重みの既存の分配に比例して行わ
れる。論理区画について現在ワークロード・マネージャ
が割り当てている重みが、論理区画の初期重みより小さ
い場合には、これらの重みの間の差が、グループ内の他
の論理区画から減算される。やはり、これは、一例とし
て、他の論理区画の重みの割り当てに比例して行われ
る。
プに割り当てられたリソースおよび変更を許可されたリ
ソースへのハンドルを得るためにスコーピングされ、そ
の結果、ワークロード・マネージャは、次に何を行うか
に関して正しい決定を行えるようになる。スコーピング
によって、グループが識別され、プログラムが理解でき
る情報がプログラムに供給される。グループが変更され
る時には、リソースは、その変更を満足するために動的
に調整される。
ループ(クラスタ)を設けることができる。たとえば、
論理区画グループAをCPUリソースに関するものと
し、論理区画グループBを入出力リソースに関するもの
とすることができる。しかし、他の実施形態では、1つ
の論理区画グループを、リソースのサブセットまたはす
べてに関するものとすることも可能である。
に、一例では、論理区画が、1つまたは複数の区画のグ
ループに対してそれ自体を識別する。グループへの加入
に関連する論理の一実施形態を、図5に関連して説明す
る。たとえば、論理区画グループに加入するために、論
理区画で稼動するオペレーティング・システム(たとえ
ばOS/390)は、その論理区画がその一部になろう
とするLPARグループがどれであるかをLPARマネ
ージャに示す(ステップ400)。一例として、命令を
使用して、LPARグループ名をLPARマネージャに
渡す。オペレーティング・システムは、LPARグルー
プ内で管理されるリソースのタイプごとに名前を指定す
る。したがって、他のリソースがある場合には(問合せ
402)、他の名前を指定する。たとえば、あるグルー
プ名が、CPUリソースについて与えられ、もう1つの
名前が、入出力リソースについて与えられる。望むなら
ば、各リソース・タイプについて同一のLPARグルー
プ名を指定することができる。
算機上で新しいLPARグループが確立される(論理区
画がその名前を使用する最初の論理区画である場合)
か、この論理区画がそのリソース・タイプに関する同一
の名前の既存のLPARグループに加入することになる
かのいずれかになる。たとえば、グループ名が指定され
た(ステップ404)(図6)後に、それが新しい名前
であるかどうかに関する判定を行なう(問合せ40
6)。そうである場合には、新しいグループを作成する
(ステップ408)。そうでない場合には、既存のグル
ープに加入する(ステップ410)。その後、リソース
をグループにスコーピングする(ステップ412)。
ンドされるグループ・タイプのリソースは、LPARグ
ループ内で稼動するWLMがそうする必要があると判定
した場合に、その時に、その論理区画が使用するために
使用可能にされる。スコーピングを必要とするLPAR
グループの特定のタイプのリソースには、少なくとも2
つの変形すなわち、追加リソースおよび固定リソースが
含まれる。
Rグループへの加入によって、本質的に、論理区画が加
入したばかりのLPARグループにリソースが追加され
る。この一例が、CPU処理重みであり、これは、たと
えば、顧客によって、ハードウェア・コンソールで論理
区画に割り当てられる。論理区画の現在の(使用中の)
処理重みは、論理区画が活動化される時に、この顧客が
割り当てた重みから初期設定される。論理区画がCPU
リソースに関するLPARグループに加入する時には、
その論理区画に顧客が割り当てた処理重みが、LPAR
グループ内での使用のために使用可能な総処理重みの一
部になり、したがって、WLMによってLPARグルー
プ内で再割り当てすることが可能になる。LPARグル
ープに加入したばかりの論理区画は、寄与が行われたば
かりのLPARグループ・リソースのより大きい組を使
用する潜在能力を有する。
スの組が、特定のLPARグループに属するものとして
事前に定義される。この一例が、管理対象(浮動)チャ
ネル・パスである。管理対象チャネル・パスとは、ワー
クロード目標を達成するのを助けるためにそのリソース
を再割り当てすることができるチャネル・パスである。
特定のLPARグループによる使用のための管理対象チ
ャネル・パスの組は、当初は、チャネル・パス(CHP
ID)をLPARグループに関連付ける入出力構成定義
処理を介して定義される。論理区画は、このLPARグ
ループに加入する時に、このチャネル・パスの組へのア
クセスを許可される。論理区画自体は、このリソース・
プールに全く寄与しない(このリソースのプールは、や
はり動的に変更することができるが、要点は、論理区画
がLPARグループに加入し、離脱する際にリソースが
論理区画と共に移動しないことである)。
応じてリソースに対して異なる形で実施することができ
る。
レーティング・システムは、そのLPARグループのこ
のタイプのリソースの完全な組を問い合わせることがで
きる。一例として、CPU処理重みの場合、これは、命
令を介して達成される。オペレーティング・システム
は、LPARグループ内のこのリソース・タイプの組全
体、グループ内の論理区画へのリソースの割振り、およ
び現在の計算機上で使用可能なリソース・プールの完全
なサイズを知る。これらの構成要素のすべてが、全物理
リソースのうちのどれだけが論理区画に割り振られるか
を理解するのに使用される。その後、オペレーティング
・システムは、LPARグループ内の論理区画への割振
りを更新して、グループ内のリソースを再割当てする。
オペレーティング・システムは、一例では、LPARグ
ループに割り振られるリソースの総量を変更することを
許可されない。LPARマネージャは、LPARグルー
プのすべての部分が、更新で考慮され、LPARグルー
プの外部の論理区画がそのリソースに影響を受けないよ
うにすることによって、これを実施する。
レーティング・システムは、このタイプのリソースにつ
いて、そのLPARグループに関連するリソースの組を
問い合わせる。たとえば、管理対象チャネル・パスにつ
いて、特定のLPARグループについて定義された管理
対象チャネル・パスのリストを、命令を介してLPAR
マネージャから取り出すことができる。LPARマネー
ジャは、これらのリソースのスクリーニングも行って、
これらが正しいLPARグループによってのみ使用され
るようにする。管理対象チャネルの場合、これは、管理
対象チャネル・パスを、その管理対象チャネル・パスに
ついて定義された名前と一致するLPARグループ名を
宣言した論理区画に対してオンラインに構成することだ
けが許可されることを意味する。
が、システム・リセット、再IPL、または非活動化さ
れる時には、その論理区画が1つまたは複数のLPAR
グループに関して有した所属のすべてが除去される。グ
ループからの論理区画の除去に関連する論理の一実施形
態を、図7に関連して説明する。リセットの一部とし
て、論理区画マネージャは、宣言されたLPAR区画グ
ループ名を論理区画から除去する(ステップ500)。
次に、リソースに応じて(問合せ502)、その論理区
画のLPARグループ・リソース割振り解除を完了する
ための1つまたは複数の他の処置を実行する。
が行われる。このような、論理区画がLPARグループ
に加入した時にLPARグループに追加されたリソース
は、LPARグループから除去される(ステップ50
4)。これには、このタイプのリソースの、LPARグ
ループの残りのメンバへの現在の割振りの調整が含まれ
る場合がある。たとえば、処理重みの場合、グループを
離脱する論理区画の初期処理重みが、LPARグループ
の有効範囲から除去される。WLMが、論理区画の現在
の処理重みを変更している場合には、調整を行う必要が
ある。論理区画の現在の処理重みが、その初期処理重み
より大きい場合には、この2つの間の差が、残りのLP
ARグループ・メンバに、その現在の処理重みに比例し
て再分配される。論理区画の現在の処理重みが、その初
期処理重みより小さい場合には、この2つの間の差が、
残りのLPARグループ・メンバから、その現在の処理
重みに比例して除去される。この調整の結果として、結
果のLPARグループに対する処理重みコンテナの内容
が再確立される。
合には、以下が行われる。このようなリソースは、リセ
ットされる論理区画の構成から単純に除去される(ステ
ップ506)。たとえば、管理対象チャネル・パスの場
合、チャネル・パスは、リセットされる論理区画から構
成解除される。これによって、LPARグループのメン
バだけが、LPARグループのリソースにアクセスでき
ることが、もう一度再確立される。
管理されるリソースの一部が、グループ・スコーピング
の必要を有しない場合があることにも留意されたい。そ
のようなリソースの一例が、論理区画のためにオンライ
ンになる論理中央処理装置(CP)の数である。LPA
Rグループ内の特定の論理区画の効果的な挙動は、その
論理区画に対してオンラインである論理CPの数によっ
て大きく影響される可能性がある。論理区画が定義する
ことのできるまたはオンラインである論理CPの数は、
その論理区画がLPARグループに含まれるか否かに無
関係に論理区画の特性であり、したがって、このリソー
スは、実際にはリソースのより大きいプールの一部には
ならない。しかし、LPARグループでのその効果は、
それによって、別のLPARグループ・メンバに対して
あるLPARグループ・メンバ内で効果的に動作させる
ことができるワークロードのタイプを変更できることで
ある。
るリソースが、CPUリソースである。本発明の一態様
では、OS/390ワークロード・マネージャは、論理
区画に関連する1つまたは複数の相対プロセッサ重みを
動的に調整することによって、論理区画の間でCPUリ
ソースを再分配する。WLMは、重要なワークロードが
稼動する区画の重みが低すぎるので重要なワークロード
が遅延される時を理解する。WLMは、この区画の重み
を引き上げ、別の区画の重みを引き下げることによって
このワークロードを助けることができ、これによって、
追加のCPU容量が重要なワークロードに与えられる。
CPUリソースは、ワークロード要件が変化する際に、
必要な区画に動的に移動される。
理の有効範囲が、論理区画グループである。一例とし
て、WLMは、論理区画重みを調整するが、グループ内
の区画の重みの合計を一定に維持する。合計を一定に維
持することによって、グループに割り振られる総CPU
リソースが、同一の物理コンピュータ上の他の独立のグ
ループに対して相対的に同一に保たれる。したがって、
WLMは、ある区画の重みを引き上げる時に、同一のグ
ループ内の別の区画の重みを下げる。
リソース割振り技法に対する機能強化であり、これは、
たとえば、米国特許第5473773号明細書および米
国特許第5675739号明細書に記載されている。
に、WLMは、CPUディスパッチ優先順位を調整する
ことによって、論理区画内のCPUリソースの割振りを
制御する。CPUディスパッチ優先順位は、サービス・
クラス・レベルで作業に割り当てられる。しかし、ディ
スパッチ優先順位の調整がサービス・クラスを助けな
い、さまざまな状況がある。たとえば、 1)サービス・クラスが、単独で、すでに非システム作
業に許可される最高のCPUディスパッチ優先順位であ
る。 2)サービス・クラスを助けるためのCPUディスパッ
チ優先順位の変更が、それ以上の重要性を有する他のサ
ービス・クラスに及ぼす悪影響が大きすぎる。
が、CPU遅延に起因してその目標を失いつつあり、そ
れをCPU優先順位の調節によって助けることができな
いことを見つけた時に、WLMは、失敗しつつあるサー
ビス・クラスに関連する区画の重みの調節を検討する。
サービス・クラスを、レシーバ・サービス・クラスと呼
ぶ。WLMは、上に示した理由のどれかのために助ける
ことができない、所与の区画でのCPU遅延に起因して
目標を失いつつあるレシーバ・サービス・クラスを見つ
けた時に、WLMは、その区画の重みを引き上げること
を検討する。レシーバ・サービス・クラスを助けるため
に区画の重みを引き上げることができるかどうかを判定
するためにWLMが従う論理の一実施形態を、図8に関
連して下で説明する。
クラスに及ぼす影響を見積もる(ステップ600)。区
画の重みを増やすと、その区画のCPU容量が増える。
レシーバ・クラスでの作業のCPU需要は、一定と仮定
されるので、区画のCPU容量を増やすと、レシーバ・
サービス・クラスが必要とする、この容量の比率が減
る。レシーバ・サービス・クラスに対する利益の見積も
りは、レシーバ・サービス・クラスと、システム需要に
対する他の作業の両方の、使用可能なCPU容量の比率
のこの減少に基づく。
理区画グループ内の別の区画を見つける(ステップ60
2)。この区画を、候補ドナー区画と称する。候補ドナ
ー区画は、たとえば、区画の重みを下げることによっ
て、最も重要さの少ない作業が影響を受ける可能性が高
い区画を探すことによって、選択される。
で稼動する作業を有するすべてのサービス・クラスに対
する影響を見積もる(ステップ604)。候補ドナー区
画の重みを減らすことによって、候補ドナー区画のCP
U容量が減る。このCPU容量の減少は、候補ドナーの
容量の比率としての、候補ドナーで稼動する作業を有す
るサービス・クラスのCPU需要が増えることを意味す
る。候補ドナーの重みを減らすことの悪影響の見積もり
は、これらのサービス・クラスが必要とする使用可能C
PU容量の比率のこの減少に基づく。
どうかを判定する(問合せ606)。すなわち、レシー
バ・サービス・クラスに対する利益が、関係するサービ
ス・クラスの目標および重要性に基づく、候補ドナー区
画の作業に対する悪影響に優越するかどうかを判定す
る。
は、提案された区画の重みに対する変更を実施する(ス
テップ608)。正味の値がない場合には、ほかに候補
ドナー区画があるかどうかに関する判定を行う(問合せ
610)。そうである場合には、もう1つの候補ドナー
区画を選択し(ステップ612)、処理はステップ3
(ステップ604)で続行する。ほかに候補ドナー区画
がない場合には、処理を終了する(ステップ614)。
稼動する作業に対する区画重み変更の効果の見積もりを
行えるようにするために、各区画は、グループ内の各論
理区画に関する性能データを含む共用データ構造へのア
クセス権を有する。この区画レベルの性能データには、
たとえば以下が含まれる。 ・サービス・クラスによって区画で実行される作業のC
PU要件 ・各サービス・クラスが、その目標に向かってその区画
上でどの程度良好に動作しているか ・区画のCPUディスパッチ優先順位によるCPU使用
量
共用データ構造が、結合装置内で作成され、維持され
る。しかし、メッセージ交換または共用ディスクなどの
他のデータ共用手法を使用して、このデータ構造を実施
することができる。
PUリソースを動的に再分配する能力である。リソース
は、一例として、論理区画重みを動的に調整することに
よって、論理区画の間で再分配される。
調整のほかに、本発明のもう1つの態様では、論理プロ
セッサ・リソースも動的に調整することができる。
ッサと共に構成され、この論理プロセッサは、中央演算
処理装置複合システムの物理中央処理装置上で、作業を
実行するためにディスパッチされる。区画がそれに割り
当てられたCPU容量を消費できるようにするために、
十分な論理プロセッサを論理区画に構成しなければなら
ない。たとえば、10個のCPUを有するCPC上で稼
動する論理区画Aの場合を検討する。ワークロード・マ
ネージャが、論理区画AにCPCの容量の50%を割り
当てる場合、論理区画Aは、少なくとも5つの論理プロ
セッサをそれに構成されることを必要とする(5つの論
理プロセッサは、CPUのうちの5つすなわちCPCの
容量の50%で稼動することができる)。論理区画A
に、その後、CPCの容量の95%が割り当てられた場
合、論理区画Aは、10個の論理プロセッサを有するよ
うに構成されるはずである。WLMは、静的に定義され
た論理プロセッサ構成を用いて論理区画Aに割り当てら
れた容量を動的に調整することができるので、すべての
可能な容量割当てを収めるために、10個の論理プロセ
ッサが論理区画Aに構成される。しかし、論理区画A
に、たとえばCPCの容量の20%だけが割り当てられ
る場合には、静的に定義された論理プロセッサから次の
2つ問題が生じる。1)10個の論理プロセッサのそれ
ぞれが、平均して、物理CPUの容量の0.2の比率で
物理CPUリソースを消費することしかできない(10
個のCPUの20%を10個の論理プロセッサによって
分割すると、1論理プロセッサあたり0.2CPUにな
る)。これは、スループットが単一のタスクによってゲ
ーティングされるワークロードを厳しく制限する可能性
がある。というのは、その単一のタスクを、物理CPU
の容量の0.2倍で実行することしかできなくなるから
である。これを、ショート・エンジン効果(short engi
ne effect)と称することがしばしばである。2)2つ
の論理プロセッサだけが必要な時に10個の論理プロセ
ッサを管理しなければならない時に、ソフトウェアおよ
びハードウェアの効率が大きく低下する。
構成は、本発明の一態様によれば、静的に定義されるの
ではなく、動的に調整される。一例では、区画を管理
し、動的調整を行うのは、WLMである。WLMは、コ
ンピュータ環境(またはLPARグループ内)の各論理
区画についてこれを行うことができる。論理プロセッサ
の構成の動的調整に関連する論理の一実施形態を、図9
に関連して説明する。
ジャによって論理区画に割り当てられた容量(または、
実際に使用されている容量の方が大きい場合にはその容
量)を消費できるようにするのに必要な最小の個数の論
理プロセッサを用いて構成する(ステップ700)。論
理区画の容量割り当て(または容量使用量)が変化する
際に(問合せ702)、評価を行って、論理区画に構成
される論理プロセッサの数を変更しなければならないか
どうかを判定する(ステップ704)。一例では、論理
区画に構成される論理プロセッサの数は、論理区画に割
り当てられた(または論理区画によって消費される)C
PC容量を提供するのに必要な物理CPUの数に近いま
まになる。したがって、各論理プロセッサは、物理CP
Uの容量に近い状態で実行され、管理される論理プロセ
ッサの数が、最小になる。
ために、一例では次の式を使用する。 L=floor[max(W,U)×P+1.5](最大値L=
P) ここで、L=論理区画に構成される論理プロセッサの
数、W=論理区画に割り当てられるCPC容量の比率、
U=論理区画によって現在使用されているCPC容量の
比率、P=CPC上の物理CPUの数である(ステップ
705)。
ル(たとえば10秒ごと)に、P、W、およびUの現在
の値に基づいて、ワークロード・マネージャによって評
価される。閾値を使用して、論理区画のLの実際の値
(L−act)を上げるか下げるかしなければならない
かどうかを判定する。新たに計算されたLの値(L−c
alc)が、L−actの現在の値より高い場合(問合
せ706)、L−actをL−calcまで引き上げる
(ステップ708)。そうでない場合に、L−calc
がL−actより2つ以上小さい値である場合(問合せ
710)、L−actにL−calc−1をセットする
(ステップ712)。L−calcが、L−actと等
しいか、L−actより1つだけ小さい場合には、論理
区画のL−actの値の変更は行われない(ステップ7
14)。これらの閾値の使用を介して、ワークロードの
すばやく高まる容量需要に応答しながらも、小さいワー
クロード変動に起因するL−actの無用な変更が回避
される。
たい。P=10、W=U=24%と仮定する。論理プロ
セッサの静的構成では、Wが90%を超えて増加する場
合を扱うために、L(静的)=10が必要になるはずで
ある。しかし、本発明のこの態様によれば、L(動的)
=floor[max(.24,.24)×10+1.5]=3
である。したがって、この例では、L(静的)では、単
一のタスクが物理CPUの0.24で実行されるように
制約されるが、L(動的)では、単一のタスクが、物理
CPUの0.80で実行されることが可能であり、これ
によって、単一タスク性能によってゲーティングされる
ワークロードのスループットの233%の向上がもたら
される。さらに、この例では、L(静的)に必要な10
個の論理プロセッサではなく、3つの論理プロセッサだ
けが管理されるので、本発明のこの態様に起因して、ソ
フトウェアおよびハードウェアの効率が大幅に改善され
る。
の共用可能リソースは、本発明の一態様によれば、入出
力リソースなどの非同期リソースである。具体的に言う
と、コプロセッサ(たとえばチャネル・サブシステム)
内の入出力動作または入出力要求が管理される。この管
理には、優先順位の高い入出力動作がすばやく処理され
る、より高い優先順位の入出力動作がチャネルのより多
くの帯域幅を割り当てられる、もしくはその両方などの
入出力動作の優先順位付けが含まれる。
ュータ・システムでは、付加された入出力装置の読取、
書込、および制御のための入出力動作などの長時間稼動
する処理の開始および実行は、通常は、複数の独立に動
作する計算要素(図10参照)の使用によって達成され
る。たとえば、中央処理装置800内で実行中のプログ
ラムは、付加された装置804との入出力動作を要求す
ることができる。しかし、付加された装置との入出力動
作の実際の開始および実行は、通常はチャネル・サブシ
ステム802と呼ばれる、1つまたは複数の別々に独立
に実行する、一緒に動作するプロセッサによって実行さ
れる。一般に、非同期入出力処理方法は、比較的長時間
稼動する入出力装置の実行と並列に他の作業のために中
央処理装置を最適化し効率的に使用するために使用され
る。すなわち、そうしなければ付加された入出力装置に
アクセスし、読み書きするために必要になるはずの総プ
ロセッサ・オーバーヘッド、処理時間、およびプロセッ
サ待ち時間を最小にするためである。そのような方法
は、大規模多重プログラミング・システムで他のプロセ
ッサ作業の実行と入出力動作との、最大のオーバーラッ
プまたは実行の並列性を達成するように設計される。
は、中央処理装置が、S/390 START SUB
CHANNEL命令などの入出力命令の使用によってプ
ログラムが要求した入出力動作の実行を開始する。その
ような命令は、通常は、次の2つの責任を負う。 1.チャネル・サブシステムの入出力作業キューに入出
力動作要求をエンキュー(追加)し、 2.入出力作業キューを処理するために非同期に実行中
のチャネル・サブシステムにシグナルを送る。
を実行することができ、入出力装置との要求された入出
力動作の実際の実行に直接にはかかわらない。
理装置とチャネル・サブシステム・プロセッサの独立動
作、3)中央処理装置の実行速度と比較して相対的に長
い、入出力動作の実行時間、および4)装置をチャネル
・サブシステムに接続するチャネル・パスなどのチャネ
ル・サブシステム・リソースの一部またはすべてが、入
出力動作がプログラムによって要求された時に他の動作
の実行で使用中である可能性があるという事実に起因し
て、複数の入出力要求が、チャネル・サブシステム入出
力作業キューに同時にエンキューされる可能性が非常に
高い。すなわち、START SUBCHANNEL命
令は、チャネル・サブシステムが要求された入出力動作
を実行する能力より高い速度で中央処理装置によって実
行され、これによって、保留入出力動作要求のNレベル
の深さの入出力作業キューが継続的に引き起こされる。
ル・サブシステムを構成するマイクロプロセッサは、そ
れぞれの入出力作業キューを検査し(図10参照)、1
つまたは複数の入出力要求をこれらのキューからデキュ
ーし、それぞれの入出力装置に関するデキューされた入
出力要求の開始を試みる。この活動の発端は、チャネル
・サブシステム内の問題のマイクロプロセッサおよび作
業キューに応じて変化する。たとえば、中央処理装置と
対話するチャネル・サブシステム入出力プロセッサは、
他の作業の実行に使用中でない時に周期的に、1つまた
は複数の中央処理装置START SUBCHANNE
L信号の結果として、またはこの両方の組合せで、この
処理を開始する可能性がある。
キューの一例を、図10に関連して説明する。前に述べ
たように、入出力要求は、たとえばSTART SUB
CHANNEL命令によって、入出力プロセッサ作業キ
ュー806にエンキューされる。その後、入出力要求
は、入出力プロセッサ808によって、入出力プロセッ
サ作業キューからデキューされる。入出力プロセッサ作
業キューからデキューされた要求は、入出力プロセッサ
によって、チャネル・プロセッサ作業キュー810にエ
ンキューされる。その後、これらの要求は、チャネル・
プロセッサ812によってデキューされ、制御装置作業
キュー814にエンキューされる。チャネル・プロセッ
サは、制御装置作業キューから要求をデキューして、チ
ャネル・パスを介して制御装置へ、最終的には入出力装
置へ送る。
のシステム内では、チャネル・サブシステムのデキュー
処理および作業初期設定処理は、先入れ先出し法(FI
FO)に基づいて実行される。この処理は、論理的に実
施が最も単純であり、スループットの最適化を目的と
し、過去には、保留作業キューの平均深さが比較的浅
く、入出力作業保留時間が比較的短い持続時間にとどま
る(すなわち、さまざまな入出力作業キューの保留入出
力要求の平均数が、高い重要性のプログラムまたはリア
ルタイム・クリティカル・プログラムに関連する入出力
動作の総入出力応答時間を大幅に引き延ばさない)なら
ば、さまざまな非同期処理要素の間の作業転送のために
許容される戦略であった。
存の作業の適時な処理に関するユーザの需要をサポート
するためにアプリケーション/プログラム優先順位付け
機能を提供するオペレーティング・システムでは、保留
入出力要求に関するFIFO処理戦略は、FIFO作業
キューの平均深さが増えるにつれて、ますます許容され
なくなる。たとえば、IBM Enterprise Storage Serv
erと共に使用される並列アクセス・ボリュームでは、チ
ャネル・サブシステムの平均キュー深さが増える。これ
は、通常は、重要性が低いかタイム・クリティカルでな
い入出力要求が、FIFO作業キュー上でより重要な要
求の前にキューに置かれる可能性があり、したがって、
よりクリティカルな入出力要求の前に開始されることに
なるという事実に起因する。頻繁に、クリティカルでな
い作業は、長時間にわたってリソースを束縛する入出力
を実行し、より重要な作業が遭遇する遅延が増える。こ
れは、通常は、より重要な入出力要求の遅延の可能性が
高まることをもたらす。
アルタイム遅延または中央処理装置の速度と比較した時
の相対時間遅れのいずれかとすることができる)の増加
は、チャネル・サブシステムおよび付加された装置が、
クリティカルな入出力要求の適時の完了に影響しない入
出力実行の速度を維持する能力がないこと(言い換える
と、高い重要性/時間にクリティカルなプログラムの実
行時間の許容不能な延長をもたらさない実行速度を維持
する能力がないこと)に起因することがしばしばであ
る。上で述べたように、クリティカルな入出力要求に関
する総入出力応答時間の許容不能な延長の確率は、FI
FO作業処理方法が使用される時に、一般に高まる。こ
の遅延の確率は、中央処理装置の速度および数が、付加
される入出力装置および、装置が付加されるチャネル・
パスなどの他の必要なチャネル・サブシステム要素の速
度の向上より高い割合で向上する際に、さらに大きくな
る。一般に、入出力速度の向上の割合に対する中央処理
装置の速度の向上の割合の不一致は、現在の大規模シス
テム環境で増大を続け、その結果、クリティカルな作業
のキューイング遅延およびより大きい入出力応答時間
(リアルタイムまたは相対時間のいずれか)の確率がま
すます高まる。
ューイング遅延に起因する、高い重要性の入出力動作お
よび時間にクリティカルな入出力動作の長い入出力応答
時間の頻度を最小にするために、優先順位処理技法を定
義して、1つまたは複数のチャネル・サブシステム保留
入出力作業キューを処理する。
プロセスの間の優先順位処理技法の実施の例には、以下
が含まれる。 1.エンキュー・プロセッサ(またはプロセス)が、プ
ログラム指定の(たとえばWLMによる)優先順位番号
に基づく優先順位シーケンシング技法を使用して、チャ
ネル・サブシステム入出力作業キュー(処理の段階に依
存する特定のキュー)に入出力要求を追加する。チャネ
ル・サブシステムは、その後、FIFI技法を使用し
て、作業キューから最初の最も優先順位の高い入出力要
求を除去する。または、 2.エンキュー・プロセッサ(またはプロセス)が、F
IFOエンキュー技法を使用して、入出力作業キューの
最下部に入出力要求を追加する。チャネル・サブシステ
ムは、優先順位選択技法を使用して、その後、作業キュ
ーのすべての入出力要求要素を探索し、最も高いプログ
ラム指定の優先順位番号を有する入出力要求を除去し、
処理する。
必要な命令が少なく、したがって、中央処理装置が、入
出力要求スケジューリング処理をよりすばやく完了する
ことができる。これによって、中央処理装置は、よりす
ばやく他の作業を実行できるようになる。チャネル・サ
ブシステムを構成するさまざまなマイクロプロセッサの
間のエンキュー/デキュー処理について、選択すべき技
法は、通常は、参加するプロセッサのどれが、その処理
容量および適時性の要件に関して最も制約されるかに依
存する。すなわち、エンキュー・プロセッサが最も制約
される場合には、第2の技法を選択する。デキュー・プ
ロセッサが最も制約される場合には、通常は第1の技法
を選択する。
係に、その結果は、チャネル・サブシステムが、到着時
刻またはFIFO方法ではなく、優先順位付け方法に基
づく保留入出力要求の開始および実行を優先することで
ある。
キュー技法および選択技法に無関係に、処理される要求
の優先順位付けまたは選択もしくはその両方に、さまざ
まな判断基準が使用される。一例では、この判断基準に
以下が含まれる。
に対応する、プログラム指定の優先順位番号に基づく保
留入出力要求の選択。たとえば、連続する独自の番号の
範囲を設け、数の範囲全体が、優先順位の区別を必要と
する別個の作業カテゴリの総数以上になるようにする。
たとえば、システムが、通常のS/390システムで可
能であるように、N個の異なるオペレーティング・シス
テムを同時に実行する能力を有する場合には、チャネル
・サブシステム優先順位技法は、N個以上の別個の優先
順位レベルを提供しなければならない。最低のレベルか
ら最高のレベルまでまたはその逆の各優先順位レベル
は、0からN−1までの範囲の独自の数によって表され
るはずである。
ーされた要求に「フェアネス」も適用する技法を使用す
る、保留入出力要求の優先順位選択。これは、通常は、
たとえば、長時間にわたってチャネル・サブシステムに
不相応に多数の高い優先順位の要求が提示されることに
起因して発生する可能性がある、低い優先順位の要求が
長時間にわたって処理されない確率を最低にするために
所望される。フェアネス選択は、他の考慮点に応じて、
同一の優先順位の保留要求に適用することもできる。た
とえば、まだ選択されていない他の同一優先順位の要求
と共に、すでにデキューされ、開始に失敗し、複数回再
キューイングされた保留要求にフェアネスを提供するこ
とである。このような技法を、図11に関連して説明す
る。この技法では、複数の異なるカテゴリの保留要求
に、優先順位とフェアネスの両方を適用する。
の制御 1.優先順位処理技法のグローバルな使用可能化/使用
不能化。この制御は、優先順位技法が不要であるか、非
類型的なプログラム実行環境に適当に対応することがで
きない場合に、保留要求のFIFO処理を共生するため
に必要になる場合がある。 2.複数の論理区画の並列実行を提供するシステムの場
合の、所与の論理区画に関連する入出力要求の「デフォ
ルト」優先順位値をユーザが指定できるようにする外部
制御。これは、論理区画内で実行中のオペレーティング
・システムが、その入出力要求の優先順位値を指定する
ように設計されていないが、それでも、入出力優先順位
付けを指定する他の論理区画内で実行中の他のオペレー
ティング・システムと成功裡に競合しなければならない
時に使用される。 3.複数の論理区画の並列実行を提供するシステムの場
合の、チャネル・サブシステムによって供給される値の
組全体からの、各論理区画の優先順位値のサブセット最
小最大範囲をユーザが指定できるようにするための外部
制御。この制御は、別々の論理区画内で実行中の複数の
オペレーティング・システムが、入出力優先順位を独立
に、それを使用する他の区画の知識なしに使用する時に
使用される。すなわち、各使用する区画によって開始さ
れる要求の優先順位に基づく分離を可能にするための制
御である。
実施形態では、中央処理装置が、論理区画内で実行中の
プログラムのユーザ指定のデフォルト優先順位値または
ユーザ指定の最大/最小許容優先順位を、その区画で動
作するプログラムに透過的な形で、暗黙のうちに割り当
てる。S/390システムでは、これは、論理区画マネ
ージャ(ハイパーバイザ)および中央処理装置のSTA
RT SUBCHANNEL命令によって共同で達成す
ることができる。
力動作を開始するためにSTARTSUBCHANNE
Lを実行する時には、中央処理装置でのSTART S
UBCHANNEL命令の解釈実行で、暗黙のうちに、
SIE(Start Interpretive Execution)SD(State
Description)テーブルから、デフォルト優先順位番号
および最大/最小許容優先順位番号の両方が獲得され
る。このテーブルは、論理区画ハイパーバイザが区画を
実行状態にするためにSIE命令を実行する時に、その
論理区画ハイパーバイザによって、中央処理装置内に作
成され、ロードされる。その後、START SUBC
HANNELの解釈実行では、SIE状態記述テーブル
のデフォルト優先順位値および最大/最小優先順位値を
使用して、論理区画内で動作するプログラムによる関与
なしで、適当な優先順位値を入出力要求に暗黙のうちに
セットする。
グラムによって指定されない時には、START SU
BCHANNELの解釈で、ユーザ指定のデフォルト優
先順位値が入出力要求に割り当てられる。論理区画内で
実行中のプログラムが、START SUBCHANN
ELを実行する時に優先順位番号を指定する時には、S
TART SUBCHANNELの解釈実行で、プログ
ラム指定の優先順位値を、状態記述テーブル内のハイパ
ーバイザ指定の最小/最大優先順位値と比較する。プロ
グラム指定の優先順位が、ハイパーバイザ指定の最小値
より小さい時には、状態記述テーブルからの最小値によ
って、暗黙のうちにプログラム指定の値を置換する。プ
ログラム指定の優先順位値が、ハイパーバイザ指定の最
大優先順位を超える時には、状態記述テーブルからの最
大優先順位値によって、プログラム指定の値を置換す
る。
て、優先順位選択技法を導出することができる。上記の
判断基準の少なくともいくつかを使用する、処理される
要求を選択するための技法の一実施形態を、図11に関
連して説明する。
(ステップ900)。たとえば、入出力プロセッサ作業
キュー、チャネル・プロセッサ作業キュー、または制御
装置作業キューのいずれかにアクセスする。その後、デ
キューされた保留要求のカウントを1つ増分する(たと
えば、DQCOUNT=DQCOUNT+1)(ステッ
プ902)。
るかに関する判定を行う(ステップ904)。一例で
は、選択されるカテゴリが、(DQCount MOD
ULUS カテゴリ数)に等しい。したがって、この例
では4つのカテゴリがあるので、選択されるカテゴリ
は、DQCount MODULUS 4に等しい。結
果が0の場合には、任意の優先順位の最初の要求をデキ
ューする(ステップ906)。しかし、選択されるカテ
ゴリが1の場合には、前にデキューされていない最高優
先順位の最初の要求を選択する(ステップ908)。さ
らに、選択されるカテゴリが2の場合には、前にデキュ
ーされ、開始に成功しなかった最高の優先順位の最初の
要求を選択する(ステップ910)。しかし、結果が3
の場合には、前にデキューされていない任意の優先順位
の最初の要求を選択する(ステップ912)。その後、
選択された要求をデキューし、処理する(ステップ91
4)。
の非同期要求のための優先順位付け機構である。入出力
要求およびチャネル・サブシステムに関連して例を説明
したが、これらは例にすぎない。本発明は、他の非同期
要求およびコプロセッサに同等に適用可能である。さら
に、上に記載の例は、キューイングに関連して説明した
が、同様の優先順位付け機構を使用して、複数の動作を
同時に実行できるチャネル上のリソース(たとえば帯域
幅)の割り当てを調整することができ、これによって、
すべてを同等に実行するのではなく、優先順位の高い動
作により多くのチャネル・リソースを与えることができ
る。
は、論理分割されたシステムに関連して説明されるが、
本発明の入出力優先順位機能を含むがそれに制限されな
い本発明のさまざまな態様は、論理区画を有しないかサ
ポートしないシステム内で使用可能である。
介入なしに使用可能なチャネル・リソースを必要な場所
に移動するか、余分のチャネル・リソースを除去するた
めに、コンピュータ環境の入出力構成(たとえばチャネ
ル・パス構成)を動的に変更することができる。これに
よって、入出力を構成するのに必要な技術が減り、総合
的なシステム可用性が強化され、導入されたチャネルの
利用度が最大になり、使用可能入出力容量を分配するの
にワークロードの相対優先順位が使用される。一実施形
態では、「最良」の変更を決定するために、変更を行う
前に1つまたは複数の要因を調べる。この要因には、た
とえば、応答時間または入出力速度に対する影響、特定
のワークロード目標を達成するための応答時間に対する
影響、宛先ポートが使用中であるかどうか、結果の可用
性特性(たとえば、共通の単一障害点がないパスの追
加)、および結果の入出力構成の複雑さ(またはエント
ロピ)が含まれる。
実施形態を、図12ないし17に関連して詳細に説明す
る。当初、基本平衡化処理は、たとえばコンピュータ環
境のワークロード・マネージャ構成要素によって、定期
的にスケジューリングされるタイム・インターバル、た
とえば10秒ごとに呼び出される。基本平衡化処理の機
能は、サブシステム(たとえば論理制御装置)(浮動
(すなわち管理対象)チャネルを定義されている)にま
たがって均等に入出力速度を継続的に平衡化し、好まし
くは共通の単一障害点のない、複数のパスを介してすべ
ての装置にアクセスできるようにし、ハードウェア障害
の後にサブシステムの再平衡化を行うことである。この
処理には、データ収集(図12のステップ1000)お
よび平衡検査(ステップ1002)という2つの構成要
素が含まれる。データ収集は、環境の各論理区画内(環
境が論理分割されると仮定する。論理分割されていない
場合には、各システム内)で各インターバルに1回実行
され、平衡検査は、グループ化されたLPAR(やはり
グループ化を仮定する)ごとにインターバルごとに1回
だけ実行される。
のシステムでもWLMだけがインターバルごとに1回基
本平衡化技法を呼び出すという事実によって得られる。
さらに、収集した情報を更新する時には、バージョン番
号検査が使用される。たとえば、結合装置内に記憶され
た制御ブロックを直列化して、収集された情報を更新す
る。これらの制御ブロックによって、グループ・レベル
のデータ収集が可能になり、これによって、同一CPC
上のグループのメンバにまたがるチャネルの管理が可能
になる。
的のためのグループ有効範囲を有する直列化を使用す
る。通常、平衡化がデータ収集の直後に呼び出される時
には、グループ単位の直列化が要求される。直列化が得
られる場合には、平衡検査が進行し、そうでない場合に
は、平衡検査が、グループ化されたLPAR内ですでに
行われつつあり、このインターバル中にもう一度実行す
る必要はない。
してさらに説明する。一実施形態では、定義されたサブ
システム(たとえば論理制御装置)ごとに、測定データ
を収集し、更新する(ステップ1100)。測定データ
には、たとえば、接続時間、保留時間、サブシステム使
用中、装置使用中、宛先ポート使用中時間、および宛先
ポート使用中カウントが含まれる。更新された測定デー
タは、結合装置などの共用メモリ内の制御ブロックと共
に、プロセッサ・メモリ内の制御ブロックに記憶され
る。
のデフォルト目標入出力速度を計算する(ステップ11
02)。この入出力速度は、追加のチャネル帯域幅が必
要または望まれるかどうかを示す。一例として、デフォ
ルト目標入出力速度は、接続時間によって重みを付けら
れる。この計算を実行するために、一例では、以下のス
テップが行われる。DCMによって管理されるサブシス
テムごとに、前のインターバル中にそのサブシステムが
与えた接続時間の量と共に、現在の速度または実際の速
度を得る。その後、入出力速度に接続時間を乗じて、結
果を得る。サブシステムの結果を足し合わせて、合計を
得る。接続時間によって重みを付けられたデフォルト目
標入出力速度を決定するために、この合計を総接続時間
で割る。
に、本明細書に記載されているように、平衡検査を実行
する(ステップ1002)。平衡検査に関連する論理の
一実施形態を、図14に関連して説明する。当初、平衡
検査をこの瞬間に実行しなければならないかどうかを判
定するために、直列化を実行する(問合せ1200)。
グループ単位の直列化を得る試みが不成功の場合には、
平衡検査論理は実行されない(ステップ1202)。し
かし、直列化が得られる場合には、目標範囲から外れて
いるサブシステムを探す(ステップ1204)。
実際の入出力速度を得、平均をとる(一例では、動的C
HPID管理(DCM)によって管理されるサブシステ
ムだけが、この平均に含まれる)。平均を判定した後
に、範囲を作成する。一例では、範囲は、たとえば、平
均値の±5%である。その後、各サブシステムの目標入
出力速度を、目標範囲と比較する。目標入出力速度が指
定されていない場合には、デフォルト目標入出力速度を
使用する。この比較の結果として、2つのリストが作成
される(ステップ1206)。一方のリストには、目標
範囲を超えるサブシステムが含まれ、もう一方には、目
標を達成しないサブシステムが含まれる。どの場合で
も、最近(たとえば最近の10秒以内)に変更されたサ
ブシステムは、リストから排除される。
トする(ステップ1208)。一例では、WLMを使用
してこのリストをソートする。というのは、WLMが、
どのサブシステムが最も重要であるかを決定する位置に
あるからである。したがって、WLMは、WLMがサー
ビスしようとする順序でサブシステムを並べる。
たは複数のサブシステムが、たとえば利用度の低いサブ
システムから過度に利用されているサブシステムへ容量
をシフトすることによって、サービスされる(ステップ
1210)。割り当てられた時間内でサービスできる数
のサブシステムが調整される。
を、図15ないし16に関連して説明する。当初は、リ
ストからサブシステムを選択する(ステップ1300、
図15)。一例では、選択されるのは、リストの最初の
サブシステムである。その後、問題が宛先ポート使用中
であるかどうかに関する判定を行う(問合せ130
2)。具体的に言うと、競合(たとえば宛先ポート使用
中時間)が高いかどうかに関する判定を行い、そうであ
る場合には、それに接続されるさまざまなインターフェ
ースに関してそれが変動するかどうかを判定する。宛先
ポート使用中がすべてのインターフェースで高い場合に
は、これは、別のチャネル・パスを追加する必要がある
ことを意味する。しかし、1つのインターフェースだけ
で高い場合には、チャネル・パスを別のインターフェー
スに移動する(ステップ1304)。したがって、既存
のパスが、過度な宛先ポート使用中時間を有するインタ
ーフェースから別のインターフェースに移動され、処理
は変更の実施(ステップ1306、図16)に続行す
る。
5257379号明細書、米国特許第5257368号
明細書、および米国特許第5220654号明細書に記
載されている。
のサブシステムがあるかどうかに関する判定を行う(問
合せ1308)。ない場合には、不平衡訂正の処理が完
了する。しかし、他のサブシステムが範囲内にない場合
には、この処理は、ステップ1300「リストの次のサ
ブシステムを選択する」(図15)に継続する。
因するものでない場合には、処理は、本明細書で説明す
るように続行される。
に追加することが可能なチャネル・パスを判定する(ス
テップ1310)。この判定には、物理トポロジ内で
の、その特定のサブシステムに到達することができるす
べてのチャネルの検査と、そのサブシステムに到達する
ことが可能な方法(パス)の判定が含まれる。パスは、
ハードウェア要素がそれを介して接続される接続性の順
列であり、これには、チャネルとサブシステムの両方が
含まれる。これらのパスのすべて(または、望むならば
サブセット)が、可能なパスに含まれる。
行う(ステップ1312)。一例として、同一チャネル
上に複数のサブシステムがある場合に、共用するサブシ
ステムに接続されたパスの1つが、除去の候補とみなさ
れる。
ブシステムに関する判定を行う(ステップ1314)。
さらに、変更される構成の複雑さを示すエントロピ・イ
ンデックスも、下で説明するように判定する。
る論理の一実施形態を、図17に関連して説明する。当
初、サブシステムのサブシステム制御ブロック(SSC
B)リストおよびチャネルのCHPIDリストを、後の
使用のためにクリアする(ステップ1400)。その
後、チャネル・パスIDを、提案されたチャネルに関連
する判断選択ブロック(DSB)から取り出し、CHP
IDリストに追加する(ステップ1402)。具体的に
言うと、各パスは、判断選択ブロックを関連付けられて
いる。判断選択ブロックとは、たとえばチャネル・パス
のID(CHPID)、チャネル・パスに関連する論理
制御装置を示すサブシステム制御ブロック(SSCB)
ポインタ、および影響を受けるSSCBの配列を含む、
さまざまな情報を含む制御ブロックである。各SSCB
には、サブシステムに接続されたチャネルのすべてが含
まれる。
べてのCHPIDも、CHPIDリストに追加する(ス
テップ1404)。具体的に言うと、SSCBポインタ
を、援助されるSSCBを示すDSBから取り出す。そ
の後、SSCBのCHPIDのすべてを、CHPIDリ
ストに追加する。
について、チャネル・パスに関連するSSCBを、SS
CBリストに追加する(ステップ1406)。一例で
は、この情報は、各CHPIDに接続されたSSCBを
示すチャネル・パス・テーブルから入手される。
どうかに関する判定を行う(問合せ1408)。そうで
ある場合には、リスト内のSSCBのそれぞれについ
て、ステップ1404に関して上で説明したように、ま
だCHPIDリストに含まれていないCHPIDを追加
する(ステップ1410)。
あったかどうかに関するもう1つの判定を行う(問合せ
1412)。リストに追加された他のCHPIDがあっ
た場合には、処理はステップ1406で継続される。し
かし、リストに追加されたSSCBもCHPIDもない
場合には(問合せ1408および1412)、リストの
SSCBのそれぞれについて、DSB配列要素を作成す
る(ステップ1414)。すなわち、SSCBのそれぞ
れを、影響を受けるSSCBの配列に追加する。さら
に、配列要素のそれぞれを、実際の入出力速度、目標入
出力速度、目標入出力速度と実際の入出力速度の間の現
在のデルタ、およびSSCBポインタを用いて更新する
(ステップ1416)。
可用性インデックスを計算する(ステップ1316)。
一例では、可用性インデックスは、提案されたパスがサ
ブシステムへの既存のパスと共通して有する単一障害点
の個数を示す数である。チャネル・パスを追加する場合
には、単一障害点を有しないことが望まれる。チャネル
・パスを削除する場合には、通常は、最も多数の単一障
害点を有するパスが選択される。
響を見積もる(ステップ1318)。具体的に言うと、
一例では、各サブシステムに対する現在の負荷を調べ
て、変更を行った場合にそれがどれほど異なるかを判定
する。この情報を使用して、最適のオプションを選択す
る(ステップ1320)。最適のオプションを選択する
ために、たとえば下記を含むさまざまな要因を検討する
ことができる。 ・どのオプションでサブシステムが目標の最も近くに移
動されるか ・どのオプションが最良の可用性をもたらすか ・どのオプションが最良の対称性(最小のエントロピ)
をもたらすか ・このオプションでパスの総数が2未満に減るか ・このオプションは、明示的な目標のどれかに違反する
か(WLMは、デフォルト目標の代わりに使用される明
示的目標を供給することができる) ・このオプションは、アーキテクチャ的制限のどれかに
違反するか ・このオプションは、導入先によって定義される構成に
違反するか ・このオプションは、現在使用不能なリソースの使用を
試みるか
実施できない判断選択ブロック(DSB)を排除する。
これには、たとえば、アーキテクチャ的制限に違反する
もの、パスの総数が2未満に減るもの、導入先によって
定義される構成に違反するもの(たとえば、定義で許容
される最大個数を超える浮動チャネル・パスを使用する
もの)、および現在使用不能なリソースの使用を試みる
もの(たとえば、使用不能にされたポートの使用を試み
るもの)が含まれる(この機能は、この処理のより早い
段階に移動し、その結果、可用性インデックスおよびサ
ブシステムに対する影響の見積もりが、絶対に選択でき
ないDSBについて計算されないようにすることができ
る)。
する場合(おそらくはシステム始動のすぐ後または障害
の後)、最適の可用性インデックスを有するパスを選択
する。複数のパスが同等の可用性インデックスを有する
場合には、目標サブシステムを目標入出力速度目標内に
移動する最低のエントロピ・インデックスを有するパス
を選択する。複数存在する場合には、その見積もられた
デルタの合計(DSBからの「Σ見積もられたデル
タ」)が最小であるパスを選択する。
場合には、最良の可用性インデックスを有するDSBの
組を見つける。その組から、目標サブシステムを目標入
出力速度の許容範囲内にする、最も低いエントロピ・イ
ンデックスを有するオプションを探す。複数存在する場
合には、その見積もられたデルタの合計(DSBからの
「Σ見積もられたデルタ」)が最小であるパスを選択す
る。
は、次によい可用性インデックスを有するパスの組を見
つけ、再度試みる。
囲内にすることができない場合には、可用性インデック
スおよびエントロピ・インデックスを考慮せずに、サブ
システムを目標に最も近づけるものを選択する(上で説
明した最適オプション選択のための技法は、一例にすぎ
ない。さまざまな追加、削除、および変更を、本発明の
主旨から逸脱せずに行うことができる。さらに、他の技
法を使用して、最適オプションを選択することができ
る)。
的目標を有するサブシステムに影響せずに新しい目標を
達成できるかどうかに関する判定を行う(問合せ132
2)。言い換えると、最適オプションが、WLMによっ
て設定された明示的目標を有するサブシステムに悪影響
を及ぼすかどうかを判定する。そうである場合には、ワ
ークロード・マネージャを呼び出して、適当なパスを選
択する(ステップ1324)。具体的に言うと、ワーク
ロード・マネージャは、パスを選択し、ドナーの新しい
目標を選択する。
システムに悪影響を及ぼさずに新しい目標を達成できる
場合に、変更を実施し(ステップ1306)、処理は、
目標範囲内にない他のサブシステムが存在するかどうか
の判定(問合せ1308)に継続する。
力速度目標を設定することができ、これは、デフォルト
平均入出力速度目標の代わりに使用される。一実施形態
では、サービス・クラスがその目標を満たさないことを
WLMが見つけた時に、WLMが明示的目標を設定す
る。明示的サブシステム入出力速度目標の設定に関連す
る論理の一実施形態を、図18に関連して説明する。
いるかどうかを判定する(問合せ1500)。そうでな
い場合には、本発明のこの態様においては処理が完了す
る。しかし、入出力が最大の遅延を引き起こしている場
合には、入出力優先順位調整を試みる(ステップ150
2)。その後、サービス・クラスがその目標を満たして
いるかどうかに関する判定を行う(問合せ1504)。
サービス・クラスがその目標を満たしている場合には、
処理が完了する。しかし、サービス・クラスが、まだそ
の目標を満たしていない場合には、そのサービス・クラ
スによって使用されており、低い入出力速度を有するサ
ブシステムを探す(ステップ1506)。突きとめられ
た1つまたは複数のサブシステムについて、新しいサブ
システム入出力速度目標を設定する。一例では、定義済
みの量だけ現在の目標を増やし、サブシステムに対する
影響を見積もることによって、サブシステム入出力目標
が設定される。影響が十分である(たとえば、レシーバ
値を超える)場合には、処理が完了する。そうでない場
合には、目標をもう一度増やし、この処理を繰り返す。
的調整を提供する動的CHPID管理(DCM)であ
る。DCMは、WLMに有利に統合され、これによっ
て、ワークロードおよび目標の理解を用いて判断を行え
るようになる。さらに、DCMを用いると、複数の区画
(たとえば区画のグループの区画)にまたがるチャネル
の管理が可能になる。これによって、必要な場所へのリ
ソースの追加、ならびに余分なリソースの除去が可能に
なる。
(DCM)を用いて、サブシステムに追加(またはそれ
から除去)される「最適の」チャネルが選択される。こ
れを行うために、たとえば結果の入出力構成の複雑さ
(またはエントロピ)を含む、1つまたは複数の属性が
試験される。
複雑にし、DCMの処理の過度な時間、影響を受けるサ
ブシステムの過剰な数に起因する不正確な結果、性能報
告の複雑さ、および問題判定の複雑さをもたらす。した
がって、本発明の一態様では、異なる選択肢の相対エン
トロピを判定し、その結果、構成をどのように調整する
かの選択を行う時に、入出力速度および可用性などの他
の検討点と共に、相対エントロピを検討できるようにす
る機能が提供される。
ロピ・インデックスを計算する。たとえば、パスを追加
する場合には、エントロピ・インデックスは、結果の構
成のチャネル数およびサブシステム数の合計になる。さ
らに、パスを削除する場合には、エントロピ・インデッ
クスは、パスが削除された後に目標サブシステムに相互
接続されているチャネルおよびサブシステムの組を反映
する。これには、もはやその組に含まれないチャネルお
よびサブシステムは含まれない。
るために、その決定が実施されると仮定して、一緒に接
続されるチャネルおよびサブシステムの数を使用する。
エントロピ技法の基本的な前提の1つが、複数の提案さ
れたトポロジの間の比較と、どのトポロジがより対称で
あるか、またはより少ないエントロピを有するかの判定
とを可能にするインデックスを計算することである。こ
れの目的は、大規模な相互接続されたトポロジを避ける
ことである。このようなトポロジは、入出力速度技法の
精度を下げ、過度に複雑なトポロジに起因して、事後に
性能問題を分析することを困難にすると思われる。
ざまな例に関連して説明する。たとえば、図19は、2
つのサブシステム1604に接続された2つのチャネル
1602を含む構成1600の一例を示す図である。サ
ブシステム22は、追加リソースを必要とする場合に、
少なくとも2つの場所からそれを入手することができ
る。サブシステム22は、チャネル1またはチャネル3
のいずれかからそれを受け取ることができる。サブシス
テム22がチャネル3からそれを入手する場合、結果の
構成は、3つのチャネルと2つのサブシステムを有する
(図20)。これによって、この構成に5(3+2)の
エントロピ・インデックスが与えられる。しかし、サブ
システム22が、チャネル1から追加リソースを受け取
る場合(図21)、結果の構成は、元々有したもの以上
のチャネルもサブシステムも有しておらず、結果のエン
トロピ・インデックスは2になる。この例では、第2の
オプションが最小のエントロピを有する。
された例では、サブシステム22が、追加リソースを必
要としている。その追加リソースは、チャネル2または
チャネル4から入手することができる。チャネル2が使
用される場合(図23)、結果のエントロピ・インデッ
クスは5になる(すなわち、ある構成で3つのチャネル
が2つのサブシステムに相互接続されているが、チャネ
ル4は、接続されていないのでカウントされない)。チ
ャネル4が使用される場合(図24)、結果のインデッ
クスは3になる。したがって、第2の選択肢が最小のエ
ントロピを有する。
これがエントロピにどのように影響するかを判定する。
が、過度の容量を有する場合に、チャネル2またはチャ
ネル3を除去することができる。チャネル2を除去する
場合(図26)、構成が分割され、両方の構成のエント
ロピ・インデックスが下がる。チャネル3を除去する場
合(図27)、まだ1つの構成が存在するが、エントロ
ピ・インデックスは元のインデックスより低い。一実施
形態では、構成を2つに分割するという決定は、2つの
より複雑でないネットワークをもたらし、よりよい選択
肢であると思われる。
デックスならびに考慮中のサブシステムを含む提案され
た構成(図29の右側)のインデックスが既知である場
合には、もう一方の構成(図29の左側)のインデック
スは、減算によって計算することができる。この例で
は、もう一方の構成のインデックスは、2に等しい(4
−3=1かつ2−1=1、したがって1+1=2)。図
30のように、減算がサブシステムまたはチャネルの数
としての0をもたらす場合には、エントロピは、構成を
分割せずに減らされている(たとえば、2サブシステム
−2サブシステム=0)。一実施形態では、分割が好ま
しい。
なリソースを有する(図31)。チャネル2またはチャ
ネル3を除去することができる。チャネル3を除去する
場合(図32)、結果のエントロピ・インデックスは7
になる。チャネル2を除去する場合(図33)、構成が
2つの構成に分割され、考慮中の構成(サブシステム2
3を有する構成)は、5のエントロピ・インデックスを
有し、結果の第2の構成は、3のエントロピ・インデッ
クスを有する。一実施形態では、構成の分割が好まし
い。
の際に分割を探すことだけが望まれる場合を判定するた
めの例を検討する。
3が、多すぎる帯域幅を有する。チャネル2またはチャ
ネル4のいずれかを除去することができる。チャネル2
を除去する場合(図35)、新しいエントロピ・インデ
ックス6が得られ、残りの第2の構成のエントロピ・イ
ンデックスは3である。チャネル4を除去する場合(図
36)、新しいエントロピ・インデックス5が得られ、
残りの第2の構成のエントロピ・インデックスは4であ
る。5および4のエントロピ・インデックスを有する構
成が、よりよい選択肢である。したがって、一実施形態
では、分割の種類が重要である。
3が、追加リソースを必要としている。サブシステム2
1をチャネル2から除去し(図38)、サブシステム2
3にチャネル2のすべてのリソースを与えることがで
き、また、サブシステム25をチャネル4から除去し
(図39)、サブシステム23にチャネル4のすべての
リソースを与えることができる。
る場合、結果のエントロピ・インデックスは7であり、
結果の第2の構成のエントロピ・インデックスは2であ
る。サブシステム25をチャネル4から除去する場合、
結果のエントロピ・インデックスは6であり、残りの第
2の構成は3である。一実施形態では、分割が均等によ
り近いので、第2の選択肢がより良いと思われる。
ち「均等」)かを計算するために、新しいエントロピ・
インデックスと結果の第2の構成のエントロピ・インデ
ックスとの間で、チャネルおよびサブシステムの数の差
を判定する。この例では、第1の選択肢は、7および2
のエントロピ・インデックスがもたらされるので、差は
5である(すなわち、対称インデックス)。第2の選択
肢は、6および3のエントロピ・インデックスをもたら
すので、差は3である。より少ない差を有する選択肢
が、この実施形態では最良の選択肢である。
テムを目標入出力速度に近づけないオプションが、排除
される。さらに、エントロピ・インデックスが、結果の
構成で相互接続されているチャネルおよびサブシステム
の総数を加算することによって計算される。エントロピ
・インデックスが変化しない場合には、その変更は対称
である。最低のエントロピ・インデックスを有する構成
が、通常は選択される。より高いエントロピ・インデッ
クスを有する構成を選択することを意味する場合であっ
ても、8つを超えるチャネルを有する構成を選択するこ
とは回避されたい。代替案がない場合には、8つを超え
るチャネルを有する構成を選択し、うまくいけば、次の
インターバルにこの構成が分割されることになる。
に関連して説明してきたが、本発明の機能は、記憶域ネ
ットワークならびに他のネットワークなど、他のネット
ワークに同等に適用可能である。
ソースを管理するためのさまざまな機構である。本発明
の一態様では、物理共用可能リソースが、コンピュータ
環境の論理区画にまたがって管理される。さらに、一実
施形態では、論理区画をグループ化して、たとえば優先
順位に基づくリソース割振りを介する、リソース共用が
可能になる。このリソース共用には、たとえば、LPA
RにまたがるCPUリソースの動的管理、LPARにま
たがる動的CHPID管理、チャネル・サブシステム内
の入出力優先順位キューイング、およびLPARにまた
がるメモリの動的管理が含まれる。
ージャが、少なくとも部分的にこの管理の責任を負う。
共用可能リソースは、アプリケーションのサブシステム
にとって透過的なワークロード・マネージャ指示の下
で、LPARにまたがって動的に再分配される。リソー
スは、モニタリング活動および顧客の目標に基づいて、
必要な区画に供給される。さらに、たとえばWLM、シ
スプレックス、およびPR/SM統合を介する、ワーク
ロード目標による物理リソースの動的調整は、並列シス
プレックス・データ共用を必要とせずに実行される。
ンピュータ環境およびシステムを説明した。これらは、
例にすぎず、本発明のさまざまな態様を制限する目的の
ものではない。さらに、本発明のさまざまな態様を、論
理区画に関連して説明した。論理区画の使用は、一例に
すぎない。本発明の諸態様は、他のタイプの分割ならび
に分割されないシステムに適用される。したがって、こ
れらも、本発明の範囲内と見なされる。
媒体を有する、製造品(たとえば、1つまたは複数のコ
ンピュータ・プログラム製品)に含めることができる。
この媒体は、その中に、たとえば、本発明の機能を提供
し、容易にするためのコンピュータ可読プログラム・コ
ード手段を実施される。製造品は、コンピュータ・シス
テムの一部として含めるか、別々に販売することができ
る。
算機によって実行可能な命令の少なくとも1つのプログ
ラムを具体的に実施する、計算機によって読取可能な少
なくとも1つのプログラム記憶装置を提供することがで
きる。
い。本発明の主旨から逸脱しない、これらの図または本
明細書に記載のステップ(または動作)に対する多数の
変形形態がありえる。たとえば、ステップを異なる順序
で実行することができ、ステップを追加、削除、または
変更することができる。これらの変形形態のすべてが、
請求される発明の一部とみなされる。
明してきたが、さまざまな変更、追加、置換、および類
似行為を、本発明の主旨から逸脱せずに行うことがで
き、したがって、これらが、請求項で定義される本発明
の範囲内であると見なされることを、当業者は諒解する
であろう。
の事項を開示する。
(CPU)リソースを管理する方法であって、前記コン
ピュータ環境の区画へのCPUリソースの割振りを調整
しなければならないことを判定するステップと、前記区
画および前記コンピュータ環境の別の区画にまたがって
前記割振りを動的に調整するステップとを含む方法。 (2)前記動的調整が、少なくとも前記区画のワークロ
ード目標に応答する、上記(1)に記載の方法。 (3)前記動的調整が、前記区画に割り当てられた第1
CPUプロセッサ重みと、前記別の区画に割り当てられ
た第2CPUプロセッサ重みとを変更するステップを含
む、上記(1)に記載の方法。 (4)前記変更が、前記第1CPUプロセッサ重みを増
やすステップと、前記第2CPUプロセッサ重みを減ら
すステップとを含む、上記(3)に記載の方法。 (5)前記第1CPUプロセッサ重みが、前記第2CP
Uプロセッサ重みの減少と等しい量だけ増やされ、前記
第1CPUプロセッサ重みと前記第2CPUプロセッサ
重みの合計が一定のままになる、上記(4)に記載の方
法。 (6)前記変更が、前記第1CPUプロセッサ重みを減
らすステップと、前記第2CPUプロセッサ重みを増や
すステップとを含む、上記(3)に記載の方法。 (7)前記動的調整が、前記コンピュータ環境の複数の
区画にまたがる、上記(1)に記載の方法。 (8)前記区画および前記別の区画が、区画のグループ
内にある、上記(1)に記載の方法。 (9)前記区画が、1つまたは複数のサービス・クラス
の作業を含み、前記判定が、前記区画に関連するプロセ
ッサ重みを増やすことの、前記1つまたは複数のサービ
ス・クラスの選択されたサービス・クラスに対する影響
を見積もるステップと、前記別の区画のプロセッサ重み
を減らすことの、前記別の区画の1つまたは複数のサー
ビス・クラスに対する影響を見積もるステップと、前記
選択されたサービス・クラスに対する利益が、前記別の
区画の作業に対する悪影響に優越するかどうかを判定す
るステップとを含み、前記調整が、前記利益が前記悪影
響に優越する時に行われる、上記(1)に記載の方法。 (10)前記別の区画を選択するステップをさらに含
む、上記(1)に記載の方法。 (11)前記選択が、前記別の区画内で実行される作業
の重要性に基づく、上記(10)に記載の方法。 (12)コンピュータ環境内の中央処理装置(CPU)
リソースを管理するシステムであって、前記コンピュー
タ環境の区画へのCPUリソースの割振りを調整しなけ
ればならないことを判定する手段と、前記区画および前
記コンピュータ環境の別の区画にまたがって前記割振り
を動的に調整する手段とを含むシステム。 (13)前記動的調整手段が、少なくとも前記区画のワ
ークロード目標に応答する、上記(12)に記載のシス
テム。 (14)前記動的調整手段が、前記区画に割り当てられ
た第1CPUプロセッサ重みと、前記別の区画に割り当
てられた第2CPUプロセッサ重みとを変更する手段を
含む、上記(12)に記載のシステム。 (15)前記変更手段が、前記第1CPUプロセッサ重
みを増やす手段と、前記第2CPUプロセッサ重みを減
らす手段とを含む、上記(14)に記載のシステム。 (16)前記第1CPUプロセッサ重みが、前記第2C
PUプロセッサ重みの減少と等しい量だけ増やされ、前
記第1CPUプロセッサ重みと前記第2CPUプロセッ
サ重みの合計が一定のままになる、上記(15)に記載
のシステム。 (17)前記変更手段が、前記第1CPUプロセッサ重
みを減らす手段と、前記第2CPUプロセッサ重みを増
やす手段とを含む、上記(14)に記載のシステム。 (18)前記調整が、前記コンピュータ環境の複数の区
画にまたがる、上記(12)に記載のシステム。 (19)前記区画および前記別の区画が、区画のグルー
プ内にある、上記(12)に記載のシステム。 (20)前記区画が、1つまたは複数のサービス・クラ
スの作業を含み、前記判定手段が、前記区画に関連する
プロセッサ重みを増やすことの、前記1つまたは複数の
サービス・クラスの選択されたサービス・クラスに対す
る影響を見積もる手段と、前記別の区画のプロセッサ重
みを減らすことの、前記別の区画の1つまたは複数のサ
ービス・クラスに対する影響を見積もる手段と、前記選
択されたサービス・クラスに対する利益が、前記別の区
画の作業に対する悪影響に優越するかどうかを判定する
手段とを含み、前記調整が、前記利益が前記悪影響に優
越する時に行われる、上記(12)に記載のシステム。 (21)前記別の区画を選択する手段をさらに含む、上
記(12)に記載のシステム。 (22)前記選択手段が、前記別の区画内で実行される
作業の重要性に基づく、上記(21)に記載のシステ
ム。 (23)コンピュータ環境内の中央処理装置(CPU)
リソースを管理するシステムであって、前記コンピュー
タ環境の区画へのCPUリソースの割振りを調整しなけ
ればならないことを判定するように適合されたプロセッ
サと、前記区画および前記コンピュータ環境の別の区画
にまたがって前記割振りを動的に調整するように適合さ
れたプロセッサとを含むシステム。 (24)上記(1)ないし上記(11)のいずれかに記
載の方法を実行するためのプログラムを記憶したプログ
ラム記憶装置。
ータ環境の一例を示す図である。
ータ環境のもう1つの実施形態を示す図である。
ータ環境の追加構成要素を示す図である。
ープの一例を示す図である。
に関連する論理の一例を示す図である。
に関連する論理の一例を示す図である。
去に関連する論理の一実施形態を示す図である。
ス・クラスを助けるための、区画の重みを増やすことが
できるかどうかの判定に関連する論理の一実施形態を示
す図である。
動的調整に関連する論理の一実施形態を示す図である。
れ、使用するチャネル・サブシステムの一実施形態を示
す図である。
の選択に関連する論理の一実施形態を示す図である。
ければならないかどうかの判定に関連する論理の一実施
形態を示す図である。
関連する論理の一実施形態を示す図である。
連する論理の一実施形態を示す図である。
訂正に関連する論理の一実施形態を示す図である。
訂正に関連する論理の一実施形態を示す図である。
テムの判定に関連する論理の一実施形態を示す図であ
る。
出力速度目標の設定に関連する論理の一実施形態を示す
図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
される入出力構成の一例を示す図である。
Claims (24)
- 【請求項1】コンピュータ環境内の中央処理装置(CP
U)リソースを管理する方法であって、 前記コンピュータ環境の区画へのCPUリソースの割振
りを調整しなければならないことを判定するステップ
と、 前記区画および前記コンピュータ環境の別の区画にまた
がって前記割振りを動的に調整するステップとを含む方
法。 - 【請求項2】前記動的調整が、少なくとも前記区画のワ
ークロード目標に応答する、請求項1に記載の方法。 - 【請求項3】前記動的調整が、前記区画に割り当てられ
た第1CPUプロセッサ重みと、前記別の区画に割り当
てられた第2CPUプロセッサ重みとを変更するステッ
プを含む、請求項1に記載の方法。 - 【請求項4】前記変更が、 前記第1CPUプロセッサ重みを増やすステップと、 前記第2CPUプロセッサ重みを減らすステップとを含
む、請求項3に記載の方法。 - 【請求項5】前記第1CPUプロセッサ重みが、前記第
2CPUプロセッサ重みの減少と等しい量だけ増やさ
れ、前記第1CPUプロセッサ重みと前記第2CPUプ
ロセッサ重みの合計が一定のままになる、請求項4に記
載の方法。 - 【請求項6】前記変更が、 前記第1CPUプロセッサ重みを減らすステップと、 前記第2CPUプロセッサ重みを増やすステップとを含
む、請求項3に記載の方法。 - 【請求項7】前記動的調整が、前記コンピュータ環境の
複数の区画にまたがる、請求項1に記載の方法。 - 【請求項8】前記区画および前記別の区画が、区画のグ
ループ内にある、請求項1に記載の方法。 - 【請求項9】前記区画が、1つまたは複数のサービス・
クラスの作業を含み、前記判定が、 前記区画に関連するプロセッサ重みを増やすことの、前
記1つまたは複数のサービス・クラスの選択されたサー
ビス・クラスに対する影響を見積もるステップと、 前記別の区画のプロセッサ重みを減らすことの、前記別
の区画の1つまたは複数のサービス・クラスに対する影
響を見積もるステップと、 前記選択されたサービス・クラスに対する利益が、前記
別の区画の作業に対する悪影響に優越するかどうかを判
定するステップとを含み、前記調整が、前記利益が前記
悪影響に優越する時に行われる、請求項1に記載の方
法。 - 【請求項10】前記別の区画を選択するステップをさら
に含む、請求項1に記載の方法。 - 【請求項11】前記選択が、前記別の区画内で実行され
る作業の重要性に基づく、請求項10に記載の方法。 - 【請求項12】コンピュータ環境内の中央処理装置(C
PU)リソースを管理するシステムであって、 前記コンピュータ環境の区画へのCPUリソースの割振
りを調整しなければならないことを判定する手段と、 前記区画および前記コンピュータ環境の別の区画にまた
がって前記割振りを動的に調整する手段とを含むシステ
ム。 - 【請求項13】前記動的調整手段が、少なくとも前記区
画のワークロード目標に応答する、請求項12に記載の
システム。 - 【請求項14】前記動的調整手段が、前記区画に割り当
てられた第1CPUプロセッサ重みと、前記別の区画に
割り当てられた第2CPUプロセッサ重みとを変更する
手段を含む、請求項12に記載のシステム。 - 【請求項15】前記変更手段が、 前記第1CPUプロセッサ重みを増やす手段と、 前記第2CPUプロセッサ重みを減らす手段とを含む、
請求項14に記載のシステム。 - 【請求項16】前記第1CPUプロセッサ重みが、前記
第2CPUプロセッサ重みの減少と等しい量だけ増やさ
れ、前記第1CPUプロセッサ重みと前記第2CPUプ
ロセッサ重みの合計が一定のままになる、請求項15に
記載のシステム。 - 【請求項17】前記変更手段が、 前記第1CPUプロセッサ重みを減らす手段と、 前記第2CPUプロセッサ重みを増やす手段とを含む、
請求項14に記載のシステム。 - 【請求項18】前記調整が、前記コンピュータ環境の複
数の区画にまたがる、請求項12に記載のシステム。 - 【請求項19】前記区画および前記別の区画が、区画の
グループ内にある、請求項12に記載のシステム。 - 【請求項20】前記区画が、1つまたは複数のサービス
・クラスの作業を含み、前記判定手段が、 前記区画に関連するプロセッサ重みを増やすことの、前
記1つまたは複数のサービス・クラスの選択されたサー
ビス・クラスに対する影響を見積もる手段と、 前記別の区画のプロセッサ重みを減らすことの、前記別
の区画の1つまたは複数のサービス・クラスに対する影
響を見積もる手段と、 前記選択されたサービス・クラスに対する利益が、前記
別の区画の作業に対する悪影響に優越するかどうかを判
定する手段とを含み、前記調整が、前記利益が前記悪影
響に優越する時に行われる、請求項12に記載のシステ
ム。 - 【請求項21】前記別の区画を選択する手段をさらに含
む、請求項12に記載のシステム。 - 【請求項22】前記選択手段が、前記別の区画内で実行
される作業の重要性に基づく、請求項21に記載のシス
テム。 - 【請求項23】コンピュータ環境内の中央処理装置(C
PU)リソースを管理するシステムであって、 前記コンピュータ環境の区画へのCPUリソースの割振
りを調整しなければならないことを判定するように適合
されたプロセッサと、 前記区画および前記コンピュータ環境の別の区画にまた
がって前記割振りを動的に調整するように適合されたプ
ロセッサとを含むシステム。 - 【請求項24】請求項1ないし請求項11のいずれかに
記載の方法を実行するためのプログラムを記憶したプロ
グラム記憶装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/407212 | 1999-09-28 | ||
US09/407,212 US6587938B1 (en) | 1999-09-28 | 1999-09-28 | Method, system and program products for managing central processing unit resources of a computing environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001142858A true JP2001142858A (ja) | 2001-05-25 |
JP3672236B2 JP3672236B2 (ja) | 2005-07-20 |
Family
ID=23611115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000290086A Expired - Lifetime JP3672236B2 (ja) | 1999-09-28 | 2000-09-25 | コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品 |
Country Status (3)
Country | Link |
---|---|
US (1) | US6587938B1 (ja) |
JP (1) | JP3672236B2 (ja) |
KR (1) | KR100420420B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549628A (ja) * | 2019-09-23 | 2022-11-28 | グーグル エルエルシー | コンピュータシステムリソースの任意のグループ化 |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6986137B1 (en) * | 1999-09-28 | 2006-01-10 | International Business Machines Corporation | Method, system and program products for managing logical processors of a computing environment |
JP2001109638A (ja) * | 1999-10-06 | 2001-04-20 | Nec Corp | 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体 |
US6938256B2 (en) | 2000-01-18 | 2005-08-30 | Galactic Computing Corporation | System for balance distribution of requests across multiple servers using dynamic metrics |
US7140020B2 (en) * | 2000-01-28 | 2006-11-21 | Hewlett-Packard Development Company, L.P. | Dynamic management of virtual partition computer workloads through service level optimization |
US6928646B1 (en) * | 2000-02-02 | 2005-08-09 | Sony Corporation | System and method for efficiently performing scheduling operations in an electronic device |
US8538843B2 (en) | 2000-07-17 | 2013-09-17 | Galactic Computing Corporation Bvi/Bc | Method and system for operating an E-commerce service provider |
US6816905B1 (en) * | 2000-11-10 | 2004-11-09 | Galactic Computing Corporation Bvi/Bc | Method and system for providing dynamic hosted service management across disparate accounts/sites |
JP2002041304A (ja) * | 2000-07-28 | 2002-02-08 | Hitachi Ltd | 論理区画の予備リソース自動付与方法及び論理区画式計算機システム |
US6912493B1 (en) * | 2000-09-29 | 2005-06-28 | International Business Machines Corporation | Technique for configuring processors in system with logical partitions |
JP2002202959A (ja) * | 2000-12-28 | 2002-07-19 | Hitachi Ltd | 動的な資源分配をする仮想計算機システム |
US6957435B2 (en) * | 2001-04-19 | 2005-10-18 | International Business Machines Corporation | Method and apparatus for allocating processor resources in a logically partitioned computer system |
US7170862B1 (en) * | 2001-07-31 | 2007-01-30 | Cisco Technology, Inc. | Partitioning a network element into multiple virtual network elements |
US7428485B2 (en) * | 2001-08-24 | 2008-09-23 | International Business Machines Corporation | System for yielding to a processor |
US7251814B2 (en) * | 2001-08-24 | 2007-07-31 | International Business Machines Corporation | Yield on multithreaded processors |
US20030061262A1 (en) * | 2001-09-25 | 2003-03-27 | Hahn Stephen C. | Method and apparatus for partitioning resources within a computer system |
JP4018900B2 (ja) * | 2001-11-22 | 2007-12-05 | 株式会社日立製作所 | 仮想計算機システム及びプログラム |
JP4119162B2 (ja) * | 2002-05-15 | 2008-07-16 | 株式会社日立製作所 | 多重化計算機システム、論理計算機の割当方法および論理計算機の割当プログラム |
US20030220960A1 (en) * | 2002-05-21 | 2003-11-27 | Demoff Jeff S. | System and method for processing data over a distributed network |
US7412703B2 (en) * | 2002-09-19 | 2008-08-12 | Sedna Patent Services, Llc | Low cost, highly accurate video server bit-rate compensation |
US7133915B2 (en) * | 2002-10-10 | 2006-11-07 | International Business Machines Corporation | Apparatus and method for offloading and sharing CPU and RAM utilization in a network of machines |
JP4119239B2 (ja) * | 2002-12-20 | 2008-07-16 | 株式会社日立製作所 | 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム |
US7290260B2 (en) * | 2003-02-20 | 2007-10-30 | International Business Machines Corporation | Dynamic processor redistribution between partitions in a computing system |
US7191329B2 (en) * | 2003-03-05 | 2007-03-13 | Sun Microsystems, Inc. | Automated resource management using perceptron prediction |
US7000051B2 (en) * | 2003-03-31 | 2006-02-14 | International Business Machines Corporation | Apparatus and method for virtualizing interrupts in a logically partitioned computer system |
US7430742B2 (en) * | 2003-04-23 | 2008-09-30 | Micron Technology, Inc. | Method for load balancing a line of parallel processing elements |
US7437729B2 (en) * | 2003-04-23 | 2008-10-14 | Micron Technology, Inc. | Method for load balancing a loop of parallel processing elements |
US7448038B2 (en) * | 2003-04-23 | 2008-11-04 | Micron Technology, Inc. | Method for using filtering to load balance a loop of parallel processing elements |
US7437726B2 (en) * | 2003-04-23 | 2008-10-14 | Micron Technology, Inc. | Method for rounding values for a plurality of parallel processing elements |
US7472392B2 (en) * | 2003-04-23 | 2008-12-30 | Micron Technology, Inc. | Method for load balancing an n-dimensional array of parallel processing elements |
US7028157B2 (en) * | 2003-04-24 | 2006-04-11 | International Business Machines Corporation | On-demand allocation of data structures to partitions |
US7281075B2 (en) * | 2003-04-24 | 2007-10-09 | International Business Machines Corporation | Virtualization of a global interrupt queue |
US20040226015A1 (en) * | 2003-05-09 | 2004-11-11 | Leonard Ozgur C. | Multi-level computing resource scheduling control for operating system partitions |
US20050060704A1 (en) * | 2003-09-17 | 2005-03-17 | International Business Machines Corporation | Managing processing within computing environments including initiation of virtual machines |
US7234032B2 (en) * | 2003-11-20 | 2007-06-19 | International Business Machines Corporation | Computerized system, method and program product for managing an enterprise storage system |
US7464378B1 (en) * | 2003-12-04 | 2008-12-09 | Symantec Operating Corporation | System and method for allowing multiple sub-clusters to survive a cluster partition |
US20050155032A1 (en) * | 2004-01-12 | 2005-07-14 | Schantz John L. | Dynamic load balancing |
US7975270B2 (en) * | 2004-03-10 | 2011-07-05 | International Business Machines Corporation | Facilitating allocation of resources in a heterogeneous computing environment |
US7890629B2 (en) | 2004-03-13 | 2011-02-15 | Adaptive Computing Enterprises, Inc. | System and method of providing reservation masks within a compute environment |
WO2005089246A2 (en) * | 2004-03-13 | 2005-09-29 | Cluster Resources, Inc. | System and method for providiing advanced reservations in a compute environment |
US7971204B2 (en) * | 2004-03-13 | 2011-06-28 | Adaptive Computing Enterprises, Inc. | System and method of co-allocating a reservation spanning different compute resources types |
US7490325B2 (en) * | 2004-03-13 | 2009-02-10 | Cluster Resources, Inc. | System and method for providing intelligent pre-staging of data in a compute environment |
US8782654B2 (en) | 2004-03-13 | 2014-07-15 | Adaptive Computing Enterprises, Inc. | Co-allocating a reservation spanning different compute resources types |
US20050216716A1 (en) * | 2004-03-29 | 2005-09-29 | Hoffman Philip M | System and method for licensing and distribution of I/O in partitioned computer systems |
US7814491B1 (en) * | 2004-04-14 | 2010-10-12 | Oracle America, Inc. | Method and apparatus for managing system resources using a container model |
US7530071B2 (en) * | 2004-04-22 | 2009-05-05 | International Business Machines Corporation | Facilitating access to input/output resources via an I/O partition shared by multiple consumer partitions |
US20070266388A1 (en) | 2004-06-18 | 2007-11-15 | Cluster Resources, Inc. | System and method for providing advanced reservations in a compute environment |
US7277985B2 (en) | 2004-07-13 | 2007-10-02 | International Business Machines Corporation | Method, system and program product for storing downloadable content on a plurality of enterprise storage system (ESS) cells |
US8176490B1 (en) | 2004-08-20 | 2012-05-08 | Adaptive Computing Enterprises, Inc. | System and method of interfacing a workload manager and scheduler with an identity manager |
US7752623B1 (en) * | 2004-09-16 | 2010-07-06 | Hewlett-Packard Development Company, L.P. | System and method for allocating resources by examining a system characteristic |
US8271980B2 (en) | 2004-11-08 | 2012-09-18 | Adaptive Computing Enterprises, Inc. | System and method of providing system jobs within a compute environment |
US20060107000A1 (en) * | 2004-11-15 | 2006-05-18 | Lee Jung-Ik | Peer-based partitioning method for system resource sharing |
US8286157B2 (en) * | 2005-02-28 | 2012-10-09 | International Business Machines Corporation | Method, system and program product for managing applications in a shared computer infrastructure |
US9075657B2 (en) | 2005-04-07 | 2015-07-07 | Adaptive Computing Enterprises, Inc. | On-demand access to compute resources |
US7996455B2 (en) | 2005-06-17 | 2011-08-09 | Adaptive Computing Enterprises, Inc. | System and method for providing dynamic roll-back reservations in time |
US8863143B2 (en) | 2006-03-16 | 2014-10-14 | Adaptive Computing Enterprises, Inc. | System and method for managing a hybrid compute environment |
US8930536B2 (en) * | 2005-03-16 | 2015-01-06 | Adaptive Computing Enterprises, Inc. | Virtual private cluster |
US9231886B2 (en) | 2005-03-16 | 2016-01-05 | Adaptive Computing Enterprises, Inc. | Simple integration of an on-demand compute environment |
US9225663B2 (en) | 2005-03-16 | 2015-12-29 | Adaptive Computing Enterprises, Inc. | System and method providing a virtual private cluster |
US7734895B1 (en) | 2005-04-28 | 2010-06-08 | Massachusetts Institute Of Technology | Configuring sets of processor cores for processing instructions |
US7743379B2 (en) * | 2005-07-14 | 2010-06-22 | International Business Machines Corporation | Variable resource sets |
US7478272B2 (en) * | 2005-09-30 | 2009-01-13 | International Business Machines Corporation | Replacing a failing physical processor |
US7945913B2 (en) * | 2006-01-19 | 2011-05-17 | International Business Machines Corporation | Method, system and computer program product for optimizing allocation of resources on partitions of a data processing system |
US7904547B2 (en) | 2006-02-21 | 2011-03-08 | International Business Machines Corporation | Method, system, and program product for optimizing monitoring and discovery services for a grid computing environment |
US8117611B2 (en) * | 2006-03-01 | 2012-02-14 | International Business Machines Corporation | Method, system, and program product for deploying a platform dependent application in a grid environment |
JP4519098B2 (ja) * | 2006-03-30 | 2010-08-04 | 株式会社日立製作所 | 計算機の管理方法、計算機システム、及び管理プログラム |
US7987464B2 (en) * | 2006-07-25 | 2011-07-26 | International Business Machines Corporation | Logical partitioning and virtualization in a heterogeneous architecture |
US7844709B2 (en) * | 2006-09-20 | 2010-11-30 | International Business Machines Corporation | Method and apparatus for managing central processing unit resources of a logically partitioned computing environment without shared memory access |
US7657715B2 (en) * | 2006-10-31 | 2010-02-02 | International Business Machines Corporation | Dynamic operation mode transition of a storage subsystem |
US8532288B2 (en) * | 2006-12-01 | 2013-09-10 | International Business Machines Corporation | Selectively isolating processor elements into subsets of processor elements |
JP5079342B2 (ja) * | 2007-01-22 | 2012-11-21 | ルネサスエレクトロニクス株式会社 | マルチプロセッサ装置 |
US8127295B1 (en) * | 2007-08-03 | 2012-02-28 | Oracle America, Inc. | Scalable resource allocation |
US20090055831A1 (en) | 2007-08-24 | 2009-02-26 | Bauman Ellen M | Allocating Network Adapter Resources Among Logical Partitions |
US8041773B2 (en) | 2007-09-24 | 2011-10-18 | The Research Foundation Of State University Of New York | Automatic clustering for self-organizing grids |
US8352950B2 (en) * | 2008-01-11 | 2013-01-08 | International Business Machines Corporation | Algorithm to share physical processors to maximize processor cache usage and topologies |
US20090313074A1 (en) * | 2008-06-11 | 2009-12-17 | International Business Machines Corporation | Enhanced viewing/updating of calendar entries based upon relationships between a viewer and a calendar owner and a relative importance value of the calendar entries |
US9189222B1 (en) | 2008-10-28 | 2015-11-17 | Hewlett-Packard Development Company, L.P. | Updating a computer system |
JP5507136B2 (ja) * | 2009-07-09 | 2014-05-28 | 株式会社日立製作所 | 管理装置及び方法並びに計算機システム |
US8250198B2 (en) * | 2009-08-12 | 2012-08-21 | Microsoft Corporation | Capacity planning for data center services |
US11720290B2 (en) | 2009-10-30 | 2023-08-08 | Iii Holdings 2, Llc | Memcached server functionality in a cluster of data processing nodes |
US10877695B2 (en) | 2009-10-30 | 2020-12-29 | Iii Holdings 2, Llc | Memcached server functionality in a cluster of data processing nodes |
US8826271B2 (en) * | 2010-04-28 | 2014-09-02 | Cavium, Inc. | Method and apparatus for a virtual system on chip |
JP5439435B2 (ja) * | 2011-06-14 | 2014-03-12 | 株式会社日立製作所 | 計算機システムおよびその計算機システムにおけるディスク共有方法 |
US8863141B2 (en) | 2011-12-14 | 2014-10-14 | International Business Machines Corporation | Estimating migration costs for migrating logical partitions within a virtualized computing environment based on a migration cost history |
US8694995B2 (en) | 2011-12-14 | 2014-04-08 | International Business Machines Corporation | Application initiated negotiations for resources meeting a performance parameter in a virtualized computing environment |
US9032180B2 (en) | 2013-03-15 | 2015-05-12 | International Business Machines Corporation | Managing CPU resources for high availability micro-partitions |
US9244825B2 (en) | 2013-03-15 | 2016-01-26 | International Business Machines Corporation | Managing CPU resources for high availability micro-partitions |
US9158470B2 (en) | 2013-03-15 | 2015-10-13 | International Business Machines Corporation | Managing CPU resources for high availability micro-partitions |
EP3039544B1 (en) | 2013-10-03 | 2018-12-12 | Huawei Technologies Co., Ltd. | Method and system for assigning a computational block of a software program to cores of a multi-processor system |
KR101465657B1 (ko) * | 2014-03-10 | 2014-12-10 | 성균관대학교산학협력단 | 가상머신을 위한 협력 스케줄링 방법 |
US10176021B1 (en) * | 2014-11-21 | 2019-01-08 | Ca, Inc. | System and method for managing actual processing capacity usage on a mainframe computer |
US9342372B1 (en) | 2015-03-23 | 2016-05-17 | Bmc Software, Inc. | Dynamic workload capping |
WO2016167807A1 (en) * | 2015-04-17 | 2016-10-20 | Hewlett-Packard Development Company, L.P. | Memory mode categorizations |
US9680657B2 (en) | 2015-08-31 | 2017-06-13 | Bmc Software, Inc. | Cost optimization in dynamic workload capping |
US9921880B2 (en) * | 2016-01-28 | 2018-03-20 | Oracle International Corporation | Dynamic performance isolation of competing workloads on CPUs with shared hardware components |
US10563497B2 (en) * | 2016-02-18 | 2020-02-18 | Halliburton Energy Services | Method and system for smart resource allocation |
US10133504B2 (en) * | 2016-04-06 | 2018-11-20 | Futurewei Technologies, Inc. | Dynamic partitioning of processing hardware |
US10235211B2 (en) | 2016-04-22 | 2019-03-19 | Cavium, Llc | Method and apparatus for dynamic virtual system on chip |
US10956226B2 (en) | 2018-07-19 | 2021-03-23 | Futurewei Technologies, Inc. | Basic runtime environment |
CN111506433A (zh) * | 2020-04-30 | 2020-08-07 | 中科院计算所西部高等技术研究院 | 具有ooda多分区可替换机制的处理器 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06103092A (ja) * | 1992-09-18 | 1994-04-15 | Hitachi Ltd | 仮想計算機システム |
JPH07182185A (ja) * | 1993-11-04 | 1995-07-21 | Internatl Business Mach Corp <Ibm> | マルチプロセッサ・システムにおけるタスク・スケジューリング方法 |
JPH0797365B2 (ja) * | 1988-09-29 | 1995-10-18 | インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン | 分散アプリケーション・プログラム実行方法 |
JPH08249291A (ja) * | 1995-02-03 | 1996-09-27 | Internatl Business Mach Corp <Ibm> | マルチシステム資源キャッピング |
JPH0991257A (ja) * | 1995-09-25 | 1997-04-04 | Nec Corp | Cpu管理方式 |
JPH10283211A (ja) * | 1997-03-28 | 1998-10-23 | Internatl Business Mach Corp <Ibm> | マルチシステム環境のプロセッサ・リソース管理方法 |
JPH1165862A (ja) * | 1997-08-14 | 1999-03-09 | Nec Corp | マルチプロセッサ資源分割管理方式 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4564903A (en) | 1983-10-05 | 1986-01-14 | International Business Machines Corporation | Partitioned multiprocessor programming system |
US4843541A (en) | 1987-07-29 | 1989-06-27 | International Business Machines Corporation | Logical resource partitioning of a data processing system |
US5257368A (en) | 1991-03-28 | 1993-10-26 | International Business Machines Corp. | System for dynamically changing a system I/O configuration by determining differences between current and future configurations and describing differences to software and hardware control blocks |
US5220654A (en) | 1991-03-28 | 1993-06-15 | International Business Machines Corp. | Method and system for managing an operating system definition of a dynamically modifiable i/o configuration |
US5257379A (en) | 1991-09-04 | 1993-10-26 | International Business Machines Corporation | Establishing synchronization of hardware and software I/O configuration definitions |
US5317739A (en) | 1992-03-30 | 1994-05-31 | International Business Machines Corp. | Method and apparatus for coupling data processing systems |
CA2086691C (en) | 1992-03-30 | 1997-04-08 | David A. Elko | Communicating messages between processors and a coupling facility |
JP2682770B2 (ja) * | 1992-05-15 | 1997-11-26 | 富士通株式会社 | 仮想計算機システムのcpu制御方式 |
CA2100540A1 (en) * | 1992-10-19 | 1994-04-20 | Jonel George | System and method for performing resource reconfiguration in a computer system |
US5301323A (en) | 1992-10-30 | 1994-04-05 | International Business Machines Corp. | Data processing system including dynamic channel path management |
US5526484A (en) | 1992-12-10 | 1996-06-11 | International Business Machines Corporation | Method and system for pipelining the processing of channel command words |
US5706432A (en) | 1993-11-04 | 1998-01-06 | International Business Machines Corporation | Mechanism for receiving messages at a coupling facility |
US5473773A (en) | 1994-04-04 | 1995-12-05 | International Business Machines Corporation | Apparatus and method for managing a data processing system workload according to two or more distinct processing goals |
US5564040A (en) | 1994-11-08 | 1996-10-08 | International Business Machines Corporation | Method and apparatus for providing a server function in a logically partitioned hardware machine |
US5675739A (en) | 1995-02-03 | 1997-10-07 | International Business Machines Corporation | Apparatus and method for managing a distributed data processing system workload according to a plurality of distinct processing goal types |
JP2940450B2 (ja) | 1995-10-26 | 1999-08-25 | 日本電気株式会社 | クラスタ型コンピュータのジョブスケジュール方法及び装置 |
JPH09190381A (ja) * | 1996-01-11 | 1997-07-22 | Hitachi Ltd | マルチプロセッサ構成の仮想計算機システム |
JP4634548B2 (ja) * | 1997-11-04 | 2011-02-16 | ヒューレット・パッカード・カンパニー | マルチプロセッサコンピュータシステム及びその動作方法 |
-
1999
- 1999-09-28 US US09/407,212 patent/US6587938B1/en not_active Expired - Lifetime
-
2000
- 2000-09-18 KR KR10-2000-0054697A patent/KR100420420B1/ko active IP Right Grant
- 2000-09-25 JP JP2000290086A patent/JP3672236B2/ja not_active Expired - Lifetime
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0797365B2 (ja) * | 1988-09-29 | 1995-10-18 | インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン | 分散アプリケーション・プログラム実行方法 |
JPH06103092A (ja) * | 1992-09-18 | 1994-04-15 | Hitachi Ltd | 仮想計算機システム |
JPH07182185A (ja) * | 1993-11-04 | 1995-07-21 | Internatl Business Mach Corp <Ibm> | マルチプロセッサ・システムにおけるタスク・スケジューリング方法 |
JPH08249291A (ja) * | 1995-02-03 | 1996-09-27 | Internatl Business Mach Corp <Ibm> | マルチシステム資源キャッピング |
JPH0991257A (ja) * | 1995-09-25 | 1997-04-04 | Nec Corp | Cpu管理方式 |
JPH10283211A (ja) * | 1997-03-28 | 1998-10-23 | Internatl Business Mach Corp <Ibm> | マルチシステム環境のプロセッサ・リソース管理方法 |
JPH1165862A (ja) * | 1997-08-14 | 1999-03-09 | Nec Corp | マルチプロセッサ資源分割管理方式 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549628A (ja) * | 2019-09-23 | 2022-11-28 | グーグル エルエルシー | コンピュータシステムリソースの任意のグループ化 |
Also Published As
Publication number | Publication date |
---|---|
KR100420420B1 (ko) | 2004-03-03 |
KR20010050505A (ko) | 2001-06-15 |
US6587938B1 (en) | 2003-07-01 |
JP3672236B2 (ja) | 2005-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3659324B2 (ja) | コンピュータ環境の論理プロセッサを管理する方法、システム、およびプログラム製品 | |
JP3813056B2 (ja) | 優先順位に基づくチャネル・サブシステム保留入出力作業キューの処理 | |
JP3672236B2 (ja) | コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品 | |
JP3807916B2 (ja) | コンピュータ環境の区画のグループを管理する方法およびシステム | |
JP3872343B2 (ja) | コンピュータ環境におけるワークロード管理 | |
US7051188B1 (en) | Dynamically redistributing shareable resources of a computing environment to manage the workload of that environment | |
US6519660B1 (en) | Method, system and program products for determining I/O configuration entropy | |
US7945913B2 (en) | Method, system and computer program product for optimizing allocation of resources on partitions of a data processing system | |
US9338228B1 (en) | I/O scheduling and load balancing across the multiple nodes of a clustered environment utilizing data volume based scheduling priorities | |
WO2016078178A1 (zh) | 一种虚拟cpu调度方法 | |
US20050027719A1 (en) | Database control method | |
US7568052B1 (en) | Method, system and program products for managing I/O configurations of a computing environment | |
Rooney et al. | Intelligent resource director |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041020 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20041020 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20041025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050405 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20050405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3672236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080428 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090428 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090428 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100428 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110428 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110428 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120428 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130428 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130428 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140428 Year of fee payment: 9 |