JP2003514270A - コンピュータ環境におけるワークロード管理 - Google Patents

コンピュータ環境におけるワークロード管理

Info

Publication number
JP2003514270A
JP2003514270A JP2001526677A JP2001526677A JP2003514270A JP 2003514270 A JP2003514270 A JP 2003514270A JP 2001526677 A JP2001526677 A JP 2001526677A JP 2001526677 A JP2001526677 A JP 2001526677A JP 2003514270 A JP2003514270 A JP 2003514270A
Authority
JP
Japan
Prior art keywords
group
partitions
resources
partition
workload
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001526677A
Other languages
English (en)
Other versions
JP3872343B2 (ja
Inventor
ジェフリー・クバラ
ジェフリー・ニック
ピーター・ヨコム
キャサリン・アイラート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/408,470 external-priority patent/US7051188B1/en
Priority claimed from US09/407,212 external-priority patent/US6587938B1/en
Priority claimed from US09/407,391 external-priority patent/US7007276B1/en
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2003514270A publication Critical patent/JP2003514270A/ja
Application granted granted Critical
Publication of JP3872343B2 publication Critical patent/JP3872343B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Abstract

(57)【要約】 【課題】 コンピュータ環境内で良好なワークロード管理を提供すること。 【解決手段】 コンピュータ環境の共用可能リソースの割振りが、該環境のワークロードを平衡化するために動的に調整される。ワークロードは、コンピュータ環境の複数の区画のうちの2以上の区画にわたって管理される。これらの区画は区画グループとして構成されるのが好ましい。コンピュータ環境の少なくとも1つのグループはコンピュータ環境の複数の区画を含む。共用可能リソースはグループの区画に割り当てられ、1グループとして管理される。本発明の管理は、2以上の区画のワークロード目標を平衡化するために、その2以上の区画のうちの少なくとも1つの区画の共用可能リソースの割振りを動的に調整することを含む。これの一例は、コンピュータ環境内での中央処理装置(CPU)リソースの管理である。コンピュータ環境の区画へのCPUリソースの割振りを調整する場合、その割振りは動的に調整される。この調整は、区画に関連するプロセッサ重みを修正することを含む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
本発明は、全般的にはコンピュータ・システム内のワークロードの管理に関し
、具体的には、区画に分割されたシステムでのワークロードの管理に関する。
【0002】
【従来の技術】
論理分割を用いると、単一の物理計算機または中央演算処理装置複合システム
(CPC)内で複数のシステム・イメージを確立することができる。各システム
・イメージは、別々のコンピュータ・システムであるかのように動作することが
できる。すなわち、各論理区画は、独立にリセットでき、論理区画ごとに異なる
ものとすることのできるオペレーティング・システムを初期ロードでき、異なる
入出力(I/O)装置を使用して異なるソフトウェア・プログラムと共に動作す
ることができる。
【0003】 論理分割されたコンピュータ・システムの例は、たとえば、1986年1月1
4日発行の米国特許第4564903号明細書、1989年6月27日発行の米
国特許第4843541号明細書、および1996年10月8日発行の米国特許
第5564040号明細書に記載されている。
【0004】 論理分割されたシステムの商業実施形態には、たとえば、プロセッサ・リソー
ス/システム管理機構(PR/SM)を備えたIBM S/390プロセッサが
含まれ、PR/SMは、たとえば、IBM社の出版物「Processor Resource/Sys
tems Manager Planning Guide」、GA22−7236−04、1999年3月
に記載されている。
【0005】
【発明が解決しようとする課題】
論理分割されたシステムの重要な態様の1つが、そのシステムの区画内で稼動
するワークロードの管理である。たとえば、S/390システムでは、ワークロ
ード・マネージャを使用して、区画内および区画間でワークロードを管理する。
ワークロード・マネージャは、作業をシステムの物理リソースに移動することに
よって、ワークロードの平衡化を試みる。しかし、作業を移動するためには、リ
ロケートされる作業が必要とするデータが、移動先の位置にあることを保証する
ことが重要である。この必要が、作業の移動を制限することがしばしばである。
したがって、コンピュータ・システムにおけるワークロード管理をさらに改良す
ることが望ましい。
【0006】
【課題を解決するための手段】
したがって、本発明は特許請求の範囲に記載された方法、システムおよびコン
ピュータ・プログラムを提供する。
【0007】 1つの実施形態では、本方法は、コンピュータ環境の複数の区画のうちの2以
上の区画にまたがってワークロードを管理するステップを含み、この管理するス
テップは、これら2以上の区画のワークロード目標が平衡化されるように、2以
上の区画のうちの少なくとも1つの区画の共用可能リソースの割振りを動的に調
整するステップを含む。
【0008】 本発明の他の実施形態では、コンピュータ環境のワークロードを管理するため
の方法は、コンピュータ環境の複数の区画のうち、共用可能リソースを並行共用
する2以上の区画にまたがってワークロードを管理するステップを含む。この管
理するステップは、2以上の区画のうちの少なくとも1つの区画の共用可能リソ
ースの割振りを動的に調整するステップを含む。
【0009】 本発明の好ましい実施形態は、ワークロード・マネージャの指示のもとに、複
数の論理区画における共用可能リソースの動的再分配を可能にする。これらのリ
ソースは、たとえば、CPUリソース、論理プロセッサ・リソース、I/Oリソ
ース、コプロセッサ、チャネル・リソース、ネットワーク・アダプタ、およびメ
モリ・リソースを含む。一般に、ワークロード目標に従う物理リソースの動的調
整は、並列シスプレックス・データ共用を必要とすることなく、ワークロード・
マネージャ(WLM)、シスプレックス、およびPR/SMの統合によって提供
される。
【0010】 また、好ましい実施形態では、論理区画(LPAR)におけるCPUリソース
のWLM動的管理、LPARにおける動的チャネル・パス(CHPID)管理、
チャネル・サブシステムにおけるWLMベースのI/O優先キューイング、およ
びLPARにおけるWLM動的メモリ管理が提供される。1つの実装例では、L
PARグループは、優先順位に基づくリソース割振りによるリソース共用を可能
にする。
【0011】 本発明の他の実施形態は、コンピュータ環境の複数の区画のグループを識別す
るステップを含む、コンピュータ環境の区画のグループを管理する方法を提供す
る。この方法は、さらに、グループに割り当てられる共用可能リソースを決定す
るためのステップを含み、その共用可能リソースの少なくとも一部がグループの
複数の区画に割り振られる。
【0012】 本発明の他の実施形態は、コンピュータ環境の複数の区画を含むグループが変
更されたことを決定するステップと、この決定に応答して、グループ内でグルー
プのリソースの割振りを動的に調整するステップとを含む、コンピュータ環境の
ワークロードを管理する方法を提供する。
【0013】 好ましい実施形態では、どのリソースが特定のグループに割り当てられるかを
決定するため、およびそのようなりソースの割振りを実行するために、グループ
のリソースがスコーピングされる。スコーピングは、次に何をなすべきかをWL
Mが正しく判断できるように、変更可能なりソースを管理する。スコーピングは
、ソフトウェアが何をしたいかをマシンが理解することができ、ソフトウェアが
マシン構成を理解するように、リソースのサブセットがマシン上に提供されるの
を可能にする。
【0014】 本発明の他の好ましい実施形態は、コンピュータ環境の区画へのCPUリソー
スの割振りを調整すべきことを決定するステップと、その区画およびコンピュー
タ環境の他の区画にまたがって割振りを動的に調整するステップとを含む、コン
ピュータ環境内でCPUリソースを管理するための方法を提供する。
【0015】 動的に調整するステップは、少なくとも区画のワークロード目標に応答して、
コンピュータ環境の複数の区画にまたがって実行されるのが好ましい。
【0016】 好ましい実施形態では、ワークロード・マネージャが、論理区画に関連するC
PUプロセッサ重みを動的に調整することによって、複数の論理区画にまたがっ
てCPUリソースを分配する。WLMは、たとえば、重要なワークロードを実行
している区画の重みが低すぎるために、そのワークロードが遅れたときを把握す
る。WLMは、たとえば、その区画の重みを上げ、且つ他の区画の重みを下げて
、重要なワークロードに対し追加のCPU容量を提供することにより、そのワー
クロードを援助することができる。これにより、ワークロード要件が変わったと
きに、必要な区画へCPUリソースを動的に移動することができるようになる。
【0017】 本発明は、上記の方法を実行するためのコンピュータ・プログラムも提供する
。そのようなコンピュータ・プログラムは、一般に、コンピュータ可用媒体ある
いはマシンが読み取り可能なプログラム記憶装置にエンコードされている、マシ
ンが実行可能な命令を含み、コンピュータ・システムの一部に含まれるか、また
は(たとえば、ネットワークを介する伝送によって)別途に販売される。
【0018】 本発明は、上記の方法に対応し、且つ方法を実行するためのコンピュータ・プ
ログラムおよび適切なハードウェアを組み合わせることによって構成され得るシ
ステムも提供する。
【0019】 上記のようなコンピュータ・プログラムおよびシステムが、本発明の方法と同
様な好ましい特徴に起因する効果を奏することは理解されよう。
【0020】 次に、図面を参照しながら、本発明の好ましい実施形態について、例示の目的
のみで詳細に説明する。
【0021】
【発明の実施の形態】
コンピュータ環境のリソースの割振りの動的調整によって、その環境のワーク
ロードを平衡化できるようにする、ワークロード管理機能を提供する。一例では
、コンピュータ環境に複数の論理区画が含まれ、ワークロードは、そのうちの2
以上の区画にまたがって管理される。
【0022】 ワークロード管理機能を使用するコンピュータ環境の一実施形態を、図1を参
照して説明する。コンピュータ環境100は、たとえば、米国ニューヨーク州ア
ーモンクのInternational Business Machines Corporationが提供するエンター
プライズ・システム・アーキテクチャー(ESA)/390に基づく。ESA/
390は、IBM社の出版物、「Enterprise Systems Architecture/390 Princi
ples Of Operation」、IBM出版番号SA22−7201−04、1997年
6月に記載されている。ESA/390に基づくコンピュータ環境の一例が、In
ternational Business Machines Corporationが提供する9672 Parallel Enterpr
ise Serverである。
【0023】 コンピュータ環境100には、たとえば、1つまたは複数の中央処理装置10
6(たとえばCP1ないしCP4)、1つまたは複数の論理区画108(たとえ
ば論理区画(LP1ないしLP4))、および少なくとも1つの論理区画マネー
ジャ110を有する中央演算処理装置複合システム(CPC)102が含まれる
。これらのそれぞれを、下で説明する。
【0024】 中央処理装置106は、論理区画に割り振られる物理プロセッサ・リソースで
ある。具体的に言うと、各論理区画108は、1つまたは複数の論理プロセッサ
(図を明瞭にするために特に図示せず)を有し、この論理プロセッサのそれぞれ
が、その区画に割り振られた物理プロセッサである中央処理装置106のすべて
または共用部分を表す。特定の論理区画108の論理プロセッサは、その区画専
用(その結果、基礎になるプロセッサ・リソース106がその区画のために予約
される)とするか、別の区画と共用する(その結果、基礎になるプロセッサ・リ
ソースが、潜在的に別の区画から使用可能になる)のいずれかとすることができ
る。
【0025】 図示の特定の例では、論理区画LP1ないしLP4のそれぞれが、常駐するオ
ペレーティング・システム112(論理区画ごとに異なるものとすることができ
る)と1つまたは複数のアプリケーション114を有する別々のシステムとして
機能する。一実施形態では、オペレーティング・システム112は、Internatio
nal Business Machines Corporationが提供するOS/390またはMVS/E
SAオペレーティング・システムである。
【0026】 さらに、各オペレーティング・システム(またはそのサブセット)には、区画
内および区画間でワークロードを管理するためのワークロード・マネージャ11
6が含まれる。ワークロード・マネージャの一例が、International Business M
achines Corporationが提供するWLMである。WLMは、たとえば、1995
年12月5日発行の米国特許第5473773号明細書および1997年10月
7日発行の米国特許第5675739号明細書に記載されている。
【0027】 論理区画108は、プロセッサ106上で稼動するマイクロコードによって実
装される論理区画マネージャ110によって管理される。論理区画108(LP
1ないしLP4)および論理区画マネージャ110のそれぞれには、中央処理装
置に関連する中央記憶装置のそれぞれの部分に常駐する1つまたは複数のプログ
ラムが含まれる。論理区画マネージャ110の一例が、PR/SMである。
【0028】 コンピュータ環境のもう1つの実施形態では、複数の中央演算処理装置複合シ
ステムが、図2に示されているように互いに結合されて、シスプレックスを形成
する。一例として、中央演算処理装置複合システム(CPC)102は、たとえ
ば結合装置122を介して、1つまたは複数の他のCPC120に結合される。
【0029】 図示の例では、CPC120に、複数の論理区画124(たとえばLP1ない
しLP3)が含まれ、これらの論理区画は、論理区画マネージャ126によって
管理される。1つまたは複数の論理区画に、オペレーティング・システムが含ま
れ、この論理区画は、ワークロード・マネージャおよび1つまたは複数のアプリ
ケーション・プログラムを有することができる(図を明瞭にするためにこの例で
は図示せず)。さらに、CPC120には、複数の中央処理装置128(たとえ
ばCP1ないしCP3)が含まれ、その中央処理装置のリソースは、複数の論理
区画の間で割り振られる。具体的に言うと、リソースは、各区画の1つまたは複
数の論理プロセッサ130の間で割り振られる(他の実施形態では、各CPCが
、1つまたは複数の論理区画と、1つまたは複数の中央処理装置を有することが
できる)。
【0030】 結合装置122(別名、構造化外部ストレージ(SES)プロセッサ)は、中
央演算処理装置複合システムによってアクセス可能な記憶装置を含み、CPC内
のプログラムによって要求される動作を実行する。結合装置は、共用リソース再
分配決定を行う際に使用される状態情報の共用のために本発明のさまざまな態様
によって使用される(一実施形態では、各中央演算処理装置複合システムが、複
数の結合装置に結合される)。結合装置の動作の諸態様は、1994年5月31
日発行の米国特許第5317739号明細書、1996年10月1日発行の米国
特許第5561809号明細書、および1998年1月6日発行の米国特許第5
706432号明細書、ならびにこれらの米国特許明細書で参照されている特許
および特許出願などの参考文献に詳細に記載されている。
【0031】 一実施形態では、1つまたは複数の中央処理装置が、少なくとも1つのチャネ
ル・サブシステムに結合され、このチャネル・サブシステムは、入出力装置との
通信に使用される。たとえば、中央処理装置200(図3)は、主記憶装置20
2および少なくとも1つのチャネル・サブシステム204に結合される。チャネ
ル・サブシステム204は、さらに、1つまたは複数の制御装置206に結合さ
れる。制御装置は、1つまたは複数の入出力装置208に結合される。
【0032】 チャネル・サブシステムは、入出力装置と主記憶装置の間の情報の流れを指示
する。チャネル・サブシステムは、中央処理装置を、入出力装置と直接に通信す
るという作業から解放し、入出力処理と並列にデータ処理を進行できるようにす
る。チャネル・サブシステムは、入出力装置208との間の情報の流れを管理す
る際の通信リンクとして、1つまたは複数のチャネル・パス214を使用する。
【0033】 各チャネル・パス214には、たとえば、チャネル・サブシステム204のチ
ャネル210、制御装置206、およびチャネルと制御装置の間のリンク212
が含まれる。他の実施形態では、チャネル・パスが、複数のチャネル、制御装置
またはリンクを有することができる。さらに、もう1つの例では、チャネル・パ
スの一部として、1つまたは複数の動的交換機を有することも可能である。動的
交換機は、チャネルおよび制御装置に結合され、交換機に付加されるリンクの任
意の2つを物理的に相互接続する能力を提供する。チャネル・サブシステムに関
するさらなる詳細は、1996年6月11日発行の米国特許第5526484号
明細書に記載されている。
【0034】 本発明の好ましい実施形態では、さまざまな物理リソースが、1つまたは複数
のワークロード・マネージャの指示の下で、コンピュータ環境の論理区画の間で
動的に再分配される。この動的再分配は、アプリケーション・サブシステムにと
って透過的である。例として、再分配される物理リソースには、CPUリソース
、論理プロセッサ・リソース、入出力リソース、コプロセッサ、チャネル・リソ
ース、ネットワーク・アダプタ、およびメモリ・リソースが含まれる。一例とし
て、コプロセッサは、特定の機能をサービスする、CPC内のマイクロプロセッ
サ(CPU以外の)である。コプロセッサの例には、たとえば、チャネル・サブ
システム、ネットワーク・アダプタ・カード、および暗号コプロセッサが含まれ
る。上記の物理リソースは、例として提供されるものにすぎない。他の共用可能
リソースも再分配することができる。
【0035】 リソースの動的再分配を容易にするために、一実施形態では、論理区画が、グ
ループの区画の間でリソースを共用するためにグループ化される。各グループの
サイズは、1区画からn区画まで変更できる。(一実施形態では、1つまたは複
数のグループに1つまたは複数の区画が含まれるが、コンピュータ環境のすべて
の区画よりは少ない。)具体的に言うと、各グループには、たとえば、計算機の
独立のドメインで稼動する1つまたは複数のオペレーティング・システム・イメ
ージが含まれ、これらのドメインは、ワークロードおよびリソースを分配するた
めに共通のワークロード・マネージャ機能によって管理される。一例では、これ
らのドメインは、論理分割モードで稼動する論理区画であり、オペレーティング
・システムは、論理区画内で稼動するOS/390である。グループの論理区画
は、システム(たとえばCPC)もしくはシスプレックスの区画のサブセット、
システムもしくはシスプレックス全体、または、異なるシスプレックス(たとえ
ば単一のCPC上の)もしくは異なるシステムの区画とすることができる。
【0036】 中央演算処理装置複合システムの2つの論理区画グループ(またはクラスタ)
の一実施形態を、図4に示す。図からわかるように、それぞれに1つまたは複数
の論理区画が含まれる、論理区画グループA300および論理区画グループB3
02がある。論理区画のグループ化によって、リソース割振り(たとえば、優先
順位に基づくリソース割振り)を介するグループの区画の間でのリソース共用が
可能になる。
【0037】 例として、共用されるリソースには、CPUリソース、入出力リソース、およ
びメモリならびに、コプロセッサまたは他の、計算機が提供することのできる共
用可能リソースが含まれる。特定の論理区画グループは、特定の計算機のすべて
のリソースへのアクセス権を有する場合とそうでない場合がある。実際に、複数
の論理区画グループを、単一の計算機上で同時に動作するように定義することが
できる。各論理区画グループを効率的に管理するために、特定の論理区画グルー
プを構成するリソースは、効果的にそのグループにスコーピングされる。
【0038】 スコーピングには、各グループに割振り可能であるリソースの識別が含まれる
。具体的に言うと、スコープによって、どのリソースがそのグループに制限され
、そのグループのために管理可能であるかが定義される。論理区画グループを構
成する論理区画は、リソースのコンテナとみなすことができる。これらのコンテ
ナは、論理区画から使用可能なリソースの総セットの境界内に存在する。一例で
は、これは、特定のCPC上で使用可能なリソースの総セットである。
【0039】 特定の論理区画グループ(たとえば論理区画グループA)を構成する論理区画
には、共用可能な総リソースのうちの特定の部分が割り当てられる。たとえば、
共用可能リソースがCPUリソースであると仮定する。共用CPUリソースにつ
いて、論理区画グループAに含まれる論理区画には、中央演算処理装置複合シス
テムの総CPUリソースのうちの特定の部分が割り当てられる。これらのリソー
スは、特定のグループ内の論理区画ならびに、潜在的に、他の論理区画グループ
内の論理区画およびどの論理区画グループにも含まれない論理区画によって共用
されている。したがって、グループ内でのリソース移動(たとえば、論理区画グ
ループ内の1区画からそのグループ内の別の区画へ)に関する決定を行おうとす
るワークロード・マネージャは、グループを構成するリソースの理解ならびに、
より大きいコンテナ(たとえばCPC)に含まれるものの理解を有する必要があ
る。ワークロード・リソース管理に関する決定を行うのに使用される測定フィー
ドバック(たとえば、結合装置に記憶された状態情報)は、上記のように顧客が
定義したコンテナを理解するのに十分なものでなければならない。
【0040】 この理解が確立された後に、ワークロード・マネージャが指示する、所与のグ
ループの論理区画でのリソース割振りに対する変更は、通常は、コンテナ・サイ
ズ(すなわち、論理区画グループに割り振られるリソース)を一定に保つ形で行
われる。たとえば、管理されるリソースがCPUリソースであると仮定し、さら
に、各論理区画に、優先順位を示すCPU処理重みが割り当てられると仮定する
。CPU相対重みを管理するために、所与のグループ内の論理区画の相対重みの
合計が、たとえばワークロード・マネージャを介する、指示された変更の前と後
で一定にならなければならない。これによって、顧客が指定した、グループおよ
び計算機上に存在する他の論理区画へのリソースの割振りが維持される。
【0041】 上記にもかかわらず、いくつかの場合に、リソースが指定された所有者によっ
て使用されていない時に、区画のグループが、定義されたコンテナより多いリソ
ースを使用することが望ましく、可能である場合がある。しかし、リソースの競
合が発生すると同時に、リソースは、定義されたコンテナのサイズ(たとえば、
この例では処理重み)に従って、LPARマネージャによって管理される。しか
し、そのコンテナを超えてグループを拡張することを許可してはならない場合も
ありえる。これは、スコーピングに関してもありえる。他のリソースは、リソー
スの使用の正確なイメージを得るために、単一のグループに完全にスコーピング
される必要がある可能性がある。この形での制限によって、所与のグループの外
部の論理区画がそのリソースにアクセスできなくなる。
【0042】 上記に加えて、論理区画グループ内のリソースの可用性に対する外部変更の影
響にも考慮を払う。たとえば、ユーザが、なんらかの外部手段を介して(ワーク
ロード・マネージャの指示の下ではなく)リソースの割振りを変更する可能性が
ある。これは、ある計算機での実際のワークロードの変化、またはグループ間も
しくは他の論理区画間のビジネス優先順位のシフトが原因で行われる可能性があ
る。これらの変更が行われる時には、これらの変更は、ワークロード・マネージ
ャによって理解されなければならず、これらの変更の影響は、合理的に分配され
なければならない。変更は、論理区画がグループに追加または除去される時、グ
ループの外部の他の論理区画が追加または除去される時、または、単に外部手段
を介して処理重みの変更が行われる時に、発生する可能性がある。これらの外部
変更が実行される時には、コンテナのサイズが変更される可能性があり、ワーク
ロード・マネージャは、その新しいサイズのコンテナのマネージャになる。
【0043】 グループの特定の論理区画に属するリソースが外部から変更される時には、グ
ループ内のリソースの再分配が必要になる可能性がある。たとえば、論理区画が
グループから除去される時には、その論理区画に関連する処理重みが、そのグル
ープから除去される。その論理区画について現在ワークロード・マネージャが割
り当てている重みが、除去される論理区画の重み(すなわち、最初に論理区画に
関連する処理重み)より大きい場合には、これらの重みの間の差が、そのグルー
プ内の他の論理区画に追加される。これは、たとえば、グループ内の他の論理区
画での重みの既存の分配に比例して行われる。論理区画について現在ワークロー
ド・マネージャが割り当てている重みが、論理区画の初期重みより小さい場合に
は、これらの重みの間の差が、グループ内の他の論理区画から減算される。やは
り、これは、一例として、他の論理区画の重みの割り当てに比例して行われる。
【0044】 上で説明したように、グループは、グループに割り当てられたリソースおよび
変更を許可されたリソースへのハンドルを得るためにスコーピングされ、その結
果、ワークロード・マネージャは、次に何を行うかに関して正しい決定を行える
ようになる。スコーピングによって、グループが識別され、プログラムが理解で
きる情報がプログラムに供給される。グループが変更される時には、リソースは
、その変更を満足するために動的に調整される。
【0045】 一実施形態では、リソースごとに別々のグループ(クラスタ)を設けることが
できる。たとえば、論理区画グループAをCPUリソースに関するものとし、論
理区画グループBを入出力リソースに関するものとすることができる。しかし、
他の実施形態では、1つの論理区画グループを、リソースのサブセットまたはす
べてに関するものとすることも可能である。
【0046】 LPARグループ・スコープを確立するために、一例では、論理区画が、1つ
または複数の区画のグループに対してそれ自体を識別する。グループへの加入に
関連する論理の一実施形態を、図5を参照して説明する。たとえば、論理区画グ
ループに加入するために、論理区画で稼動するオペレーティング・システム(た
とえばOS/390)は、その論理区画がその一部になろうとするLPARグル
ープがどれであるかをLPARマネージャに示す(ステップ400)。一例とし
て、命令を使用して、LPARグループ名をLPARマネージャに渡す。オペレ
ーティング・システムは、LPARグループ内で管理されるリソースのタイプご
とに名前を指定する。したがって、他のリソースがある場合には(問合せ402
)、他の名前を指定する。たとえば、あるグループ名が、CPUリソースについ
て与えられ、もう1つの名前が、入出力リソースについて与えられる。望むなら
ば、各リソース・タイプについて同一のLPARグループ名を指定することがで
きる。
【0047】 このOS/390による宣言によって、計算機上で新しいLPARグループが
確立される(論理区画がその名前を使用する最初の論理区画である場合)か、こ
の論理区画がそのリソース・タイプに関する同一の名前の既存のLPARグルー
プに加入することになるかのいずれかになる。たとえば、グループ名が指定され
た(ステップ404)(図6)後に、それが新しい名前であるかどうかに関する
判定を行なう(問合せ406)。そうである場合には、新しいグループを作成す
る(ステップ408)。そうでない場合には、既存のグループに加入する(ステ
ップ410)。その後、リソースをグループにスコーピングする(ステップ41
2)。
【0048】 具体的に言うと、LPARグループにバインドされるグループ・タイプのリソ
ースは、LPARグループ内で稼動するWLMがそうする必要があると判定した
場合に、その時に、その論理区画が使用するために使用可能にされる。スコーピ
ングを必要とするLPARグループの特定のタイプのリソースには、少なくとも
2つの変形すなわち、追加リソースおよび固定リソースが含まれる。
【0049】 追加リソース:いくつかの場合に、LPARグループへの加入によって、本質
的に、論理区画が加入したばかりのLPARグループにリソースが追加される。
この一例が、CPU処理重みであり、これは、たとえば、顧客によって、ハード
ウェア・コンソールで論理区画に割り当てられる。論理区画の現在の(使用中の
)処理重みは、論理区画が活動化される時に、この顧客が割り当てた重みから初
期設定される。論理区画がCPUリソースに関するLPARグループに加入する
時には、その論理区画に顧客が割り当てた処理重みが、LPARグループ内での
使用のために使用可能な総処理重みの一部になり、したがって、WLMによって
LPARグループ内で再割り当てすることが可能になる。LPARグループに加
入したばかりの論理区画は、寄与が行われたばかりのLPARグループ・リソー
スのより大きい組を使用する潜在能力を有する。
【0050】 固定リソース:いくつかの場合に、リソースの組が、特定のLPARグループ
に属するものとして事前に定義される。この一例が、管理対象(浮動)チャネル
・パスである。管理対象チャネル・パスとは、ワークロード目標を達成するのを
助けるためにそのリソースを再割り当てすることができるチャネル・パスである
。特定のLPARグループによる使用のための管理対象チャネル・パスの組は、
最初は、チャネル・パス(CHPID)をLPARグループに関連付ける入出力
構成定義処理を介して定義される。論理区画は、このLPARグループに加入す
る時に、このチャネル・パスの組へのアクセスを許可される。論理区画自体は、
このリソース・プールに全く寄与しない(このリソースのプールは、やはり動的
に変更することができるが、要点は、論理区画がLPARグループに加入し、離
脱する際にリソースが論理区画と共に移動しないことである)。
【0051】 LPARスコープも、リソースのタイプに応じてリソースに対して異なる形で
実施することができる。
【0052】 追加リソース:LPARグループ内のオペレーティング・システムは、そのL
PARグループのこのタイプのリソースの完全な組を問い合わせることができる
。一例として、CPU処理重みの場合、これは、命令を介して達成される。オペ
レーティング・システムは、LPARグループ内のこのリソース・タイプの組全
体、グループ内の論理区画へのリソースの割振り、および現在の計算機上で使用
可能なリソース・プールの完全なサイズを知る。これらの構成要素のすべてが、
全物理リソースのうちのどれだけが論理区画に割り振られるかを理解するのに使
用される。その後、オペレーティング・システムは、LPARグループ内の論理
区画への割振りを更新して、グループ内のリソースを再割当てする。オペレーテ
ィング・システムは、一例では、LPARグループに割り振られるリソースの総
量を変更することを許可されない。LPARマネージャは、LPARグループの
すべての部分が、更新で考慮され、LPARグループの外部の論理区画がそのリ
ソースに影響を受けないようにすることによって、これを実施する。
【0053】 固定リソース:LPARグループ内のオペレーティング・システムは、このタ
イプのリソースについて、そのLPARグループに関連するリソースの組を問い
合わせる。たとえば、管理対象チャネル・パスについて、特定のLPARグルー
プについて定義された管理対象チャネル・パスのリストを、命令を介してLPA
Rマネージャから取り出すことができる。LPARマネージャは、これらのリソ
ースのスクリーニングも行って、これらが正しいLPARグループによってのみ
使用されるようにする。管理対象チャネルの場合、これは、管理対象チャネル・
パスを、その管理対象チャネル・パスについて定義された名前と一致するLPA
Rグループ名を宣言した論理区画に対してオンラインに構成することだけが許可
されることを意味する。
【0054】 LPARグループの一部である論理区画が、システム・リセット、再IPL、
または非活動化される時には、その論理区画が1つまたは複数のLPARグルー
プに関して有した所属のすべてが除去される。グループからの論理区画の除去に
関連する論理の一実施形態を、図7を参照して説明する。リセットの一部として
、論理区画マネージャは、宣言されたLPAR区画グループ名を論理区画から除
去する(ステップ500)。次に、リソースに応じて(問合せ502)、その論
理区画のLPARグループ・リソース割振り解除を完了するための1つまたは複
数の他の処置を実行する。
【0055】 リソースが追加リソースの場合には、以下が行われる。このような、論理区画
がLPARグループに加入した時にLPARグループに追加されたリソースは、
LPARグループから除去される(ステップ504)。これには、このタイプの
リソースの、LPARグループの残りのメンバへの現在の割振りの調整が含まれ
る場合がある。たとえば、処理重みの場合、グループを離脱する論理区画の初期
処理重みが、LPARグループのスコープから除去される。WLMが、論理区画
の現在の処理重みを変更している場合には、調整を行う必要がある。論理区画の
現在の処理重みが、その初期処理重みより大きい場合には、この2つの間の差が
、残りのLPARグループ・メンバに、その現在の処理重みに比例して再分配さ
れる。論理区画の現在の処理重みが、その初期処理重みより小さい場合には、こ
の2つの間の差が、残りのLPARグループ・メンバから、その現在の処理重み
に比例して除去される。この調整の結果として、結果のLPARグループに対す
る処理重みコンテナの内容が再確立される。
【0056】 その一方で、リソースが固定リソースの場合には、以下が行われる。このよう
なリソースは、リセットされる論理区画の構成から単純に除去される(ステップ
506)。たとえば、管理対象チャネル・パスの場合、チャネル・パスは、リセ
ットされる論理区画から構成解除される。これによって、LPARグループのメ
ンバだけが、LPARグループのリソースにアクセスできることが、もう一度再
確立される。
【0057】 LPARグループ環境内のWLMによって管理されるリソースの一部が、グル
ープ・スコーピングの必要を有しない場合があることにも留意されたい。そのよ
うなリソースの一例が、論理区画のためにオンラインになる論理中央処理装置(
CP)の数である。LPARグループ内の特定の論理区画の効果的な挙動は、そ
の論理区画に対してオンラインである論理CPの数によって大きく影響される可
能性がある。論理区画が定義することのできるまたはオンラインである論理CP
の数は、その論理区画がLPARグループに含まれるか否かに無関係に論理区画
の特性であり、したがって、このリソースは、実際にはリソースのより大きいプ
ールの一部にはならない。しかし、LPARグループでのその効果は、それによ
って、別のLPARグループ・メンバに対してあるLPARグループ・メンバ内
で効果的に動作させることができるワークロードのタイプを変更できることであ
る。
【0058】 一例では、複数の論理区画の間で共用されるリソースが、CPUリソースであ
る。OS/390ワークロード・マネージャは、論理区画に関連する1つまたは
複数の相対プロセッサ重みを動的に調整することによって、論理区画の間でCP
Uリソースを再分配する。WLMは、重要なワークロードが稼動する区画の重み
が低すぎるので重要なワークロードが遅延される時を理解する。WLMは、この
区画の重みを引き上げ、別の区画の重みを引き下げることによってこのワークロ
ードを助けることができ、これによって、追加のCPU容量が重要なワークロー
ドに与えられる。CPUリソースは、ワークロード要件が変化する際に、必要な
区画に動的に移動される。
【0059】 一実施形態では、論理区画重みのWLM管理のスコープが、論理区画グループ
である。一例として、WLMは、論理区画重みを調整するが、グループ内の区画
の重みの合計を一定に維持する。合計を一定に維持することによって、グループ
に割り振られる総CPUリソースが、同一の物理コンピュータ上の他の独立のグ
ループに対して相対的に同一に保たれる。したがって、WLMは、ある区画の重
みを引き上げる時に、同一のグループ内の別の区画の重みを下げる。
【0060】 論理区画重みの管理は、WLMの目標指向リソース割振り技法に対する機能強
化であり、これは、たとえば、1995年12月5日発行の米国特許第5473
773号明細書および1997年10月7日発行の米国特許第5675739号
明細書に記載されている。
【0061】 上記の特許明細書に記載されているように、WLMは、CPUディスパッチ優
先順位を調整することによって、論理区画内のCPUリソースの割振りを制御す
る。CPUディスパッチ優先順位は、サービス・クラス・レベルで作業に割り当
てられる。しかし、ディスパッチ優先順位の調整がサービス・クラスを助けない
、さまざまな状況がある。たとえば、 1)サービス・クラスが、単独で、すでに非システム作業に許可される最高の
CPUディスパッチ優先順位である。 2)サービス・クラスを助けるためのCPUディスパッチ優先順位の変更が、
それ以上の重要性を有する他のサービス・クラスに及ぼす負の影響が大きすぎる
【0062】 したがって、WLMは、サービス・クラスが、CPU遅延に起因してその目標
を失いつつあり、それをCPU優先順位の調節によって助けることができないこ
とを見つけた時に、WLMは、失敗しつつあるサービス・クラスに関連する区画
の重みの調節を検討する。
【0063】 WLMが追加リソースの割振りを検討するサービス・クラスを、レシーバ・サ
ービス・クラスと呼ぶ。WLMは、上に示した理由のどれかのために助けること
ができない、所与の区画でのCPU遅延に起因して目標を失いつつあるレシーバ
・サービス・クラスを見つけた時に、WLMは、その区画の重みを引き上げるこ
とを検討する。レシーバ・サービス・クラスを助けるために区画の重みを引き上
げることができるかどうかを判定するためにWLMが従う論理の一実施形態を、
図8を参照して下で説明する。
【0064】 1.区画の重みを増やすことがレシーバ・クラスに及ぼす影響を見積もる(ス
テップ600)。区画の重みを増やすと、その区画のCPU容量が増える。レシ
ーバ・クラスでの作業のCPU需要は、一定と仮定されるので、区画のCPU容
量を増やすと、レシーバ・サービス・クラスが必要とする、この容量の百分率が
減る。レシーバ・サービス・クラスに対する利益の見積もりは、レシーバ・サー
ビス・クラスと、システム需要に対する他の作業の両方の、使用可能なCPU容
量の百分率のこの減少に基づく。
【0065】 2.その重みを減らされる候補になる、論理区画グループ内の別の区画を見つ
ける(ステップ602)。この区画を、候補ドナー区画と称する。候補ドナー区
画は、たとえば、区画の重みを下げることによって、最も重要さの少ない作業が
影響を受ける可能性が高い区画を探すことによって、選択される。
【0066】 3.その重みを下げられる候補ドナー区画で稼動する作業を有するすべてのサ
ービス・クラスに対する影響を見積もる(ステップ604)。候補ドナー区画の
重みを減らすことによって、候補ドナー区画のCPU容量が減る。このCPU容
量の減少は、候補ドナーの容量の百分率としての、候補ドナーで稼動する作業を
有するサービス・クラスのCPU需要が増えることを意味する。候補ドナーの重
みを減らすことの負の影響の見積もりは、これらのサービス・クラスが必要とす
る使用可能CPU容量の百分率のこの減少に基づく。
【0067】 4.この重みの変更が正味の値を有するかどうかを判定する(問合せ606)
。すなわち、レシーバ・サービス・クラスに対する利益が、候補ドナー区画の作
業に対する負の影響を上回るかどうかを、関係するサービス・クラスの目標およ
び重要性に基づいて判定する。
【0068】 5.重みの調節が正味の値を有する場合には、提案された区画の重みに対する
変更を実施する(ステップ608)。正味の値がない場合には、ほかに候補ドナ
ー区画があるかどうかに関する判定を行う(問合せ610)。そうである場合に
は、もう1つの候補ドナー区画を選択し(ステップ612)、処理はステップ3
(ステップ604)で続行する。ほかに候補ドナー区画がない場合には、処理を
終了する(ステップ614)。
【0069】 ある区画で稼動するWLMが、別の区画で稼動する作業に対する区画重み変更
の効果の見積もりを行えるようにするために、各区画は、グループ内の各論理区
画に関する性能データを含む共用データ構造へのアクセス権を有する。この区画
レベルの性能データには、たとえば以下が含まれる。 ・サービス・クラスによって区画で実行される作業のCPU要件 ・各サービス・クラスが、その目標に向かってその区画上でどの程度良好に動
作しているか ・区画のCPUディスパッチ優先順位によるCPU使用量
【0070】 OS/390システムに実装した本発明の好ましい実施形態では、この共用デ
ータ構造が、結合装置内で作成され、維持される。しかし、メッセージ交換また
は共用ディスクなどの他のデータ共用手法を使用して、このデータ構造を実装す
ることができる。
【0071】 上で説明したのは、コンピュータ環境のCPUリソースを動的に再分配する能
力である。リソースは、一例として、論理区画重みを動的に調整することによっ
て、論理区画の間で再分配される。
【0072】 コンピュータ環境のCPUリソースの動的調整のほかに、本発明のもう1つの
態様では、論理プロセッサ・リソースも動的に調整することができる。
【0073】 論理区画は、1つまたは複数の論理プロセッサと共に構成され、それらの論理
プロセッサは、中央演算処理装置複合システムの物理中央処理装置上で、作業を
実行するためにディスパッチされる。区画がそれに割り当てられたCPU容量を
消費できるようにするために、十分な論理プロセッサを論理区画に構成しなけれ
ばならない。たとえば、10個のCPUを有するCPC上で稼動する論理区画A
の場合を検討する。ワークロード・マネージャが、論理区画AにCPCの容量の
50%を割り当てる場合、論理区画Aは、少なくとも5つの論理プロセッサをそ
れに構成されることを必要とする(5つの論理プロセッサは、CPUのうちの5
つすなわちCPCの容量の50%で稼動することができる)。論理区画Aに、そ
の後、CPCの容量の95%が割り当てられた場合、論理区画Aは、10個の論
理プロセッサを有するように構成されるはずである。WLMは、静的に定義され
た論理プロセッサ構成を用いて論理区画Aに割り当てられた容量を動的に調整す
ることができるので、すべての可能な容量割当てを収めるために、10個の論理
プロセッサが論理区画Aに構成される。しかし、論理区画Aに、たとえばCPC
の容量の20%だけが割り当てられる場合には、静的に定義された論理プロセッ
サから次の2つ問題が生じる。1)10個の論理プロセッサのそれぞれが、平均
して、物理CPUの容量の0.2の比率で物理CPUリソースを消費することし
かできない(10個のCPUの20%を10個の論理プロセッサによって分割す
ると、1論理プロセッサあたり0.2CPUになる)。これは、スループットが
単一のタスクによってゲーティングされるワークロードを厳しく制限する可能性
がある。というのは、その単一のタスクを、物理CPUの容量の0.2倍で実行
することしかできなくなるからである。これは、ショート・エンジン効果と呼ば
れることがある。2)2つの論理プロセッサだけが必要な時に10個の論理プロ
セッサを管理しなければならない時に、ソフトウェアおよびハードウェアの効率
が大きく低下する。
【0074】 上記の欠陥に対処するために、論理区画の構成は、本発明の一態様によれば、
静的に定義されるのではなく、動的に調整される。一例では、区画を管理し、動
的調整を行うのは、WLMである。WLMは、コンピュータ環境(またはLPA
Rグループ内)の各論理区画についてこれを行うことができる。論理プロセッサ
の構成の動的調整に関連する論理の一実施形態を、図9を参照して説明する。
【0075】 最初、論理区画を、ワークロード・マネージャによって論理区画に割り当てら
れた容量(または、実際に使用されている容量の方が大きい場合にはその容量)
を消費できるようにするのに必要な最小の個数の論理プロセッサを用いて構成す
る(ステップ700)。論理区画の容量割り当て(または容量使用量)が変化す
る際に(問合せ702)、評価を行って、論理区画に構成される論理プロセッサ
の数を変更しなければならないかどうかを判定する(ステップ704)。一例で
は、論理区画に構成される論理プロセッサの数は、論理区画に割り当てられた(
または論理区画によって消費される)CPC容量を提供するのに必要な物理CP
Uの数に近いままになる。したがって、各論理プロセッサは、物理CPUの容量
に近い状態で実行され、管理される論理プロセッサの数が、最小になる。
【0076】 論理構成を変更するかどうかの評価を行うために、一例では次の式を使用する
。 L=floor[max(W,U)×P+1.5](ただし、Lの最大値=P) ここで、L=論理区画に構成される論理プロセッサの数、W=論理区画に割り
当てられるCPC容量の百分率、U=論理区画によって現在使用されているCP
C容量の百分率、P=CPC上の物理CPUの数である(ステップ705)。
【0077】 Lは、たとえば定期的で頻繁なインターバル(たとえば10秒ごと)に、P、
W、およびUの現在の値に基づいて、ワークロード・マネージャによって評価さ
れる。閾値を使用して、論理区画のLの実際の値(L−act)を上げるか下げ
るかしなければならないかどうかを判定する。新たに計算されたLの値(L−c
alc)が、L−actの現在の値より高い場合(問合せ706)、L−act
をL−calcまで引き上げる(ステップ708)。そうでない場合に、L−c
alcがL−actより2つ以上小さい値である場合(問合せ710)、L−a
ctにL−calc−1をセットする(ステップ712)。L−calcが、L
−actと等しいか、L−actより1つだけ小さい場合には、論理区画のL−
actの値の変更は行われない(ステップ714)。これらの閾値の使用を介し
て、ワークロードのすばやく高まる容量需要に応答しながらも、小さいワークロ
ード変動に起因するL−actの無用な変更が回避される。
【0078】 もう1つの例示として、次の例を検討する。P=10、W=U=24%と仮定
する。論理プロセッサの静的構成では、Wが90%を超えて増加する場合を扱う
ために、L(静的)=10が必要になろう。しかし、本発明の好ましい実施形態
によれば、L(動的)=floor[max(.24,.24)×10+1.5]=3で
ある。したがって、この例では、L(静的)では、単一のタスクが物理CPUの
0.24で実行されるように制約されるが、L(動的)では、単一のタスクが、
物理CPUの0.80で実行されることが可能であり、これによって、単一タス
ク性能によってゲーティングされるワークロードのスループットの233%の向
上がもたらされる。さらに、この例では、L(静的)に必要な10個の論理プロ
セッサではなく、3つの論理プロセッサだけが管理されるので、ソフトウェアお
よびハードウェアの効率が大幅に改善される。
【0079】 コンピュータ環境の、管理されるもう1つの共用可能リソースは、入出力リソ
ースなどの非同期リソースである。具体的に言うと、コプロセッサ(たとえばチ
ャネル・サブシステム)内の入出力動作または入出力要求が管理される。この管
理には、優先順位の高い入出力動作がすばやく処理される、優先順位の高い入出
力動作がチャネルのより多くの帯域幅を割り当てられる、などの入出力動作の優
先順位付けが含まれる。
【0080】 現在の大規模多重プログラミング・コンピュータ・システムでは、付加された
入出力装置の読取、書込、および制御のための入出力動作などの長時間稼動する
処理の開始および実行は、通常は、複数の独立に動作する計算要素(図10参照
)の使用によって達成される。たとえば、中央処理装置800内で実行中のプロ
グラムは、付加された装置804との入出力動作を要求することができる。しか
し、付加された装置との入出力動作の実際の開始および実行は、通常はチャネル
・サブシステム802と呼ばれる、1つまたは複数の別々に独立して実行する協
働プロセッサによって実行される。一般に、非同期入出力処理方法は、比較的長
時間稼動する入出力装置の実行と並列に他の作業のために中央処理装置を最適化
し効率的に使用するために使用される。すなわち、そうしなければ付加された入
出力装置にアクセスし、読み書きするために必要になるはずの総プロセッサ・オ
ーバーヘッド、処理時間、およびプロセッサ待ち時間を最小にするためである。
そのような方法は、大規模多重プログラミング・システムで他のプロセッサ作業
の実行と入出力動作との、最大のオーバーラップまたは実行の並列性を達成する
ように設計される。
【0081】 そのような非同期入出力処理システムでは、中央処理装置が、S/390 S
TART SUBCHANNEL命令などの入出力命令の使用によってプログラ
ムが要求した入出力動作の実行を開始する。そのような命令は、通常は、次の2
つの責任を負う。 1.チャネル・サブシステムの入出力作業キューに入出力動作要求をエンキュ
ー(追加)し、 2.入出力作業キューを処理するために非同期に実行中のチャネル・サブシス
テムにシグナルを送る。
【0082】 その後、中央処理装置は、他の作業/命令を実行することができ、入出力装置
との要求された入出力動作の実際の実行に直接にはかかわらない。
【0083】 1)上の処理の非同期な性質、2)中央処理装置とチャネル・サブシステム・
プロセッサの独立動作、3)中央処理装置の実行速度と比較して相対的に長い、
入出力動作の実行時間、および4)装置をチャネル・サブシステムに接続するチ
ャネル・パスなどのチャネル・サブシステム・リソースの一部またはすべてが、
入出力動作がプログラムによって要求された時に他の動作の実行で使用中である
可能性があるという事実に起因して、複数の入出力要求が、チャネル・サブシス
テム入出力作業キューに同時にエンキューされる可能性が非常に高い。すなわち
、START SUBCHANNEL命令は、チャネル・サブシステムが要求さ
れた入出力動作を実行する能力より高い速度で中央処理装置によって実行され、
これによって、保留入出力動作要求のNレベルの深さの入出力作業キューが継続
的に引き起こされる。
【0084】 保留入出力要求を処理するために、チャネル・サブシステムを構成するマイク
ロプロセッサは、それぞれの入出力作業キューを検査し(図10参照)、1つま
たは複数の入出力要求をこれらのキューからデキューし、それぞれの入出力装置
に関するデキューされた入出力要求の開始を試みる。この活動の発端は、チャネ
ル・サブシステム内の問題のマイクロプロセッサおよび作業キューに応じて変化
する。たとえば、中央処理装置と対話するチャネル・サブシステム入出力プロセ
ッサは、他の作業の実行に使用中でない時に周期的に、1つまたは複数の中央処
理装置START SUBCHANNEL信号の結果として、または両方の組合
せの結果として、この処理を開始するかも知れない。
【0085】 チャネル・サブシステムのさまざまな作業キューの一例を、図10を参照して
説明する。前に述べたように、入出力要求は、たとえばSTART SUBCH
ANNEL命令によって、入出力プロセッサ作業キュー806にエンキューされ
る。その後、入出力要求は、入出力プロセッサ808によって、入出力プロセッ
サ作業キューからデキューされる。入出力プロセッサ作業キューからデキューさ
れた要求は、入出力プロセッサによって、チャネル・プロセッサ作業キュー81
0にエンキューされる。その後、これらの要求は、チャネル・プロセッサ812
によってデキューされ、制御装置作業キュー814にエンキューされる。チャネ
ル・プロセッサは、制御装置作業キューから要求をデキューして、チャネル・パ
スを介して制御装置へ、最終的には入出力装置へ送る。
【0086】 現在、S/390プロダクト・ファミリーのシステム内では、チャネル・サブ
システムのデキュー処理および作業初期設定処理は、先入れ先出し法(FIFO
)に基づいて実行される。この処理は、論理的に実施が最も単純であり、スルー
プットの最適化を目的とし、過去には、保留作業キューの平均深さが比較的浅く
、入出力作業保留時間が比較的短い持続時間にとどまる(すなわち、さまざまな
入出力作業キューの保留入出力要求の平均数が、重要性の高いプログラムまたは
実時間依存型プログラムに関連する入出力動作の総入出力応答時間を大幅に引き
延ばさない)ならば、さまざまな非同期処理要素の間の作業転送のために許容さ
れる戦略であった。
【0087】 しかし、クリティカルな作業または時間依存の作業の適時な処理に関するユー
ザの需要をサポートするためにアプリケーション/プログラム優先順位付け機能
を提供するオペレーティング・システムでは、保留入出力要求に関するFIFO
処理戦略は、FIFO作業キューの平均深さが増えるにつれて、ますます許容さ
れなくなる。たとえば、IBM Enterprise Storage Serverと共に使用される並
列アクセス・ボリュームでは、チャネル・サブシステムの平均キュー深さが増え
る。これは、通常は、重要性が低いか時間依存型でない入出力要求が、FIFO
作業キュー上でより重要な要求の前にキューに置かれる可能性があり、したがっ
て、よりクリティカルな入出力要求の前に開始されることになるという事実に起
因する。頻繁に、クリティカルでない作業は、長時間にわたってリソースを束縛
する入出力を実行し、より重要な作業が遭遇する遅延が増える。これは、通常は
、より重要な入出力要求の遅延の可能性が高まることをもたらす。
【0088】 入出力保留時間とも称する遅延時間(総リアルタイム遅延または中央処理装置
の速度と比較した時の相対時間遅れのいずれかとすることができる)の増加は、
チャネル・サブシステムおよび付加された装置が、クリティカルな入出力要求の
適時の完了に影響しない入出力実行の速度を維持する能力がないこと(言い換え
ると、重要性の高いプログラムまたは時間依存型プログラムの実行時間の許容不
能な延長をもたらさない実行速度を維持する能力がないこと)に起因することが
しばしばである。上で述べたように、クリティカルな入出力要求に関する総入出
力応答時間の許容不能な延長の確率は、FIFO作業処理方法が使用される時に
、一般に高まる。この遅延の確率は、中央処理装置の速度および数が、付加され
る入出力装置および、装置が付加されるチャネル・パスなどの他の必要なチャネ
ル・サブシステム要素の速度の向上より高い割合で向上する際に、さらに大きく
なる。一般に、入出力速度の向上の割合に対する中央処理装置の速度の向上の割
合の不一致は、現在の大規模システム環境で増大を続け、その結果、クリティカ
ルな作業のキューイング遅延およびより大きい入出力応答時間(リアルタイムま
たは相対時間のいずれか)の確率がますます高まる。
【0089】 例として、チャネル・サブシステムでのキューイング遅延に起因する、重要性
の高い入出力動作および時間依存型入出力動作の長い入出力応答時間の頻度を最
小にするために、優先順位処理技法を定義して、1つまたは複数のチャネル・サ
ブシステム保留入出力作業キューを処理する。
【0090】 2つの独立に実行されるプロセッサまたはプロセスの間の優先順位処理技法の
実施の例には、以下が含まれる。 1.エンキュー・プロセッサ(またはプロセス)が、プログラム指定の(たと
えばWLMによる)優先順位番号に基づく優先順位シーケンシング技法を使用し
て、チャネル・サブシステム入出力作業キュー(処理の段階に依存する特定のキ
ュー)に入出力要求を追加する。チャネル・サブシステムは、その後、FIFI
技法を使用して、作業キューから最初の最も優先順位の高い入出力要求を除去す
る。または、 2.エンキュー・プロセッサ(またはプロセス)が、FIFOエンキュー技法
を使用して、入出力作業キューの最下部に入出力要求を追加する。チャネル・サ
ブシステムは、優先順位選択技法を使用して、その後、作業キューのすべての入
出力要求要素を探索し、最も高いプログラム指定の優先順位番号を有する入出力
要求を除去し、処理する。
【0091】 FIFOエンキュー技法(技法2)では、必要な命令が少なく、したがって、
中央処理装置が、入出力要求スケジューリング処理をよりすばやく完了すること
ができる。これによって、中央処理装置は、よりすばやく他の作業を実行できる
ようになる。チャネル・サブシステムを構成するさまざまなマイクロプロセッサ
の間のエンキュー/デキュー処理について、選択すべき技法は、通常は、参加す
るプロセッサのどれが、その処理容量および適時性の要件に関して最も制約され
るかに依存する。すなわち、エンキュー・プロセッサが最も制約される場合には
、第2の技法を選択する。デキュー・プロセッサが最も制約される場合には、通
常は第1の技法を選択する。
【0092】 これらの技法のどちらを使用するかに無関係に、その結果は、チャネル・サブ
システムが、到着時刻またはFIFO方法ではなく、優先順位付け方法に基づく
保留入出力要求の開始および実行を優先することである。
【0093】 さらに、一実施形態では、使用されるエンキュー技法および選択技法に無関係
に、処理される要求の優先順位付けや選択に、さまざまな判断基準が使用される
。一例では、この判断基準に以下が含まれる。
【0094】 1.各異なる番号が独自の優先順位レベルに対応する、プログラム指定の優先
順位番号に基づく保留入出力要求の選択。たとえば、連続する独自の番号の範囲
を設け、数の範囲全体が、優先順位の区別を必要とする別個の作業カテゴリの総
数以上になるようにする。たとえば、システムが、通常のS/390システムで
可能であるように、N個の異なるオペレーティング・システムを同時に実行する
能力を有する場合には、チャネル・サブシステム優先順位技法は、N個以上の別
個の優先順位レベルを提供しなければならない。最低のレベルから最高のレベル
までまたはその逆の各優先順位レベルは、0からN−1までの範囲の独自の数に
よって表されるはずである。
【0095】 2.優先順位に無関係にすべてのエンキューされた要求に「フェアネス」も適
用する技法を使用する、保留入出力要求の優先順位選択。これは、通常は、たと
えば、長時間にわたってチャネル・サブシステムに不相応に多数の高い優先順位
の要求が提示されることに起因して発生する可能性がある、低い優先順位の要求
が長時間にわたって処理されない確率を最低にするために所望される。フェアネ
ス選択は、他の考慮点に応じて、同一の優先順位の保留要求に適用することもで
きる。たとえば、まだ選択されていない他の同一優先順位の要求と共に、すでに
デキューされ、開始に失敗し、複数回再キューイングされた保留要求にフェアネ
スを提供することである。このような技法を、図11を参照して説明する。この
技法では、保留要求の複数の異なるカテゴリに、優先順位とフェアネスの両方を
適用する。
【0096】 3.下記に関する外部ユーザ/オペレータの制御 1.優先順位処理技法のグローバルな使用可能化/使用不能化。この制御は
、優先順位技法が不要であるか、非類型的なプログラム実行環境に適当に対応す
ることができない場合に、保留要求のFIFO処理を強制するために必要になる
場合がある。 2.複数の論理区画の並列実行を提供するシステムの場合の、所与の論理区
画に関連する入出力要求の「デフォルト」優先順位値をユーザが指定できるよう
にする外部制御。これは、論理区画内で実行中のオペレーティング・システムが
、その入出力要求の優先順位値を指定するように設計されていないが、それでも
、入出力優先順位付けを指定する他の論理区画内で実行中の他のオペレーティン
グ・システムと成功裡に競合しなければならない時に使用される。 3.複数の論理区画の並列実行を提供するシステムの場合の、チャネル・サ
ブシステムによって供給される値の組全体からの、各論理区画の優先順位値のサ
ブセット最小最大範囲をユーザが指定できるようにするための外部制御。この制
御は、別々の論理区画内で実行中の複数のオペレーティング・システムが、入出
力優先順位を独立に、それを使用する他の区画の知識なしに使用する時に使用さ
れる。すなわち、各使用する区画によって開始される要求の優先順位に基づく分
離を可能にするための制御である。
【0097】 上の項目3.2および3.3について、一実施形態では、中央処理装置が、論
理区画内で実行中のプログラムのユーザ指定のデフォルト優先順位値またはユー
ザ指定の最大/最小許容優先順位を、その区画で動作するプログラムに透過的な
形で、暗黙のうちに割り当てる。S/390システムでは、これは、論理区画マ
ネージャ(ハイパーバイザ)および中央処理装置のSTART SUBCHAN
NEL命令によって共同で達成することができる。
【0098】 論理区画内で動作するプログラムが、入出力動作を開始するためにSTART
SUBCHANNELを実行する時には、中央処理装置でのSTART SU
BCHANNEL命令の解釈実行で、暗黙のうちに、解釈実行開始(SIE)状
態記述(SD)テーブルから、デフォルト優先順位番号および最小/最大許容優
先順位番号の両方が獲得される。このテーブルは、論理区画ハイパーバイザが区
画を実行状態にするためにSIE命令を実行する時に、その論理区画ハイパーバ
イザによって、中央処理装置内に作成され、ロードされる。その後、START
SUBCHANNELの解釈実行では、SIE状態記述テーブルのデフォルト
優先順位値および最小/最大優先順位値を使用して、論理区画内で動作するプロ
グラムによる関与なしで、適当な優先順位値を入出力要求に暗黙のうちにセット
する。
【0099】 優先順位値が、論理区画内で実行中のプログラムによって指定されない時には
、START SUBCHANNELの解釈で、ユーザ指定のデフォルト優先順
位値が入出力要求に割り当てられる。論理区画内で実行中のプログラムが、ST
ART SUBCHANNELを実行する時に優先順位番号を指定する時には、
START SUBCHANNELの解釈実行で、プログラム指定の優先順位値
を、状態記述テーブル内のハイパーバイザ指定の最小/最大優先順位値と比較す
る。プログラム指定の優先順位が、ハイパーバイザ指定の最小値より小さい時に
は、状態記述テーブルからの最小値によって、暗黙のうちにプログラム指定の値
を置換する。プログラム指定の優先順位値が、ハイパーバイザ指定の最大優先順
位を超える時には、状態記述テーブルからの最大優先順位値によって、プログラ
ム指定の値を置換する。
【0100】 上記の判断基準のうちの0個以上を使用して、優先順位選択技法を導出するこ
とができる。上記の判断基準の少なくともいくつかを使用する、処理される要求
を選択するための技法の一実施形態を、図11を参照して説明する。
【0101】 最初、保留作業キューにアクセスする(ステップ900)。たとえば、入出力
プロセッサ作業キュー、チャネル・プロセッサ作業キュー、または制御装置作業
キューのいずれかにアクセスする。その後、デキューされた保留要求のカウント
を1つ増分する(たとえば、DQCOUNT=DQCOUNT+1)(ステップ
902)。
【0102】 その後、保留要求のどのカテゴリを処理するかに関する判定を行う(ステップ
904)。一例では、選択されるカテゴリは、(DQCount MODULU
S カテゴリ数)に等しい。したがって、この例では4つのカテゴリがあるので
、選択されるカテゴリは、DQCount MODULUS 4に等しい。結果
が0の場合には、任意の優先順位の最初の要求をデキューする(ステップ906
)。しかし、選択されるカテゴリが1の場合には、前にデキューされていない最
高優先順位の最初の要求を選択する(ステップ908)。さらに、選択されるカ
テゴリが2の場合には、前にデキューされ、開始に成功しなかった最高の優先順
位の最初の要求を選択する(ステップ910)。しかし、結果が3の場合には、
前にデキューされていない任意の優先順位の最初の要求を選択する(ステップ9
12)。その後、選択された要求をデキューし、処理する(ステップ914)。
【0103】 上で詳細に説明したのは、コプロセッサ内の非同期要求のための優先順位付け
機構である。入出力要求およびチャネル・サブシステムを参照して例を説明した
が、これらは例にすぎない。本手法は、他の非同期要求およびコプロセッサに同
等に適用可能である。さらに、上に記載の例は、キューイングに関連して説明し
たが、同様の優先順位付け機構を使用して、複数の動作を同時に実行できるチャ
ネル上のリソース(たとえば帯域幅)の割り当てを調整することができ、これに
よって、すべてを同等に実行するのではなく、優先順位の高い動作により多くの
チャネル・リソースを与えることができる。
【0104】 さらに、本明細書に記載のさまざまな例は、論理分割されたシステムに関連し
て説明されるが、入出力優先順位機能は、論理区画を有しないかサポートしない
システム内で使用可能である。
【0105】 さらなる利点として、人間の介入なしに使用可能なチャネル・リソースを必要
な場所に移動するか、余分のチャネル・リソースを除去するために、コンピュー
タ環境の入出力構成(たとえばチャネル・パス構成)を動的に変更することがで
きる。これによって、入出力を構成するのに必要な技術が減り、総合的なシステ
ム可用性が強化され、導入されたチャネルの利用度が最大になり、使用可能入出
力容量を分配するのにワークロードの相対優先順位が使用される。一実施形態で
は、「最良」の変更を決定するために、変更を行う前に1つまたは複数の要因を
調べる。この要因には、たとえば、応答時間または入出力速度に対する影響、特
定のワークロード目標を達成するための応答時間に対する影響、宛先ポートが使
用中であるかどうか、結果の可用性特性(たとえば、共通の単一障害点がないパ
スの追加)、および結果の入出力構成の複雑さ(またはエントロピ)が含まれる
【0106】 入出力構成の動的調整に関連する論理の一実施形態を、図12ないし17を参
照して詳細に説明する。最初、基本平衡化処理は、たとえばコンピュータ環境の
ワークロード・マネージャ構成要素によって、定期的にスケジューリングされる
時間間隔の開始時、たとえば10秒ごとに呼び出される。基本平衡化処理の機能
は、サブシステム(たとえば論理制御装置)(浮動(すなわち管理対象)チャネ
ルを定義されている)にまたがって均等に入出力速度を継続的に平衡化し、好ま
しくは共通の単一障害点のない、複数のパスを介してすべての装置にアクセスで
きるようにし、ハードウェア障害の後にサブシステムの再平衡化を行うことであ
る。この処理には、データ収集(図12のステップ1000)および平衡検査(
ステップ1002)という2つの構成要素が含まれる。データ収集は、環境の各
論理区画内(環境が論理分割されると仮定する。論理分割されていない場合には
、各システム内)で各インターバルに1回実行され、平衡検査は、グループ化さ
れたLPAR(やはりグループ化を仮定する)ごとにインターバルごとに1回だ
け実行される。
【0107】 この処理のデータ収集部分の直列化は、どのシステムでもWLMだけがインタ
ーバルごとに1回基本平衡化技法を呼び出すという事実によって得られる。さら
に、収集した情報を更新する時には、バージョン番号検査が使用される。たとえ
ば、結合装置内に記憶された制御ブロックを直列化して、収集された情報を更新
する。これらの制御ブロックによって、グループ・レベルのデータ収集が可能に
なり、これによって、同一CPC上のグループのメンバにまたがるチャネルの管
理が可能になる。
【0108】 平衡検査を直列化するために、特にその目的のためのグループ・スコープを有
する直列化を使用する。通常、平衡化がデータ収集の直後に呼び出される時には
、グループ単位の直列化が要求される。直列化が得られる場合には、平衡検査が
進行し、そうでない場合には、平衡検査が、グループ化されたLPAR内ですで
に行われつつあり、このインターバル中にもう一度実行する必要はない。
【0109】 図12のデータ収集処理を、図13を参照してさらに説明する。一実施形態で
は、定義されたサブシステム(たとえば論理制御装置)ごとに、測定データを収
集し、更新する(ステップ1100)。測定データには、たとえば、接続時間、
保留時間、サブシステム使用中、装置使用中、宛先ポート使用中時間、および宛
先ポート使用中カウントが含まれる。更新された測定データは、結合装置などの
共用メモリ内の制御ブロックと共に、プロセッサ・メモリ内の制御ブロックに記
憶される。
【0110】 測定データの更新の後に、各サブシステムのデフォルト目標入出力速度を計算
する(ステップ1102)。この入出力速度は、追加のチャネル帯域幅が必要ま
たは望まれるかどうかを示す。一例として、デフォルト目標入出力速度は、接続
時間によって重みを付けられる。この計算を実行するために、一例では、以下の
ステップが行われる。DCMによって管理されるサブシステムごとに、前のイン
ターバル中にそのサブシステムが与えた接続時間の量と共に、現在の速度または
実際の速度を得る。その後、入出力速度に接続時間を乗じて、結果を得る。サブ
システムの結果を足し合わせて、合計を得る。接続時間によって重みを付けられ
たデフォルト目標入出力速度を決定するために、この合計を総接続時間で割る。
【0111】 図12に戻って、データ収集を実行した後に、本明細書に記載されているよう
に、平衡検査を実行する(ステップ1002)。平衡検査に関連する論理の一実
施形態を、図14を参照して説明する。最初、平衡検査をこの瞬間に実行しなけ
ればならないかどうかを判定するために、直列化を実行する(問合せ1200)
。グループ単位の直列化を得る試みが不成功の場合には、平衡検査論理は実行さ
れない(ステップ1202)。しかし、直列化が得られる場合には、目標範囲か
ら外れているサブシステムを探す(ステップ1204)。
【0112】 たとえば、すべてのサブシステムについて実際の入出力速度を得、平均をとる
(一例では、動的CHPID管理(DCM)によって管理されるサブシステムだ
けが、この平均に含まれる)。平均を判定した後に、範囲を作成する。一例では
、範囲は、たとえば、平均値の±5%である。その後、各サブシステムの目標入
出力速度を、目標範囲と比較する。目標入出力速度が指定されていない場合には
、デフォルト目標入出力速度を使用する。この比較の結果として、2つのリスト
が作成される(ステップ1206)。一方のリストには、目標範囲を超えるサブ
システムが含まれ、もう一方には、目標を達成しないサブシステムが含まれる。
どの場合でも、最近(たとえば過去10秒以内)に変更されたサブシステムは、
リストから排除される。
【0113】 その後、達成されない目標のリストをソートする(ステップ1208)。一例
では、WLMを使用してこのリストをソートする。というのは、WLMが、どの
サブシステムが最も重要であるかを決定する位置にあるからである。したがって
、WLMは、WLMがサービスを望む順序でサブシステムを並べる。
【0114】 リストをソートした後に、リストの1つまたは複数のサブシステムが、たとえ
ば利用度の低いサブシステムから過度に利用されているサブシステムへ容量をシ
フトすることによって、サービスされる(ステップ1210)。割り当てられた
時間内でサービスできる数のサブシステムが調整される。
【0115】 容量の調整に関連する論理の一実施形態を、図15および図16を参照して説
明する。最初、リストからサブシステムを選択する(ステップ1300、図15
)。一例では、選択されるのは、リストの最初のサブシステムである。その後、
問題が宛先ポート使用中であるかどうかに関する判定を行う(問合せ1302)
。具体的に言うと、競合(たとえば宛先ポート使用中時間)が高いかどうかに関
する判定を行い、そうである場合には、それに接続されるさまざまなインターフ
ェースに関してそれが変動するかどうかを判定する。宛先ポート使用中がすべて
のインターフェースで高い場合には、これは、別のチャネル・パスを追加する必
要があることを意味する。しかし、1つのインターフェースだけで高い場合には
、チャネル・パスを別のインターフェースに移動する(ステップ1304)。し
たがって、既存のパスが、過度な宛先ポート使用中時間を有するインターフェー
スから別のインターフェースに移動され、処理は変更の実施(ステップ1306
、図16)に続行する。変更を実施する方法の例が、1993年10月発行の米
国特許第5257379号明細書、1993年10月発行の米国特許第5257
368号明細書、および1993年6月発行の米国特許第5220654号明細
書に記載されている。
【0116】 変更を実施した後に、目標範囲内にない他のサブシステムがあるかどうかに関
する判定を行う(問合せ1308)。ない場合には、不平衡訂正の処理が完了す
る。しかし、他のサブシステムが範囲内にない場合には、この処理は、ステップ
1300「リストの次のサブシステムを選択する」(図15)に継続する。
【0117】 問合せ1302に戻って、問題が競合に起因するものでない場合には、処理は
、本明細書で説明するように続行される。
【0118】 具体的に言うと、一例では、サブシステムに追加することが可能なチャネル・
パスを判定する(ステップ1310)。この判定には、物理トポロジ内での、そ
の特定のサブシステムに到達することができるすべてのチャネルの検査と、各チ
ャネルについてのそのサブシステムに到達することが可能な経路(パス)の判定
が含まれる。パスは、チャネルおよびサブシステムを接続すると共に、その両方
を含むハードウェア要素を通る接続順列である。これらのパスのすべて(または
、望むならばサブセット)が、可能なパスに含まれる。
【0119】 同様に、除去が可能なパスに関する判定を行う(ステップ1312)。一例と
して、同一チャネル上に複数のサブシステムがある場合に、共用するサブシステ
ムに接続されたパスの1つが、除去の候補とみなされる。
【0120】 その後、変更によってどのサブシステムが影響を受けるかに関する判定を行う
(ステップ1314)。さらに、変更される構成の複雑さを示すエントロピ・イ
ンデックスも、下で説明するように判定する。
【0121】 影響を受けるサブシステムの判定に関連する論理の一実施形態を、図17を参
照して説明する。最初、サブシステムのサブシステム制御ブロック(SSCB)
リストおよびチャネルのCHPIDリストを、後の使用のためにクリアする(ス
テップ1400)。その後、チャネル・パスIDを、提案されたチャネルに関連
する判断選択ブロック(DSB)から取り出し、CHPIDリストに追加する(
ステップ1402)。具体的に言うと、各パスは、判断選択ブロックを関連付け
られている。判断選択ブロックとは、たとえばチャネル・パスのID(CHPI
D)、チャネル・パスに関連する論理制御装置を示すサブシステム制御ブロック
(SSCB)ポインタ、および影響を受けるSSCBの配列を含む、さまざまな
情報を含む制御ブロックである。各SSCBには、サブシステムに接続されたチ
ャネルのすべてが含まれる。
【0122】 その後、援助されるSSCBに関連するすべてのCHPIDも、CHPIDリ
ストに追加する(ステップ1404)。具体的に言うと、SSCBポインタを、
援助されるSSCBを示すDSBから取り出す。その後、SSCBのCHPID
のすべてを、CHPIDリストに追加する。
【0123】 その後、リスト内のCHPIDのそれぞれについて、チャネル・パスに関連す
るSSCBを、SSCBリストに追加する(ステップ1406)。一例では、こ
の情報は、各CHPIDに接続されたSSCBを示すチャネル・パス・テーブル
から得られる。
【0124】 その後、SSCBがリストに追加されたかどうかに関する判定を行う(問合せ
1408)。そうである場合には、リスト内のSSCBのそれぞれについて、ス
テップ1404に関して上で説明したように、まだCHPIDリストに含まれて
いないCHPIDを追加する(ステップ1410)。
【0125】 その後、リストに追加されたCHPIDがあったかどうかに関するもう1つの
判定を行う(問合せ1412)。リストに追加された他のCHPIDがあった場
合には、処理はステップ1406で継続される。しかし、リストに追加されたS
SCBもCHPIDもない場合には(問合せ1408および1412)、リスト
のSSCBのそれぞれについて、DSB配列要素を作成する(ステップ1414
)。すなわち、SSCBのそれぞれを、影響を受けるSSCBの配列に追加する
。さらに、配列要素のそれぞれを、実際の入出力速度、目標入出力速度、目標入
出力速度と実際の入出力速度の間の現在のデルタ、およびSSCBポインタを用
いて更新する(ステップ1416)。
【0126】 図15に戻って、上記に加えて、各パスの可用性インデックスを計算する(ス
テップ1316)。一例では、可用性インデックスは、提案されたパスがサブシ
ステムへの既存のパスと共通して有する単一障害点の個数を示す数である。チャ
ネル・パスを追加する場合には、単一障害点を有しないことが望まれる。チャネ
ル・パスを削除する場合には、通常は、最も多くの単一障害点を有するパスが選
択される。
【0127】 その後、影響を受けるシステムに対する影響を見積もる(ステップ1318)
。具体的に言うと、一例では、各サブシステムに対する現在の負荷を調べて、変
更を行った場合にそれがどれほど異なるかを判定する。この情報を使用して、最
適のオプションを選択する(ステップ1320)。最適のオプションを選択する
ために、たとえば下記を含むさまざまな要因を検討することができる。 ・どのオプションでサブシステムが目標の最も近くに移動されるか ・どのオプションが最良の可用性をもたらすか ・どのオプションが最良の対称性(最小のエントロピ)をもたらすか ・このオプションでパスの総数が2未満に減るか ・このオプションは、明示的な目標のどれかに違反するか(WLMは、デフォ
ルト目標の代わりに使用される明示的目標を供給することができる) ・このオプションは、アーキテクチャ的制限のどれかに違反するか ・このオプションは、インストールによって定義される構成に違反するか ・このオプションは、現在使用不能なリソースの使用を試みるか
【0128】 特定の例では、最初、どの状況の下でも実施できない判断選択ブロック(DS
B)を排除する。これには、たとえば、アーキテクチャ的制限に違反するもの、
パスの総数が2未満に減るもの、インストールによって定義される構成に違反す
るもの(たとえば、定義で許容される最大個数を超える浮動チャネル・パスを使
用するもの)、および現在使用不能なリソースの使用を試みるもの(たとえば、
使用不能にされたポートの使用を試みるもの)が含まれる。(この機能は、処理
のより早い段階に移動し、その結果、可用性インデックスおよびサブシステムに
対する影響の見積もりが、絶対に選択できないDSBについて計算されないよう
にすることができる。)
【0129】 現在サブシステムへのパスが1つだけ存在する場合(おそらくはシステム始動
のすぐ後または障害の後)、最良の可用性インデックスを有するパスを選択する
。複数のパスが同等の可用性インデックスを有する場合には、目標サブシステム
を目標入出力速度目標内に移動する最も低いエントロピ・インデックスを有する
パスを選択する。複数存在する場合には、その見積もられたデルタの合計(DS
Bからの「Σ見積もられたデルタ」)が最小であるパスを選択する。
【0130】 現在サブシステムへのパスが複数存在する場合には、最良の可用性インデック
スを有するDSBの組を見つける。その組から、目標サブシステムを目標入出力
速度の許容範囲内にする、最も低いエントロピ・インデックスを有するオプショ
ンを探す。複数存在する場合には、その見積もられたデルタの合計(DSBから
の「Σ見積もられたデルタ」)が最小であるパスを選択する。
【0131】 そのようなオプションが存在しない場合には、次によい可用性インデックスを
有するパスの組を見つけ、再度試みる。
【0132】 どのオプションでもサブシステムを許容範囲内にすることができない場合には
、可用性インデックスおよびエントロピ・インデックスを考慮せずに、サブシス
テムを目標に最も近づけるものを選択する。(上で説明した最適オプション選択
のための技法は、一例にすぎない。さまざまな追加、削除、および変更を行うこ
とができる。さらに、他の適当な技法を使用して、最適オプションを選択するこ
とができる。)
【0133】 最適オプションの選択を試みた後に、明示的目標を有するサブシステムに影響
せずに新しい目標を達成できるかどうかに関する判定を行う(問合せ1322)
。言い換えると、最適オプションが、WLMによって設定された明示的目標を有
するサブシステムに負の影響を及ぼすかどうかを判定する。そうである場合には
、ワークロード・マネージャを呼び出して、適当なパスを選択する(ステップ1
324)。具体的に言うと、ワークロード・マネージャは、パスを選択し、ドナ
ーの新しい目標を選択する。
【0134】 その後、または、明示的目標を有するサブシステムに負の影響を及ぼさずに新
しい目標を達成できる場合に、変更を実施し(ステップ1306)、処理は、目
標範囲内にない他のサブシステムが存在するかどうかの判定(問合せ1308)
に継続する。
【0135】 上で述べたように、WLMは、明示的入出力速度目標を設定することができ、
これは、デフォルト平均入出力速度目標の代わりに使用される。一実施形態では
、サービス・クラスがその目標を満たさないことをWLMが見つけた時に、WL
Mが明示的目標を設定する。明示的サブシステム入出力速度目標の設定に関連す
る論理の一実施形態を、図18を参照して説明する。
【0136】 最初、入出力が最大の遅延を引き起こしているかどうかを判定する(問合せ1
500)。そうでない場合には、ここでの目的に照らして、処理が完了する。し
かし、入出力が最大の遅延を引き起こしている場合には、入出力優先順位調整を
試みる(ステップ1502)。その後、サービス・クラスがその目標を満たして
いるかどうかに関する判定を行う(問合せ1504)。サービス・クラスがその
目標を満たしている場合には、処理が完了する。しかし、サービス・クラスが、
まだその目標を満たしていない場合には、そのサービス・クラスによって使用さ
れており、低い入出力速度を有するサブシステムを探す(ステップ1506)。
突きとめられた1つまたは複数のサブシステムについて、新しいサブシステム入
出力速度目標を設定する。一例では、定義済みの量だけ現在の目標を増やし、サ
ブシステムに対する影響を見積もることによって、サブシステム入出力速度目標
が設定される。影響が十分である(たとえば、レシーバ値を超える)場合には、
処理が完了する。そうでない場合には、目標をもう一度増やし、この処理を繰り
返す。
【0137】 上で詳細に説明したのは、入出力構成の動的調整を提供する動的CHPID管
理(DCM)である。DCMは、WLMに有利に統合され、これによって、ワー
クロードおよび目標の理解を用いて判断を行えるようになる。さらに、DCMを
用いると、複数の区画(たとえば区画のグループの区画)にまたがるチャネルの
管理が可能になる。これによって、必要な場所へのリソースの追加、および余分
なリソースの除去が可能になる。
【0138】 上で説明したように、動的CHPID管理(DCM)を用いて、サブシステム
に追加(またはそれから除去)される「最適の」チャネルが選択される。これを
行うために、たとえば結果の入出力構成の複雑さ(またはエントロピ)を含む、
1つまたは複数の属性が試験される。
【0139】 エントロピの増加は、入出力構成を過度に複雑にし、DCMの処理の過度な時
間、影響を受けるサブシステムの過剰な数に起因する不正確な結果、性能報告の
複雑さ、および問題判別の複雑さをもたらす。したがって、本発明の好ましい実
施形態では、異なる選択肢の相対エントロピを判定し、その結果、構成をどのよ
うに調整するかの選択を行う時に、入出力速度および可用性などの他の検討点と
共に、相対エントロピを検討できるようにする機能が提供される。
【0140】 相対エントロピを判定する際には、エントロピ・インデックスを計算する。た
とえば、パスを追加する場合には、エントロピ・インデックスは、結果の構成の
チャネル数およびサブシステム数の合計になる。さらに、パスを削除する場合に
は、エントロピ・インデックスは、パスが削除された後に目標サブシステムに相
互接続されているチャネルおよびサブシステムの組を反映する。これには、もは
やその組に含まれないチャネルおよびサブシステムは含まれない。
【0141】 各オプションのエントロピの度合を計算するために、判断が実施されると仮定
して、一緒に接続されるチャネルおよびサブシステムの数を使用する。エントロ
ピ技法の基本的な前提の1つが、複数の提案されたトポロジの間の比較と、どの
トポロジがより対称であるか、またはより少ないエントロピを有するかの判定と
を可能にするインデックスを計算することである。これの目的は、大規模な相互
接続されたトポロジを避けることである。このようなトポロジは、入出力速度技
法の精度を下げ、過度に複雑なトポロジに起因して、事後に性能問題を分析する
ことを困難にすると思われる。
【0142】 エントロピ判定技法の一実施形態をさまざまな例で説明する。たとえば、図1
9は、2つのサブシステム1604に接続された2つのチャネル1602を含む
構成1600の一例を示す図である。サブシステム22は、追加リソースを必要
とする場合に、少なくとも2つの場所からそれを得ることができる。サブシステ
ム22は、チャネル1またはチャネル3のいずれかからそれを受け取ることがで
きる。サブシステム22がチャネル3からそれを得る場合、結果の構成は、3つ
のチャネルと2つのサブシステムを有する(図20)。これによって、この構成
に5(3+2)のエントロピ・インデックスが与えられる。しかし、サブシステ
ム22が、チャネル1から追加リソースを受け取る場合(図21)、結果の構成
は、元々有したもの以上のチャネルもサブシステムも有しておらず、結果のエン
トロピ・インデックスは2になる。この例では、第2のオプションが最小のエン
トロピを有する。
【0143】 もう1つの例を検討する。図22に示された例では、サブシステム23が、追
加リソースを必要としている。それは、チャネル2またはチャネル4から得るこ
とができる。チャネル2が使用される場合(図23)、結果のエントロピ・イン
デックスは5になる(すなわち、1つの構成で3つのチャネルが2つのサブシス
テムに相互接続されている。チャネル4は、接続されていないのでカウントされ
ない)。チャネル4が使用される場合(図24)、結果のインデックスは3にな
る。したがって、第2のオプションが最小のエントロピを有する。
【0144】 次に、構成が分割される場合を検討して、これがエントロピにどのように影響
するかを見てみる。
【0145】 図25を参照すると、サブシステム23が、過度の容量を有する場合に、チャ
ネル2またはチャネル3を除去することができる。チャネル2を除去する場合(
図26)、構成が分割され、両方の構成のエントロピ・インデックスが下がる。
チャネル3を除去する場合(図27)、まだ1つの構成が存在するが、エントロ
ピ・インデックスは元のインデックスより低い。一実施形態では、構成を2つに
分割するという判断は、2つのより複雑でないネットワークをもたらし、よりよ
い選択肢であると思われる。
【0146】 削除の際に、既存の構成(図28)のインデックスならびに考慮中のサブシス
テムを含む提案された構成(図29の右側)のインデックスが既知である場合に
は、もう一方の構成(図29の左側)のインデックスは、減算によって計算する
ことができる。この例では、もう一方の構成のインデックスは、2に等しい(4
−3=1かつ2−1=1、したがって1+1=2)。図30のように、サブシス
テムまたはチャネルの数についての減算結果が0になる場合には、エントロピは
、構成を分割せずに減らされている。(たとえば、2サブシステム−2サブシス
テム=0。)一実施形態では、分割が好ましい。
【0147】 次の例では、サブシステム23が、過剰なリソースを有する(図31)。チャ
ネル2またはチャネル3を除去することができる。チャネル3を除去する場合(
図32)、結果のエントロピ・インデックスは7になる。チャネル2を除去する
場合(図33)、構成が2つの構成に分割され、考慮中の構成(サブシステム2
3を有する構成)は、5のエントロピ・インデックスを有し、結果の第2の構成
は、3のエントロピ・インデックスを有する。一実施形態では、構成の分割が好
ましい。
【0148】 次に、結果のエントロピ値ではなく、削除の際に分割を探すことだけが望まれ
る場合を判定するための例を検討する。
【0149】 図34に示された例では、サブシステム23が、多すぎる帯域幅を有する。チ
ャネル2またはチャネル4のいずれかを除去することができる。チャネル2を除
去する場合(図35)、新しいエントロピ・インデックス6が得られ、残りの第
2の構成のエントロピ・インデックスは3である。チャネル4を除去する場合(
図36)、新しいエントロピ・インデックス5が得られ、残りの第2の構成のエ
ントロピ・インデックスは4である。5および4のエントロピ・インデックスを
有する構成が、よりよい選択肢である。したがって、一実施形態では、分割の種
類が重要である。
【0150】 図37に示された例では、サブシステム23が、追加リソースを必要としてい
る。サブシステム21をチャネル2から除去し(図38)、サブシステム23に
チャネル2のすべてのリソースを与えることができ、また、サブシステム25を
チャネル4から除去し(図39)、サブシステム23にチャネル4のすべてのリ
ソースを与えることができる。
【0151】 サブシステム21をチャネル2から除去する場合、結果のエントロピ・インデ
ックスは7であり、結果の第2の構成のエントロピ・インデックスは2である。
サブシステム25をチャネル4から除去する場合、結果のエントロピ・インデッ
クスは6であり、残りの第2の構成は3である。一実施形態では、分割が均等に
より近いので、第2の選択肢がより良いと思われる。
【0152】 どのオプションが2等分(すなわち「均等」)により近いかを計算するために
、新しいエントロピ・インデックスと結果の第2の構成のエントロピ・インデッ
クスとの間で、チャネルおよびサブシステムの数の差を判定する。この例では、
第1の選択肢は、7および2のエントロピ・インデックスをもたらすので、差は
5である(すなわち、対称インデックス)。第2の選択肢は、6および3のエン
トロピ・インデックスをもたらすので、差は3である。より少ない差を有する選
択肢が、この実施形態では最良の選択肢である。
【0153】 結論を出すと、一実施形態では、サブシステムを目標入出力速度に近づけない
オプションが、排除される。さらに、エントロピ・インデックスが、結果の構成
で相互接続されているチャネルおよびサブシステムの総数を加算することによっ
て計算される。エントロピ・インデックスが変化しない場合には、その変更は対
称である。最低のエントロピ・インデックスを有する構成が、通常は選択される
。より高いエントロピ・インデックスを有する構成を選択することを意味する場
合であっても、8つを超えるチャネルを有する構成を選択することは回避すべき
である。代替案がない場合には、8つを超えるチャネルを有する構成を選択し、
うまくいけば、次のインターバルにこの構成が分割されることになる。
【0154】 上記の実施形態の変形形態を、入出力構成に関連して説明してきたが、ここで
述べた機能は、ストレージ・エリア・ネットワークその他のネットワークに同等
に適用可能である。
【0155】 上で説明したのは、コンピュータ環境のリソースを管理するためのさまざまな
機構である。物理共用可能リソースが、コンピュータ環境の論理区画にまたがっ
て管理される。論理区画はグループ化され、たとえば優先順位に基づくリソース
割振りによるリソース共用を可能にする。このリソース共用には、たとえば、L
PARにまたがるCPUリソースの動的管理、LPARにまたがる動的CHPI
D管理、チャネル・サブシステム内の入出力優先順位キューイング、およびLP
ARにまたがるメモリの動的管理が含まれる。
【0156】 一例では、システムのワークロード・マネージャが、少なくとも部分的にこの
管理の責任を負う。共用可能リソースは、アプリケーションのサブシステムにと
って透過的なワークロード・マネージャ指示の下で、LPARにまたがって動的
に再分配される。リソースは、モニタリング活動および顧客の目標に基づいて、
必要な区画に供給される。さらに、たとえばWLM、シスプレックス、およびP
R/SM統合を介する、ワークロード目標による物理リソースの動的調整は、並
列シスプレックス・データ共用を必要とせずに実行される。
【0157】 上で説明した実施形態では、さまざまなコンピュータ環境およびシステムを説
明した。これらは、例にすぎず、本発明の範囲を制限する目的のものではない。
同様に、本明細書で示した流れ図は、例示にすぎない。これらの図またはステッ
プ(または動作)に対する多数の変形形態があり得る。たとえば、ステップを適
宜異なる順序で実行することができ、ステップを追加、削除、または変更するこ
とができる。
【図面の簡単な説明】
【図1】 コンピュータ環境の一例を示す図である。
【図2】 コンピュータ環境のもう1つの実施形態を示す図である。
【図3】 コンピュータ環境の追加構成要素を示す図である。
【図4】 論理区画グループの一例を示す図である。
【図5】 グループに加入する区画に関連する論理の一例を示す図である。
【図6】 グループに加入する区画に関連する論理の一例を示す図である。
【図7】 グループからの区画の除去に関連する論理の一実施形態を示す図である。
【図8】 区画のレシーバ・サービス・クラスを助けるための、区画の重みを増やすこと
ができるかどうかの判定に関連する論理の一実施形態を示す図である。
【図9】 論理プロセッサの構成の動的調整に関連する論理の一実施形態を示す図である
【図10】 チャネル・サブシステムの一実施形態を示す図である。
【図11】 入出力動作の選択に関連する論理の一実施形態を示す図である。
【図12】 入出力構成を調整しなければならないかどうかの判定に関連する論理の一実施
形態を示す図である。
【図13】 図12のデータ収集に関連する論理の一実施形態を示す図である。
【図14】 図12の平衡検査に関連する論理の一実施形態を示す図である。
【図15】 入出力構成の不平衡の訂正に関連する論理の一実施形態を示す図である。
【図16】 入出力構成の不平衡の訂正に関連する論理の一実施形態を示す図である。
【図17】 影響を受けるサブシステムの判定に関連する論理の一実施形態を示す図である
【図18】 明示的入出力速度目標の設定に関連する論理の一実施形態を示す図である。
【図19】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図20】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図21】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図22】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図23】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図24】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図25】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図26】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図27】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図28】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図29】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図30】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図31】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図32】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図33】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図34】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図35】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図36】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図37】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図38】 エントロピ判定に使用される入出力構成の一例を示す図である。
【図39】 エントロピ判定に使用される入出力構成の一例を示す図である。
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 09/407,391 (32)優先日 平成11年9月28日(1999.9.28) (33)優先権主張国 米国(US) (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,MZ,SD,SL,SZ,TZ,UG ,ZW),EA(AM,AZ,BY,KG,KZ,MD, RU,TJ,TM),AE,AG,AL,AM,AT, AU,AZ,BA,BB,BG,BR,BY,BZ,C A,CH,CN,CR,CU,CZ,DE,DK,DM ,DZ,EE,ES,FI,GB,GD,GE,GH, GM,HR,HU,ID,IL,IN,IS,JP,K E,KG,KP,KR,KZ,LC,LK,LR,LS ,LT,LU,LV,MA,MD,MG,MK,MN, MW,MX,MZ,NO,NZ,PL,PT,RO,R U,SD,SE,SG,SI,SK,SL,TJ,TM ,TR,TT,TZ,UA,UG,UZ,VN,YU, ZA,ZW (72)発明者 ジェフリー・ニック アメリカ合衆国12493 ニューヨーク州ウ ェスト・パーク ルート9ダブリュ 1957 (72)発明者 ピーター・ヨコム アメリカ合衆国12590 ニューヨーク州ワ ッピンガーズ・フォールズ ワイルドウッ ド 17ビー (72)発明者 キャサリン・アイラート アメリカ合衆国12590 ニューヨーク州ワ ッピンガーズ・フォールズ シャーウッ ド・ハイツ・ドライブ 34 Fターム(参考) 5B098 AA10 GD01 GD14 GD19 HH01 HH07 HH08

Claims (36)

    【特許請求の範囲】
  1. 【請求項1】 コンピュータ環境のワークロードを管理する方法であって、 前記コンピュータ環境の複数の区画のうちの2以上の区画にまたがってワーク
    ロードを管理するステップを含み、 前記管理するステップは、前記2以上の区画のうちの少なくとも1つの区画の
    共用可能リソースの割振りを動的に調整するステップを含み、前記2以上の区画
    のワークロード目標が平衡化される方法。
  2. 【請求項2】 前記動的に調整するステップが、前記少なくとも1つの区画内の作業処理に対
    して透過的に実行される、請求項1に記載の方法。
  3. 【請求項3】 前記共用可能リソースが、CPUリソース、論理プロセッサ・リソース、入出
    力リソース、チャネル・リソース、コプロセッサ、ネットワーク・アダプタおよ
    びメモリのうちの少なくとも1つを含む、請求項1または2に記載の方法。
  4. 【請求項4】 前記動的に調整するステップが、前記共用可能リソースの少なくとも一部を1
    つの区画から少なくとも1つの他の区画へ移動するステップを含む、請求項1〜
    3のいずれかに記載の方法。
  5. 【請求項5】 前記動的に調整するステップが、前記2以上の区画の間で前記共用可能リソー
    スを優先順位に基づいて管理するステップを含む、請求項1〜4のいずれかに記
    載の方法。
  6. 【請求項6】 前記動的に調整するステップが、前記2以上の区画の間で前記共用可能リソー
    スを百分率割振りに基づいて割り当てるステップを含み、前記2以上の区画のそ
    れぞれが前記共用可能リソースの一部を割り当てられる請求項1〜5のいずれか
    に記載の方法。
  7. 【請求項7】 前記区画が論理区画である、請求項1〜6のいずれかに記載の方法。
  8. 【請求項8】 前記動的に調整するステップが、上記コンピュータ環境の少なくとも1つのワ
    ークロード・マネージャによって少なくとも部分的に制御される、請求項1〜7
    のいずれかに記載の方法。
  9. 【請求項9】 前記動的に調整するステップが、データ共用の要件なしに実行される、請求項
    1〜8のいずれかに記載の方法。
  10. 【請求項10】 コンピュータ環境のワークロードを管理する方法であって、 前記コンピュータ環境の複数の区画のグループを識別するステップと、 前記グループの割り当てるべき共用可能リソースを決定することによって前記
    区画のグループを管理するステップとを含み、前記共用可能リソースの少なくと
    も一部が前記グループの前記複数の区画に割り振られる方法。
  11. 【請求項11】 前記区画が少なくとも1つのオペレーティング・システムの1以上のインスタ
    ンスを含む、請求項10に記載の方法。
  12. 【請求項12】 前記グループを前記区画のうちの少なくとも1つの区画によってジョインする
    ステップをさらに含む、請求項10または11に記載の方法。
  13. 【請求項13】 前記ジョインするステップが、前記グループに割り振り可能な前記共用可能リ
    ソースの少なくとも一部に影響を及ぼす、請求項12に記載の方法。
  14. 【請求項14】 前記グループから1つの区画を除去するステップをさらに含む、請求項10〜
    13のいずれかに記載の方法。
  15. 【請求項15】 前記除去するステップが、前記グループに割り振り可能な前記共用可能リソー
    スの少なくとも一部に影響を及ぼす、請求項14に記載の方法。
  16. 【請求項16】 前記識別するステップが、1以上の区画をそれぞれ含む複数のグループを識別
    するステップを含む、請求項10〜15のいずれかに記載の方法。
  17. 【請求項17】 前記グループの少なくとも1つの区画の前記共用可能リソースの少なくとも一
    部の割振りを再調整するステップをさらに含む、請求項10〜16のいずれかに
    記載の方法。
  18. 【請求項18】 前記グループのための前記共用可能リソースの前記少なくとも一部の合計量が
    前記再調整するステップによって影響されないようにするステップをさらに含む
    、請求項17に記載のシステム。
  19. 【請求項19】 前記共用可能リソースを前記グループへ割振りできるようにするステップをさ
    らに含む、請求項10〜18のいずれかに記載のシステム。
  20. 【請求項20】 コンピュータ環境のワークロードを管理する方法であって、 前記コンピュータ環境の複数の区画を含むグループが変更されたことを決定す
    るステップと、 前記決定に応答して、前記グループ内で前記グループのリソースの割振りを動
    的に調整することによって、前記グループを管理するステップと、 を含む方法。
  21. 【請求項21】 前記前記動的に調整するステップが、前記グループ内における前記リソースの
    総割振りを維持する、請求項20に記載の方法。
  22. 【請求項22】 前記グループのために割り振られた量を超えた前記リソースの量を前記グルー
    プによって一時的に使用するステップをさらに含む、請求項20に記載の方法。
  23. 【請求項23】 前記リソースについて競合が存在することを決定するステップと、 使用される前記量を前記グループに割り振られた量まで再調整するステップと
    をさらに含む、請求項22に記載の方法。
  24. 【請求項24】 コンピュータ環境内でワークロードを管理する方法であって、 前記コンピュータ環境の区画に対するCPUリソースの割振りを調整すべきこ
    とを決定するステップと、 前記コンピュータ環境の前記区画および別の区画にまたがって前記割振りを動
    的に調整するステップと、 を含む方法。
  25. 【請求項25】 前記動的に調整するステップが、少なくとも前記区画のワークロード目標に応
    じて実行される、請求項24に記載の方法。
  26. 【請求項26】 前記動的に調整するステップが、前記区画に割り当てられた第1CPUプロセ
    ッサ重みおよび前記別の区画に割り当てられた第2CPUプロセッサ重みを修正
    するステップを含む、請求項24または25に記載の方法。
  27. 【請求項27】 前記修正するステップが、 前記第1CPUプロセッサ重みを増加するステップと、 前記第2CPUプロセッサ重みを減少するステップと、 を含む、請求項26に記載の方法。
  28. 【請求項28】 前記前記第1CPUプロセッサ重みの増加量および前記第2CPUプロセッサ
    重みの減少量が同じであり、前記前記第1CPUプロセッサ重みおよび前記第2
    CPUプロセッサ重みの合計が一定である、請求項27に記載の方法。
  29. 【請求項29】 前記区画および前記別の区画が区画のグループ内にある、請求項24〜28の
    いずれかに記載の方法。
  30. 【請求項30】 前記区画が作業の1以上のサービス・クラスを含み、前記決定するステップが
    、 前記区画に関連するプロセッサ重みを増加することが前記1以上のサービス・
    クラスのうちの選択されたサービス・クラスに及ぼす影響を見積もるステップと
    、 前記別の区画のプロセッサ重みを減少することが前記別の区画の1以上のサー
    ビス・クラスに及ぼす影響を見積もるステップと、 前記選択されたサービス・クラスに対する利益が前記別の区画の作業に対する
    負の影響を上回るかどうかを決定するステップとを含み、 前記利益が前記負の影響を上回る場合に調整が行われる、請求項24〜29の
    いずれかに記載の方法。
  31. 【請求項31】 前記別の区画内で実行すべき作業の重要度に基づいて前記別の区画を選択する
    ステップをさらに含む、請求項24〜29のいずれかに記載の方法。
  32. 【請求項32】 請求項1〜31のいずれかに記載の方法を実行するためのコンピュータ・プロ
    グラム。
  33. 【請求項33】 コンピュータ環境のワークロードを管理するシステムであって、 前記コンピュータ環境の複数の区画のうちの2以上の区画にまたがってワーク
    ロードを管理する手段を含み、 前記管理する手段は、前記2以上の区画のうちの少なくとも1つの区画の共用
    可能リソースの割振りを動的に調整する手段を含み、前記2以上の区画のワーク
    ロード目標が平衡化されるシステム。
  34. 【請求項34】 コンピュータ環境のワークロードを管理するシステムであって、 前記コンピュータ環境の複数の区画のグループを識別する手段と、 前記グループの割り当てるべき共用可能リソースを決定することによって前記
    区画のグループを管理する手段とを含み、前記共用可能リソースの少なくとも一
    部が前記グループの前記複数の区画に割り振られるシステム。
  35. 【請求項35】 コンピュータ環境のワークロードを管理するシステムであって、 前記コンピュータ環境の複数の区画を含むグループが変更されたことを決定す
    る手段と、 前記決定に応答して、前記グループ内で前記グループのリソースの割振りを動
    的に調整することによって、前記グループを管理する手段と、 を含むシステム。
  36. 【請求項36】 コンピュータ環境内でワークロードを管理するシステムであって、 前記コンピュータ環境の区画に対するCPUリソースの割振りを調整すべきこ
    とを決定する手段と、 前記コンピュータ環境の前記区画および別の区画にわたる前記割振りを動的に
    調整する手段と、 を含むシステム。
JP2001526677A 1999-09-28 2000-09-28 コンピュータ環境におけるワークロード管理 Expired - Lifetime JP3872343B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US09/408,470 US7051188B1 (en) 1999-09-28 1999-09-28 Dynamically redistributing shareable resources of a computing environment to manage the workload of that environment
US09/407,391 1999-09-28
US09/407,212 1999-09-28
US09/408,470 1999-09-28
US09/407,212 US6587938B1 (en) 1999-09-28 1999-09-28 Method, system and program products for managing central processing unit resources of a computing environment
US09/407,391 US7007276B1 (en) 1999-09-28 1999-09-28 Method, system and program products for managing groups of partitions of a computing environment
PCT/GB2000/003720 WO2001023974A2 (en) 1999-09-28 2000-09-28 Workload management in a computing environment

Publications (2)

Publication Number Publication Date
JP2003514270A true JP2003514270A (ja) 2003-04-15
JP3872343B2 JP3872343B2 (ja) 2007-01-24

Family

ID=27410700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001526677A Expired - Lifetime JP3872343B2 (ja) 1999-09-28 2000-09-28 コンピュータ環境におけるワークロード管理

Country Status (14)

Country Link
EP (1) EP1256039B1 (ja)
JP (1) JP3872343B2 (ja)
CN (1) CN100397341C (ja)
AT (1) ATE283512T1 (ja)
AU (1) AU7437600A (ja)
BR (1) BRPI0014350B1 (ja)
CA (1) CA2382017C (ja)
CZ (1) CZ20021093A3 (ja)
DE (1) DE60016283T2 (ja)
ES (1) ES2228607T3 (ja)
HU (1) HU228286B1 (ja)
IL (2) IL148728A0 (ja)
PL (1) PL365894A1 (ja)
WO (1) WO2001023974A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067351A (ja) * 2001-08-28 2003-03-07 Nec System Technologies Ltd 分散型コンピュータの構成制御システム
JP2006079495A (ja) * 2004-09-13 2006-03-23 Hitachi Ltd ストレージシステム及び論理区画の設定方法
JP2008077652A (ja) * 2006-09-20 2008-04-03 Internatl Business Mach Corp <Ibm> 論理的にパーティションされたコンピューティング環境の中央処理ユニットのリソースを、共有メモリをアクセスせずに管理する方法および装置
JP2011509478A (ja) * 2008-01-11 2011-03-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 構成の仮想トポロジの変化
JP2013515991A (ja) * 2009-12-24 2013-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーション アクセラレータ・リソースを動的に管理するための方法、情報処理システム、およびコンピュータ・プログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4292693B2 (ja) * 2000-07-07 2009-07-08 株式会社日立製作所 計算機資源分割装置および資源分割方法
US7203719B2 (en) * 2001-08-22 2007-04-10 International Business Machines Corporation Method and system to measure distributed system's relative size
US6694419B1 (en) 2002-04-12 2004-02-17 Barsa Consulting Group, Llc Method and system for automatically measuring partition memory needs in a partitioned computer system
US6968441B1 (en) 2002-04-12 2005-11-22 Barsa Consulting Group, Llc Method and system for managing interdependent resources of a computer system
US6738886B1 (en) 2002-04-12 2004-05-18 Barsa Consulting Group, Llc Method and system for automatically distributing memory in a partitioned system to improve overall performance
US7290260B2 (en) 2003-02-20 2007-10-30 International Business Machines Corporation Dynamic processor redistribution between partitions in a computing system
JP2005165813A (ja) * 2003-12-04 2005-06-23 Matsushita Electric Ind Co Ltd 分散計算機システム管理方法
JP4503470B2 (ja) * 2005-03-17 2010-07-14 富士通株式会社 サーバ管理装置及び計算機サーバ
DE102005014717B4 (de) 2005-03-31 2022-09-29 Fujitsu Technology Solutions Intellectual Property Gmbh Computersystem und Verfahren zur Aufteilung und Zuteilung von Rechenleistung innerhalb eines Computersystems
US20090055831A1 (en) * 2007-08-24 2009-02-26 Bauman Ellen M Allocating Network Adapter Resources Among Logical Partitions
EP2193484A4 (en) * 2007-08-31 2011-12-21 Cirba Inc METHOD AND SYSTEM FOR EVALUATING VIRTUALIZED ENVIRONMENTS
US7734900B2 (en) 2008-01-11 2010-06-08 International Business Machines Corporation Computer configuration virtual topology discovery and instruction therefore
US7487506B1 (en) 2008-01-16 2009-02-03 International Business Machines Corporation Autonomous management of system throughput
CN101778428B (zh) * 2009-01-14 2013-07-24 电信科学技术研究院 一种确定时频资源的方法、系统和装置
CN101819540B (zh) * 2009-02-27 2013-03-20 国际商业机器公司 在集群中调度任务的方法和系统
CN101706743B (zh) * 2009-12-07 2012-09-05 北京航空航天大学 一种多核环境下的虚拟机调度方法
US8589941B2 (en) * 2010-04-23 2013-11-19 International Business Machines Corporation Resource affinity via dynamic reconfiguration for multi-queue network adapters
US9081613B2 (en) 2010-11-02 2015-07-14 International Business Machines Corporation Unified resource manager providing a single point of control
US9253016B2 (en) 2010-11-02 2016-02-02 International Business Machines Corporation Management of a data network of a computing environment
US8959220B2 (en) 2010-11-02 2015-02-17 International Business Machines Corporation Managing a workload of a plurality of virtual servers of a computing environment
US8984109B2 (en) 2010-11-02 2015-03-17 International Business Machines Corporation Ensemble having one or more computing systems and a controller thereof
US8966020B2 (en) 2010-11-02 2015-02-24 International Business Machines Corporation Integration of heterogeneous computing systems into a hybrid computing system
CN102063331B (zh) * 2011-01-07 2013-04-17 同济大学 用于空间计算并行化的自适应负载平衡方法
CN103974149A (zh) * 2013-02-01 2014-08-06 鼎点视讯科技有限公司 分配带宽方法及装置
CN103279389B (zh) * 2013-04-28 2016-06-22 中国工商银行股份有限公司 一种主机批量负载的调度方法以及调度系统
US9715268B2 (en) * 2015-05-08 2017-07-25 Microsoft Technology Licensing, Llc Reducing power by vacating subsets of CPUs and memory
US10034407B2 (en) * 2016-07-22 2018-07-24 Intel Corporation Storage sled for a data center
CN106371922A (zh) * 2016-08-29 2017-02-01 成都支付通卡友电子商务有限公司 动态负载平衡批量处理系统
US10452436B2 (en) * 2018-01-03 2019-10-22 Cisco Technology, Inc. System and method for scheduling workload based on a credit-based mechanism

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324361A (ja) * 1992-05-15 1993-12-07 Fujitsu Ltd 仮想計算機システムのcpu制御方式
JPH07295841A (ja) * 1992-10-19 1995-11-10 Internatl Business Mach Corp <Ibm> 動的に資源を再構成するための方法及びシステム
JPH0991257A (ja) * 1995-09-25 1997-04-04 Nec Corp Cpu管理方式
JPH10283211A (ja) * 1997-03-28 1998-10-23 Internatl Business Mach Corp <Ibm> マルチシステム環境のプロセッサ・リソース管理方法
EP0917056A2 (en) * 1997-11-04 1999-05-19 Digital Equipment Corporation A multi-processor computer system and a method of operating thereof
JPH11316747A (ja) * 1997-11-04 1999-11-16 Digital Equip Corp <Dec> 多数のオペレ―ティングシステムインスタンス及びソフトウェア制御式リソ―ス割り当てを伴うマルチプロセッサコンピュ―タア―キテクチャ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324361A (ja) * 1992-05-15 1993-12-07 Fujitsu Ltd 仮想計算機システムのcpu制御方式
US5530860A (en) * 1992-05-15 1996-06-25 Fujitsu Limited Virtual computer control system effectively using a CPU with predetermined assignment ratios of resources based on a first and second priority mechanism
JPH07295841A (ja) * 1992-10-19 1995-11-10 Internatl Business Mach Corp <Ibm> 動的に資源を再構成するための方法及びシステム
US5659786A (en) * 1992-10-19 1997-08-19 International Business Machines Corporation System and method for dynamically performing resource reconfiguration in a logically partitioned data processing system
JPH0991257A (ja) * 1995-09-25 1997-04-04 Nec Corp Cpu管理方式
JPH10283211A (ja) * 1997-03-28 1998-10-23 Internatl Business Mach Corp <Ibm> マルチシステム環境のプロセッサ・リソース管理方法
EP0917056A2 (en) * 1997-11-04 1999-05-19 Digital Equipment Corporation A multi-processor computer system and a method of operating thereof
JPH11316747A (ja) * 1997-11-04 1999-11-16 Digital Equip Corp <Dec> 多数のオペレ―ティングシステムインスタンス及びソフトウェア制御式リソ―ス割り当てを伴うマルチプロセッサコンピュ―タア―キテクチャ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EDOUARD BUGNION ET AL.: "Disco: Running Commodity Operating Systems on Scalable Multiprocessors", ACM TRANSACTIONS ON COMPUTER SYSTEMS, vol. 15, no. 4, JPN4005004555, 1 November 1997 (1997-11-01), pages 412 - 447, ISSN: 0000779264 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067351A (ja) * 2001-08-28 2003-03-07 Nec System Technologies Ltd 分散型コンピュータの構成制御システム
JP2006079495A (ja) * 2004-09-13 2006-03-23 Hitachi Ltd ストレージシステム及び論理区画の設定方法
JP2008077652A (ja) * 2006-09-20 2008-04-03 Internatl Business Mach Corp <Ibm> 論理的にパーティションされたコンピューティング環境の中央処理ユニットのリソースを、共有メモリをアクセスせずに管理する方法および装置
JP2011509478A (ja) * 2008-01-11 2011-03-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 構成の仮想トポロジの変化
JP2013515991A (ja) * 2009-12-24 2013-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーション アクセラレータ・リソースを動的に管理するための方法、情報処理システム、およびコンピュータ・プログラム

Also Published As

Publication number Publication date
BR0014350A (pt) 2003-07-29
JP3872343B2 (ja) 2007-01-24
DE60016283T2 (de) 2005-12-01
CA2382017C (en) 2007-06-26
EP1256039A2 (en) 2002-11-13
EP1256039B1 (en) 2004-11-24
WO2001023974A3 (en) 2002-09-12
ATE283512T1 (de) 2004-12-15
DE60016283D1 (de) 2004-12-30
CZ20021093A3 (cs) 2002-06-12
AU7437600A (en) 2001-04-30
PL365894A1 (en) 2005-01-10
CN1391671A (zh) 2003-01-15
IL148728A (en) 2007-08-19
IL148728A0 (en) 2002-09-12
CA2382017A1 (en) 2001-04-05
ES2228607T3 (es) 2005-04-16
HU228286B1 (en) 2013-02-28
BRPI0014350B1 (pt) 2017-03-21
WO2001023974A2 (en) 2001-04-05
CN100397341C (zh) 2008-06-25
HUP0301326A2 (en) 2003-08-28

Similar Documents

Publication Publication Date Title
JP3813056B2 (ja) 優先順位に基づくチャネル・サブシステム保留入出力作業キューの処理
JP3872343B2 (ja) コンピュータ環境におけるワークロード管理
JP3672236B2 (ja) コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品
JP3807916B2 (ja) コンピュータ環境の区画のグループを管理する方法およびシステム
JP3659324B2 (ja) コンピュータ環境の論理プロセッサを管理する方法、システム、およびプログラム製品
US7051188B1 (en) Dynamically redistributing shareable resources of a computing environment to manage the workload of that environment
US6519660B1 (en) Method, system and program products for determining I/O configuration entropy
US7140020B2 (en) Dynamic management of virtual partition computer workloads through service level optimization
US20080184253A1 (en) Method, system and computer program product for optimizing allocation of resources on partitions of a data processing system
US7568052B1 (en) Method, system and program products for managing I/O configurations of a computing environment
Qin et al. Dynamic load balancing for I/O-and memory-intensive workload in clusters using a feedback control mechanism
Rooney et al. Intelligent resource director
Adly et al. Performance evaluation of job scheduling in heterogeneous distributed systems
CN116578421A (zh) 一种计算机进程隔离优化硬件资源的管理系统
Hui et al. A delay scheduling strategy for dynamic load balancing schedulers

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20051017

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20051024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060511

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061019

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091027

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101027

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101027

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111027

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121027

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121027

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131027

Year of fee payment: 7