JP2006244098A - ストレージシステムにおける論理分割方法 - Google Patents
ストレージシステムにおける論理分割方法 Download PDFInfo
- Publication number
- JP2006244098A JP2006244098A JP2005058333A JP2005058333A JP2006244098A JP 2006244098 A JP2006244098 A JP 2006244098A JP 2005058333 A JP2005058333 A JP 2005058333A JP 2005058333 A JP2005058333 A JP 2005058333A JP 2006244098 A JP2006244098 A JP 2006244098A
- Authority
- JP
- Japan
- Prior art keywords
- job
- resource
- storage system
- slpar
- logical partition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0871—Allocation or management of cache space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0631—Configuration or reconfiguration of storage systems by allocating resources to storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0662—Virtualisation aspects
- G06F3/0665—Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Abstract
【課題】
ストレージ装置に静的に論理区画を設定した場合、論理区画の負荷状況によっては資源の無駄が発生する。
【解決手段】
ストレージシステムにおいて論理区画を作成した後、ストレージシステムが、所定のパターンに基づいて、論理区画への資源割当を変更するようにする。資源割当の変更のタイミングは、所定のパターンと関連付けられている、論理区画を使用する計算機で実行されるジョブの実行スケジュールに基づく例がある。
又、資源割当の変更をストレージシステムに指示するために、計算機が所定のコマンドをストレージシステムに送信する構成もある。
更に、ストレージシステムにおいて、論理区画への資源割当の変更で要求される資源をあらかじめ予約し、所定の期間経過後(例えば関連するジョブの実行終了後)にその予約を解除する構成もある。
【選択図】 図1
ストレージ装置に静的に論理区画を設定した場合、論理区画の負荷状況によっては資源の無駄が発生する。
【解決手段】
ストレージシステムにおいて論理区画を作成した後、ストレージシステムが、所定のパターンに基づいて、論理区画への資源割当を変更するようにする。資源割当の変更のタイミングは、所定のパターンと関連付けられている、論理区画を使用する計算機で実行されるジョブの実行スケジュールに基づく例がある。
又、資源割当の変更をストレージシステムに指示するために、計算機が所定のコマンドをストレージシステムに送信する構成もある。
更に、ストレージシステムにおいて、論理区画への資源割当の変更で要求される資源をあらかじめ予約し、所定の期間経過後(例えば関連するジョブの実行終了後)にその予約を解除する構成もある。
【選択図】 図1
Description
本発明はストレージシステムに関し、更に詳しくは、ストレージシステムの性能管理方法に関わる。
近年、ストレージシステム(「ストレージ装置」とも称する)の導入コストや運用コスト削減を目的としたストレージ・コンソリデーション(Storage consolidation:ストレージシステムの集約化)のニーズが高まっている。今後ストレージ・コンソリデーションの技術によって、1台のストレージシステムに独立した複数の部署や企業のデータが格納されることが予想される。この場合、1台のストレージシステム内で管理や性能の干渉が発生しないよう、1台のストレージシステムを複数の仮想ストレージシステム(Virtual storage)として提供できる技術、具体的にはストレージシステムの論理パーティション技術(Storage logical partitioning)が求められる。
従来技術(特許文献1)においては、ストレージシステムが有するハードウェア資源、具体的にはキャッシュメモリを大きさの異なるセグメントに分割し、ストレージシステムに接続されたホストシステムのグループ毎に、使用できるキャッシュ・セグメントを指定する技術が開示されている。本技術では、あるホストシステム・グループが使用できるキャッシュ・セグメントを制限することで、特定のホストシステム・グループに他のホストシステム・グループよりも多くのキャッシュメモリの記憶容量を利用させるようにできる。
従来技術においては、ストレージシステムにおいて一定のサービスレベルを保証するために、論理パーティションにおける負荷のピークに合わせてハードウェア資源(キャッシュメモリの容量)を論理パーティションに割り当てる必要がある。この場合、キャッシュメモリの利用率が低下してしまうことがある。即ち、論理パーティションを設定する場合、管理者は、その論理パーティションが使用されうるあらゆる状況の負荷を考慮してキャッシュメモリの容量等を設定する。したがって、予想されうる最大負荷よりも負荷が小さい場合、その論理パーティションでは、あらかじめ割り当てられたキャッシュメモリの容量の一部しか使用しないことになる。さらに、ここで余分となったキャッシュメモリの容量を他の論理パーティションが使用することは従来技術では考慮されていない。したがって、使用されないキャッシュメモリの領域が発生し、キャッシュメモリの利用率が低下してしまう。これでは、せっかくのハードウェア資源が無駄になってしまう。
したがって、ストレージシステムにおいて、ストレージシステムの負荷が変化しても要求されたサービスレベルを満たす一方で、ハードウェア資源の利用率を向上させることが課題となる。
ストレージシステムにおいて論理区画を作成した後、ストレージシステムが、所定のパターンに基づいて、論理区画への資源割当を変更するようにする。資源割当の変更のタイミングは、所定のパターンと関連付けられている、論理区画を使用する計算機で実行されるジョブの実行スケジュールに基づく例が考えられる。
又、資源割当の変更をストレージシステムに指示するために、計算機が所定のコマンドをストレージシステムに送信する構成も考えられる。
更に、ストレージシステムにおいて、論理区画への資源割当の変更で要求される資源をあらかじめ予約し、所定の期間経過後(例えば関連するジョブの実行終了後)にその予約を解除する構成も考えられる。
又、所定のパターンは複数あり、その中には基準、具体的には論理区画で平均的に使用される資源量の情報が設定されたパターンが存在する構成も考えられる。この場合、ストレージシステムは、初期設定終了後は各論理区画に基準パターンに基づいた資源を割り当てるようにする構成が考えられる。
更に、各パターンは、計算機で実行されるジョブの特徴に応じて設定されており、ストレージシステムは、そのジョブの実行に応じて、そのジョブに対応するパターンを選択して論理区画への資源割当の変更を実行する構成も考えられる。
本発明によれば、実行するジョブに応じて変化する要求サービスレベルを満たす一方で、ハードウェア資源の利用率を向上できるようになり、また各論理区画において実行しているジョブタイプに応じた適当なハードウェア資源構成の決定を容易化できる。
図1は、計算機システムの1実施例を示す図である。以下、同一の物については同一の符号を付し、同一の物を区別する必要があるときには、ハイフン(100-1等)を使用する。
計算機システムは、ストレージ装置300、計算機(以下「サーバ装置」とも言う)100、ストレージ装置300とサーバ装置100とを接続するネットワーク200とを有する。
ストレージ装置300は、ネットワーク200と接続されるポート320を有するアダプタ310、ストレージ制御部600、ディスクアダプタ500、管理部400及び物理デバイス510を有する。物理デバイス510以外の各装置は、内部ネットワーク700(例えばスイッチやセレクタ、バス)を介して相互に接続されている。物理デバイス510と内部ネットワーク700は、ディスクアダプタ500を介して相互に接続される。
ストレージ制御部600は、ストレージ装置300内で実行される各処理、例えば装置内でのデータの複製処理(以下「スナップショット(SI)」とも言う)やストレージ装置300間でのデータの複製処理(以下「リモートコピー(RC)」とも言う)、及びサーバ装置100とストレージ装置300との間の入出力(以下「I/O」)処理を制御するプロセッサ610と、これらの制御の際に実行される各種プログラムを格納するメモリを有する。メモリには、例えばSIプログラム620、RCプログラム630、キャッシュメモリ800へのデータの入出力を制御するためのキャッシュI/Oプログラム640、物理デバイス510へのデータの入出力を制御するためのディスクI/Oプログラム650及び一時資源表670が格納される。
尚、ストレージ制御部600は、管理部400で設定された論理パーティションの情報に従って、論理パーティションに割り当てられた資源を用いて、その論理パーティションに対応するサーバ装置100から要求されたジョブを実行する。ここで、ストレージ制御部600は、管理部400で設定された情報に基づいてより具体的な資源の割り当てを実行し、その情報を一時資源表670に格納する。そして、ストレージ制御部600は、一時資源表670の情報に基づいて論理パーティションでの処理を実行する。一時資源表670の内容については後述する。
管理部400では、ストレージ装置300内の物理資源および仮想資源、各論理パーティション(以下「SLPAR(Storage Logical Partition、ストレージ論理区画)」とも言う)への資源割当を管理する。尚、別の実施形態として、管理部400とストレージ制御部600とを一つの制御部とする構成も考えられる。
ここで物理資源とは、ポート320やプロセッサ610等、現実にストレージ装置300に存在するハードウェアを指す。一方、仮想資源とは、物理資源から構成されサーバ装置100等に提供される仮想的な装置を指す。例えば、複数の物理デバイス510の記憶領域からRAID構成によって作成される仮想デバイスや、キャッシュメモリ800を一定サイズにセグメント化した個々のキャッシュメモリの領域は仮想資源である。
物理デバイス510は、記憶媒体を有する記憶装置である。具体的にはハードディスクドライブやフラッシュメモリ、DVD等が考えられる。これらの物理デバイス510は、ディスクアダプタ500によって制御される。また、上述したように、これらの物理デバイス510が有する記憶領域に基づいて、仮想デバイスが作成される。
サーバ装置100は一般的な計算機であり、プロセッサやメモリ等を有する。個々のサーバ装置100は、そのメモリに、アプリケーションプログラム110を格納する。また、個々のサーバ装置100は、ストレージ装置300に設定されたストレージ論理区画を一つの仮想的なストレージ装置として認識、制御するためのSLPAR管理部120を有する。尚、この管理部120を含め、サーバ装置100やストレージ装置300の各装置は、専用のハードウェアでも、汎用のプロセッサとソフトウェアプログラムとの組み合わせで実現されても良い。
以下、ストレージ制御部600、管理部400、及びSLPAR管理部120に格納されるプログラムや情報について説明する。
管理部400は、物理資源と仮想資源との関係に関する情報ならびに物理資源、仮想資源および各SLPARとの対応関係に関する情報を管理する。具体的には、管理部400は、物理資源表410、物理−仮想資源割当表420、SLPAR資源割当表440、フリー資源表450、及びSLPAR資源動的割当プログラム460を有する。
図2は、物理資源表410および物理−仮想資源割当表420の一例を示す図である。物理資源表410には、ストレージ装置300が有する物理資源である物理デバイス510、キャッシュメモリ800、ポート320及びプロセッサ610の情報が登録される。この登録はシステムの管理者等によって、ネットワーク経由やストレージ装置が有する端末からの入力によって行われる。
具体的には、物理資源表410は、各物理資源について、物理資源名を登録するフィールド、その物理資源に付されるIDを登録するフィールド、その物理資源を管理するためのアドレス等を登録するI/Fフィールドを有する。
物理デバイス510については、各物理デバイス510にIDを付し、かつ各物理デバイス510の記憶領域を一定サイズのスロットに分割して管理する。したがって、I/Fフィールドには、各スロットに付された識別子の情報が登録される。キャッシュメモリ800については、ストレージ制御部600からキャッシュメモリ800にアクセスするためのアドレスで管理する。従って、IDフィールドには情報が登録されない。ポート320については各ポートにIDを付して管理する。プロセッサ610についても各プロセッサにIDを付して管理する。従って、ポートとプロセッサに関するI/Fフィールドには何も登録されない。
物理―仮想資源割当表420では、仮想資源とその仮想資源を構成する物理資源との対応関係の情報が管理される。具体的には、物理―仮想資源割当表420には、物理資源に基づいて作成された仮想資源である仮想デバイスやセグメント単位のキャッシュの情報が登録される。これらの情報の登録も、物理資源表410と同様にして行われる。
物理―仮想資源割当表420は、仮想資源ごとに、仮想資源の名前を登録するフィールド、仮想資源に付される識別子を登録するフィールド及びその仮想資源と対応付けられる物理資源の情報(識別子等)が登録されるフィールドを有する。仮想デバイスについては、各仮想デバイスにIDが付され、仮想デバイスを構成する物理デバイスのスロットの情報が物理資源の情報を登録するフィールドに登録される。キャッシュメモリについては、一定サイズのセグメントにIDが付され、個々のセグメントの開始アドレスの情報が物理資源の情報を登録するフィールドに登録される。
図4は、SLPAR資源割当表440とフリー資源表450の構成例を示す図である。
管理部400は、ストレージ装置300に設定されるSLPARごとに、図4に示すようなSLPAR資源割当表440を有する。ただし、表の構成については、図4の形式に限定されないことは言うまでもない。SLPAR資源割当表440では、表に対応するSLPARに割り当てられる物理資源及び仮想資源の情報が管理される。
管理部400は、ストレージ装置300に設定されるSLPARごとに、図4に示すようなSLPAR資源割当表440を有する。ただし、表の構成については、図4の形式に限定されないことは言うまでもない。SLPAR資源割当表440では、表に対応するSLPARに割り当てられる物理資源及び仮想資源の情報が管理される。
具体的には、1つのSLPAR資源割当表440は、個々の物理資源及び仮想資源(以下まとめて「資源」と言う場合がある)について、仮想化主体についての情報を登録するフィールド、物理資源/仮想資源のIDをSLPAR管理部120に提供するか否か(Visible/Invisible)についての情報を登録するフィールド、SLPAR資源割当表440に対応するSLPARに割り当てる物理資源及び仮想資源のパターンの組(以下「カテゴリー」とも言う)を登録するフィールドを有する。
カテゴリーに含まれる各パターンは、具体的には、そのSLPARで実行される処理(以下「ジョブ」とも言う)の性質、ストレージ装置300が有する物理資源及び仮想資源の総量及びストレージ装置300に設定されるSLPARの数等を勘案して、管理者が数値を決定する。そして、管理者は、あらかじめストレージ装置300の管理部400に決定したパターンを登録する。
例えば、トランザクション性能に対するニーズが高いジョブの場合にはアダプタ310とキャッシュの使用量を通常より増やすパターンを設定し、シーケンシャル性能に対するニーズが高いジョブの場合には、ディスクアダプタ500を通常より増やすパターンを設定する。また、TCやSIを利用するジョブの場合、キャッシュ容量や共有メモリ容量を通常より増やすパターンを設定する。
本実施形態においては、全て(又は一部)のSLPARについて、「基準」パターンが設定される。具体的には、SLPARで消費されるであろう資源の平均値の予測値あるいは各資源を均等に各SLPARに割り振った値等が設定される。つまり、「基準」とは、一般的な処理をこなすのに必要な資源量を指す。この「基準」パターンを設定することによって、管理者は、全てのジョブについて個々のパターンを設定する必要性が無くなる。ただし、他の実施形態として、ストレージ装置300のSLPARが実行する全てのジョブについて管理者がそのジョブに割り振る資源量を計算し、そのパターンをあらかじめ管理部400に設定しても良い。本実施形態では、「基準」パターンと、特に資源割り当ての変更が必要となる幾つかのジョブについてのパターンが、カテゴリーに登録される。ここで、特に資源割り当ての変更が必要になるジョブとは、安定したサービスが要求される処理、あるいは厳しいサービス保証契約(SLA)がなされたジョブ等が考えられる。
図4においては、具体的に、SLPAR1に対して「基準」、「ジョブ1」、「ジョブ2」のパターンがカテゴリーに登録される。各パターンについては、そのパターンに対して割り当てられる物理資源及び仮想資源の情報が資源ごとのIDで登録される。尚、本実施形態においては、「ジョブ1」及び「ジョブ2」パターンについては、「基準」パターンの資源にどれだけの資源を追加するかという情報が登録される。したがって、SLPAR1が「ジョブ1」のパターンのジョブを処理する場合には、SLPAR1に割り当てられる資源は、「基準」パターンで設定された資源量と「ジョブ1」パターンに設定された資源量の和となる。尚、他の実施形態として、各パターンについて、SLPARに割り当てられる資源の総量の情報が登録されても良い。
又、各パターンについては、どのパターンが現在SLPARに対して設定されているかを示す情報も登録される。図4においては、「ジョブ1」パターンが設定(つまりジョブ1パターンに対応するジョブがSLPAR1で実行中)されているので、「追加」という情報が「ジョブ1」パターンに登録される。また「ジョブ2」パターンは設定されていないので、「未追加」の情報が登録される。この情報は、パターンの設定が変更される度に変更される。
又、「仮想化主体」とは、仮想資源と物理資源との対応関係を管理する装置のことを指す。例えば、仮想デバイスの仮想化主体は管理部400であり、キャッシュの仮想化主体はストレージ制御部600である。ポートおよびプロセッサは仮想資源ではないので仮想化主体はない。
尚、図4においては、「基準」パターンのプロセッサとしてProc0、「ジョブ1」パターンのプロセッサとしてProc3、「ジョブ2」パターンのプロセッサとしてProc3が割り当てられている。ここで、「ジョブ1」と「ジョブ2」のプロセッサとして同じProc3が割り当てられている理由は、「ジョブ1」に対応するジョブの実行時間帯(時刻S1〜時刻E1)と、「ジョブ2」に対応するジョブの実行時間帯(時刻S2〜時刻E2)が重複していないためである(実行時間帯については後述する)。重複している場合には異なるプロセッサが割り当てられる。
フリー資源表450は、ストレージ装置300に搭載されているが、各SLPARの「基準」パターンに割り当てられていない物理資源や仮想資源を管理するために使用される。このフリー資源表450を管理することによって、管理部400は、各資源のSLPARへの同じ時間帯における重複割当を回避しながら、SLPARへ資源を動的に割り当てることができる。なお、「基準」パターンを設定しない実施形態の場合、このフリー資源表450には、ストレージ装置300の全ての資源の情報が登録されることになる。
具体的には、フリー資源表450には、資源ごとに、「基準」パターンに割り当てられていない資源(以下「フリー資源」とも言う)を示すID等の情報を登録するためのフィールド、その資源を予約しているSLPARを示す情報(ID等)を登録するフィールド、その資源を使用するパターンを示す情報を登録するフィールド、予約が実行される時間帯についての情報が登録されるフィールドを有する。フリー資源の情報は、管理者が「基準」パターンに基づいて決定し、管理端末等を介してストレージ装置300に登録される。又、予約SLPARID等の予約情報は、資源の予約時に、管理部400によって設定される。
ここで「予約」とは、あるSLPARにおいてジョブの実行スケジュール等が分かっている
場合に、あらかじめそのジョブに優先的に割り当てる資源を決めておき、その情報をフリ
ー資源表450に登録しておくことを示す。フリー資源表に予約情報が設定されている場合、その資源は、予約の主体であるジョブに優先的に割り当てられることになる。
場合に、あらかじめそのジョブに優先的に割り当てる資源を決めておき、その情報をフリ
ー資源表450に登録しておくことを示す。フリー資源表に予約情報が設定されている場合、その資源は、予約の主体であるジョブに優先的に割り当てられることになる。
図4のフリー資源表450において、仮想デバイスVdev5とVdev6、キャッシュ1GB、プロセッサProc3はSLPAR1のジョブ2が時刻S2〜時刻E2の時間帯において、キャッシュ1GBとプロセッサProc3をSLPAR1のジョブ1が時刻S1〜時刻E1の時間帯に予約している。また、キャッシュ10GBとプロセッサProc4については予約しているジョブがない。
次に、サーバ装置100のSLPAR管理部120で管理される情報について説明する。SLPAR管理部120は、SLPAR資源表150を有する。図3は、SLPAR資源表150の具体例を示す図である。
SLPAR資源表150には、サーバ装置100が使用するSLPARに関する情報が登録される。各サーバ装置100が使用するSLPARはあらかじめ指定されている。SLPAR資源表150への情報の登録は、サーバ装置100毎に管理者が入力してもよいし、サーバ装置100がストレージ装置300から情報を受信することによって行われても良い。管理者の負担を減らすためには、管理者がストレージ装置300のSLPAR資源管理表440に全てのSLPARについての情報を一括して登録し、各サーバ装置100がその情報を取得して個々のSLPAR資源表150に情報を登録する方が良い。また、ストレージ装置300には、各サーバ装置100とSLPARとの関係についての情報があらかじめ登録される。
SLPAR資源表150には、サーバ装置100が使用するSLPARに関する情報が登録される。各サーバ装置100が使用するSLPARはあらかじめ指定されている。SLPAR資源表150への情報の登録は、サーバ装置100毎に管理者が入力してもよいし、サーバ装置100がストレージ装置300から情報を受信することによって行われても良い。管理者の負担を減らすためには、管理者がストレージ装置300のSLPAR資源管理表440に全てのSLPARについての情報を一括して登録し、各サーバ装置100がその情報を取得して個々のSLPAR資源表150に情報を登録する方が良い。また、ストレージ装置300には、各サーバ装置100とSLPARとの関係についての情報があらかじめ登録される。
尚、後述するように、各サーバ装置100は、設定変更時(例えば初期設定時等)に、カテゴリーの各パターンについての情報を取得(管理者から又はストレージ装置300から)し、自己のSLPAR資源表150に登録する。
SLPAR資源表150には、カテゴリーのパターン毎に、割り当てられる資源の情報が登録される。具体的には、図3において、サーバ装置100-1に対応付けられたSLPAR1の「基準」パターンには、仮想デバイスVdev0とVdev3、キャッシュ1GB、ポートPort0とPort1、プロセッサ1個が割り当てられている。「ジョブ1」パターンに対応するジョブを、SLPAR1を用いてサーバ装置100-1が実行する時には、キャッシュ1GB、ポートPort5、プロセッサ1個が「基準」パターンの資源に追加される。「ジョブ2」パターンに対応するジョブを、SLPAR1を用いてサーバ装置100-1が実行する時には、キャッシュ1GB、プロセッサ1個が「基準」パターンの資源に追加される。
尚、これらの情報に加え、各「ジョブ」パターンに対応するジョブの開始及び終了時間、ジョブの概要の情報も登録される。例えば「ジョブ1」パターンに対応するジョブは、時刻S1に開始され、時刻E1に終了する予定の、リモートコピーのペアである論理ボリュームLvol0とLvo11の間で再同期(resync)を実行するジョブである。また、「ジョブ2」パターンに対応するジョブは、時刻S2に開始され、時刻E2に終了する予定の、スナップショットのペアの論理ボリュームLvol2とLvo13の間で再同期(resync)を実行するジョブである。
更に、各「ジョブ」パターンについては、SLPAR資源割当表440で説明したのと同様に、そのパターンに対応するジョブの実行状態に関する情報も登録される。具体的には、SLPAR資源表150においては、「ジョブ1」に対応するジョブが実行中であるので「追加」と、「ジョブ2」に対応するジョブは実行中ではないので「未追加」の情報が登録される。
尚、資源割当表440で「invisible」として登録された資源について(本図ではキャッシュとプロセッサ)は、SLPAR資源表150においては数量の情報のみが登録される。これは、本実施形態では、ジョブ実行時に使用する資源を任意に決めても良いもの(ホストとつながるポートは常に同一でなければならないが、プロセッサやキャッシュは、指定量さえ確保できればどのプロセッサでもどのキャッシュでも良い)については、その指定をストレージ装置300に一任しているからである。
上述したように、SLPAR資源割当表440及びSLPAR資源表150においては、キャッシュについては容量の情報が指定されるだけで、実際の仮想資源を特定するキャッシュのセグメントIDが割り当てるわけではない。実際のキャッシュ・セグメントの各ジョブへの割当は、SLPARに割り当てられているキャッシュ容量を上限として、ストレージ制御部600が行う。この際、ストレージ制御部600のプロセッサは、キャッシュI/Oプログラムを実行する。
ストレージ制御部600が有する一時資源表670は、SLPAR資源割当表440等で指定された、各SLPARへのキャッシュメモリ等の具体的な割当を管理するための情報が登録される。図5は、その一時資源表370の具体例を示す図である。図5では、ストレージ制御部600が、SLAR資源割当表440に登録された情報に基づいて、「ジョブ1」パターンに対応するジョブの実行時に、「ジョブ1」パターンが要求するキャッシュ容量を満たすために、具体的にキャッシュ・セグメントSG0、SG2等を割り当てたことを示す情報が登録されている。ストレージ制御部600は、上述したように、この一時資源表670に登録された情報に基づいてSLPARでのジョブ実行を制御する。
以下、本実施形態におけるシステムの動作概要について簡単に説明する。
システムの管理者等は、ストレージ装置300にSLPARを作成する時に、個々のSLPARに「基準」パターンを含むカテゴリーの設定、即ち資源の割当を行う。この際、実行時間帯
があらかじめ確定しているジョブに対応するパターンについては、管理者等が、各パターンに時刻情報も設定する。尚、複数のSLPARが設定されたストレージ装置300は、一つの会社内での複数の部署の各々にSLPARが割り当てられて使用されたり、ストレージサービスプロバイダによって、複数のユーザの各々にSLPARが割り当てられ、個々のユーザがそのSLPARを使用するという形態で使用される。
システムの管理者等は、ストレージ装置300にSLPARを作成する時に、個々のSLPARに「基準」パターンを含むカテゴリーの設定、即ち資源の割当を行う。この際、実行時間帯
があらかじめ確定しているジョブに対応するパターンについては、管理者等が、各パターンに時刻情報も設定する。尚、複数のSLPARが設定されたストレージ装置300は、一つの会社内での複数の部署の各々にSLPARが割り当てられて使用されたり、ストレージサービスプロバイダによって、複数のユーザの各々にSLPARが割り当てられ、個々のユーザがそのSLPARを使用するという形態で使用される。
設定後、各サーバ装置100は、自己に割り当てられた、「基準」パターンに設定された資源を有するSLPARを用いて処理を開始する。
(「基準」パターンが割り当てられない実施形態の場合、サーバ装置100は最初のジョブのための資源割り当ての要求をストレージ装置300に送信する。)
各サーバ装置100は、あらかじめ登録されたカテゴリーに含まれるパターンのいずれかに対応するジョブを実行する段階になると、そのジョブの実行開始をストレージ装置300に通知する。通知を受けたストレージ装置300は、通知されたジョブに対応するパターンを登録されたカテゴリーから検索し、その登録情報に基づいて、対象となるSLPARへの資源割当を変更する。この際、予約の情報があれば、ストレージ装置300は、予約された資源をSLPARに割り当てる。変更後、ストレージ装置300は、変更の完了をサーバ装置100に通知する。
(「基準」パターンが割り当てられない実施形態の場合、サーバ装置100は最初のジョブのための資源割り当ての要求をストレージ装置300に送信する。)
各サーバ装置100は、あらかじめ登録されたカテゴリーに含まれるパターンのいずれかに対応するジョブを実行する段階になると、そのジョブの実行開始をストレージ装置300に通知する。通知を受けたストレージ装置300は、通知されたジョブに対応するパターンを登録されたカテゴリーから検索し、その登録情報に基づいて、対象となるSLPARへの資源割当を変更する。この際、予約の情報があれば、ストレージ装置300は、予約された資源をSLPARに割り当てる。変更後、ストレージ装置300は、変更の完了をサーバ装置100に通知する。
通知を受けたサーバ装置100は、実際にジョブの実行を開始する。ジョブの終了後、サーバ装置100は、ジョブの終了をストレージ装置300に通知する。ジョブ終了の通知を受けたストレージ装置300は、ジョブ開始時にSLPARに割り当てた資源の設定を「基準」パターンに変更することで、追加した資源をSLPARから削除する。
以下、上述した処理において、サーバ装置100とストレージ装置300との間で送受信されるコマンドについて説明する。具体的には、図6に示すように、SLPAR資源通知コマンド900とそのリプライ901、SLPARジョブ開始コマンド901とそのリプライ911、そして、SLPARジョブ終了コマンドとそのリプライがある。
SLPAR資源通知コマンド900は、SLPAR作成時やSLPARへの新たなジョブ追加時などのSLPARに対する資源設定時に、ストレージ装置300から、資源設定されるSLPARに関連するサーバ装置100に対して発行される。SLPAR資源通知コマンドは、具体的には、各コマンドを識別するためのシーケンスID900-1、SLPAR資源通知コマンドであることを示すコマンドID 900-2、割当資源の通知先SLPARを示すSLPAR ID 900-3、そして、当該SLPARへの割当資源構成を示す資源リスト900-4の情報を含む。
このSLPAR資源通知コマンドを受信したサーバ装置100は、その応答として、SLPAR資源通知リプライ910をストレージ装置300に送信する。SLPAR資源通知リプライ910は、具体的には、各リプライを識別するためのシーケンスID910-1、SLPAR資源通知リプライであることを示すリプライID910-2、そして、資源を追加したか否かを示す情報910-3の情報を含む。
SLPARジョブ開始コマンド901は、ジョブ実行開始時に、ジョブを実行するサーバ装置100から、ストレージ装置300に対して発行される。SLPARジョブ開始コマンド901は、具体的には、各コマンドを識別するためのシーケンスID901-1、SLPARジョブ開始コマンドであることを示すコマンドID901-2、資源追加の要求元SLPARを示すSLPAR ID901-3、および開始するジョブを示すジョブID901-4の情報を含む。
このSLPARジョブ開始コマンド901を受信したストレージ装置300は、資源の割当を変更した後、SLPARジョブ開始コマンド901を送信したサーバ装置100に対して、SLPARジョブ開始リプライ911を送信する。SLPARジョブ開始リプライ911は、具体的には、各リプライを識別するためのシーケンスID911-1、SLPARジョブ開始リプライであることを示すリプライID911-2、そして、資源を追加したか否かを示す911-3の情報を含む。
SLPARジョブ終了コマンド902は、ジョブ実行終了時に、ジョブの実行を終了するサーバ装置100からストレージ装置300に対して送信される。SLPARジョブ終了コマンド902は、具体的には、各コマンドを識別するためのシーケンスID 902-1、SLPARジョブ終了コマンドであることを示すコマンドID902-2、資源削除の要求元SLPARを示すSLPAR ID 902-3、および終了するジョブを示すジョブID 902-4の情報を含む。
SLPARジョブ終了コマンド902を受信したストレージ装置300は、コマンドの内容に基づいてSLPARに対する資源の再割当(例えば資源の削除)を行う。その後、ストレージ装置300は、SLPARジョブ終了コマンド902を送信したサーバ装置100に対して、SLPARジョブ終了リプライ912を送信する。SLPARジョブ終了リプライ912は、具体的には、各リプライを識別するためのシーケンスID912-1、SLPARジョブ終了リプライであることを示すリプライID 912-2の情報を含む。
以下、本実施形態における処理の詳細を、資源割当設定時、ジョブ開始時及びジョブ終了時に区分して説明する。
図7は、資源割当設定時のストレージ装置300とサーバ装置100との間の処理手順(以下「SLPAR資源通知処理1000」と言う)の例を示す図である。本処理は、ストレージ装置300とサーバ装置100との間でSLPARに対する資源割当の設定の情報を授受する際に実行される。
図7は、資源割当設定時のストレージ装置300とサーバ装置100との間の処理手順(以下「SLPAR資源通知処理1000」と言う)の例を示す図である。本処理は、ストレージ装置300とサーバ装置100との間でSLPARに対する資源割当の設定の情報を授受する際に実行される。
図7において、ストレージ装置300の管理者の指定に基づいて、管理部400は、SLPAR資源動的割当プログラム460を実行してSLPAR資源割当表440の各SLPARの基準資源やジョブ実行時の資源を設定する(ステップ1000)。次に、管理部400は、設定されたSLPAR資源割当表440を参照し、割当資源がVisibleな資源であるか否かを判定する(ステップ1002)。Visibleである場合は、管理部400は、SLPAR資源通知コマンド900の資源リスト900-4に、SLPAR資源割当表440に登録された物理資源ID/仮想資源IDの情報を設定する(ステップ1003)。一方、Invisibleである場合には、管理部400は、SLPAR資源通知コマンド900の資源リスト900-4に資源量を設定する(ステップ1004)。
管理部400は、ステップ1002〜ステップ1004の処理を、1つのSLPARに割り当てられたすべての資源について行う。その後、作成したSLPAR資源通知コマンド900を、このSLPARを使用するサーバ装置100に対して送信する(ステップ1006)。
サーバ装置100がSLPAR資源通知コマンド900を受信すると(ステップ1010)、サーバ装置100のSLPAR管理部120が、SLPAR資源動的変更要求プログラム140を実行することで、資源リスト900-4に基づいてSLPAR資源表150のカテゴリーの割当資源を設定する(ステップ1011)。設定後、サーバ装置100は、SLPAR資源通知リプライ901をストレージ装置300に送信する(ステップ1012)。
なお、ストレージ装置300は、全てのSLPARについて、ステップ1001〜1007の処理を繰り返す。
図8は、あるサーバ装置100でジョブが開始される時のストレージ装置300とサーバ装置100との間の処理手順(以下「SLPAR資源動的割当処理(ジョブ開始時)1100」と言う)の例を示す図である。
まず、ジョブの実行を開始しようとするサーバ装置100は、SLPAR資源動的割当要求プログラム140を実行して、実行しようとするジョブが、SLPAR資源表150のカテゴリーに登録されているパターンに対応するジョブであるかを判断する。対応するジョブである場合、サーバ装置100は、ジョブの実行開始前に、ジョブに対応するパターンに登録された情報に基づいてSLPARジョブ開始コマンド901を作成する。そして、サーバ装置100は、ジョブの実行開始前に、作成したSLPARジョブ開始コマンド901をストレージ装置300に送信する(ステップ1100)。
まず、ジョブの実行を開始しようとするサーバ装置100は、SLPAR資源動的割当要求プログラム140を実行して、実行しようとするジョブが、SLPAR資源表150のカテゴリーに登録されているパターンに対応するジョブであるかを判断する。対応するジョブである場合、サーバ装置100は、ジョブの実行開始前に、ジョブに対応するパターンに登録された情報に基づいてSLPARジョブ開始コマンド901を作成する。そして、サーバ装置100は、ジョブの実行開始前に、作成したSLPARジョブ開始コマンド901をストレージ装置300に送信する(ステップ1100)。
SLPARジョブ開始コマンド901を受信したストレージ装置300の管理部400は(ステップ1110)、SLPAR資源動的割当プログラム460を実行することで、ジョブ開始時処理1200を実行する。尚、このジョブ開始時処理1200の詳細については、後述する(ステップ1111)。ジョブ開始時処理1200を実行した管理部400は、その処理の実行の結果、SLPARジョブ開始コマンド901を送信したサーバ装置100に対応するSLPARの資源割当の変更(ここではSLPARへの資源の追加)がなされたか否かを判定する(ステップ1112)。SLPARの資源割当が変更(ここでは資源の追加)されている場合、管理部400は、資源割当の変更(ここでは追加)の情報を含む(具体的にはコマンド911の欄911-3に資源追加の情報を設定)SLPARジョブ開始リプライ911を作成し、SLPARジョブ開始コマンド901を送信したサーバ装置100に送信する(ステップ1113)。
一方、資源割当の変更が無かった場合(ここでは資源追加が発生しなかった場合)には、管理部400は、資源割当の変更なし(ここでは未追加)の情報を含む(具体的にはコマンド911の欄911-3に資源未追加の情報を設定)SLPARジョブ開始リプライ911を作成し、SLPARジョブ開始コマンド901を送信したサーバ装置100に送信する(ステップ1114)。SLPARジョブ開始リプライ911を受信したサーバ装置100は(ステップ1101)、受信したコマンドの欄911-3に登録された情報に基づいて、SLPAR資源表150に資源割当の変更(追加/未追加)を設定する。その結果、サーバ装置100は、SLPAR資源表150に設定されたカテゴリーの、自己が実行するジョブに対応するパターンに設定された資源を、自身が使用するSLPARが有していると認識するようになる。その後、サーバ装置100は、変更された資源が割り当てられたSLPARを用いてジョブの実行を開始する(ステップ1102)。
図9は、ジョブ開始時処理1200の処理手順例を示す図である。
SLPARジョブ開始コマンド901を受信した管理部400は、受信したSLPARジョブ開始コマンド901のSLPAR ID(900-3)およびジョブID(900-4)に登録される情報に基づいて、SLPARジョブ開始コマンド901を送信したサーバ装置100が使用するSLPARと実行されるジョブを特定する。そして、管理部400は、その特定されたSLPARのジョブについて、資源割当の変更(ここでは追加)が必要かどうかを、個々の資源ごとに、SLPAR資源割当表440を参照することで確認する(ステップ1200)。
SLPARジョブ開始コマンド901を受信した管理部400は、受信したSLPARジョブ開始コマンド901のSLPAR ID(900-3)およびジョブID(900-4)に登録される情報に基づいて、SLPARジョブ開始コマンド901を送信したサーバ装置100が使用するSLPARと実行されるジョブを特定する。そして、管理部400は、その特定されたSLPARのジョブについて、資源割当の変更(ここでは追加)が必要かどうかを、個々の資源ごとに、SLPAR資源割当表440を参照することで確認する(ステップ1200)。
資源割当の変更が必要な資源が有る場合、管理部400は、変更によって確保すべき資源の有無を、フリー資源表450に登録された情報を用いて確認する(ステップ1201〜1209)。以下、その手順を説明する。
まず、管理部400は、特定されたSLPARのジョブについて、資源の予約がなされているかどうかを、フリー資源表450に登録された情報を参照して確認する。具体的には、まず、管理部400は、特定されたSLPARのIDとジョブのIDの組が、フリー資源表450の予約SLPARIDと予約ジョブIDに登録された情報の組と一致する資源が存在するかどうかを確認する。例えば、特定されたSLPARとジョブのIDの組が(SLPAR1、ジョブ2)であった場合、仮想デバイスのVdev5と6がその組に該当する(ステップ1201)。
特定されたSLPARとジョブのIDの組と一致する資源が確認された場合、次に、管理部400は、現時点が、確認された資源が予約された時間帯であるかどうかを確認する。具体的には、現時点の時刻が、確認された資源の、フリー資源表450の開始時刻エントリ及び終了時刻エントリに登録された時間の間であるか否かを判定する。更に、登録された時間帯である場合、管理部400は、その資源が他のSLPARで使用されていないかどうかを判定する(ステップ1202、1203)。
特定されたSLPARとジョブのIDの組がフリー資源表450で発見されない場合又は確認された資源が予約された時間でない場合、更には予約された時間ではあるが、他のSLPARに一時的に割り当てられている場合、管理部400は、特定されたSLPARのジョブに対して割り当てる資源が予約されていないとして、どのSLPARにも予約されていない資源を、フリー資源表450を検索して抽出する。具体的には、管理部400は、フリー資源表450の予約SLPARID欄及び予約ジョブID欄に情報が登録されていない資源の有無を確認する。
全ての資源が予約されている場合、管理部400は、予約されているが、現時刻では資源割当の対象になっていない資源の有無を確認する。具体的には、管理部400は、フリー資源表450の開始時刻欄と終了時刻欄に登録されている時間帯に現時刻が含まれない資源を抽出する。このような資源が発見できない場合、この時点で、フリー資源表450に登録された資源は全て予約済みで、全て使用中であることになる。逆に、複数の資源が抽出された場合、管理部400は、その中からもっとも使用される確率が低いもの(例えば開始時刻が現時刻からもっとも遠いもの)を選択する。
尚、フリー資源表450において、予約LPARIDと予約ジョブIDに情報が登録されているが、開始時間及び終了時間の指定がない場合、以下の二通りの扱いをすることが考えられる。一つは、その予約は他の予約(時間指定があるもの)よりも優先度が高いとみなし、他のSLPARへの割当は一切行わないようにする方法である。もう一つは、その予約は他の予約よりも優先度が低いものとし、本ステップでは最優先で選択されるようにすることである。
又、ステップ1202において、予約時間帯が一致しない資源が発見された場合、この資源が他のパターンにおいて使用されていなければ、この資源をそのまま資源割当に使用することも考えられる(ステップ1205)。
ある資源について、全ての資源が予約され、かつ全ての資源が使用中である場合、管理部400は、特定されたSLPARのジョブに対する資源割当の変更をすることが出来ないと判断し、資源割当の変更を中止する(ステップ1209)。
ステップ1201、2又は3で資源が選択された場合、管理部400は、他の資源についても上述の処理を繰り返し、最終的に選択された資源のIDを一時資源表370に登録する。尚、仮想化主体が管理部400でない資源については、ストレージ管理部600が、その資源の割当情報を一時資源表370に登録する(ステップ1204、1206)。
その後、管理部400は、SLPAR管理割当表440の情報、具体的にはパターンが使用中であるかどうかを示す情報を変更する。尚、予約された資源以外の資源を用いて資源割当の変更が行われた場合、管理部400は、パターンに設定された資源と実際に割り当てられた資源とが異なっていることを示す情報を登録する。又、この場合、管理部400は、パターンに設定された資源と実際に割り当てられた資源が異なることを示す情報を、SLPARジョブ開始リプライ911に含めてサーバ装置100へ送信する。サーバ装置100は、あらかじめ登録されていたパターンの情報を送信された情報で一時的に更新(登録されていた情報は別の場所に退避しておく)し、その更新された情報に基づいてSLPARを利用する(ステップ1207、1208)。
図10は、あるサーバ装置100でジョブが停止される時のストレージ装置300とサーバ装置100との間の処理手順(以下「SLPAR資源動的割当処理(ジョブ終了時)1300」と言う)の例を示す図である。
まず、ジョブの実行を終了しようとするサーバ装置100は、SLPAR資源動的割当要求プログラム140を実行して、終了しようとするジョブが、SLPAR資源表150のカテゴリーに登録されているパターンに対応するジョブであるかを判断する。対応するジョブである場合、サーバ装置100は、ジョブの実行終了後に、ジョブに対応するパターンに登録された情報に基づいてSLPARジョブ終了コマンド902を作成する。そして、サーバ装置100は、ジョブの実行終了後に、作成したSLPARジョブ終了コマンド902をストレージ装置300に送信する(ステップ1310)。
SLPARジョブ終了コマンド902を受信したストレージ装置300の管理部400は(ステップ1310)、SLPAR資源動的割当プログラム460を実行することで、ジョブ終了時処理1400を実行する。尚、このジョブ終了時処理1400の詳細については、後述する(ステップ1311)。ジョブ終了時処理1200を実行した管理部400は、SLPARジョブ終了リプライ912を作成し、SLPARジョブ終了コマンド902を送信したサーバ装置100に送信する(ステップ1312)。
SLPARジョブ終了リプライ912を受信したサーバ装置100は(ステップ1301)、SLPAR資源表150に資源割当の変更(未追加)を設定する。その結果、サーバ装置100は、SLPAR資源表150に設定されたカテゴリーの、「基準」パターンに設定された資源を、自身が使用するSLPARが有していると認識するようになる。その後、サーバ装置100は、「基準」パターンの資源が割り当てられたSLPARを用いて他の処理を継続する(ステップ1302)。
図11は、ジョブ終了時処理1400の処理手順例を示す図である。
SLPARジョブ終了コマンド902を受信したストレージ装置300は、受信したSLPARジョブ終了コマンド902に含まれるSLPAR IDおよびジョブIDに基づいて、資源割当の変更をすべきSLPARを特定する。そして、特定した情報に基づいて、一時資源表370に登録された、当該SLPARの当該ジョブに対応する割当資源の情報を変更(この場合、「基準」パターンの資源割当に戻すため、一時資源表370に登録された情報を「基準」パターンへ変更)する(ステップ1401)。その後、管理部400は、SLPAR資源割当表440の当該SLPARの当該ジョブに対応するパターンの情報を未追加と設定する(ステップ1403)。
SLPARジョブ終了コマンド902を受信したストレージ装置300は、受信したSLPARジョブ終了コマンド902に含まれるSLPAR IDおよびジョブIDに基づいて、資源割当の変更をすべきSLPARを特定する。そして、特定した情報に基づいて、一時資源表370に登録された、当該SLPARの当該ジョブに対応する割当資源の情報を変更(この場合、「基準」パターンの資源割当に戻すため、一時資源表370に登録された情報を「基準」パターンへ変更)する(ステップ1401)。その後、管理部400は、SLPAR資源割当表440の当該SLPARの当該ジョブに対応するパターンの情報を未追加と設定する(ステップ1403)。
以下、予約の詳細について説明する。上述したとおり、「予約」とは、とあるパターンに対応するジョブを実行するために必要となる資源を、フリー資源表450を用いてあらかじめ確保しておくことである。システム使用者にとって重要な処理については、初期設定時に予約の情報を設定しても良い。しかし、全てのフリー資源について初期設定時に予約が実行され、他の論理パーティションでの使用が不可能になってしまうと、実質的に資源の動的割当では無くなってしまう。
そこで、本実施形態においては、カテゴリーのパターン設定は初期設定時に行うが、そのパターンで指定された資源の予約については、例えばそのパターンに対応するジョブの実行開始の所定時間前に行い、ジョブの終了時(あるいはジョブの終了から所定時間経過後)にその予約を解消するようにする。こうすることで、ストレージ装置300において、予約されていない資源を確保(即ち、資源割当が不能となる状態の発生確率を減少)しやすくなる。
尚、予約は、各サーバ装置100が、自身に登録されているSLPAR資源表のジョブ概要の情報に基づいて、所定の時間(例えばジョブ開始の30秒前)に予約を要求するコマンドを発行することで行う。あるいは、ストレージ装置300にジョブの実行スケジュールに関する情報を登録しておき、ストレージ装置300がそのスケジュールに基づいて予約を実行しても良い。又、予約の解消については、ストレージ装置300が、ジョブの終了の際に行う資源割当変更処理と一緒に行ってもよいし、ジョブ終了から一定時間経過後、ストレージ装置300が自動的に予約を解消しても良い。あるいは、ジョブ終了から一定時間経過後、サーバ装置100が予約の解消を要求するコマンドをストレージ装置300に発行しても良い。
図12は、サーバ装置100がストレージ装置300に予約を要求した場合、又はストレージ装置自身が予約処理を開始した際の処理手順(以下「予約資源確認処理1500」)例を示した図である。
予約の要求を受けた、あるいはスケジュール等に基づいて予約処理を開始したストレージ装置300の管理部400は(ステップ1500)、SLPAR資源動的割当プログラム460を実行することで、予約の対象となるジョブに関連するパターンについて、SLPAR資源割当表440に登録されているパターンに設定された資源の有無を確認する(ステップ1501)。パターンに資源が登録されている場合、それらの資源が、他のパターンに対応するジョブで使用されているかどうかを判定する(ステップ1502)。登録されている資源が他のジョブで使用されている場合、管理部400は、フリー資源表450において予約SLPAR IDおよび予約ジョブIDが登録されていない資源を検索する。そして、管理部400は、検索したフリー資源を、予約の対象となるジョブに割り当て(ステップ1503)、SLPAR資源割当表440およびフリー資源表450を更新する(ステップ1504)。そして、次の予約資源に対してステップ1502の処理を実行する(ステップ1505)。
一方、登録されている資源が他のジョブで使用されていない場合は、管理部400は、SLPAR資源割当表440のパターンに登録された資源に該当するフリー資源表450の予約SLPARID及び予約ジョブIDフィールドに、その資源を予約するSLPARとジョブのID、ならびに実行時間帯の情報がある場合(コマンドに含まれる場合や、ストレージ装置300にスケジュール情報が登録されている場合)にはその時間帯の情報についても登録する。これらの情報の登録後、管理部400は、ステップ1505の処理を行う。
以下、予約解消の処理手順について説明する。
ジョブの終了時、ジョブの終了時間から一定時間経過後あるいはサーバ装置100から予約解消の通知を受けたストレージ装置300は、フリー資源表450を参照して、終了したジョブ(あるいは指定されたジョブ)に関連する資源の予約の有無を確認する。関連する資源の予約が存在する場合、管理部400は、その資源に対応するフリー資源表450の予約SLPARID、予約ジョブID、開始時間及び終了時間のフィールドに登録された情報を消去する。
ジョブの終了時、ジョブの終了時間から一定時間経過後あるいはサーバ装置100から予約解消の通知を受けたストレージ装置300は、フリー資源表450を参照して、終了したジョブ(あるいは指定されたジョブ)に関連する資源の予約の有無を確認する。関連する資源の予約が存在する場合、管理部400は、その資源に対応するフリー資源表450の予約SLPARID、予約ジョブID、開始時間及び終了時間のフィールドに登録された情報を消去する。
尚、本実施形態においては、サーバ装置100からのコマンドの受信を契機としてストレージ装置300がジョブの実行を認識し、そのジョブに関連するパターンに基づいて資源割当を実行していた。しかし、他の実施形態として、ストレージ装置300がジョブの実行スケジュールの情報に基づいて、自発的に資源割当の変更を行う構成としても良い。この場合、ストレージ装置300は、例えば予約時に設定されたジョブの実行時間の情報を随時確認し、そのジョブの実行時間(あるいはその一定時間前)になった際に、予約された資源の割当を行うということが考えられる。
又、本実施形態では、ジョブの終了を契機に、ストレージ装置300において、資源割当を「基準」へと戻す操作を行っている。しかし、他の実施形態として、ジョブの終了と資源割当の変更を同期させない例も考えられる。例えば、複数のジョブが連続して実行され、資源割当の余裕がストレージ装置300に無い場合、ジョブの合間に資源割当の変更を行うことも考えられる。
100‥サーバ装置、200‥ネットワーク、300‥ストレージ装置、310‥ポート
アダプタ、400‥管理部、500‥ディスクアダプタ、510‥物理デバイス、600
‥ストレージ制御部、610‥プロセッサ。
アダプタ、400‥管理部、500‥ディスクアダプタ、510‥物理デバイス、600
‥ストレージ制御部、610‥プロセッサ。
Claims (19)
- 記憶システムであって、
制御部と、
前記制御部と接続されるディスク装置と、
前記制御部と接続され、かつ計算機と接続されるポートを有し、
前記制御部は、該記憶システムが有する資源に基づいて、前記計算機が使用する論理区画を生成し、所定のパターンに基づいて前記論理区画への資源割当を変更し、
前記所定のパターンには、前記論理区画に割り当てる前記資源の組み合わせに関する情報が含まれていることを特徴とする記憶システム。 - 前記制御部は、前記論理区画を使用する前記計算機から所定のコマンドを受信したときに、前記論理区画への資源割当の変更を行うことを特徴とする請求項1記載の記憶システム。
- 前記所定のパターンは、前記計算機で実行される特定の処理(以下「ジョブ」)と関連付けられていることを特徴とする請求項2記載の記憶システム。
- 前記所定のコマンドは、前記ジョブが前記計算機で実行される際に前記計算機から送信され、前記制御部は前記所定のコマンドを受信した際に、前記ジョブと関連付けられた前記所定のパターンに基づいて前記論理区画への資源割当の変更を行うことを特徴とする請求項3記載の記憶システム。
- 前記資源には、前記ポート、前記制御部が有するプロセッサ、及びキャッシュメモリが含まれることを特徴とする請求項4記載の記憶システム。
- 前記制御部は、前記資源が他の論理区画に割り当てられているか否かを示す第二の情報を有し、
前記制御部は、前記所定のパターン及び前記第二の情報を用いて、他の論理区画に割り当てられていない資源を用いて前記論理区画への資源割当の変更を行うことを特徴とする請求項5記載の記憶システム。 - 前記制御部は、前記所定のコマンドを受信する前に、前記所定のパターンで指定される資源を充足するように、前記第二の情報に基づいて、前記他の論理区画に割り当てられていない資源を予約することを特徴とする請求項6記載の記憶システム。
- 前記制御部は、前記所定のコマンドを送信した前記計算機での前記ジョブの実行終了後、前記予約した資源を解放することを特徴とする請求項7記載の記憶システム。
- 前記制御部は、前記ジョブの実行スケジュールに応じて前記資源の予約及び解放を行うことを特徴とする請求項8記載の記憶システム。
- 前記所定のパターンには、前記論理区画において使用される資源の平均的な使用量に基づく資源の組み合わせに関する情報を有するパターンがあることを特徴とする請求項9記載の記憶システム。
- 前記所定のパターンは、前記計算機で実行される特定の処理(以下「ジョブ」)と関連付けられ、前記制御部は、前記ジョブの実行スケジュールに応じて、前記論理区画への資源割当の変更を実行することを特徴とする請求項1記載の記憶システム。
- 複数の計算機と、
前記複数の計算機と接続される記憶システムとを有し、
前記記憶システムは、前記複数の計算機のいずれかに使用される複数の論理区画を、自身が有する資源に基づいて設定し、
前記記憶システムは、あらかじめ定められた複数のパターンのうちの第一のパターンに基づいて、前記複数の論理区画のうちの第一の論理区画への資源割当を変更し、
前記第一のパターンには、前記第一の論理区画に割り当てる前記資源の組み合わせの情報が含まれることを特徴とする計算機システム。 - 前記第一の計算機は、前記第一の論理区画を用いて複数の処理(以下「複数のジョブ」)を実行し、
前記第一のパターンは、前記複数のジョブのうちの第一のジョブと関連付けられ、
前記記憶システムは、前記第一の計算機で前記第一のジョブの実行が開始される際に、前記第一のパターンを前記複数のパターンから選択し、前記第一のパターンを用いて前記第一の論理区画への資源割当を変更することを特徴とする請求項12記載の計算機システム。 - 前記第一の計算機は、前記第一のジョブの実行を開始する際に所定のコマンドを前記記憶システムに発行し、
前記記憶システムは、前記所定のコマンドの受信を契機に、前記第一のパターンを選択して前記第一の論理区画への資源割当を変更することを特徴とする請求項13記載の計算機システム。 - 前記記憶システムは、前記資源が前記複数の論理区画のいずれかに割り当てられているか否かについての第一の情報を有し、
前記記憶システムは、前記第一の情報に基づいて、前記複数の論理区画に割り当てられていない資源を用いて前記第一の論理区画への資源割当の変更を実行することを特徴とする請求項14記載の計算機システム。 - 前記第一の計算機は前記第一のジョブの実行スケジュールに関する第二の情報を有し、該第一の計算機は、前記第二の情報に基づいて、前記第一のジョブの実行前に第二のコマンドを前記記憶システムに発行し、
前記記憶システムは、前記第二のコマンドを受信すると、前記第一のジョブと関連する前記第一のパターンに含まれる資源の組み合わせの情報及び前記第一の情報に基づいて、前記第一のパターンに基づいた資源割当に必要な分の資源を予約し、
前記記憶システムは、前記第一のコマンドを受信した際、前記予約された資源に基づいて前記第一の論理区画の資源割当の変更を行うことを特徴とする請求項15記載の計算機システム。 - 前記第一の計算機は、前記第一のジョブの実行終了後に第三のコマンドを前記記憶システムに送信し、
前記記憶システムは、前記第三のコマンドの受信を契機として、前記予約された資源を解放することを特徴とする請求項16記載の計算機システム。 - 記憶システムであって、
該記憶システムを制御する制御手段と、
該記憶システムに接続される計算機が使用するデータを格納する格納手段と、
前記計算機が使用する論理区画を、該記憶システムが有する資源を用いて生成する手段と、
前記生成された論理区画への前記資源割当を、所定のパターンを用いて変更する変更手段とを有することを特徴とする記憶システム。 - 前記所定のパターンは前記計算機で実行される処理と関連付けられており、
前記変更手段は、前記計算機で前記処理が実行される際に前記論理区画への資源割当の変更を行うことを特徴とする請求項18記載の記憶システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005058333A JP2006244098A (ja) | 2005-03-03 | 2005-03-03 | ストレージシステムにおける論理分割方法 |
US11/117,390 US7516294B2 (en) | 2005-03-03 | 2005-04-29 | Logical partitioning method for storage system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005058333A JP2006244098A (ja) | 2005-03-03 | 2005-03-03 | ストレージシステムにおける論理分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006244098A true JP2006244098A (ja) | 2006-09-14 |
Family
ID=36945383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005058333A Pending JP2006244098A (ja) | 2005-03-03 | 2005-03-03 | ストレージシステムにおける論理分割方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7516294B2 (ja) |
JP (1) | JP2006244098A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217575A (ja) * | 2007-03-06 | 2008-09-18 | Nec Corp | ストレージ装置及びその構成最適化方法 |
WO2010050524A1 (ja) * | 2008-10-31 | 2010-05-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | バッチジョブを管理するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
JP2010170542A (ja) * | 2008-12-24 | 2010-08-05 | National Institute Of Advanced Industrial Science & Technology | ストレージ管理システム、ストレージ管理方法およびプログラム |
US7840775B2 (en) | 2007-04-06 | 2010-11-23 | Hitachi, Ltd. | Storage system in which resources are dynamically allocated to logical partition, and logical division method for storage system |
JP2016105242A (ja) * | 2014-12-01 | 2016-06-09 | 日本電気株式会社 | バッチジョブ処理装置、ストレージ管理装置、システム、バッチジョブ処理方法およびプログラム |
JP2019139372A (ja) * | 2018-02-07 | 2019-08-22 | 日本電気株式会社 | 記憶装置管理システム、記憶装置管理装置、記憶装置管理方法、及び、プログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2443229B (en) * | 2006-08-23 | 2009-10-14 | Cramer Systems Ltd | Capacity management for data networks |
US7853928B2 (en) * | 2007-04-19 | 2010-12-14 | International Business Machines Corporation | Creating a physical trace from a virtual trace |
JP2010009442A (ja) * | 2008-06-30 | 2010-01-14 | Fujitsu Ltd | ディスクアレイシステム、ディスク制御装置及びその再構築処理方法 |
US8086816B2 (en) * | 2008-10-20 | 2011-12-27 | Dataram, Inc. | Method for controlling performance aspects of a data storage and access routine |
JP5039016B2 (ja) * | 2008-12-15 | 2012-10-03 | 株式会社日立製作所 | ネットワークシステム、管理サーバ及び設定スケジューリング方法 |
US10148788B2 (en) | 2009-12-29 | 2018-12-04 | International Business Machines Corporation | Method for providing schedulers in a distributed storage network |
US20140122825A1 (en) * | 2012-10-30 | 2014-05-01 | Hitachi, Ltd. | Computer system and method for updating configuration information |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5253344A (en) * | 1991-09-05 | 1993-10-12 | International Business Machines Corp. | Method and apparatus for dynamically changing the configuration of a logically partitioned data processing system |
US6457102B1 (en) * | 1999-11-05 | 2002-09-24 | Emc Corporation | Cache using multiple LRU's |
US7565398B2 (en) * | 2002-06-27 | 2009-07-21 | International Business Machines Corporation | Procedure for dynamic reconfiguration of resources of logical partitions |
-
2005
- 2005-03-03 JP JP2005058333A patent/JP2006244098A/ja active Pending
- 2005-04-29 US US11/117,390 patent/US7516294B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217575A (ja) * | 2007-03-06 | 2008-09-18 | Nec Corp | ストレージ装置及びその構成最適化方法 |
US7840775B2 (en) | 2007-04-06 | 2010-11-23 | Hitachi, Ltd. | Storage system in which resources are dynamically allocated to logical partition, and logical division method for storage system |
WO2010050524A1 (ja) * | 2008-10-31 | 2010-05-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | バッチジョブを管理するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
JP5263703B2 (ja) * | 2008-10-31 | 2013-08-14 | インターナショナル・ビジネス・マシーンズ・コーポレーション | バッチジョブを管理するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
JP2010170542A (ja) * | 2008-12-24 | 2010-08-05 | National Institute Of Advanced Industrial Science & Technology | ストレージ管理システム、ストレージ管理方法およびプログラム |
JP2016105242A (ja) * | 2014-12-01 | 2016-06-09 | 日本電気株式会社 | バッチジョブ処理装置、ストレージ管理装置、システム、バッチジョブ処理方法およびプログラム |
JP2019139372A (ja) * | 2018-02-07 | 2019-08-22 | 日本電気株式会社 | 記憶装置管理システム、記憶装置管理装置、記憶装置管理方法、及び、プログラム |
JP7047429B2 (ja) | 2018-02-07 | 2022-04-05 | 日本電気株式会社 | 記憶装置管理システム、記憶装置管理装置、記憶装置管理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20060200643A1 (en) | 2006-09-07 |
US7516294B2 (en) | 2009-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006244098A (ja) | ストレージシステムにおける論理分割方法 | |
JP5368285B2 (ja) | 計算機システム、計算機リソースの管理方法及びプログラム | |
US10284637B2 (en) | Minimizing service restart by optimally resizing service pools | |
JP5046725B2 (ja) | ボリューム割り当て管理装置 | |
WO2015176636A1 (zh) | 分布式数据库服务管理系统 | |
JP2012094030A (ja) | 計算機システム及び処理制御方法 | |
JP2005309644A (ja) | リソース制御方法及びそのシステム | |
JP2004280485A (ja) | 計算機システム | |
JP2010182302A (ja) | メタデータグルーピングにより効率的なデータ重複削除を行なう方法と装置 | |
JP2011076286A (ja) | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 | |
US8082547B1 (en) | Reallocating hardware resources among workloads in accordance with license rights | |
US10248460B2 (en) | Storage management computer | |
US9582214B2 (en) | Data access method and data access apparatus for managing initialization of storage areas | |
JP6653710B2 (ja) | 計算機および計算機の制御方法 | |
JP2008033500A (ja) | 計算機、計算機システム、及びディスクイメージ配布方法 | |
JP2011118864A (ja) | リソース制御方法及びリソース制御システム | |
JP5492731B2 (ja) | 仮想計算機のボリューム割当て方法およびその方法を用いた計算機システム | |
CN107329798B (zh) | 数据复制的方法、装置和虚拟化系统 | |
JP5558615B2 (ja) | 計算機システム、計算機リソースの管理方法及びプログラム | |
JP4871758B2 (ja) | ボリューム割当方式 | |
WO2017002185A1 (ja) | サーバストレージシステムの管理システム及び管理方法 | |
JP2011215812A (ja) | 仮想計算機管理方法、計算機システム及びリソース管理プログラム | |
KR20160063430A (ko) | 가상머신 리소스 사전예약을 통한 가용 리소스 자원 관리 및 할당 방법 | |
WO2015145671A1 (ja) | ストレージ管理システム | |
JP5744287B2 (ja) | 計算機システム及び計算機リソースの管理方法 |