JP2011076286A - ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 - Google Patents
ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 Download PDFInfo
- Publication number
- JP2011076286A JP2011076286A JP2009225849A JP2009225849A JP2011076286A JP 2011076286 A JP2011076286 A JP 2011076286A JP 2009225849 A JP2009225849 A JP 2009225849A JP 2009225849 A JP2009225849 A JP 2009225849A JP 2011076286 A JP2011076286 A JP 2011076286A
- Authority
- JP
- Japan
- Prior art keywords
- volume
- physical
- performance
- logical volume
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3442—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for planning or managing the needed capacity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0635—Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2025—Failover techniques using centralised failover control functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2038—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2056—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
- G06F11/2071—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3457—Performance evaluation by simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3466—Performance evaluation by tracing or monitoring
- G06F11/3485—Performance evaluation by tracing or monitoring for I/O devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/81—Threshold
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/815—Virtual
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】
正論理ボリュームと副論理ボリュームとを含むストレージシステムを管理する管理計算機において、正論理ボリュームへのアクセス量が閾値を超える場合、正論理ボリュームに対応付けられる物理ボリュームより入出力性能が高い物理ボリュームに対応付けられる副論理ボリュームを選択する。そして、選択された副論理ボリュームに対応する物理ボリュームに格納されたデータの移行時間が所定の時間以内である場合、正論理ボリュームに対応する物理ボリュームに格納されているデータを、選択された副論理ボリュームに対応する物理ボリュームに移行し、選択された副論理ボリュームに対応する物理ボリュームを正論理ボリュームに対応付ける。
【選択図】図1
Description
以下、本実施例のシステム構成と動作を説明する。
図1は、本実施例において計算機システムの構成の概要を示すブロック図の一例である。
本システムは、サイトA1100とサイトB1200によるActive−Activeのディザスタリカバリ構成となっている。
ここで、待機系ホスト計算機は対応する運用系ホスト計算機と同等の構成をとることが望ましい。しかし、被災時に運用系ホスト計算機で稼動していたアプリケーションと同等のアプリケーションが稼動する構成であれば異なっていても良い。
ストレージシステムA1103は、ホスト計算機のアプリケーションが利用するデータを格納する論理ボリュームを提供するストレージシステムである。ストレージシステムA1103は、データを格納する物理ボリューム2011と、ストレージシステムA1103内の制御を行うディスクコントローラ2020とを備える
物理ボリューム2011は、ディスク型の記憶装置、例えば、ハードディスクドライブ(HDD)である。物理ボリューム1011は、ラッシュメモリデバイス等、多種の記憶装置であってもよい。
ホスト計算機A1101は、キーボードやマウスなどの入力装置3001と、CPU3002と、CRTなどの表示装置3003と、メモリ3006と、データI/F3004と、管理I/F3005とを備える。
管理計算機1500は、キーボードやマウスなどの入力装置4001と、CPU4002と、CRTなどの表示装置4003と、メモリ4005と、管理I/F4004とを含む。
アプリケーションID5001は、本計算機システムにおいてアプリケーションを一意に識別するためのIDを格納する。以降のフィールドは、この値により示されるアプリケーションに関する情報を格納する。
通常時要求性能5002は、通常運用時に、アプリケーションが要求する論理ボリュームの処理性能を格納する。論理ボリュームの処理性能とは、論理ボリュームに対応する物理ボリュームの処理性能を示す。以下、「論理ボリュームの処理性能」とは、「論理ボリュームに対応する物理ボリュームの処理性能」を意味する。本構成例では、一秒間に可能なI/Oの回数を示すIOPSにより示されるが、他の形式でも良い。以降、この値を通常時要求性能と呼ぶ。
性能劣化許容時間5004は、被災時に、指定された被災時要求性能を持つ論理ボリュームに移行し終わるまでの許容可能な時間を格納する。本構成例では、秒数により示されるが、他の形式でも良い。以降、この値を被災時性能劣化許容時間又は性能劣化許容時間と呼ぶ。また、指定された被災時要求性能を持つ論理ボリュームに移行し終わるまでの時間を被災時性能劣化時間又は性能劣化時間と呼ぶ。
通常時ホストIDは、通常運用時においてアプリケーションを稼動するホスト計算機を、本計算機システムにおいて一意に識別するためのIDを格納する。
被災時ホストIDは、被災時においてアプリケーションを稼動するホスト計算機を、本計算機システムにおいて一意に識別するためのIDを格納する。
ストレージID6001は、本計算機システムにおいてストレージシステムを一意に識別するためのIDを格納する。
論理VOLID6002は、ストレージID6001により示されるストレージシステムの論理ボリュームを一意に識別するためのIDを格納する。以降のフィールドは、ストレージID6001と論理VOLID6002により示される論理ボリュームに関する情報を格納する。
容量6004は論理ボリュームの容量を格納する。
使用状況6005は論理ボリュームの使用状況を格納する。使用されている場合は、使用中のアプリケーションIDを格納する。
属性6006は論理ボリュームの属性を格納する。使用状況6005にアプリケーションIDが格納されている場合は、正論理ボリュームとして使われているか、副論理ボリュームとして使われているかを示す文字列が格納される。また、バッファボリュームとして指定されている場合は、バッファボリュームを示す文字列が格納される。なお、バッファボリュームの使われ方については後述する。未使用のボリュームについては未使用を示す文字列が格納される。
サイトID6007は、ストレージシステム及び論理ボリュームが属するサイトのIDを格納する。
ストレージID7001は、本計算機システムにおいてストレージシステムを一意に識別するためのIDを格納する。
物理VOLID7002は、ストレージID4001により示されるストレージシステム内の物理ボリュームを一意に識別するためのIDを格納する。
性能4003は、物理VOLID4003により示される物理ボリュームの性能を格納する。本構成例では、一秒間に可能なI/Oの回数を示すIOPSにより示されるが、他の形式でも良い。なお、論理ボリュームの性能は、上記の通り、該論理リュームに対応する物理ボリュームの性能である。また、論理ボリュームが複数の物理ボリュームの記憶領域より形成されている場合には、論理ボリュームの性能は、該複数の物理ボリュームのうち最も性能の低い物理ボリュームの性能である。
これらの情報は、管理計算機の構成構築プログラム4010が管理ネットワーク1300を介しストレージシステムの制御プログラム2032から取得する。この取得処理については、本発明に関わる分野に精通する技術者にとっては明らかであるため、説明を省略する。
ストレージID8001は、本計算機システムにおいてストレージシステムを一意に識別するためのIDを格納する。
データ移行速度8002は、ストレージID8001により示されるストレージシステムの内部においてCPUにて実行されるデータの移行を行う速度を格納する。本構成例では、一秒間に移行可能なデータ量(帯域)により示されるが、他の形式でも良い。
まず、構成構築プログラム4010は起動されると、管理計算機の入力装置よりユーザより要件を受け付ける(ステップ9010)。要件の内容としては、(a)アプリケーションのIDと、(b)ボリュームの容量と、(c)通常時要求性能と、(d)被災時要求性能と、(e)被災時性能劣化許容時間と、(f)通常運用時にアプリケーションが稼動するサイトのID、(g)通常時にアプリケーションが稼動するホスト計算機のID、(h)被災時にアプリケーションが稼動するホスト計算機のIDである。
ステップ9020で該当する論理ボリュームを発見した場合、構成構築プログラム4010は、ステップ9100に進む。なお、以降の説明では、発見した論理ボリュームを第一の論理ボリュームと呼ぶ。ステップ9100では、構成構築プログラム4010は、(f)が示すサイト(正サイト)とは異なるサイトであり、(h)のホスト計算機が含まれるサイト(副サイト)から(b)の容量と(d)の性能を満たすボリュームを論理ボリューム情報4014及び物理ボリューム情報を参照して探索する(ステップ9100)。
ステップ9030で該当するボリュームを発見できなかった場合、構成構築プログラム4010は、構成を構築できない旨を出力装置を介してユーザに通知して(ステップ9130)、処理を終了する。
ステップ9030で該当する論理ボリュームを発見できた場合、構成構築プログラム4010は、ステップ9040に進む。なお、以降の説明では、発見した論理ボリュームを第一の代替ボリュームと呼び、この時点で第一の代替ボリュームに対応付けられている物理ボリュームを第一の物理ボリュームと呼ぶ。構成構築プログラム4010は、第一の代替ボリュームが属するストレージシステム内の副論理ボリュームであること、(b)の容量を満たしていること、(c)の性能要件を超えることを条件に論理ボリュームを探索する(ステップ9040)。また、第一の代替ボリュームが属するストレージシステム内の副論理ボリュームであること、(b)の容量を満たしていること、第一の代替ボリュームより性能がよいこと、(c)の性能要件に最も近い性能を持つこと、を条件に論理ボリュームを探索してもよい。
本シミュレーションでは、被災時の性能回復の可否と、各アプリケーションに対する被災時性能劣化時間を算出する。本構成例では、被災時には図12の説明で示す方法でボリュームの入れ替えを行うため、本シミュレーションはこれに従う。
図12のシミュレーションにて、第一の物理ボリュームが割り当てられている第二の代替ボリュームに関してエラー通知12090が必要になる場合があるか否かを判断する。そして、エラー通知12090が必要になる場合には、被災時の性能回復の不可と判断する。また、エラー通知12090が必要ではなく、被災時の性能回復の可と判断された場合には、被災時性能要求を満たすために第二の代替ボリュームのデータ移行に要する時間を算出する。算出された時間は、被災時性能劣化時間となる。被災時性能劣化時間は、第二の代替ボリュームに対応する第一の物理ボリュームに格納されるデータサイズと、データ移行性能情報4016のデータ移行速度をもとに算出することが可能である。具体的には、ストレージシステム「STG2」の論理ボリューム「LU02」に割り当てられる物理ボリューム内の100Gのデータを、データスピード400MB/Sで他の物理ボリュームに移行する場合には、250秒の時間を要する。
なお、本構成例では、図12で示す方法をボリューム入れ替えのアルゴリズムとして用いるが、他のアルゴリズムでボリューム入れ替えを行う場合は、それに応じた方法で性能劣化時間の算出する必要がある。
そして、第二の代替ボリュームのうち、被災時の性能回復の可と判断され、性能劣化許容時間が被災時性能劣化時間を越えるボリュームを選択する。そして、選択されたボリュームを新たに第二の代替ボリュームとする。
代替構成タイプ1は、第一の代替ボリュームを正論理ボリュームとして使用する構成である。代替構成タイプ2は、通常運用時には第二の代替ボリュームに対応付けられる第二の物理ボリュームを第一の代替ボリュームに対応付けて正論理ボリュームとして利用する。そして、もともと第二の代替ボリュームを副論理ボリュームとしてペアを組む正論理ボリュームが含まれるサイトが被災した場合、第一の代替ボリュームの物理ボリュームを正論理ボリュームとして利用する構成である。ユーザは本ステップで提示する画面から、代替構成タイプ1と代替構成タイプ2と構築中断の三つの選択肢から処理の流れを選ぶことができる。本画面の構成例は図10を用いて説明する。
なお、制御プログラム1032は、論理ボリュームと物理ボリュームの対応付けの変更処理も行う。つまり、制御プログラム1023は、第二の代替ボリュームへの第二の物理ボリュームの対応付け(割り当て)を解消する。そして、制御プログラム1023は、第二の代替ボリュームに、第一の代替ボリュームに対応付けられていた第一の物理ボリュームを対応付ける。さらに、制御プログラム1023は、第一の代替ボリュームに第二の代替ボリュームに対応付けられていた第二の物理ボリュームを対応付ける。以上が、スワップの処理である。
次に、構成構築プログラム4010は、ステップ9100に進む。このステップは前述のとおりである。
次に、構成構築プログラム4010は、ステップ9110に進む。以下に、前述のステップ9110との差分を示す。リモートコピーの正論理ボリュームとして設定されるボリュームは、第一の代替ボリュームとなる。なお、ステップ9070で代替構成タイプ2を選択した場合、第一の代替ボリュームには、ステップ9090のスワップ前に、第二の代替ボリュームに対応付けられていた第二の物理ボリュームが対応付けられている。また、構成構築プログラム4010は、第一の代替ボリュームを(g)のホスト計算機に割り当てる。また、構成構築プログラム4010は、第二の論理ボリュームを(h)で指定されたホスト計算機に割り当てる。
次に、構成構築プログラム4010は、ステップ9120に進む。このステップは、前述のものとほぼ同じであるため、差分だけ示す。通常時要求性能5002には、第一の代替ボリュームに、ステップ9030の時点で対応付けられていた物理ボリュームの性能が設定される。そして構成構築プログラム4010は、処理を終了する。以上が、構成構築プログラム1251の処理の流れである。
本構成例では、三つの選択肢をユーザに提示している。ユーザは選択肢10010、選択肢10020、選択肢10030のいずれかを選択した後に、ボタン7040を押下することで、代替構成を受け入れ可否と、受け入れる可の場合の受け入れ大体構成のタイプを構成構築プログラム4020に対して入力することができる。
選択肢10010は、代替構成タイプ1を許可する選択肢である。選択肢の下には通常時要求性能に対する代替構成タイプ1における性能が表示されている。通常運用時の性能は要求性能を下回ることが示される。
選択肢10020は、代替構成タイプ2を許可する選択肢である。選択肢の下には通常時要求性能に対する代替構成タイプ2における性能が表示されている。通常運用時は、正論理ボリュームにおいて要求性能を上回る性能又は要求性能に近い性能を提供できるが、他のサイトが被災したときに要求性能を下回ることが示される。なお、本選択肢は、ステップ9040で該当する副論理ボリュームが発見されること、ステップ9050で算出した被災時性能劣化時間が各アプリケーションの被災時性能劣化許容時間を下回ること、ステップ9050で被災時に性能回復が可能であることが判明すること、を全て満たしたときのみ活性化される。
選択肢10030は、代替構成を受け入れず、構成の構築を中断することを示す選択肢である。
以上が、図9のステップ9060においてユーザに表示する画面の構成例である。
なお、本構成例では、選択肢10020の活性・不活性を制御する際に、ステップ9050で算出した被災時性能劣化時間が各アプリケーションの被災時性能劣化許容時間を下回るかを判断したが、別の構成例として、ステップ9050で算出した各アプリケーションの被災時性能劣化時間を選択肢10020の下に表示し、この画面上でその値が許容可能かを判定するようにしても良い。この場合は、ステップ9010における(e)の入力と性能劣化許容時間5004の管理を省略することができる。この構成は、計算機システム内のアプリケーションを管理するユーザが少数であり、性能劣化許容時間がユーザ間で共有されている場合に有効である。
所定の時間経過後、稼働状況監視プログラム4011は、計算機システム内の正論理ボリュームを検索する。そして、それぞれの検索された正論理ボリュームを対象にして、ステップ11020〜ステップ11120の処理を繰り返す。なお、以降の説明では、対象となる正論理ボリュームを対象正論理ボリュームと呼び、対象正論理ボリュームに対応する物理ボリュームを第一の物理ボリュームと呼ぶ。
まず、稼働状況監視プログラム4011は、対象正論理ボリュームへの単位時間当たりのアクセス量を取得する(ステップ11030)。
次に、稼働状況監視プログラム4011は、その単位時間当たりのアクセス量が対象正論理ボリュームの性能を上回っているか、又は上回る可能性があるかを判定する(ステップ11040)。本ステップでの判定では、ステップ11030にて取得した単位時間当たりのアクセス量が一定の閾値を超えた場合に上回る可能性があると判定しても良いし、ステップ11030にて取得した値の履歴をとっておき、トレンド分析により上回る可能性があると判定しても良い。
ステップ11050の判定の結果、該当する論理ボリュームが無い場合、稼働状況監視プログラム4011は、対象正論理ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ11130)、ステップ11020に移行し、次の正論理ボリュームを対象とした処理に移行する。
ステップ11090で受け入れたユーザの入力が現在の構成を継続することを示している場合、対象正論理ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ11130)、ステップ11020に移行し、次の正論理ボリュームを対象とした処理に移行する。
ステップ11090で受け入れたユーザの入力が代替構成を受け入れることを意味している場合、稼動状況監視プログラム4011は、対象正論理ボリュームと代替ボリュームをスワップする(ステップ11100)。具体的には、代替ボリュームに対応する第二の物理ボリュームに格納されるデータを、バッファボリュームに対応する物理ボリュームへ移行するように、制御プログラム2032に指示する。指示を受けた制御プログラム2032は、代替ボリュームに対応する第二の物理ボリュームに格納されるデータを、バッファボリュームに対応する物理ボリュームへ移行する。その後、対象正論理ボリュームに対応付けられている第一の物理ボリュームに格納されるデータを、代替ボリュームに対応する第二の物理ボリュームへ移行するように、制御プログラム2032に指示する。指示を受けた制御プログラム2032は、対象正論理ボリュームに対応付けられている第一の物理ボリュームに格納されるデータを、代替ボリュームに対応する第二の物理ボリュームへ移行する。
以上が、働状況監視プログラム4011の処理の流れである。
要求性能を満たしている場合は、被災時復旧プログラム4012は、ステップ12020に戻り、次のアプリケーションを対象に処理を続ける。
要求性能を満たしていない場合は、対象アプリケーションが利用している論理ボリュームと同じストレージシステムに属すること、要求性能を満たすこと、を条件に論理ボリュームを探索する(ステップ12040)。また、さらに、バッファボリュームに指定されていないこと、対象アプリケーションより要求性能の高いアプリケーションに使用されていないことを条件に論理ボリュームを探索してもよい(ステップ12040)。
以上が、被災時復旧プログラム4012の処理の流れである。
以上が、第一の実施例の説明である。
本実施例では、計算機システムに含まれるホスト計算機は、複数の仮想的なホスト計算機を稼動させるホスト計算機である。仮想的なホスト計算機のことを仮想サーバあるいは仮想マシン(Virtual Machine、VM)と呼ぶ。また、説明の明確化のため、仮想サーバを稼動させていているホスト計算機のことを物理サーバと呼ぶ。
本実施例において計算機システムの構成は、第一の実施例とほぼ同等であるため、主に差異について説明する。
本実施例において計算機システムの構成の概要は図1と同様であり、図示はしない。
ホスト計算機A1101、ホスト計算機B1202、ホスト計算機C1201、ホスト計算機D1102は物理サーバであり、内部で複数の仮想サーバが稼動する。
図1の計算機システムとの違いを以下に示す。本実施例においては、ホスト計算機D1102がデータネットワークに接続する。そして、ホスト計算機D1102は、データネットワークA1104を介して論理ボリュームA1111へアクセスする。また、ホスト計算機C1201は、データネットワークB1204に接続する。ホスト計算機C1201は、データネットワークB1204を介して論理ボリュームB1212へアクセスする。
また、ハイパバイザ14010は仮想サーバに、アクセス性能を属性として持つ仮想的なデータI/Fを割り当てることができる。この仮想的なデータI/Fにより、物理サーバがもつデータI/Fのアクセス性能の範囲で複数の仮想サーバのアクセス性能を保証することができる。以降、この仮想的なデータI/Fを仮想データI/Fと呼ぶ。
また、ハイパバイザ14010は、ユーザや外部プログラムからの指示により、一方の物理サーバから他方の物理サーバへ仮想サーバを移行させることができる。たとえば、ホスト計算機A1101上のハイパバイザ14010は、ホスト計算機A1101上で稼動している仮想サーバを、ホスト計算機D1102に移行させる指示を受け付けることができる。この指示を受け付けると、ホスト計算機A1101上のハイパバイザ14010は、ホスト計算機D1102上のハイパバイザ14010に、仮想サーバに割り当てている仮想メモリと同容量のメモリを確保させる。その後、ホスト計算機A1101上のハイパバイザ14010は、ホスト計算機D1102上のハイパバイザ14010に、仮想サーバに割り当てているメモリ内の情報と、仮想データI/Fや仮想ボリュームなどの仮想サーバの構成情報を転送する。ホスト計算機D1102上のハイパバイザ14010は、これらの情報を受け取ると、受け取ったメモリ内の情報を、ホスト計算機D1102上のメモリ上に確保した領域に格納する。そして、ホスト計算機D1102上のハイパバイザ14010は、受け取った構成情報をもとに仮想サーバを起動する。
エージェント14012は、仮想サーバの構成情報をハイパバイザ14010から取得するためのプログラムである。後述する管理計算機1500で稼動するVM構成情報収集プログラム15001からの指示により、エージェント14012は、ハイパバイザ14010から情報を取得し、VM構成情報収集プログラム15001にその情報を提供する。
本実施例では、新たにメモリ4005上に、VM構成情報収集プログラム15001、VM性能情報15002、論理ボリューム構成情報15003、VM構成情報15004、物理サーバ情報15005、VM移行性能情報15006が格納される。
VM性能情報15002は、アプリケーション情報4013を仮想サーバ向けに変更したものである。
また、通常時ホストID5006が、通常時に仮想サーバが稼動する物理サーバを一意に示す、通常時物理サーバID16002に変更されている。
また、被災時ホストID5007が、被災時に仮想サーバが稼動する物理サーバを一意に示す、被災時物理サーバID16003に変更されている。
本図は、図6の一部を変更した図である。前述のとおり本実施例では、論物ページマップにより、論理ボリュームはページ単位で物理ボリュームに対応付けられる。これに関わる管理方法については別の図で説明するため、物理VOLID6003は削除されている。
また、論理ボリュームの使用量を示す使用量17001が追加される。仮想ボリュームは論理ボリュームにファイルとして格納される。仮想サーバに割り当て可能な仮想ボリュームのサイズは論理ボリュームの空き容量に依る。このため、本実施例では、このテーブルで論理ボリュームの使用量を管理している。この情報は、前述のとおり、VM構成情報収集プログラム15001がエージェント14012から収集する。
論理VOLID18002は、ストレージID18001により示されるストレージシステム内の論理ボリュームを一意に識別するためのIDを格納する。
開始アドレス18003は、論理VOLID18002により示される論理ボリューム内のページ(領域)の開始位置を示す。
終了アドレス18004は、論理VOLID18002により示される論理ボリューム内のページ(領域)の終了位置を示す。
PoolID18005は、ストレージID18001、論理VOLID18002、開始アドレス18003、終了アドレス18004で示されるページに対応する物理ボリュームが属するプールを、本計算機システムで一意に識別するためのIDを格納する。
本実施例では、同等の性能を持つ複数の物理ボリュームをプールとして管理する。このため、物理VOLID7002を、本計算機システムでプールを一意に識別するためのIDを格納するPoolID19001に変更している。
また、プール内の物理ボリュームは、論理ボリュームに対してページ単位で割り当てられる。特定の性能の物理ページの割り当て可能な量は、その性能のプール内の物理ページの全容量と割り当て済みの容量による。このため、本テーブルで、全体容量と割り当て済みの容量(使用量)を管理する。本テーブルでは、プール全体の容量を格納する容量19002と、割り当て済みの容量を格納する使用量19003を追加する。
VMID20001は、本計算機システムにいて仮想サーバを一意に識別するためのIDを格納する。以降のフィールドは、本値に示される仮想サーバに関する情報を格納する。
割り当てメモリ量20002は、割り当てられた仮想メモリの容量を示す値を格納する。
割り当てデータI/F性能20003は、割り当てられた仮想データI/Fの性能を示す値を格納する。
ストレージID20004は、ストレージシステムのIDを格納する。論理ボリュームID20005は論理ボリュームのIDを格納する。論理ボリュームアドレス20006は、ファイルの格納アドレスを格納する。ファイルが複数の領域に渡って格納されている場合、本値は、それぞれをカンマつなぎで列挙した形で示される。
I/O性能21002は、物理サーバ上のハイパバイザが仮想サーバに割り当て可能な物理的なデータI/Fにより処理可能なI/O性能の総和を格納する。
メモリ量21003は、物理サーバ上のハイパバイザが仮想サーバに割り当て可能なメモリの容量の総和を格納する。
ストレージID21004は、物理サーバ上のハイパバイザが仮想サーバに割り当てる仮想ボリュームの仮想ボリュームファイルを格納するストレージシステムのIDを格納する。
論理ボリュームID21005は、物理サーバ上のハイパバイザが仮想サーバに割り当てる仮想ボリュームの仮想ボリュームファイルを格納する論理ボリュームのIDを格納する。
速度22003は、ソース物理サーバID22001からターゲット物理サーバID22002へVMを移行する際に発生するデータ転送の速度を示す値を格納する。
ステップ23015において、該当する論理ボリュームを発見した場合、(c)の性能を満たす物理ボリュームの残り容量が(b)の容量以上であるかを確認する(ステップ23020)。この確認では、発見した論理ボリュームを格納するストレージシステム内で(c)の性能を満たす物理ボリュームのプールに(b)の容量があるかを確認する。これは、物理ボリューム情報4015を参照することで可能である。
なお、本判定は、別の実施形態として、(b)の容量ではなく、仮想ボリューム割り当ての際に発生する書き込みにより割り当てられるページの分だけの空き容量があるかを確認する形式でもよい。
なお、別の実施形態として、仮想サーバに割り当てを行った際に発生する書き込みにより割り当てられるページの分だけ空き容量があるかを確認してもよい。以降、副論理ボリュームを格納するストレージシステムを第二のストレージシステム、特定された論理ボリュームを第二の論理ボリュームと呼ぶ。
図25のシミュレーションにて、副論理ボリュームとして使用されている第一の代替プールに関してエラー通知23150が必要になる場合があるか否かを判断する。そして、エラー通知12090が必要になる場合には、被災時の性能回復の不可と判断する。また、エラー通知12090が必要ではなく、被災時の性能回復の可と判断された場合には、被災時性能要求を満たすために第一の代替プールのデータ移行に要する時間を算出する。算出された時間は、被災時性能劣化時間となる。被災時性能劣化時間は、第一の代替プールに格納されるデータサイズと、データ移行性能情報4016のデータ移行速度をもとに算出することが可能である。
なお、本構成例では、図25で示す方法をボリューム入れ替えのアルゴリズムとして用いるが、他のアルゴリズムでボリューム入れ替えを行う場合は、それに応じた方法で性能劣化時間の算出する必要がある。
そして、第一の代替プールのうち、被災時の性能回復の可と判断され、性能劣化許容時間が被災時性能劣化時間を越えるプールを選択する。そして、選択されたプールを新たに第一の代替プールとする。
ステップ23040で該当するプールが発見できなかった場合、ステップ23050はスキップする。
次に、構成構築プログラム4010は、ステップ23070に進む。本処理はステップ9070と同じである。ただし、アプリケーションを仮想サーバと読み替える必要がある。
ステップ23070の入力が代替構成タイプ2を示す値である場合、構成構築プログラム4010は、第二の代替プールの物理ページを割り当てられている副論理ボリュームのデータを、第一の代替プールへページ間データ移行するように制御プログラム2032に指示する(ステップ23090)。これにより、(a)の仮想サーバ用の仮想ボリュームファイルの格納領域を、第二の代替プールに作成することができる。また、副論理ボリュームのデータを移行された第一の代替プールの物理ページを、副論理ボリュームに割り当てる。また、第二の代替プールにおいて仮想ボリュームファイルを格納する物理ページを正論理ボリュームに割り当てる。
ステップ23070の入力が代替構成タイプ1を示す値である場合、構成構築プログラム4010は、ステップ23090はスキップする。
次に、構成構築プログラム4010は、ステップ23110に進む。このステップは、前述の通りであるが、相違点のみ説明する。代替構成タイプ2を選択した場合、作成した仮想ボリュームファイルの格納領域には、ステップ23090で空き領域を作った第二の代替プールから物理ページを割り与えるように、第一のストレージシステムの制御プログラム2032に指示する。代替構成タイプ1を選択した場合、作成した仮想ボリュームが格納される領域には、第一の代替プールから物理ページを割り与えるように、第一のストレージシステムの制御プログラム2032に指示する。
以上が、構成構築プログラム1251の処理の流れである。
次に、稼働状況監視プログラム4011は、取得した単位時間あたりのアクセス量が、仮想ボリュームに割り当てられた物理ページの性能を上回る可能性があるかを判定する(ステップ24040)。なお、仮想ボリュームに割り当てられた物理ページとは、仮想ボリュームファイルを格納する論理ボリュームに割り当てられた物理ページを意味する。本ステップでの判定では、ステップ24030にて取得した単位時間あたりのアクセス量と、物理ページの性能以下であって設定された一定の閾値とを比較し、取得した単位時間あたりのアクセス量が閾値を超えた場合に、上回る可能性があると判定しても良い。また、ステップ24030にて取得した値の履歴をとっておき、トレンド分析により性能を上回る可能性があると判定しても良い。
ステップ24040の判定の結果、上回る可能性があると判定された場合、稼働状況監視プログラム4011は、対象仮想サーバの仮想ボリュームに割り当てられている物理ページの容量分の空き容量を持つプールを探索する(ステップ24050)。該当するプールが無い場合、稼働状況監視プログラム4011は、対象仮想サーバの仮想ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ24130)、ステップ24020に移行し、次の仮想サーバを対象とした処理に移る。
ステップ24060の結果、該当するプールが無い場合、稼働状況監視プログラム4011は、対象となっている仮想サーバの仮想ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ24130)、ステップ24020に移行し、次の仮想サーバを対象にした処理に移る。
まず、対象仮想サーバへ割り当てられているデータI/Fの性能と、第二の代替プールの性能とを比較する。データI/Fの性能が第二の代替プールの性能以上である場合、稼動状況監視プログラム1252はステップ24070に進む。データI/Fの性能が第二の代替プールの性能を下回る場合、以下の処理を実行する。
作成不可である場合は、VM以降性能情報15006から仮想サーバが移行可能な物理サーバを探索する。仮想サーバが移行可能な物理サーバが存在する場合には、VM性能情報15002と、物理サーバのI/O性能21002から、割り当てることのできるデータI/F性能を算出する。そして、探索された物理サーバにおいて、第二の代替プールの性能に適した仮想データI/Fを作成可能か判定する。作成可能であるかの判断方法は、ステップ24065で説明した通りである。作成可能である場合は、探索された物理サーバから割り当てる仮想データI/F性能と第二の代替プールの性能との差が上記閾値以内となるように、仮想データI/Fの性能を算出し、稼動状況監視プログラム1252はステップ24070に進む。作成不可である場合は、稼働状況監視プログラム4011は、対象となっている仮想サーバの仮想ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ24130)、ステップ24020に移行し、次の仮想サーバを対象にした処理に移る。
なお、本シミュレーションの処理内容は、図25の説明で示す被災時の復旧処理方法に従う。なお、被災時性能劣化時間の算出方法に関しては、図23にて説明した通りである。被災時性能劣化時間を算出するためのパラメータとして、ページ間データ移行の処理時間が必要となるが、これは、まず、論理ボリュームアドレス20006と論理ボリューム構成情報15003から各仮想サーバの仮想ボリュームファイルに割り当てられているページの容量を取得し、これをデータコピー性能4016で割ることで算出可能である。また、同様に、仮想サーバの以降の処理時間も必要となるが、これは、まず、仮想サーバに割り当てられた割り当てメモリ量20002を、物理サーバ間のデータ転送速度である速度22003で割ることで算出可能である(ステップ24070)。
次に、稼働状況監視プログラム4011は、代替構成をユーザに提示する(ステップ24080)。ここで表示される代替構成のタイプは一つだけである。第二の代替プールを使用する副論理ボリュームのデータを第一の代替プールに移行し、対象仮想サーバの仮想ボリュームファイルを現在使用中のプールから第二の代替プールへ移行する構成である。ユーザは、この構成を選択するか、現在の構成を継続するかの二つの選択肢から処理を選ぶことができる。なお、本画面の構成は、選択肢が前述の二つに変わる以外は図10と同じであるため図示は省略する。
ステップ24090でユーザが現在の構成を継続すること選択した場合、対象となっている仮想ボリュームの性能をアクセス量が上回る危険性があることをユーザに警告を通知した後(ステップ24130)、ステップ24020に移行し、次の正論理ボリュームの判定に移行する。
以上が、働状況監視プログラム4011の処理の流れである。なお、仮想データI/Fの性能が移行後の仮想ボリュームの性能に対して十分かという判断で、仮想サーバの移行の有無を判断したが、その他、CPUやメモリなどが十分であるかを考慮しても良い。
その後、被災時復旧プログラム4012は、要求性能が高い順に一つずつ仮想サーバを対象として、ステップ25020〜ステップ25080までの処理を繰り返す。以降、対象となる仮想サーバを対象仮想サーバと呼ぶ。
以上が、被災時復旧プログラム4012の処理の流れである。
なお、本処理では、高性能なプールには、空き容量が無いことを想定しているが、ある場合には、高性能なプールの空き容量への仮想ボリュームの移行を行うようにすることが望ましい。以上が、第二の実施例の説明である。
Claims (15)
- 他のストレージシステムに接続するストレージシステムと、
前記ストレージシステムを管理する管理計算機と、が含まれる計算機システムであって、
前記ストレージシステムは、
第一の正論理ボリュームと、複数の第一の副論理ボリュームと、バッファボリュームを含む複数の論理ボリュームに対応する複数の物理ボリュームと、
前記複数の物理ボリュームへのデータの入出力処理を実行する第一のコントローラと、を含み、
前記管理計算機は、
前記複数の物理ボリュームの性能を示す物理ボリューム情報を格納するメモリと、
第二のコントローラと、を含み、
前記複数の第一の副論理ボリュームは、前記他のストレージシステムが提供する複数の第二の正論理ボリュームとコピーペアを形成し、前記第一の正論理ボリュームは、前記他のストレージシステムが提供する第二の副論理ボリュームとコピーペアを形成し、
前記第二のコントローラは、前記第一の正論理ボリュームへのアクセス量が閾値を超える場合、前記メモリから読み出した前記物理ボリューム情報を参照することにより、前記複数の第一の副論理ボリュームに含まれ、前記第一の正論理ボリュームに対応付けられる第一の物理ボリュームより入出力性能が高い第二の物理ボリュームに対応付けられる副論理ボリュームを選択し、
前記第二のコントローラは、データ移行時間が所定の時間以内であるかを確認し、前記移行時間が所定の時間内である場合、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに格納されているデータを、前記バッファボリュームに対応する第三の物理ボリュームに移行し、前記第一の正論理ボリュームに対応する前記第一の物理ボリュームに格納されているデータを、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに移行し、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームを前記第一の正論理ボリュームに対応付ける、指示を前記ストレージシステムに発行する、ことを特徴とする計算機システム。 - 請求項1に記載の計算機システムであって、
前記データ移行時間は、前記前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに格納されているデータを、前記バッファボリュームに対応する前記第三の物理ボリュームに移行した場合に、前記バッファボリュームに対応する前記第三の物理ボリュームに格納されるデータを前記バッファボリュームに対応する前記第三の物理ボリュームよりも入出力性能が高い第四の物理ボリュームへ移行するために要する時間である、ことを特徴とする計算機システム。 - 請求項2に記載の計算機システムであって、
前記メモリは、さらに、前記ストレージシステムにおいて前記複数の物理ボリュームに含まれる一方の物理ボリュームに格納されるデータを他方の物理ボリュームに移行するためのデータ移行速度を示すデータ移行性能情報を格納し、
前記第二のコントローラは、前記データ移行時間を、前記データ移行情報を参照し、前記第二の物理ボリュームに格納されるデータのデータ量と、前記データ移行速度をもとに算出される、ことを特徴とする計算機システム。 - 請求項3に記載の計算機システムであって、
前記第二のコントローラは、前記データ移行時間を、前記第二の物理ボリュームに格納されるデータの前記データ量と、前記データ移行速度とに加えて、さらに、前記第四の物理ボリュームに格納されるデータのデータ量をもとに算出する、ことを特徴とする計算機システム。 - 請求項4に記載の計算機システムであって、
前記移行時間は、前記第二の物理ボリュームに格納されるデータの前記データ量と前記データ移行速度によって算出される第一の移行時間と、前記第四の物理ボリュームに格納されるデータの前記データ量と前記データ移行速度によって算出される第二の移行時間との和である、ことを特徴とする計算機システム。 - 請求項5に記載の計算機システムであって、さらに
前記ストレージシステムと接続し、複数のアプリケーションを動作するホスト計算機を含み、
各々の前記複数の論理ボリュームは各々の前記複数のアプリケーションに割り当てられることを特徴とする計算機システム。 - 請求項6に記載の計算機システムであって、
前記メモリは、さらに、前記複数の第一の副論理ボリュームが割り当てられるアプリケーションが、前記他のストレージシステムの被災時に要求する被災時要求性能を示す性能情報を格納し、
前記第四の物理ボリュームの入出力性能は、前記選択された副論理ボリュームに割り当てられるアプリケーションの被災時要求性能より高い、ことを特徴とする計算機システム。 - 請求項7に記載の計算機システムであって、
前記所定の時間は、前記他のストレージシステムの被災時において、前記選択された副論理ボリュームに割り当てられるアプリケーションの前期被災時要求性能より入手力性能が低い物理ボリュームを、前記選択された副論理ボリュームに割り当てられることを許容する時間である、ことを特徴とする計算機システム。 - 請求項5に記載の計算機システムであって、さらに
前記ストレージシステムと接続し、複数の仮想サーバが動作する物理サーバを含み、
各々の前記複数の仮想計算機の仮想ボリュームファイルが、前記複数の論理ボリュームに格納されていることを特徴とする計算機システム。 - 請求項9に記載の計算機システムあって、
前記物理サーバは、インタフェースを有し、
前記メモリは、前記複数の仮想計算機に割り当てられる前記インタフェースの入出力性能を示す仮想計算機情報を格納し、
前記第二のコントローラは、前記仮想計算機情報を参照し、前記第二の物理ボリュームの入出力性能と、前記正論理ボリュームに仮想ボリュームファイルを格納する第一の仮想計算機に割り当てられている前記インタフェースの入出力性能と、を比較し、第一の仮想計算機に割り当てられている前記インタフェースの入出力性能が前記第二の物理ボリュームの入出力性能より低い場合、前記第二の物理ボリュームを前記正論理ボリュームに対応付ける際に前記第一の仮想計算機に割り当てられている前記インタフェースの入出力性能を変更することを特徴とする計算機システム。 - 請求項10に記載の計算機システムであって、
前記第一の仮想計算機に割り当てられている前記インタフェースの入出力性能を変更により、第一の仮想計算機に割り当てられている前記インタフェースの入出力性能を前記第二の物理ボリュームの入出力性能より高くすることができない場合、前記第一の仮想計算機を前記物理サーバとは別の物理サーバに移行させることを特徴とする計算機システム。 - 請求項11に記載の計算機システムであって、
前記メモリは、さらに、前記選択された副論理ボリュームに仮想ボリュームファイルを格納する仮想計算機が、前記他のストレージシステムの被災時に要求する被災時要求性能を示す性能情報を格納し、
前記第四の物理ボリュームの入出力性能は、前記第二の仮想計算機の前記被災時要求性能より高い、ことを特徴とする計算機システム。 - 請求項12に記載の計算機システムであって、
前記所定の時間は、前記仮想計算機の要求する被災時要求性能より入出性能が低い物理ボリュームを前記選択された副論理ボリュームに割り当てられていることを許容する時間である、ことを特徴とする計算機システム。 - 第一の正論理ボリュームと、複数の第一の副論理ボリュームと、バッファボリュームを含む複数の論理ボリュームに対応する複数の物理ボリュームと、前記複数の物理ボリュームへのデータの入出力処理を実行する第一のコントローラと、により構成され、他のストレージシステムに接続するストレージシステムと、前記複数の物理ボリュームの性能を示す物理ボリューム情報を格納するメモリと、第二のコントローラと、により構成され前記ストレージシステムを管理する管理計算機と、が含まれる計算機システムにおける物理ボリューム割り当て方法であって、
前記複数の第一の副論理ボリュームは、前記他のストレージシステムが提供する複数の第二の正論理ボリュームとコピーペアを形成し、
前記第一の正論理ボリュームは、前記他のストレージシステムが提供する第二の副論理ボリュームとコピーペアを形成し、
前記第二のコントローラは、前記第一の正論理ボリュームへのアクセス量が閾値を超える場合、前記メモリから読み出した前記物理ボリューム情報を参照することにより、前記複数の第一の副論理ボリュームに含まれ、前記第一の正論理ボリュームに対応付けられる第一の物理ボリュームより入出力性能が高い第二の物理ボリュームに対応付けられる副論理ボリュームを選択し、
前記第二のコントローラは、データ移行時間が所定の時間以内であるかを確認し、前記移行時間が所定の時間内である場合、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに格納されているデータを、前記バッファボリュームに対応する第三の物理ボリュームに移行し、前記第一の正論理ボリュームに対応する前記第一の物理ボリュームに格納されているデータを、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに移行し、前記選択された副論理ボリュームに対応する前記第二の物理ボリュームを前記第一の正論理ボリュームに対応付ける、指示を前記ストレージシステムに発行する、ことを特徴とする物理ボリューム割り当て方法。 - 請求項14に記載の物理ボリューム割り当て方法であって、
前記データ移行時間は、前記前記選択された副論理ボリュームに対応する前記第二の物理ボリュームに格納されているデータを、前記バッファボリュームに対応する前記第三の物理ボリュームに移行した場合に、前記バッファボリュームに対応する前記第三の物理ボリュームに格納されるデータを前記バッファボリュームに対応する前記第三の物理ボリュームよりも入出力性能が高い第四の物理ボリュームへ移行するために要する時間である、ことを特徴とする物理ボリューム割り当て方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009225849A JP5124551B2 (ja) | 2009-09-30 | 2009-09-30 | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 |
US12/625,006 US8402236B2 (en) | 2009-09-30 | 2009-11-24 | Computer system managing volume allocation and volume allocation management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009225849A JP5124551B2 (ja) | 2009-09-30 | 2009-09-30 | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011076286A true JP2011076286A (ja) | 2011-04-14 |
JP5124551B2 JP5124551B2 (ja) | 2013-01-23 |
Family
ID=43781586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009225849A Expired - Fee Related JP5124551B2 (ja) | 2009-09-30 | 2009-09-30 | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8402236B2 (ja) |
JP (1) | JP5124551B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045444A (ja) * | 2011-08-19 | 2013-03-04 | Hitachi Ltd | データセンタ内のリソースの使用効率を改善するための方法及び装置 |
JP2014049116A (ja) * | 2012-08-31 | 2014-03-17 | Hitachi Ltd | 仮想ストレージシステムの管理方法およびリモートコピーシステム |
JP2014093072A (ja) * | 2012-10-31 | 2014-05-19 | Samsung Sds Co Ltd | ハイパーバイザベースのサーバ二重化システム、その方法およびサーバ二重化コンピュータプログラムが記録された記録媒体 |
WO2014132440A1 (ja) * | 2013-03-01 | 2014-09-04 | 株式会社日立製作所 | 構成情報取得方法、及び管理計算機 |
WO2015029133A1 (ja) * | 2013-08-27 | 2015-03-05 | 株式会社日立製作所 | ストレージシステム及びストレージシステム管理方法 |
WO2016194096A1 (ja) * | 2015-06-01 | 2016-12-08 | 株式会社日立製作所 | 計算機システム及び計算機システムの管理方法 |
JPWO2018051467A1 (ja) * | 2016-09-15 | 2018-11-22 | 株式会社日立製作所 | ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5227125B2 (ja) | 2008-09-24 | 2013-07-03 | 株式会社日立製作所 | ストレージシステム |
US20120198063A1 (en) * | 2009-10-09 | 2012-08-02 | Nec Corporation | Virtual server system, autonomous control server thereof, and data processing method and computer program thereof |
KR20110097438A (ko) * | 2010-02-25 | 2011-08-31 | 삼성전자주식회사 | 메모리 시스템, 그리고 그것의 동작 방법 |
JP5130313B2 (ja) * | 2010-04-02 | 2013-01-30 | 株式会社日立製作所 | 管理システム及び計算機システムの管理方法 |
US8707300B2 (en) | 2010-07-26 | 2014-04-22 | Microsoft Corporation | Workload interference estimation and performance optimization |
US8850143B1 (en) * | 2010-12-16 | 2014-09-30 | Emc Corporation | Point in time access in a replication environment with LUN resizing |
US9003149B2 (en) | 2011-05-26 | 2015-04-07 | International Business Machines Corporation | Transparent file system migration to a new physical location |
WO2013051136A1 (ja) * | 2011-10-06 | 2013-04-11 | 株式会社日立製作所 | 仮想サーバ処理制御方法、システムおよび仮想サーバ処理制御管理サーバ |
WO2014115184A1 (en) * | 2013-01-24 | 2014-07-31 | Hitachi, Ltd. | Storage system and control method for storage system |
US9582219B2 (en) | 2013-03-12 | 2017-02-28 | Netapp, Inc. | Technique for rapidly converting between storage representations in a virtualized computing environment |
US20160004444A1 (en) * | 2013-07-10 | 2016-01-07 | Hitachi, Ltd. | Method and apparatus for applying storage functionality to each subsidiary volume |
US10216531B2 (en) | 2014-05-12 | 2019-02-26 | Netapp, Inc. | Techniques for virtual machine shifting |
US9841991B2 (en) * | 2014-05-12 | 2017-12-12 | Netapp, Inc. | Techniques for virtual machine migration |
US10956919B2 (en) * | 2014-12-17 | 2021-03-23 | International Business Machines Corporation | Interactive visual storage capacity forecasting |
US9817592B1 (en) | 2016-04-27 | 2017-11-14 | Netapp, Inc. | Using an intermediate virtual disk format for virtual disk conversion |
US11087042B1 (en) | 2017-06-30 | 2021-08-10 | Wells Fargo Bank, N.A. | Generation of a simulation plan and performance of a simulation based on the plan |
US11093170B2 (en) * | 2019-04-02 | 2021-08-17 | EMC IP Holding Company LLC | Dataset splitting based on workload footprint analysis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6170037B1 (en) * | 1997-09-02 | 2001-01-02 | Emc Corporation | Method and apparatus for storing information among a plurality of disk drives |
US20090228670A1 (en) * | 2008-03-06 | 2009-09-10 | Hitachi, Ltd. | Backup Data Management System and Backup Data Management Method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3641872B2 (ja) * | 1996-04-08 | 2005-04-27 | 株式会社日立製作所 | 記憶装置システム |
JP2003162378A (ja) | 2001-11-26 | 2003-06-06 | Hitachi Ltd | データ複写方法 |
JP4598817B2 (ja) | 2007-12-18 | 2010-12-15 | 株式会社日立製作所 | 計算機システム及びデータ消失回避方法 |
-
2009
- 2009-09-30 JP JP2009225849A patent/JP5124551B2/ja not_active Expired - Fee Related
- 2009-11-24 US US12/625,006 patent/US8402236B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6170037B1 (en) * | 1997-09-02 | 2001-01-02 | Emc Corporation | Method and apparatus for storing information among a plurality of disk drives |
US20090228670A1 (en) * | 2008-03-06 | 2009-09-10 | Hitachi, Ltd. | Backup Data Management System and Backup Data Management Method |
JP2009211664A (ja) * | 2008-03-06 | 2009-09-17 | Hitachi Ltd | バックアップデータ管理システム及びバックアップデータ管理方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045444A (ja) * | 2011-08-19 | 2013-03-04 | Hitachi Ltd | データセンタ内のリソースの使用効率を改善するための方法及び装置 |
JP2014049116A (ja) * | 2012-08-31 | 2014-03-17 | Hitachi Ltd | 仮想ストレージシステムの管理方法およびリモートコピーシステム |
JP2014093072A (ja) * | 2012-10-31 | 2014-05-19 | Samsung Sds Co Ltd | ハイパーバイザベースのサーバ二重化システム、その方法およびサーバ二重化コンピュータプログラムが記録された記録媒体 |
WO2014132440A1 (ja) * | 2013-03-01 | 2014-09-04 | 株式会社日立製作所 | 構成情報取得方法、及び管理計算機 |
US9648104B2 (en) | 2013-03-01 | 2017-05-09 | Hitachi, Ltd. | Configuration information acquisition method and management computer |
WO2015029133A1 (ja) * | 2013-08-27 | 2015-03-05 | 株式会社日立製作所 | ストレージシステム及びストレージシステム管理方法 |
US9075530B2 (en) | 2013-08-27 | 2015-07-07 | Hitachi, Ltd. | Storage system and the storage system management method |
WO2016194096A1 (ja) * | 2015-06-01 | 2016-12-08 | 株式会社日立製作所 | 計算機システム及び計算機システムの管理方法 |
US10514846B2 (en) | 2015-06-01 | 2019-12-24 | Hitachi, Ltd. | Computer system and management method for computer |
JPWO2018051467A1 (ja) * | 2016-09-15 | 2018-11-22 | 株式会社日立製作所 | ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム |
Also Published As
Publication number | Publication date |
---|---|
JP5124551B2 (ja) | 2013-01-23 |
US20110078395A1 (en) | 2011-03-31 |
US8402236B2 (en) | 2013-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5124551B2 (ja) | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 | |
US11886294B2 (en) | Distributed storage system | |
JP6791834B2 (ja) | 記憶システム及び制御ソフトウェア配置方法 | |
JP5158074B2 (ja) | ストレージ管理プログラム、ストレージ管理方法、ストレージ管理装置およびストレージシステム | |
JP5142629B2 (ja) | 仮想ボリュームのバックアップを行うストレージシステム及び方法 | |
JP4890033B2 (ja) | 記憶装置システム及び記憶制御方法 | |
JP5685676B2 (ja) | 計算機システム及びデータ管理方法 | |
US8984221B2 (en) | Method for assigning storage area and computer system using the same | |
US8131969B2 (en) | Updating system configuration information | |
WO2017022002A1 (ja) | ストレージ装置、ストレージシステム、ストレージシステムの制御方法 | |
US6915403B2 (en) | Apparatus and method for logical volume reallocation | |
US20100036896A1 (en) | Computer System and Method of Managing Backup of Data | |
US20050154821A1 (en) | Information processing system and management device | |
US20090292870A1 (en) | Storage apparatus and control method thereof | |
JP5228466B2 (ja) | バックアップ装置、バックアップ方法およびバックアッププログラム | |
WO2014155555A1 (ja) | 管理システム及び管理プログラム | |
JP4748950B2 (ja) | 記憶領域管理方法及びシステム | |
US20120260051A1 (en) | Computer system, management system and data management method | |
US7849264B2 (en) | Storage area management method for a storage system | |
JP2020154587A (ja) | 計算機システム及びデータ管理方法 | |
US7676644B2 (en) | Data processing system, storage apparatus and management console | |
JP7057408B2 (ja) | 記憶システム及びその制御方法 | |
JP7113698B2 (ja) | 情報システム | |
WO2018116392A1 (ja) | 情報処理システム、及び、情報処理方法 | |
JP2023094302A (ja) | 情報処理システム及び構成管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121029 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |