JP5953433B2 - ストレージ管理計算機及びストレージ管理方法 - Google Patents

ストレージ管理計算機及びストレージ管理方法 Download PDF

Info

Publication number
JP5953433B2
JP5953433B2 JP2015522363A JP2015522363A JP5953433B2 JP 5953433 B2 JP5953433 B2 JP 5953433B2 JP 2015522363 A JP2015522363 A JP 2015522363A JP 2015522363 A JP2015522363 A JP 2015522363A JP 5953433 B2 JP5953433 B2 JP 5953433B2
Authority
JP
Japan
Prior art keywords
storage
setting
storage area
logical storage
management computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015522363A
Other languages
English (en)
Other versions
JPWO2014199506A1 (ja
Inventor
金子 聡
聡 金子
幸徳 坂下
幸徳 坂下
司 柴山
司 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP5953433B2 publication Critical patent/JP5953433B2/ja
Publication of JPWO2014199506A1 publication Critical patent/JPWO2014199506A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0712Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a virtual computing platform, e.g. logically partitioned systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0727Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5055Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/32Monitoring with visual or acoustical indication of the functioning of the machine
    • G06F11/324Display of status information
    • G06F11/327Alarm or error message display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、サーバ仮想化環境におけるストレージシステムの管理技術に関する。
物理的なホスト計算機の記憶領域に格納され、ホスト計算機の上で動作させる仮想的なホスト計算機(Virtual Machine:以下「VM」という)を、データストアのI/O(Input/Output)負荷と利用可能なストレージ容量に基づいて移動させることで、データストア間でロードバランシングを実行する技術(非特許文献1)が登場している。
また、特許文献1には、アプリケーションのマイグレーションが必要な場合に、アプリケーションを現在のパフォーマンス状態に準じて実行することが可能なデータセンタを、移動先の候補として選出する技術が開示されている。特許文献1では、サーバ計算機のCPU(Central Processing Unit)及びMemoryの構成情報と、ストレージ装置の論理ボリュームのI/Oレスポンスタイムの性能情報と、を管理することで、当該情報を性能要件として、VMが性能要件を維持可能なVM移動先の構成を選出する。
米国特許出願公開第2009/0144393号明細書 米国特許出願公開第2009/0157768号明細書
http:/www.vmware.com/files/pdf/techpaper/Whats−New−VMware−vSphere−50−Storage−Technical−Whitepaper.pdf
特許文献1では、単一の管理計算機がホスト計算機の計算機リソースの構成情報と、ストレージ装置の論理ボリュームの性能情報とを管理して、VMの性能を維持可能なオブジェクトの移動先を選定している。しかし、リソース割り当ての変更にあたって、論理ボリュームに対して設定されたストレージの機能については考慮していない。
また、ホスト計算機がストレージ装置と独立して管理されている場合、ホスト計算機を管理する計算機は、ストレージ機能の設定情報を有しているとは限らない。たとえば非特許文献1では、ロードバランシングの際、ホスト管理計算機はVMのI/Oレスポンス性能値を用いて、VMデータの移動先とする論理ボリュームを決定する。しかし、たとえば当該VMのデータが格納されている論理ボリュームに特定のストレージ機能が設定されていても、ホスト管理計算機では機能の設定情報が把握できないため、当該VMに関する機能の設定に影響を与えるようなリソース割り当ての変更を指示してしまう可能性があり、またそのことを検知できない。
このように、ストレージ機能の設定を考慮せずにオブジェクトへのリソース割り当ての変更が行われる場合、オブジェクトに関するストレージ機能の設定に影響を与え、システムの信頼性や性能の低下を招いてしまう可能性がある、という課題があった。
上記課題を解決するため、本発明が提供する管理計算機は、ホスト計算機とストレージ装置とに接続され、ストレージ装置により提供される複数の論理記憶領域と、複数の論理記憶領域の中の1つの論理記憶領域に格納されホスト計算機により実行されるオブジェクトとを関連付けて示す構成情報と、複数の論理記憶領域に対して設定されているストレージ機能を示す機能設定情報とをメモリに格納する。ホスト計算機により第1のオブジェクトに対するリソースの割り当てが変更されたことを検知し、構成情報及び機能設定情報を参照して、リソース割り当て変更前に第1のオブジェクトに割り当てられていた第1の論理記憶領域に対するストレージ機能の設定情報を取得し、第1のオブジェクトに関するストレージ機能の提供に、リソース割り当て変更によって影響が生じたか否かを判定し、判定の結果を出力する。
本発明によれば、オブジェクトへのリソース割り当てがホスト計算機によって変更される環境において、システムの信頼性及び性能を向上させることができる。
図1は、第1の実施形態にかかる計算機システムの全体構成図である。 図2は、第1の実施形態にかかるホスト計算機の論理構成を示す図である。 図3は、第1の実施形態にかかるディスクデバイスの構成を示す図である。 図4は、第1の実施形態にかかる管理計算機のMemoryの内部構成を示す図である。 図5は、第1の実施形態にかかるVMイベントテーブルを示す。 図6は、第1の実施形態にかかるストレージポート性能測定値テーブルを示す。 図7は、第1の実施形態にかかるストレージメディアカタログ性能テーブルを示す。 図8は、第1の実施形態にかかるVMデータ構成情報テーブルを示す。 図9は、第1の実施形態にかかるボリューム物理論理記憶領域対応テーブルを示す。 図10は、第1の実施形態にかかるボリューム物理論理記憶領域対応テーブルに示されている状態を示す図である。 図11は、第1の実施形態にかかるボリュームリソース情報テーブルを示す。 図12は、第1の実施形態にかかる外部ストレージ構成情報テーブルを示す。 図13は、第1の実施形態にかかるストレージコピー構成情報テーブルを示す。 図14は、第1の実施形態にかかるイベント影響テーブルを示す。 図15は、第1の実施形態にかかるストレージ設定適用状態テーブルを示す。 図16は、第1の実施形態にかかる設定異常特定プログラムの処理を示すフローチャートである。 図17は、第1の実施形態にかかるGUIの例を示す。 図18は、第1の実施形態にかかるGUIの例を示す。 図19は、第2の実施形態にかかる設定異常対処プログラムの処理を示すフローチャートである。 図20は、第2の実施形態にかかるGUIの例を示す。 図21は、第2の実施形態にかかる不要設定解除プログラムの処理を示すフローチャートである。 図22は、第3の実施形態にかかる設定異常対処プログラムの処理を示すフローチャートである。
以後の説明では「aaaテーブル」等の表現にて実施例の情報を説明するが、これらの情報はテーブル等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」等について「aaa情報」と呼ぶことがある。
さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御デバイス)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。
また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。
なお、各計算機は入出力デバイスを有する。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外のデバイスであってもよい。また、入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを入出力デバイスとし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
以下、第1の実施形態について図面を用いて説明する。
図1は、第1の実施形態における計算機システムの全体構成を示す。本実施形態の計算機システムは、ホスト計算機1000、ストレージ装置3000を有する。ホスト計算機1000とストレージ装置3000とは、データネットワーク1500を介して接続される。更にこの計算機システムは、ホスト管理計算機2000、管理計算機2500を有する。ホスト計算機1000とホスト管理計算機2000と管理計算機2500とストレージ装置3000とは、管理ネットワーク1550を介して接続される。
データネットワーク1500は、例えばSAN(Storage Area Network)であるが、IP(Internet Protocol)ネットワークであっても良いし、これら以外のデータ通信用ネットワークであっても良い。また、管理ネットワーク1550は、例えばIPネットワークであるが、SANなどのデータ通信用ネットワークであっても良い。また、データネットワーク1500と管理ネットワーク1550が同一ネットワークであっても良い。また、ホスト計算機1000、ホスト管理計算機2000、管理計算機2500が同一計算機であっても良い。
ホスト計算機1000は、CPU(Central Processing Unit)1010等の制御デバイス、Memory1100等の記憶デバイス、M−I/F(Management−Interface)1210、C−I/F(Communication−Interface)1200を有する。なお、ホスト計算機1000は、入出力デバイス(キーボード、表示デバイス等)を有しても良い。CPU1010はMemory1100に格納されたプログラムを実行する。以降、CPUと呼称するものはいずれも、それに接続されたMemoryに格納されているプログラムを呼び出して実行するものである。M−I/F1210は、管理ネットワーク1550とのインタフェースであって、ストレージ装置3000、ホスト管理計算機2000、管理計算機2500の夫々との間でデータや制御命令の送受信を行う。C−I/F1200は、データネットワーク1500とのインタフェースであって、ストレージ装置3000との間でデータや制御命令の送受信を行う。
ホスト管理計算機2000は、CPU2010、LCD(Liquid Crystal Display)などの表示装置2050(表示部)、Memory2100、I/F2200を有する。なお、ホスト管理計算機2000は、入力デバイス(キーボード等)を有しても良い。I/F2200は、管理ネットワーク1550とのインタフェースであって、ストレージ装置3000、ホスト計算機1000、管理計算機2500の夫々との間でデータや制御命令の送受信を行う。
Memory2100には、図示しないVM管理プログラムおよびVM管理テーブルが記憶される。VM管理プログラムは、後述するVM1001の構成情報を管理するプログラムであり、I/Fを介して、管理計算機2500と各種情報を送受信する。VM管理テーブルは、VM1001の性能情報及び構成情報を格納する。VM1001の性能情報は例えば、定期的に測定されるResponse Timeや単位時間当たりの記憶領域への書き込みデータ量(MB/Sec)である。また、後述する管理計算機2500のVM/ストレージ情報取得プログラムがI/Fを介して、VM管理テーブルより、各種情報を取得する。
管理計算機2500は、CPU2510、LCDなどの表示装置2550(表示部)、Memory2600、I/F2700を有する。なお、管理計算機2500は、入力デバイス(キーボード等)を有しても良い。I/F2700は、管理ネットワーク1550とのインタフェースであって、ストレージ装置3000、ホスト計算機1000、ホスト管理計算機2000の夫々との間でデータや制御命令の送受信を行う。Memory2600に格納されているプログラムの詳細は後述する。
ストレージ装置3000は、ディスクコントローラ3100とディスクデバイス3500とを有する。ディスクコントローラ3100は、CPU3110、Memory3300、M−I/F3001、ストレージポートであるH−I/F(Host−Interface)3101、D−I/F(Disk−Interface)3050を有する。M−I/F3001は、管理ネットワーク1550とのインタフェースであって、ホスト計算機1000、ホスト管理計算機2000、管理計算機2500の夫々との間でデータや制御命令の送受信を行う。H−I/F3101は、データネットワーク1500とのインタフェースであって、ホスト計算機1000との間で、データや制御命令の送受信を行う。D−I/F3050は、ディスクデバイス3500との間でデータや制御命令の送受信を行う。ディスクデバイス3500は、複数の物理記憶媒体3501を有する。
Memory3300には、図示しないストレージ構成管理プログラム、ストレージ性能管理プログラム、ストレージ設定プログラム、ストレージ構成・性能テーブルが記憶される。
ストレージ構成管理プログラムは、ストレージ装置3000の構成情報を管理するプログラムであり、後述する管理計算機2500のVM/ストレージ情報取得プログラム2610と通信して、各種情報を送受信する。ストレージ性能管理プログラムは、ストレージ装置3000の性能情報を管理するプログラムである。ストレージ装置3000の性能情報は例えば、定期的に測定されるページ毎のIOPS(Input Output Per Second)や記憶領域への書き込みデータ量(MB/Sec)である。また、ストレージ性能管理プログラムは、後述する管理計算機2500のVM/ストレージ情報取得プログラム2610と通信して、各種情報を送受信する。
ストレージ設定プログラムは、ストレージ装置3000の各種設定を実行するプログラムである。本実施形態において、ストレージ装置3000の各種設定は、論理ボリューム3510や物理リソース3521に対して、読み書きされるデータを一時的に格納するキャッシュ領域を確保するための設定や、論理ボリューム3510に対して、読み書き処理を実行するプロセッサを確保するための設定等、ホスト計算機1000へのアクセス性能を向上させるための設定を含む。各プログラムは、管理する情報をストレージ構成・性能テーブルに格納する。
なお、各計算機の台数は、この構成に限定されない。また、本実施形態では、ホスト管理計算機2000がホスト計算機1000を管理する構成としているが、ホスト管理計算機2000がすると記載している処理をホスト計算機1000が実行してもよく、以降の説明においてホスト管理計算機2000をホスト計算機1000と読み替えてもよい。また、データネットワーク1500の中にはFC(Fibre Channel)スイッチ等のスイッチがあってもよく、当該スイッチがホスト計算機1000のC−I/F1200およびストレージ装置3000のD−I/F3050のそれぞれとの間でデータや制御命令の送受信を行ってもよい。
図2は、ホスト計算機1000の論理構成を示す。ホスト計算機1000は、VM1001を論理的に生成してVM1001を実行できるハイパーバイザ(Hypervisor:以下「HV」という)1002を有する。HV1002は一度に複数のVM1001を制御することができる。複数のVM1001の夫々は、あたかもスタンドアローンの物理計算機のようにアプリケーションを実行できる。
なお、ホスト管理計算機2000またはホスト計算機1000は、たとえば非特許文献1に記載されている技術を用いて、VM1001のリソース割り当ての命令を行う。論理ボリュームなどストレージ装置3000のリソースの割り当て変更を、I/O量及び論理ボリュームの容量に基づいて決定し、管理計算機2500またはストレージ装置3000に指示する。あるいは、VM1001の性能情報に基づいて、ホスト計算機1000のリソースの割り当ての変更を、ホスト計算機1000に指示する。ホスト計算機1000のリソース割り当ての変更には、たとえばVM1001に割り当てるCPUの追加や、他のホスト計算機1000へのVM移動が含まれる。
図3は、ストレージ装置3000を用いて作成される論理ボリューム3510の構成を示す模式図である。ストレージ装置3000は、ディスクデバイス3500内の複数の物理記憶媒体3501を用いて論理ボリューム3510を作成する。ストレージ装置3000が、複数の論理ボリューム3510を作成しても良い。複数の論理ボリューム3510は、同一の種類であっても良いし、異なる種類であっても良い。
プール1120は、一つ以上の物理リソース3521又は一つ以上の仮想リソース3522を有する。本実施形態では、複数の物理記憶媒体3501を用いて構築されるRAID(Redundant Array of Independent Disks)上の論理デバイスを、物理リソース3521と定義する。また、一つのストレージ装置3000において、そのストレージ装置3000に接続された別のストレージ装置である外部ストレージ装置(外部接続ストレージシステム)内に作成される論理デバイスを、仮想リソース3522と定義する。プール1120は、或る管理上の観点で、物理リソース3521又は仮想リソース3522をまとめて管理するための論理デバイスのグループである。管理上の観点には、例えばRAIDタイプがある。なお、図3では、プール1120の中に物理リソース3521と仮想リソース3522が混在しているが、物理リソース3521のみを含むプール1120や、仮想リソース3522のみを含むプール1120であってもよい。複数の物理記憶媒体3501は例えば、SATA(Serial Advanced Technology Attachment)やSAS(serial attached SCSI:small computer system interface)等のHDDや、SSD(Solid State Drive)等である。複数の物理リソース3521及び仮想リソース3522に、互いに性能の異なる複数種類のメディアが夫々割り当てられていても良い。また、ストレージ装置3000は、複数のプール1120を有していても良い。
通常論理ボリューム3510Aは、物理記憶媒体3501を用いる物理リソース3521を用いて作成される論理的なボリュームである。外部接続ボリューム3510Bは、記憶領域の実体が外部ストレージ装置に存在し、仮想リソース3522を用いて作成される論理的なボリュームである。Thin Provisioningボリューム3510Cは、動的に容量を拡張可能である論理的なボリュームである。Thin Provisioningは、物理的な記憶領域の一部領域(以下、セグメントと呼ぶ)を論理ボリュームへ割り当て、動的に記憶領域を拡張することを可能にし、記憶領域を有効活用する技術である。物理リソース3521又は仮想リソース3522は、Thin Provisioningボリューム3510Cへ割り当てるためのセグメントを提供する。ホスト計算機1000からのI/Oを受けた時点で、セグメントがプール1120に含まれる物理リソース3521又は仮想リソース3522からThin Provisioningボリューム3510Cへ割り当てられることにより、動的にThin Provisioningボリューム3510Cの容量を拡張することができる。
Dynamic Thin Provisioningボリューム3510Dは、Thin Provisioningボリューム3510Cと同様、動的に容量を拡張可能である論理的なボリュームである。更に、或るセグメントがDynamic Thin Provisioningボリューム3510Dへ割り当てられた後、Dynamic Thin Provisioningボリューム3510Dへのアクセス状況に応じて、そのセグメントは、応答性や信頼性の異なる別のセグメントへ動的に変更されることが可能である。
なお、説明の都合上、図3において、Thin Provisioningボリューム3510CとDynamic Thin Provisioningボリューム3510Dは、物理リソース3521と仮想リソース3522の両方からセグメントを割り当てられているが、いずれか一方のみからセグメントを割り当てられてもよい。
図4は、管理計算機2500のMemory2600に格納される情報の構成を示す。Memory2600には、VM/ストレージ情報取得プログラム2610、VMイベント管理プログラム2640、コピー構成シミュレーションプログラム2650、及び設定異常特定プログラム2670を含むプログラムが記憶されている。更にMemory2600には、VMイベントテーブル2700と、ストレージポートカタログ性能テーブル2710と、ストレージメディアカタログ性能テーブル2730と、VMデータ構成情報テーブル2760と、ボリューム物理論理記憶領域対応テーブル2800と、ボリュームリソース情報テーブル2900と、外部ストレージ構成情報テーブル2950と、ストレージコピー構成情報2960と、イベント影響テーブル2970と、ストレージ設定適用状態テーブル2980を含む情報テーブルが記憶されている。
図5はVMイベントテーブル2700の構成を示す。VMイベントテーブル2700は、ホスト管理計算機2000によって指示される、VM1001に関連するイベント情報を管理するためのテーブルである。また、本テーブルは、対象のイベントを示すイベントID2701と、当該イベントの種別を示すイベント種別2702と、対象のVMを示すVMID2703と、対象のイベントの内容を示すイベント内容2704と、対象のイベントの発生時刻を示す発生時刻2705とを有する。更にこのテーブルは、それに含まれる情報間の対応関係を規定している。イベント種別2702は例えば、VMデータが任意の記憶領域へ移動するイベントを意味するイベント種別としてデータ移動という種別を示す。また、イベント種別2702は例えば、VMが任意のホスト計算機1000へ移動するイベントを意味するイベント種別として、ホスト移動という種別を示す。ホスト移動では、VMデータが格納されている記憶領域は移動前後で変化せず、当該VMが利用するCPUやメモリといった計算機リソースが変化する。
イベント内容2704は例えば、当該イベントに関するVM以外のリソースのリソースID情報を含むイベントの詳細情報を示す。例えば、イベント種別2702がデータ移動の場合は、VM移動元とVM移動先のデータ格納論理ボリュームの識別子を含む形で、論理ボリューム001から論理ボリューム008へ移動、といったイベントの詳細情報がイベント内容2704に格納される。
図6はストレージポートカタログ性能テーブル2710の構成を示す。ストレージポートカタログ性能テーブル2710は、ストレージ装置3000のストレージポートであるH−I/F3101のカタログ性能情報を管理するためのテーブルである。また、本テーブルは、対象のストレージポートを有するストレージ装置3000のストレージID2711と、対象のストレージポートを示すポートID2712と、対象のストレージポートのWriteデータ転送量(MB/s)の増加によりResponse Timeが特に長くなり始める場合のWriteデータ転送量である高負荷判定基準2714とを有する。更にこのテーブルは、それに含まれた情報間の対応関係を規定している。高負荷判定基準2714には例えば、対象のストレージ装置のカタログやマニュアル等に示された値を用いることができる。
図7はストレージメディアカタログ性能テーブル2730の構成を示す。ストレージメディアカタログ性能テーブル2730は、ストレージ装置3000の論理ボリューム3510を構成するリソースのメディアのカタログ性能情報を管理するためのテーブルである。論理ボリューム3510を構成するリソースは、物理リソース3521又は仮想リソース3522である。また、ストレージメディアカタログ性能テーブル2730は、対象のリソースを有するストレージ装置3000を示すストレージID2731と、対象のリソースのリソース種別2732と、対象のリソースのWrite速度(MB/s)であるWrite rate2734とを有する。更にこのテーブルは、それに含まれる情報間の対応関係を規定している。
図8はVMデータ構成情報テーブル2760の構成を示す。VMデータ構成情報テーブル2760は、VM1001と、そのVM1001の実データが格納されている論理ボリューム3510との関連付けを管理するテーブルであり、対象のVM1001を保持するHV1002を示すHVID2761と、対象のVM1001を示すVMID2762と、対象のVM1001のデータを格納する対象のストレージ装置3000を示すストレージID2767と、対象のストレージ装置3000のストレージポートを示すストレージポートID2768と、対象の論理ボリューム3510を示す論理VolID2769と、対象の論理ボリューム3510におけるLBA(Logical Block Addressing)の範囲を示すLBA情報2770と、対象のVMが対象の論理ボリュームへ書き込むデータ量を示す書き込みデータ量2771と、対象のVMの構成情報が最後に更新された時刻を示す最終更新時刻2772とを有する。
更にこのテーブルは、それに含まれる情報間の対応関係を規定している。ここで、VMID2762がnullであるエントリは、HV1002を有するホスト計算機1000に論理ボリューム3510が割り当てられているが、その論理ボリューム3510がいずれのVM1001にも利用されていない状態を示している。また、LBA2770がnullであるエントリは、ホスト計算機1000に論理ボリューム3510が割り当てられているが、その論理ボリューム3510にまだページが割り当てられていない状態を示している。
図9はボリューム物理論理記憶領域対応テーブル2800の構成を示す。ボリューム物理論理記憶領域対応テーブル2800は、ストレージ装置3000が提供する論理ボリューム3510内のLBAと、物理リソース3521又は仮想リソース3522内のLBAとの対応関係を管理するテーブルである。また、本テーブルは、対象のストレージ装置3000を示すストレージID2807と、対象の論理ボリューム3510を示す論理VolID2801と、対象の論理ボリューム3510の対象のページを示すページID2802と、対象のページのLBAの範囲を示すLBA情報2803と、対象のページに用いられているリソースが属するプール1120を示すプールID2804と、対象のページに用いられているリソースを示すリソースID2805と、対象のリソースにおいて対象のページに割り当てられているLBAの範囲を示すLBA情報2806とを有する。書き込みデータ量2771には、ホスト管理計算機2000から取得したVMの記憶領域に対する書き込みデータ量を格納する。
図10は、ボリューム物理論理記憶領域対応テーブル2800で管理される論理ボリューム3510とプール1120の状態を示す模式図である。この例において、プールID2804が「1」で示されるプール1120であるPA内に、リソースID2805が「0」で示される物理リソース3521であるPRAと、リソースID2805が「1」で示される物理リソース3521であるPRBと、リソースID2805が「2」で示される物理リソース3521であるPRCとが作成されている。また、論理VolID2801が「0」で示される論理ボリューム3510であるLVAが作成されている。PRAの1000番地から1999番地までは、LVAの0番地から999番地までに対応している。PRBの0番地から999番地までは、LVAの1000番地から1999番地までに対応している。PRCの0番地から1999番地までが、LVAの2000番地から3999番地までに対応している。また、LVAの4000番地から199999番地までには、何れの物理リソース3521も割り当てられていない。なお、論理ボリューム3510にDynamic Thin Provisioningボリューム3510Dを用いる場合、論理ボリューム3510とプール1120の対応関係が、動的に変更される。
図11はボリュームリソース情報テーブル2900の構成を示す。ボリュームリソース情報テーブル2900は、物理リソース3521及び仮想リソース3522の情報を管理するテーブルである。また、本テーブルは、対象のストレージ装置3000を示すストレージID2901と、対象のリソースが属するプール1120を示すプールID2902と、対象のリソースを示すリソースID2903と、SATAやSSDやFC(Fibre Channel)といった対象のリソースのメディア種別2904と、対象のリソースが物理リソース3521か仮想リソース3522かを示すリソース構成2905とを有する。更にこのテーブルは、それに含まれる情報間の対応関係を規定している。ボリュームリソース情報テーブル2900におけるリソース構成2905は、対象のストレージ装置3000内部のリソースである物理リソース3521を「内部」と示し、対象のストレージ装置3000に接続された外部ストレージ装置内のリソースである仮想リソース3522を「外部」と示す。
図12は、外部ストレージ構成情報テーブル2950の構成を示す。外部ストレージ構成情報テーブル2950は、仮想リソース3522の構成を管理するテーブルである。また、本テーブルは、対象のストレージ装置3000を示すストレージID2951と、対象の仮想リソース3522を示すリソースID2952と、対象のストレージ装置3000において外部接続に利用しているストレージポートであるH−I/F3101を示すポートID2953と、対象の外部ストレージ装置を示す外部ストレージID2954と、対象の仮想リソース3522に対応する対象の外部ストレージ装置内の物理リソース3521を示す外部ストレージリソースID2955と、外部ストレージ装置において外部接続に利用しているポートであるH−I/F3101を示す外部ストレージポートID2956とを有する。更にこのテーブルは、それに含まれる情報間の対応関係を規定している。
図13はストレージコピー構成情報テーブル2960の構成を示す。ストレージコピー構成情報テーブル2960は、ストレージ装置3000のコピー構成を管理するテーブルである。本テーブルは、コピーペアを示すID2961と、対象のコピーペアの正側のストレージ装置を示すP−ストレージID2962と、対象のコピーペアの正側の論理ボリュームを示すPVOLID2962と、対象のコピーペアを構成するプールのうち、正側のストレージ装置内のプールを示すP−PoolID2964と、対象のコピーの種別を示すコピータイプ2965と、対象のコピーペアの副側のストレージ装置を示すS−ストレージID2966と、対象のコピーペアの副側の論理ボリュームを示すSVOLID2967と、対象のコピーペアを構成するプールのうち、副側のストレージ装置内のプールを示すS−PoolID2968と、対象のコピーペアのコピータイプが非同期リモートである場合のリモートコピー回線の帯域を示すコピー回線帯域29600と、対象のコピーペアのコピータイプが非同期リモートである場合の目標復旧ポイント(以下、RPO(Recovery Point Objective)と呼ぶ)を示すRPO2969とを有する。
RPOは、障害や災害が発生した計算機システムを元通りに復旧させるために、障害発生時にどれだけ近い時点のデータ(状態)を用いて業務を再開できるかという目標値を表す。
更に本テーブルは、それに含まれる情報間の対応関係を規定している。P−Pool ID2964は、ボリュームリソース情報テーブル2900のプールID2902に示すプールと同じものであり、コピータイプ2965によって用途が異なる。コピータイプが非同期のリモートコピーの場合は、当該プールはホスト計算機1000からの書き込みデータを一時的に保存するバッファ領域として利用され、コピータイプがSnapshotの場合は、ジャーナルデータ格納領域として利用される。S−Pool ID2968は、ボリュームリソース情報テーブル2900のプールID2902に示すプールと同じものであり、コピータイプ2965によって用途が異なる。コピータイプが非同期のリモートコピーの場合は、当該プールは正側のストレージ装置から転送されてきたホスト計算機1000からの書き込みデータを一時的に保存するバッファ領域として利用される。コピー回線帯域29600は、VM/ストレージ情報取得プログラム2610によって値が更新されるが、当該コピー設定実施時に管理計算機2500へユーザがコピー回線帯域の情報として入力した値を用いても良い。RPO2969は、VM/ストレージ情報取得プログラム2610によって値が更新されるが、VM/ストレージ情報取得プログラム2610が、ストレージの構成情報を取得後に、コピー構成シミュレーションプログラム2650に対して対象のコピーペアの構成情報を指定して、RPOの算出を命令し、その結果の値を用いてもよい。
図14はイベント影響テーブル2970の構成を示す。イベント影響テーブル2970は、VMイベントテーブル2700に格納されたイベントによるホスト計算機1000のVM1001への影響を管理するテーブルである。VM1001への影響とは、例えば、移動前の論理ボリュームに設定されていたストレージ設定と同じ設定がされていない論理ボリュームにデータが移動してしまう、RPOを満たさなくなる、など、イベントの結果、VM1001に対して要求される条件を満たさなくなることを指す。
また、本テーブルは、対象の影響の原因であるイベントを示す関連イベントID2971と、対象のリソースを示す対象リソースID2972と、対象のイベント後の書き込みデータ量を示すイベント後書き込みデータ量2974とを有する。さらにこのテーブルはそれに含まれる情報間の対応関係を規定している。
イベント後書き込みデータ量2974は、イベントによって対象リソースが受けた影響をはかる1つの指標である。イベント後書き込みデータ量2974には、例えばホスト移動やCPU追加などホスト計算機側のイベントであれば、管理計算機2500のVM/ストレージ情報取得プログラム2610が対象イベント後にホスト管理計算機2000のVM管理テーブルから取得した値が格納される。また、データ移動などであれば、管理計算機2500がVMイベント管理テーブル2700のイベント内容2704を参照して算出した値を用いてもよい。算出方法の例は後述する。
図15はストレージ設定適用状態テーブル2980の構成を示す。ストレージ設定適用状態テーブル2980は、ストレージ装置3000の論理ボリューム3510に適用されているストレージ機能の設定情報を管理するテーブルである。また、本テーブルは、対象のストレージ設定の識別子を示すID2981と、対象のストレージ設定が適用されている論理ボリューム3510を有するストレージ装置3000を示す対象ストレージID2982と、対象の論理ボリュームを示す対象論理VolID2983と、対象のストレージ設定の種別を示す設定種別2984と、対象のストレージ設定の目的を満たす条件を示す適用条件2985とを有する。また、設定種別2984には例えば、非同期方式のリモートコピーの設定を示す“非同期リモートコピー”や、同期方式のローカルコピーの設定を示す“同期ローカルコピー”や、対象の論理ボリューム内のデータにWORM(Write Once Read Many)のアクセス権が設定されていることを示す“WORM”や、対象の論理ボリューム内のデータが暗号化されていることを示す“Encryption”や、対象の論理ボリュームにスナップショットを生成するための設定が実施されていることを示す“Snapshot”の値が格納される。また、設定種別2984が非同期リモートコピーの場合は、ストレージコピー構成情報テーブル2960に示される対象の論理ボリュームに設定済みのストレージ構成で、予め定義されたRPO要件を実現すための条件として、適用条件2985に、ホスト計算機1000から対象の論理ボリュームへの書き込みデータ量の値を用いた条件が格納されて良い。本テーブルの情報は、たとえば管理者によって予め設定される。
本実施形態の適用前において、ストレージ機能は、ホスト計算機の管理者からストレージ装置管理者への要請により、またはストレージ装置管理者の判断で、論理ボリュームに設定されている。管理計算機2500の既存技術によってストレージ機能を設定し、管理する。あるいは、ローカルコピー相当の機能については、ホスト管理計算機2000の機能によって実現されていてもよい。
次に、管理計算機2500による処理の詳細について説明する。
まずVM/ストレージ情報取得プログラム2610の処理について説明する。VM/ストレージ情報取得プログラム2610は、ホスト管理計算機2000からVM1001についての構成情報及び性能情報を取得する。また、ストレージ装置3000からストレージ装置3000の構成情報及び性能情報を取得する。VM/ストレージ情報取得プログラム2610は、取得した各ストレージ装置3000の構成情報と各VM1001の構成情報及び性能情報とを対応付けて、VMデータ構成情報テーブル2760に格納する。
さらに、ボリューム物理論理記憶領域対応テーブル2800、ボリュームリソース情報テーブル2900、外部ストレージ構成情報テーブル2950、ストレージコピー構成情報テーブル2960、及びストレージ設定適用状態テーブル2980に、取得したストレージの構成情報等を格納または更新する処理を行う。また、取得したストレージ性能情報を、ストレージポートカタログ性能テーブル2710とストレージメディアカタログ性能テーブル2730に格納する。VM/ストレージ情報取得プログラム2610は、上記処理を定期的に実行してもよいし、ユーザ操作を入力装置によって受け付けたことを契機として実行してもよい。
VMイベント監視プログラム2640は、ホスト管理計算機2000からVM1001のイベント情報を取得し、取得されたイベント情報を、VMイベントテーブル2700と、イベント影響テーブル2970とに格納し、取得したイベント情報をさらに設定異常特定プログラム2670に通知する。VMイベント監視プログラム2640は、ホスト管理計算機2000からVM1001のイベント情報を取得したことを契機に、ホスト管理計算機2000のVM管理テーブルから当該イベントの対象のVM1001の性能情報を取得し、イベント影響テーブル2970のイベント後書き込みデータ量を更新しても良い。
コピー構成シミュレーションプログラム2650は、指定されたコピーペアの構成情報からRPOを算出し、また指定されたコピーペアの部分的な構成情報とRPOから当該RPOを達成するために必要な構成を算出するプログラムである。RPO算出方法は、例えば特許文献2に記載されているように、当該取得したRPO以外のストレージ構成情報とストレージポートカタログ性能テーブル2710の情報と、ストレージメディアカタログ性能テーブル2730と、VMデータ構成情報テーブル2760と、ボリューム物理論理記憶領域対応テーブル2800と、ボリュームリソース情報テーブル2900と、外部ストレージ構成情報テーブル2950とをもとに、当該コピーペアを構成するストレージメディアの性能情報とストレージポートの性能情報とリモートコピー回線帯域の性能情報とバッファ領域の容量情報とVM1001による書き込みデータ量から算出する方法であってもよい。RPOを達成するために必要な構成も、上記文献に記載されたように、RPOからコピー構成を算出する方法で求めてもよい。
次に、設定異常特定プログラム2670の処理について説明する。設定異常特定プログラム2670は、管理計算機2500のVMイベント監視プログラム2640から通知されたイベント情報を取得し、取得したイベント情報に基づいて、当該イベントによるVM1001のストレージ設定への影響を通知する処理を行う。
図16は設定異常特定プログラム2670の処理を示す。
まず、設定異常特定プログラム2670はVMイベント監視プログラム2640から、データ移動を示すイベントを通知されたか否かを判定する(S4000)。S4000の結果がYesである場合、設定異常特定プログラム2670は、VMイベントテーブル2700を参照し、VM移動元およびVM移動先のボリュームの識別情報を取得する(S4005)。
次に、設定異常特定プログラム2670は、取得したボリュームの識別情報に基づいて、当該イベントによる性能変化予測値を算出し、関連イベントID2971と対象リソースID2972とともに、イベント後書き込みデータ量2974としてイベント影響テーブル2970に格納する(S4015)。
まず、ボリューム物理論理記憶領域対応テーブル2800と、ボリュームリソース情報テーブル2900とを参照して、取得した識別情報が示すイベント後のデータ格納ボリュームを構成する、各リソースおよびその種別を特定する。次にストレージメディアカタログ性能テーブル2730のWrite rate2734を参照して、当該ボリュームに期待されるWrite rateを算出する。例えば、ボリュームを構成する各リソースの種別のWrite rate2734に、当該リソースのLBA量が当該ボリューム全体のLBA量に占める割合をかけた値を求め、ボリュームを構成する全リソースについて値を足し合わせることで、当該ボリュームのWrite rateの期待値を算出する。
なおここで、ボリュームリソース情報2900において当該リソースIDのリソース構成2905が「外部」である場合は、外部ストレージ構成情報テーブル2950を参照して、利用する外部ストレージポートID2956を取得する。次にストレージポートカタログ性能テーブル2710を参照して、取得したストレージポートIDの高負荷判定基準2714を取得する。高負荷判定基準と当該リソースのリソース種別のWrite rateとを比較して、値が小さい方を採用し、採用した値に該リソースのLBA量が当該ボリューム全体のLBA量に占める割合をかけた値を、上記のボリュームのWrite rateの期待値算出に用いても良い。
次に、VMデータ構成情報テーブル2760とストレージポートカタログ性能テーブル2710とを参照し、移動後にホスト計算機から当該記憶領域へアクセスする際に利用するポートの高負荷判定基準2714の値を取得する。高負荷判定基準2714と、前述の移動後のボリュームのWrite rateの期待値とを比較して、値が小さい方を当該イベント後の書き込みデータ量としてもよい。ポートとリソースのカタログ性能値を比較するのは、データの書き込み性能が、関係するリソースのうちボトルネックとなる最も性能の低いリソースの性能値に影響されるためである。
あるいは、さらに、イベント前の対象VMの書き込みデータ量を、上記で採用したポートまたはボリュームの性能値と比較し、小さい方をイベント後の書き込みデータ量として格納してもよい。イベント後のボリュームやポートの性能期待値が十分に高い場合は、対象VMの書き込みデータ量をそのまま採用することができるためである。イベント前の対象VMの書き込みデータ量は、S4005で取得したVM移動元のボリュームの識別情報に基づき、VMデータ構成情報テーブル2760を参照して取得する。なお、もしもVM ID2762と対応付けて格納されたVol ID2769が、取得したボリュームの識別情報と異なる場合は、本処理の前にVMデータ構成情報テーブル2760が更新されてしまったためにVM移動前の情報が取得できないと判断して、処理を中断し、表示装置にエラーメッセージを出力するようにしても良い。
S4000でNoである場合も、次にS4015を実施する。この場合は前述の通り、管理計算機2500のVM/ストレージ情報取得プログラム2610が、ホスト管理計算機2000のVM管理テーブルから対象イベント後に書き込みデータ量を取得し、その値をイベント影響テーブル2970に格納する。
次に設定異常特定プログラム2670は、VMイベントテーブル2700とストレージ設定適用状態テーブル2980とを参照し、当該イベント前にVMのデータを格納していた論理ボリュームにストレージ設定が実施されていたか否かを判定する(S4020)。S4020の結果がNoである場合、処理を終了する。
S4020の結果がYesである場合、設定異常特定プログラム2670は、VMイベントテーブル2700とストレージ設定適用状態テーブル2980とを参照し、当該イベント後のVMのデータが格納されている論理ボリュームに同じストレージ設定があるか否かを判定する(S4025)。S4025の結果がNoである場合、設定異常特定プログラム2670は、当該VMに適用されていたストレージ設定が当該イベントにより解除されたことによる当該VMへの影響を通知する(S4035)。S4035にて設定異常特定プログラム2670は、当該通知をホスト管理計算機2000に対して行ってホスト管理計算機2000が表示装置2050に出力させても良いし、管理計算機2500の表示装置2550に出力させても良いし、両方の表示装置に出力するようにしてもよい。当該VMへの影響の通知内容の詳細は後述する。
S4025の結果がYesである場合、設定異常特定プログラム2670は、イベント影響テーブル2970とストレージ設定適用状態テーブル2980とを参照し、当該イベント後の書き込みデータ量が当該ストレージ設定の適用条件を満たすか否かを判定する(S4030)。S4030の結果がYesである場合、設定異常特定プログラム2670は、処理を終了する。
S4030の結果がNoである場合、設定異常特定プログラム2670は、VMデータ構成情報テーブル2760とイベント影響テーブル2970とストレージ設定適用状態テーブル2980とを参照し、当該イベント後に当該ストレージ設定が適用されている他VMを検索する(S4040)。
次に設定異常特定プログラム2670は、当該書き込みデータ量が変化することによる、当該ストレージ設定が適用されているVMへの影響を通知する(S4045)。S4045にて設定異常特定プログラム2670は、当該通知をホスト管理計算機2000に対して実施してホスト管理計算機2000が表示装置2050に表示させても良いし、管理計算機2500の表示装置2550に表示させても良いし、また両方の表示装置に対して実施してもよい。VMへの影響とはたとえば、VMへのリソース割当が変わったため生じた書き込みデータ量の変化によるRPOの増減であり、書き込みデータ量が増加した結果、RPOがどのように時間増加するかという情報である。対象のストレージ設定を示すコピーペアの構成情報とイベント後のVM1001による書き込みデータ量に基づいた論理ボリュームへの書き込みデータ量を指定して、コピー構成シミュレーションプログラム2650に指定されたコピーペアのRPOの算出を命令する。当該VMへの影響の通知内容の詳細は後述する。
なお、ホスト管理計算機2000がリソース割り当ての変更を管理計算機2500に指示する場合は、管理計算機2500は、S4000の代わりに、当該指示を受けたことを契機として、図16の処理を行ってもよい。
図17は、設定異常特定プログラム2670のS4035の通知を出力するグラフィカルユーザインターフェース(GUI)の例である。図17では、VM IDがVM50であるVMのデータ移動のイベントが発生し、VM50のデータが移動前に格納されていた論理ボリュームに暗号化設定が適用されており、データ移動先の論理ボリュームに暗号化設定が適用されていなかった場合の出力例を示す。
図18は、設定異常特定プログラム2670のS4045の通知を出力するグラフィカルユーザインターフェース(GUI)の例である。図18では、VM IDがVM60のVMのCPUの割り当て変更イベントが発生し、VM60の書き込みデータ量が増加し、かつVM60のデータが格納されていた論理ボリュームに非同期リモートコピーが適用されていた場合の出力例を示す。
以上の通り、本実施例が提供する管理計算機によれば、VMのリソース割当がホスト計算機により変更された場合に、VMに関するストレージ機能の提供に上記変更が及ぼす影響について通知することができる。
第2の実施形態について説明する。以下の説明においては、第1の実施形態と異なる構成について特に詳細に説明し、第1の実施形態と同様の構成については詳細な説明を省略する。第1の実施形態では、管理計算機2500の設定異常特定プログラム2670が、ホスト管理計算機からVMのイベントを受信し、当該イベントによるストレージ設定への影響を通知する、と例示した。本実施形態において、管理計算機2500はさらに、図示しない設定異常対処プログラムと不要設定解除プログラムとを備える。設定異常特定プログラム2670が特定したイベント後のストレージ機能の設定状態の情報をもとに、VMに適用されていたストレージ機能の設定(ストレージ設定)が解除された場合、またはストレージ設定の適用条件を満たさなくなった場合に、ストレージ機能の設定を復旧する処理を行う。また、イベントの結果、格納されているVMのデータがなくなってストレージ設定が不要になった論理ボリュームがある場合、当該論理ボリュームから該当のストレージ設定を解除する。
第2実施形態における設定異常特定プログラム2670の処理について説明する。図16に示した第1実施形態の設定異常特定プログラム2670との差異は、S4035とS4045の処理内容である。第1実施形態における設定異常特定プログラム2670のS4035およびS4045では、ストレージ設定がイベントによって解除された、または適用条件を満たさなくなったことによるVMへの影響を表示装置に通知していたのに対し、第2実施形態における設定異常特定プログラム2670のS4035aおよびS4045aでは、取得したイベント情報と、イベントによって解除された、または適用条件を満たさなくなったストレージ設定の情報である性能変化情報を設定異常対処プログラムへ通知する。
次に、設定異常対処プログラムの処理について説明する。設定異常対処プログラムは、管理計算機2500の設定異常特定プログラム2670から通知された内容に基づき、VMに関してストレージ設定が解除された、またはストレージ設定の適用条件を満たさなくなったことへの、対策可否、可の場合の対策方法と対策によるVM1001への影響を通知する処理を行う。
図19は設定異常対処プログラムの処理を示す。まず、設定異常対処プログラムは、イベント情報と、当該イベントによるストレージ設定の解除有無、またはストレージ設定の適用条件に関する性能変化情報を受信する。次に設定異常特定プログラム2670は、当該イベントによりVMに関して適用されていたストレージ設定が解除されたか否かを判定する(S5000)。
S5000の結果がNoである場合、設定異常対処プログラムは、当該イベントによりストレージ設定の適用条件を満たさなくなったか否かを判定する(S5005)。
S5005の結果がNoである場合、設定異常対処プログラムは、このフローを終了する。S5005の結果がYesである場合、設定異常対処プログラムは、VMに関して当該ストレージ機能を再び設定するための設定方法を算出する(S5020)。S5005の結果がYesであった場合のS5020では、設定異常対処プログラムは、イベント情報のイベント後書き込みデータ量とストレージ構成情報とストレージポートカタログ性能テーブル2710の情報とストレージメディアカタログ性能テーブル2730と、VMデータ構成情報テーブル2760とボリューム物理論理記憶領域対応テーブル2800と、ボリュームリソース情報テーブル2900と、外部ストレージ構成情報テーブル2950との情報を指定し、定義されたRPO要件を実現するために必要な構成の算出をコピー構成シミュレーションプログラム2650に命令し、当該構成を設定パラメータとするストレージ機能の設定方法を取得する。
S5000の結果がYesである場合、設定異常対処プログラムは、当該イベント後に当該ストレージ設定が適用されている他のVMが存在するか否かを判定する(S5010)。具体的には、イベント情報とVMデータ構成情報テーブル2760に基づき、データ移動後にデータ移動元の論理ボリュームに他のVMのデータが存在するか否かを判定する。
S5010の結果がYesである場合は、設定異常対処プログラムは、S5020へ進む。S5010の結果がYesであった場合のS5020では、設定異常対処プログラムは、対象のVMに関して定義されたRPO要件を実現するために必要な構成の算出をコピー構成シミュレーションプログラム2650に命令し、当該構成を設定パラメータとする設定方法を取得する(S5020)。
S5010の結果がNoである場合、設定異常対処プログラムは、不要設定解除プログラム2690に通知して不要設定有無と設定解除方法を取得する処理を行う(S5013)。不要設定解除プログラムの処理の詳細は後述する。
S5013の次に、設定異常対処プログラムは、当該ストレージ設定が複数の論理ボリュームにより構成されるものか否かを判断する(S5015)。ストレージ設定が複数の論理ボリュームにより構成されているとは例えば、リモートコピー設定のようにデータコピー用のSVOLが存在する構成や、Thin Provisioningボリューム3510Cのようにプール1120を構成している場合である。ボリューム物理論理記憶領域対応テーブル2800とストレージコピー構成情報テーブル2960とを参照して、対象の論理ボリュームと、他のリソースおよび論理ボリュームとの関連の有無より判定する。
S5015の結果がNoである場合、設定異常対処プログラムは、S5020へ進む。設定異常対処プログラムは、移動先の論理ボリュームに対する、イベントにより解除されたストレージ機能の設定を設定方法として算出する(S5020)。
S5020の次に、設定異常対処プログラムは、S5020で算出した構成を満たすリソースを検索する(S5030)。ストレージポートカタログ性能テーブル2710、ストレージメディアカタログ性能テーブル2730、VMデータ構成情報テーブル2760、ボリューム物理論理記憶領域対応テーブル2800、ボリュームリソース情報テーブル2900、及び外部ストレージ構成情報テーブル2950の情報を参照して検索を実施する。
次に、設定異常対処プログラムはS5030の検索の結果、該当するリソースが見つかったか否かを判定する(S5035)。S5035の結果がYesである場合は、設定異常対処プログラムは、後述のS5040へ進む。S5035の結果がNoである場合は、設定異常対処プログラムは、ストレージ設定が解除された、またはストレージ設定の適用条件を満たさなくなったことへの対策ができない旨を表示装置に対して通知する(S5045)。
S5015の結果がNoである場合、設定異常対処プログラムは、イベント後のVMデータ格納論理ボリュームに適用する対処用ストレージ設定を選定する(S5025)。ボリューム物理論理記憶領域対応テーブル2800およびストレージコピー構成情報テーブル2960に基づいて、データ移動元の論理ボリュームに設定されていたストレージ機能の情報を取得し、データ移動元の論理ボリュームの役割をデータ移動先の論理ボリュームに置き換えるようストレージ設定を選定する。
例えば、データ移動元の論理ボリュームに設定されていたストレージ機能が非同期リモートコピーであり、当該論理ボリュームがコピーペアの正側であった場合は、コピーペアの正側をデータ移動先の論理ボリュームとし、正側のプールと、副側の論理ボリュームと、副側のプールとには、データ移動元の論理ボリュームの設定されていたのと同様の設定を用いる。データ移動先の論理ボリュームに対して新規に正側のプール、副側のプール、副側の論理ボリュームを利用してストレージ設定を実施する場合、正側の論理ボリューム内の全データを副側の論理ボリューム内へコピーする必要があるため、データ量に比例して設定に長時間かかってしまうのに対して、正側の論理ボリューム以外のリソースを再利用する場合は、副側の論理ボリューム内にはバッファ領域内のデータを除いて対象のVMのデータが存在しているために、正側の論理ボリュームのデータを全てコピーする必要がなく、設定時間を短縮することが可能である。
S5025の次に、設定異常対処プログラムは、対処用ストレージ設定の所要時間を算出する(S5040)。管理計算機2500がストレージ設定内容とストレージ設定の所要時間の履歴情報を管理しておき、その平均値を所要時間としてもよいし、管理計算機2500が対象の論理ボリュームの容量やストレージポートの性能をもとに所要時間を算出しても良い。
S5040の次に、設定異常対処プログラムは、VMについて要求されるストレージ機能をイベント後も再度設定可能である旨と、ストレージ設定のVMに対する影響とを通知する(S5050)。当該ストレージ設定のVMに対する影響とは例えば、設定の終了までに、S5040で算出した所要時間がかかる予定であることを示す内容と、ストレージ設定中にVMのリソース割り当て操作を実施した場合、当該時間内に設定が終了しない可能性が高くなることを示す内容と、である。また、S5050において、設定異常対処プログラムは、当該影響を通知する際に、対処用ストレージ設定の実施要否を設定するためのGUIを管理計算機2500またはホスト管理計算機2000の入出力装置に表示し、入力を受け付ける。また、S5013にて不要になったストレージ設定がある旨の通知を取得している場合は、その旨を合わせて表示し、当該ストレージ設定の解除要否の指示の入力を受け付けてもよい。GUIの詳細については後述する。
次に、設定異常対処プログラムは、ストレージ設定の実行要との指示が入力されたか否かを判定する(S5060)。S5060の結果がYesである場合、設定異常対処プログラムは、選択されたストレージ設定を、ストレージ装置3000のストレージ設定プログラム3340に命令し、設定を実施する(S5070)。S5060の結果がNoである場合、つまり、実施不要との指示を受け付けるか、指示が入力されずに一定時間経過した場合は、設定異常対処プログラムは、このフローを終了する。
設定異常対処プログラムの処理によれば、管理計算機2500は、VM1001のリソース割り当て変更によって生じた、VMについて要求されるストレージ設定の解除への迅速な対策が可能である。なお、VM1001のデータが1つの論理ボリュームを占有する環境である場合は、設定異常対処による他のVMデータへの影響を考慮する必要がないため、本処理は特に有効となる。同じ論理ボリュームに他のVMデータが格納されている場合は、既存技術によって、データ移動やデータに対するポリシの変更を検討すればよい。
図20は、第2の実施形態における設定異常対処プログラムのS5050の通知を出力するグラフィカルユーザインターフェース(GUI)の一例である。設定異常対処ウィンドウ5500は、本実施形態を実現する表現形態の一例であり、設定異常対処ウィンドウ5500には、設定維持判断ラジオボタン5510と、不要設定解除判断ラジオボタン5520と、設定実行判断ボタン5530と、がある。
図20では、VM IDがVM100であるVMのデータ移動のイベントが発生し、VM100のデータが移動前に格納されていた論理ボリューム3510にSnapshot設定が適用されており、かつデータ移動先の論理ボリューム3510にSnapshot設定が適用されておらず、かつ移動前に格納されていた論理ボリューム3510上にVM1001のデータが格納されていない場合の出力例を示す。この場合、設定維持判断ラジオボタン5510aが選択されると、データ移動先の論理ボリューム3510にSnapshot設定を実施することを示し、設定維持判断ラジオボタン5510bが選択されるとデータ移動先の論理ボリューム3510にSnapshot設定を実施しないことを示す。また、不要設定解除判断ラジオボタン5520aが選択されると、移動前にVMのデータが格納されていた論理ボリューム3510に適用されているSnapshot機能を解除する設定を実施し、不要設定解除判断ラジオボタン5520bが選択されると、移動前にVMのデータが格納されていた論理ボリューム3510に適用されているSnapshot設定を解除しないことを示す。設定実行判断ボタン5530aが選択されると、設定異常対処プログラムのS5060の結果がYesと判定され、設定実行判断ボタン5530bが選択されると、設定異常対処プログラムのS5060の結果がNoと判定される。そして、設定異常対処ウィンドウ5500内にて選択された項目が、設定異常対処プログラムのS5070で実行されるストレージ設定の内容となる。
なお、管理計算機2500がホスト管理計算機2000よりリソース割り当て変更指示を受けたことを契機として、設定異常特定プログラムによる処理及び図19の処理を行った場合には、データ移動の実行前に、移動先の設定について選択を受け付けることとしてよい。また、設定維持判断に関するGUIと、不要設定解除判断に関するGUIとは、別々の入出力装置に表示させても良い。
次に、不要設定解除プログラムの処理について説明する。不要設定解除プログラムは、管理計算機2500の設定異常対処プログラムの処理の結果に基づいて、VMのデータが論理ボリュームに存在しなくなったことで不要になったストレージ設定の有無を判定し、不要化されたストレージ設定の有無と、当該ストレージ設定の解除方法を通知する処理を行う。
図21は不要設定解除プログラムの処理を示す。まず、維持が不要になったストレージ設定があるか否かを判定する(S6000)。VMイベントテーブル2700と、VMデータ構成情報テーブル2760とストレージ設定適用状態テーブル2980とを参照して、VMのデータが格納されていない、かつストレージ機能が設定されている論理ボリュームを検索する。
S6000の結果がYesである場合、不要設定解除プログラムは、当該ストレージ設定を解除するためのストレージ設定を求め、当該ストレージ設定を通知する(S6100)。求めるストレージ設定は、S6000にて不要と判定されたストレージ設定がコピーペアであれば、当該コピーペアやプールを削除するストレージ設定である。各ストレージ設定の解除のためにどのようなストレージ設定が必要であるかについての情報は、管理計算機2500が予め備えていて良い。S6000の結果がNoである場合、不要設定解除プログラムは、不要になった設定がないことを通知する(S6200)。
なお、VMデータ移動の結果として格納されているVMのデータがなくなった論理ボリュームがある場合、ストレージ設定の有無に関わらず、当該ボリュームを削除して割り当てられたリソースを再利用可能にしてもよい。不要設定解除プログラムの処理により、リソースの有効活用が可能となる。
以下では、第2の実施形態と異なる構成について特に詳細に説明し、第2の実施形態と同様の構成については詳細な説明を省略する。第2の実施形態のS5050−S5070では、管理計算機2500の設定異常対処プログラムが、対処実施の判断を示す入力を受け取り、当該入力内容に基づいて、設定を実施すると例示した。一方、本実施形態において、設定異常対処プログラムのS5050では、VM/ストレージ情報取得プログラム2610が取得したVMの状態と、VMイベント監視プログラム2640が取得したイベントの発生理由に基づいて、ユーザによる指示入力の受け付けを条件とせずに実施するか、受け付けた入力に基づいて処理を実施するかの判断を行う。
第3の実施形態におけるVMイベントテーブル2700は、第1、2の実施形態と比較して、イベントの発生理由を示す発生理由2706(図示せず)を追加で有する。発生理由2706は、例えばホスト計算機1000を保守するためにホスト計算機上のVM1001を別の論理ボリュームへ移動したことを示す「保守」という値、ホスト管理計算機2000がVM1001の応答性能向上のために、ホスト管理計算機2000が管理するデータ移動ルールに基づいてVMのデータ移動を実施したことを示す「負荷分散」という値、ホスト管理計算機2000に対して、ユーザが手動で入力したことを示す「手動」という値などを用いることができる。VMイベント監視プログラム2640は、イベントの発生理由の情報をホスト管理計算機2000などから取得し、VMイベントテーブル2700に格納する。
また、第3の実施形態におけるVMデータ構成情報テーブル2760は、さらに、VMの状態を示すVM状態2773(図示せず)を有する。VM状態2773は、たとえばVMが起動していることを示す「On」という値や、起動していないことを示す「Off」という値や、保守状態であることを示す「保守」という値を用いることができる。第3の実施形態のVM/ストレージ情報取得プログラム2610は、さらにVMの状態を示す情報を取得し、VMデータ構成情報テーブル2760に格納する。
図22は、第3の実施形態の設定異常対処プログラムの処理を示す。以降では、第2の実施形態との差異について説明する。
S5040の次に、設定異常対処プログラムは、対象のVMの状態が保守またはOffであるか否かを判定する(S5080)。S5080では、具体的には、VMデータ構成情報テーブル2760を参照し、対象のVMのVM状態2773を取得し、判定を実施する。S5080の結果がYesである場合、設定異常対処プログラムは、S5050に進む。
S5080の結果がNoである場合、設定異常対処プログラムは、対象のイベントの発生理由が負荷分散か否かを判定する(S5090)。S5090では、具体的には、VMイベントテーブル2700を参照し、対象のイベントの発生理由2706を取得し、判定を実施する。
S5090の結果がYesである場合、設定異常対処プログラムは、S5070に進む。S5090の結果がNoである場合、設定異常対処プログラムは、S5050に進む。
第3の実施形態の設定異常対処プログラムの処理によれば、VM移動の理由が負荷分散であった場合に、ユーザの設定指示の入力を条件とせずに自動でストレージ設定を実施することが可能となる。
なお、上述の実施形態においては、管理計算機2500に格納されている各種プログラムに基づいて、管理計算機2500のCPU2510が設定異常特定プログラム2670及び設定異常対処プログラム等の各種機能を実現しているが、このような実施形態に限定されない。例えば、CPU2510を管理計算機2500とは別体の他の装置に設けて、当該CPU2510と協働して各種機能を実現するようにしてもよい。また、管理計算機2500に格納されている各種プログラムを管理計算機2500とは別体の他の装置に設けて、当該プログラムがCPU2510に呼び出されることにより各種機能を実現するようにしてもよい。
また、例えば、管理計算機2500等の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、管理計算機2500等の処理における各ステップは、異なる処理であっても並列的に実行されてもよい。
また、管理計算機2500等に内蔵されるCPUや、Memory等のハードウェアを、上述した管理計算機2500等の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、そのコンピュータプログラムを記憶させた記憶媒体も提供される。
各実施形態によれば、ホスト管理計算機2000がVMへのリソース割り当ての変更を行う環境において、ストレージ装置3000のデータの信頼性を向上させる機能やデータへのアクセスを制御する機能等を利用可能な計算機システムを実現することができる。また、各実施形態は、管理計算機2500が実施し管理しているためホスト管理計算機2000が管理できないストレージ機能設定がある場合や、ホスト管理計算機2000が、VMのリソース割当を変更する際に、自身の指示によりコピーされたデータについて考慮しない場合に、特に有効に利用される。
1000:ホスト計算機 1001:VM(Virtual Machine) 1002:HV(Hypervisor) 2000:ホスト管理計算機 2500:管理計算機 3000:ストレージ装置 3510:論理ボリューム

Claims (11)

  1. ホスト計算機とストレージ装置とに接続され、
    前記ストレージ装置により提供される複数の論理記憶領域と、前記複数の論理記憶領域の中の1つの論理記憶領域に格納されホスト計算機により実行されるオブジェクトとを関連付けて示す構成情報と、
    前記複数の論理記憶領域に対して設定されているストレージ機能を示す機能設定情報と、
    を格納するメモリと、
    前記メモリに接続され、
    前記ホスト計算機により、第1のオブジェクトに対するリソースの割り当てが変更されたことを検知し、
    前記構成情報及び前記機能設定情報を参照して、前記リソース割り当て変更前に前記第1のオブジェクトに割り当てられていた第1の論理記憶領域に対するストレージ機能の設定情報を取得し、
    前記第1のオブジェクトに関する前記ストレージ機能の提供に、前記リソース割り当て変更によって影響が生じたか否かを判定し、
    前記判定の結果を出力する、CPUと、
    を備えることを特徴とする管理計算機。
  2. 前記第1のオブジェクトは、仮想マシンである、
    請求項1に記載の管理計算機。
  3. 前記リソース割り当て変更は、前記第1のオブジェクトのデータが、前記第1の論理記憶領域から第2の論理記憶領域へ移動されたことを含む
    請求項2に記載の管理計算機。
  4. 前記CPUは、
    検知した前記リソース割り当て変更が、前記第1のオブジェクトのデータの、前記第1の論理記憶領域から前記第2の論理記憶領域への移動であった場合に、
    前記構成情報及び前記機能設定情報を参照することにより、前記第1の論理記憶領域に対して設定されているストレージ機能が、前記第2の論理記憶領域に対して設定されているか否かを判定し、
    前記判定が否定的である場合に、前記判定の結果を出力する
    請求項3に記載の管理計算機。
  5. 前記CPUは、
    前記判定が否定的である場合に、
    前記第2の論理記憶領域に対して、前記ストレージ機能の設定を実施する
    請求項4に記載の管理計算機。
  6. 前記CPUは、
    前記第1のオブジェクトのデータの移動後、前記第1の論理記憶領域に他のオブジェクトが格納されているか否かを判定し、
    他のオブジェクトが格納されていない場合は、前記第1の論理記憶領域に対する前記ストレージ機能の設定を解除するよう制御する
    請求項5に記載の管理計算機。
  7. 前記CPUは、
    前記構成情報を参照して、前記第1のオブジェクトのデータの移動後、前記第1の論理記憶領域に他のオブジェクトが格納されているか否かを判定し、
    他のオブジェクトが格納されておらず、かつ、前記第1の論理記憶領域に対する前記ストレージ機能の設定が第3の論理記憶領域との関連付けによって構成されている場合には、
    前記第2の論理記憶領域に対する前記ストレージ機能の設定に、前記第3の論理記憶領域を用いるよう制御する
    請求項5に記載の管理計算機。
  8. 前記リソース割り当て変更は、前記第1のオブジェクトへ割り当てられたホスト計算機の計算機リソースの変更を含む
    請求項2に記載の管理計算機。
  9. 前記第1の論理記憶領域に対して設定されたストレージ機能は、リモートコピー機能であり、
    前記メモリは、さらに、前記ストレージ装置及び前記ホスト計算機の性能情報を格納し、
    前記CPUは、
    検知した前記リソース割り当て変更が、前記第1のオブジェクトへ割り当てられたホスト計算機の計算機リソースの変更であった場合に、
    前記性能情報に基づき、前記リソース割り当てが変更されたことによる、前記第1の論理記憶領域に関する障害発生時のデータ復旧目標ポイント(Recovery Point Objective)の値の変化を算出し、
    前記値の変化に関する情報を出力する
    請求項8に記載の管理計算機。
  10. 前記ホスト計算機を管理するホスト管理計算機にさらに接続され、
    前記CPUは、
    前記ホスト計算機により、第1のオブジェクトに対するリソースの割り当てが変更されたことを検知する代わりに、前記ホスト管理計算機が前記ホスト計算機に対して前記リソース割り当て変更を指示したことを検知することにより、
    前記構成情報及び前記機能設定情報を参照して、前記リソース割り当て変更前に前記第1のオブジェクトに割り当てられていた第1の論理記憶領域に対するストレージ機能の設定情報を取得し、
    前記第1のオブジェクトに関する前記ストレージ機能の提供に、前記リソース割り当て変更によって影響が生じたか否かを判定し、
    前記判定の結果を出力する
    請求項8に記載の管理計算機。
  11. ホスト計算機とストレージ装置とに接続された管理計算機による管理方法であって、
    前記ホスト計算機により、第1のオブジェクトに対するリソースの割り当てが変更されたことを検知し、
    前記ストレージ装置により提供される複数の論理記憶領域と、前記複数の論理記憶領域の中の1つの論理記憶領域に格納され前記ホスト計算機により実行されるオブジェクトとを関連付けて示す構成情報と、前記複数の論理記憶領域に対して設定されているストレージ機能を示す機能設定情報とを参照して、前記リソース割り当て変更前に前記第1のオブジェクトに割り当てられていた第1の論理記憶領域に対するストレージ機能の設定情報を取得し、
    前記第1のオブジェクトに関する前記ストレージ機能の提供に、前記リソース割り当て変更によって影響が生じたか否かを判定し、
    前記判定の結果を出力する、
    ことを特徴とする管理方法。
JP2015522363A 2013-06-14 2013-06-14 ストレージ管理計算機及びストレージ管理方法 Expired - Fee Related JP5953433B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/066419 WO2014199506A1 (ja) 2013-06-14 2013-06-14 ストレージ管理計算機及びストレージ管理方法

Publications (2)

Publication Number Publication Date
JP5953433B2 true JP5953433B2 (ja) 2016-07-20
JPWO2014199506A1 JPWO2014199506A1 (ja) 2017-02-23

Family

ID=52021836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015522363A Expired - Fee Related JP5953433B2 (ja) 2013-06-14 2013-06-14 ストレージ管理計算機及びストレージ管理方法

Country Status (6)

Country Link
US (1) US9807170B2 (ja)
JP (1) JP5953433B2 (ja)
CN (1) CN104919429B (ja)
DE (1) DE112013006476T5 (ja)
GB (1) GB2524932A (ja)
WO (1) WO2014199506A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626117B2 (en) * 2014-01-09 2017-04-18 Hitachi, Ltd. Computer system and management method for computer system
WO2015140931A1 (ja) * 2014-03-18 2015-09-24 株式会社 東芝 トライアル領域を備えた階層化ストレージシステム、ストレージコントローラ及びプログラム
JP6439299B2 (ja) * 2014-07-09 2018-12-19 株式会社バッファロー 情報処理システム、ネットワークストレージデバイス及びプログラム
US9417976B2 (en) * 2014-08-29 2016-08-16 Vmware, Inc. Preventing migration of a virtual machine from affecting disaster recovery of replica
US10944764B2 (en) * 2015-02-13 2021-03-09 Fisher-Rosemount Systems, Inc. Security event detection through virtual machine introspection
WO2016162916A1 (ja) * 2015-04-06 2016-10-13 株式会社日立製作所 管理計算機およびリソース管理方法
US9926913B2 (en) 2015-05-05 2018-03-27 General Electric Company System and method for remotely resetting a faulted wind turbine
WO2017163322A1 (ja) * 2016-03-23 2017-09-28 株式会社日立製作所 管理計算機、および計算機システムの管理方法
US11240305B2 (en) * 2016-07-28 2022-02-01 At&T Intellectual Property I, L.P. Task allocation among devices in a distributed data storage system
JP6600698B2 (ja) * 2016-08-10 2019-10-30 株式会社日立製作所 計算機システム
US10528279B2 (en) * 2016-09-15 2020-01-07 Hitachi, Ltd. Storage management server, method of controlling storage management server, and computer system
JP6836386B2 (ja) * 2016-12-21 2021-03-03 ファナック株式会社 パスワード不要のユーザ認証装置
US10496531B1 (en) 2017-04-27 2019-12-03 EMC IP Holding Company LLC Optimizing virtual storage groups by determining and optimizing associations between virtual devices and physical devices
CN109144403B (zh) * 2017-06-19 2021-10-01 阿里巴巴集团控股有限公司 一种用于云盘模式切换的方法与设备
WO2019097363A1 (en) * 2017-11-17 2019-05-23 International Business Machines Corporation Policy-based optimization of cloud resources on tiered storage operations
CN109492425B (zh) * 2018-09-30 2021-12-28 南京中铁信息工程有限公司 一种在分布式文件系统上的worm一写多读技术应用方法
JP7141905B2 (ja) * 2018-10-12 2022-09-26 株式会社日立産機システム コントロール装置及びコントロール方法
US11989415B2 (en) * 2022-08-10 2024-05-21 Hewlett Packard Enterprise Development Lp Enabling or disabling data reduction based on measure of data overwrites

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038510A1 (ja) * 2011-09-13 2013-03-21 株式会社日立製作所 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843906B1 (en) * 2004-02-13 2010-11-30 Habanero Holdings, Inc. Storage gateway initiator for fabric-backplane enterprise servers
JP4699808B2 (ja) * 2005-06-02 2011-06-15 株式会社日立製作所 ストレージシステム及び構成変更方法
JP4842593B2 (ja) * 2005-09-05 2011-12-21 株式会社日立製作所 ストレージ仮想化装置のデバイス制御引継ぎ方法
JP5037881B2 (ja) * 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法
JP5042660B2 (ja) * 2007-02-15 2012-10-03 株式会社日立製作所 ストレージシステム
US7801994B2 (en) 2007-11-29 2010-09-21 Hitachi, Ltd. Method and apparatus for locating candidate data centers for application migration
JP4598817B2 (ja) 2007-12-18 2010-12-15 株式会社日立製作所 計算機システム及びデータ消失回避方法
JP5111204B2 (ja) * 2008-03-31 2013-01-09 株式会社日立製作所 ストレージシステム及びストレージシステムの管理方法
JP5107833B2 (ja) * 2008-08-29 2012-12-26 株式会社日立製作所 ストレージシステム及びストレージシステムの制御方法
US8799609B1 (en) * 2009-06-30 2014-08-05 Emc Corporation Error handling
JP2011070345A (ja) * 2009-09-25 2011-04-07 Hitachi Ltd 計算機システム、計算機システムの管理装置、計算機システムの管理方法
US8381217B1 (en) * 2010-04-30 2013-02-19 Netapp, Inc. System and method for preventing resource over-commitment due to remote management in a clustered network storage system
JP5421201B2 (ja) * 2010-07-20 2014-02-19 株式会社日立製作所 計算機システムを管理する管理システム及び管理方法
US8543701B2 (en) * 2011-05-23 2013-09-24 Hitachi, Ltd. Computer system and its control method
WO2014108933A1 (en) * 2013-01-10 2014-07-17 Hitachi, Ltd. Resource management system and resource management method of a computer system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038510A1 (ja) * 2011-09-13 2013-03-21 株式会社日立製作所 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016019645; 坂下 幸徳: '危機管理の視点を考慮したインターネットと運用技術' 情報処理学会論文誌 論文誌ジャーナル Vol.54 No.3 [CD-ROM], 20130315, p.1131〜1140, 一般社団法人情報処理学会 *

Also Published As

Publication number Publication date
JPWO2014199506A1 (ja) 2017-02-23
CN104919429A (zh) 2015-09-16
US20150373119A1 (en) 2015-12-24
GB2524932A (en) 2015-10-07
CN104919429B (zh) 2018-01-09
US9807170B2 (en) 2017-10-31
DE112013006476T5 (de) 2015-11-12
WO2014199506A1 (ja) 2014-12-18
GB201513849D0 (en) 2015-09-16

Similar Documents

Publication Publication Date Title
JP5953433B2 (ja) ストレージ管理計算機及びストレージ管理方法
US9423966B2 (en) Computer system, storage management computer, and storage management method
US8346934B2 (en) Method for executing migration between virtual servers and server system used for the same
US8984221B2 (en) Method for assigning storage area and computer system using the same
JP6151795B2 (ja) 管理計算機および計算機システムの管理方法
US9201779B2 (en) Management system and management method
JP6051228B2 (ja) 計算機システム、ストレージ管理計算機及びストレージ管理方法
US10359938B2 (en) Management computer and computer system management method
WO2011074284A1 (ja) 仮想計算機の移動方法、仮想計算機システム及びプログラムを格納した記憶媒体
US20170235677A1 (en) Computer system and storage device
WO2014174570A1 (ja) ストレージ管理計算機、ストレージ管理方法、およびストレージシステム
US20120272021A1 (en) Management system and control method for computer system
WO2013061376A1 (en) Storage system and data processing method in storage system
US10503440B2 (en) Computer system, and data migration method in computer system
US10210035B2 (en) Computer system and memory dump method
US9130880B2 (en) Management system and information acquisition method
JP2009282922A (ja) 管理サーバ、プール増設方法および計算機システム
US10992751B1 (en) Selective storage of a dataset on a data storage device that is directly attached to a network switch
JP2015043226A (ja) ストレージシステム及びストレージシステムのデータ転送方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5953433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees