JP6602983B2 - ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム - Google Patents

ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム Download PDF

Info

Publication number
JP6602983B2
JP6602983B2 JP2018539457A JP2018539457A JP6602983B2 JP 6602983 B2 JP6602983 B2 JP 6602983B2 JP 2018539457 A JP2018539457 A JP 2018539457A JP 2018539457 A JP2018539457 A JP 2018539457A JP 6602983 B2 JP6602983 B2 JP 6602983B2
Authority
JP
Japan
Prior art keywords
storage
management server
parameter
storage management
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018539457A
Other languages
English (en)
Other versions
JPWO2018051467A1 (ja
Inventor
弘志 那須
智大 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2018051467A1 publication Critical patent/JPWO2018051467A1/ja
Application granted granted Critical
Publication of JP6602983B2 publication Critical patent/JP6602983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • G06F11/1484Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2064Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring while ensuring consistency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45587Isolation or security of virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、サーバとストレージを利用するコンピュータシステムに関する。
サーバとストレージとが接続されたサーバ仮想化環境において、ストレージのボリュームレプリケーション機能を利用したDisaster Recovery(DR)の技術が知られている(例えば、特許文献1)。
また、仮想マシン(Virtual Machine、VM)が利用するストレージとして、論理的なストレージ・コンテナから生成された仮想ボリューム(VVOL)を利用する技術が知られている(例えば、特許文献2)。
米国特許出願公開第2016/0098324号明細書 米国特許第8,775,774号明細書
仮想マシンのDRが可能なシステムにおいて、複数の仮想マシンをクラスタなどのグループで運用することが知られている。
一方、ストレージのDRにおいて、複数のボリュームをグループ化し、そのグループ単位で、グループ内のボリューム間でデータ一貫性を保ってレプリケーション操作を実現する技術がある。
仮想マシンに割り当てるディスク(例えば、仮想ボリューム)と、ストレージのボリュームとを一対一でマッピングするVMのシステムにおいて、仮想マシンのグループ単位でデータの一貫性を保ったDRを実現するには、仮想マシンのグループとストレージのボリュームを対応づけることが必要となる。
しかしながら、上記従来技術では、仮想マシンのDRと、ストレージのDR操作とは、その操作手順やパラメータがそれぞれの仕様によって異なるため、仮想マシンとストレージのボリュームの単純なマッピングだけでは整合性を保ってDR運用を実現することが難しいという問題があった。
本発明は、管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有し、サーバリソースに割り当てるストレージリソースを管理するストレージ管理サーバであって、前記管理情報は、前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、前記プロセッサは、前記サーバリソースに対する操作と前記第1のパラメータとを受け付けて、予め設定した情報に基づいて前記サーバリソースに対する操作を前記ストレージリソースに対する操作に変換し、前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースを特定して前記ストレージリソースに対する操作を指示する。
本発明によれば、仮想マシンのDRとストレージのDRの構成変更を連動させることができるので、仮想マシンのディスクとストレージのボリュームが一対一となる計算機システムにおいて、仮想マシンのグループ単位でデータの一貫性を保ったDR操作を実現できる。
本発明の実施例を示し、計算機システムの一例を示すブロック図である。 本発明の実施例を示し、ホスト、ストレージ管理サーバと、VM管理サーバと、VM DR制御サーバの一例を示すブロック図である。 本発明の実施例を示し、ストレージの構成の一例を示すブロック図である。 本発明の実施例を示し、ホストのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージ管理サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、VM管理サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、VM DR制御サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のリモートストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のリモートストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のボリュームテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のボリュームテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のコンシステンシグループペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のコンシステンシグループペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のボリュームペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のボリュームペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のグループマッピングテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のグループマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のハイパバイザテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のハイパバイザテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVMテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVMテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のハイパバイザペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のハイパバイザペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のストレージ管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のストレージ管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVM−ボリュームマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVM−ボリュームマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバ1のVM管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバのVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VMグループを作成する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンを生成する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンのフェイルオーバを実行する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンの再保護を実行する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンを削除する処理の一例を示すシーケンス図である。
以下、本発明の一実施形態について添付図面を用いて説明する。
図1は、本発明の実施例における計算機システムの構成を示すブロック図である。図1の計算機システムは、仮想マシン(以下、VM)のディザスタリカバリ(以下、DR)を制御するVM DR制御サーバ500と、仮想マシンを稼働させるホスト100A、100Bと、仮想マシンを制御するVM管理サーバ400A、400Bと、仮想マシンにボリュームを提供するストレージ200A、200Bと、ストレージ200A、200Bのボリュームを制御するストレージ管理サーバ300と、管理端末50から構成される。
本実施例では、現用系(またはプライマリサイト)の装置の符号に「〜A」を付与し、待機系(またはセカンダリサイト)の装置の符号に「〜B」を付与する。現用系と待機系の装置に共通の事項については「A」、「B」のない符号を用いて説明する。
ホスト100では、VM123と、複数のVM123を実行させるハイパバイザ122と、が稼働する。なお、VM123はサーバとして機能する。
VM管理サーバ400は、ホスト100で稼働するハイパバイザ122と、VM123と、を管理する計算機である。現用系のVM管理サーバ400Aと待機系のVM管理サーバ400Bは互いに通信して、VM単位または複数のVM123を束ねたVMグループ190の単位でVM DR処理を実行することができる。また、VM管理サーバ400は、ストレージ管理サーバ300へストレージ管理の指示をすることできる。
ストレージ200は、ホスト100のVM122に対して記憶領域として利用するボリューム280を提供する。複数のストレージ200のボリューム間でデータコピーペア構成を構築し、ボリュームまたは複数ボリュームのグループ単位でデータコピーを制御することができる。
ストレージ200によっては、グループ内のボリューム間でデータの一貫性を保ちながら、ボリュームのグループ単位のレプリケーション操作を実行できることができる。このボリュームのグループをConsistency Group(以下、CTG)と呼ぶ。
ストレージ管理サーバ300は、ストレージ200のリソース管理と、他方のストレージ管理サーバ300へのストレージストレージリソースの管理操作と、VM管理サーバ400からのストレージ管理の指示に応じた処理を実行する。
VM DR制御サーバ500は、VM123の管理権限を有するVM管理者が利用する管理端末50の指示による、VM123のグループ単位でフェイルオーバ等のVM DR操作の処理を行う。VM DR制御サーバ500は、VM管理サーバ400に対し、VM DR処理の実行を指示することができる。
ホスト100とストレージ200は、Storage Area Network(SAN)等のネットワーク800で相互に接続される。ホスト100とVM管理サーバ400、ストレージ200とストレージ管理サーバ300、VM管理サーバ400とストレージ管理サーバ300は、Local Area Network(LAN)等のネットワーク700を介して相互に通信可能である。
VM DR制御サーバ500及び管理端末50とVM管理サーバ400間、VM管理サーバ400A、400B間、ホスト100A,100B間、ストレージ200A、200B間、ストレージ管理サーバ300A、300B間は、Wide Area Network(WAN)等のネットワーク600を介して相互に通信可能である。
ホスト100は、ハイパバイザ122と、仮想マシン(Virtual Machine,VM)123と、を含む。VM123は、VMのフェイルオーバ単位となるVMグループ(図中VM Group)190に所属する。
VMグループ190Aは、他の系のホスト100BのVMグループ190Bと、DRのためのペア関係191を有する。VMグループ190AのVM123Aは、ペアとなる他系のVMグループ190BのVM123BとDRのペア構成を構築する。
例えば、図1の現用系のホスト100AのVMグループ1(図中VM Group1)は、待機系のホスト100BのVMグループ3(図中VM Group3)とペア関係191を有する。
また、ホスト100AのVMグループ1(190A)内のVM1とVM2は、それぞれホスト100BのVMグループ3(190B)内のVM4とVM5とペア構成を構築する。VMグループ1からVMグループ3へのフェイルオーバ時に、ホスト100AのVM1とVM2が、それぞれホスト100BのVM4とVM5にフェイルオーバされる。
ストレージ200は、ホスト100の各VM123に接続されるボリューム280を含む。ボリューム280は、ボリュームのフェイルオーバ単位となるCTG290に所属する。CTG290は、別のストレージ200のCTG290とペア関係291を有する。
CTG290のボリューム280は、ペアとなる他系のCTG290のボリューム280とボリュームコピーのペア構成を構築する。例えば、図1の現用系のストレージ1(200A)のCTG1(290A)内のボリュームVOL1とVOL2は、それぞれ待機系のストレージ2(200B)のCTG1(290B)内のVOL4とVOL5とペア構成を構築する。
ストレージ1(200A)のCTG1(290A)からストレージ2(200B)のCTG1(290B)へのフェイルオーバ時は、VOL1とVOL2が、それぞれVOL4とVOL5にフェイルオーバされる。
図1の計算機システムでは、VMグループ190は、ストレージ200のCTG290と対応付けられる。VMグループ190内のVM123は、当該VMグループ190と対応付けられるCTG290内のボリューム280と接続される。例えば、図1では、現用系のVMグループ1(190A)は、CTG1(290A)内のボリューム280A(VOL1、VOL2)と接続される。
VMグループ190Aのフェイルオーバが指示されると、ストレージ管理サーバ300では当該VMグループ190Aに対応するCTG280のペアに対するフェイルオーバが生成されて実行される。例えば、図1の現用系のホスト100AのVMグループ1を待機系のホスト100BのVMグループ3のペアに対するフェイルオーバが指示されると、待機系のVM管理サーバ400Bは、ストレージ管理サーバ300Bに対してボリュームフェイルオーバを生成する。ストレージ管理サーバ300Bは、グループマッピングテーブル323Bを参照してフェイルオーバ先のVMグループIDをCTG IDに変換する。そして、ストレージ管理サーバ300Bは、ストレージ2(200B)のコンシステンシグループペアテーブル224Bから変化したCTG IDのペアとなるリモートCTG IDを取得し、現用系のストレージ管理サーバ300AにリモートCTG IDのペアを分割する指令を送信することで、ボリュームのフェイルオーバを実施する。
本実施例ではグループマッピングテーブル323でVMグループ190のIDとボリュームグループ(CTG)IDの対応関係を設定しておくことで、VMグループIDを容易にボリュームグループ(CTG)IDへ変換することができる。また、コンシステンシグループペアテーブル224には、ストレージ1(200A)とストレージ2(200B)のレプリケーションペアの情報が設定されており、レプリケーションペア間でCTG IDを双方向で変換することができる。
このような、グループマッピングテーブル323によって、VMグループIDとCTG(ボリュームグループ)IDを双方向で変換することができるので、VMグループ190単位でVM間でのデータの一貫性を保ってフェイルオーバ等のDR操作を実施することが可能となる。
図2は、ホスト100と、ストレージ管理サーバ300と、VM管理サーバ400と、VM DR制御サーバ500の構成の一例を示すブロック図である。これらの計算機は、プロセッサであるCPU(Central Processing Unit)110、310、410、510と、主記憶デバイスであるメモリ120、320、420、520と、不揮発性の二次記憶装置130、330、430、530と、入出力装置140、340、440、540と、ポート150、350、450、550を有する。これらの各構成要素は、バス160、360、460、560により相互に接続される。
CPU110、310、410、510は、メモリ120、320、420、520に記憶されているプログラムを実行することによって、各計算機の所定の機能を実現する。メモリ120、320、420、520は、CPU110、310、410、510よって実行されるプログラム及びプログラムの実行に必要なデータを記憶する。プログラムは、二次記憶装置130、330、430、530からメモリ120、320、420、520にロードされる。
入出力装置140、340、440、540は、ディスプレイ、ポインタ又はキーボード等のデバイスの一つ又は複数のデバイスを含む。ユーザは、入出力装置140、340、440、540により、各計算機を操作することができる。
ポート150、350、450、550は、図1のネットワーク600、700、800に接続される。各計算機は、ポート150、350、450、550を介して、他の計算機やストレージ200と通信することができる。
なお、管理端末50も上記図2と同様の計算機で構成することができる。
図3は、ストレージ200の構成の一例を示すブロック図である。ストレージ200は、CPU210と、メモリ220と、記憶装置230と、ポート250と、キャッシュメモリ270を有する。これらの各構成要素は、バス260により相互に接続される。
CPU210は、ストレージ制御のためのプログラムを実行することで、ホスト100からのI/Oの制御と、ストレージ200のボリューム280の管理及び制御を含む所定の機能を実現する。
ポート250は、図1のネットワーク800に接続する。図1のホスト100は、ポート250を介して、ストレージ200と通信することができる。ストレージ200は、ポート250を介して、ホスト100からI/O要求及びライトデータを受信し、また、ホスト100にリードデータを送信する。
図4Aは、ホスト100のメモリ120に格納されたプログラムやデータの一例を示すブロック図である。ホスト100のメモリ120は、Operating System(OS)121と、ハイパバイザ122と、複数の仮想マシン123のプログラム、を保持する。なお、OS121は、各仮想マシン123毎にロードされる。
図4Bは、ストレージ200のメモリ220に格納されたプログラムやデータの一例を示すブロック図である。ストレージ200のメモリ220は、ストレージ制御プログラム229と、アクセスポイントテーブル221と、リモートストレージテーブル222と、ボリュームテーブル223と、コンシステンシグループペアテーブル(レプリケーションのペア情報)224と、ボリュームペアテーブル225、を保持する。
ストレージ制御プログラム229は、ホスト100とボリューム280との間のI/O制御と、ボリューム280と、ボリューム280へ記憶領域を提供するプール(図示省略)等のストレージリソース管理を行う。なお、メモリ320が保持する各テーブルについては後述する。
図4Cは、ストレージ管理サーバ300のメモリ320に格納されたプログラムやデータの一例を示すブロック図である。
ストレージ管理サーバ300のメモリ320は、ストレージ管理プログラム329と、アクセスポイントテーブル321と、ストレージテーブル322と、グループマッピングテーブル323と、を保持する。
ストレージ管理プログラム329は、複数のストレージ200のリソース管理と、VM管理プログラム429からのストレージ操作指示に対応する処理を行う。具体的には、VM DR操作パラメータからストレージ200のボリュームコピー操作パラメータへの変換や、VM DR操作手順をストレージ200でのボリュームコピー操作が可能な手順に変換して実行する処理を行う。メモリ320が保持する各テーブルについては後述する。
図4Dは、VM管理サーバ400のメモリ420に格納されたプログラムやデータの一例を示すブロック図である。
VM管理サーバ400のメモリ420は、VM管理プログラム429と、アクセスポイントテーブル421と、ハイパバイザテーブル422と、VMテーブル423と、ハイパバイザペアテーブル424と、VMグループペアテーブル425と、ストレージ管理サーバテーブル426と、VM‐ボリュームマッピングテーブル427、を保持する。
VM管理プログラム429は、VM管理操作と、ストレージ管理プログラム329へのストレージ操作指示の処理を行う。メモリ420が保持する各テーブルについては後述する。
図4Eは、VM DR制御サーバ500のメモリ520に格納されたプログラムやデータの一例を示すブロック図である。
VM DR制御サーバ500のメモリ520は、VM DR制御プログラム529と、アクセスポイントテーブル521と、VM管理サーバテーブル522と、VMグループペアテーブル523、を保持する。
VM DR制御プログラム529は、VM管理者が利用する管理端末50からのVM DRの操作要求を受け付け、VM管理プログラム429に対し、VM DRの操作要求を転送する処理を行う。メモリ520が保持する各テーブルについては後述する。
図5A〜図5Jは、ストレージ200A、200Bのメモリ220が保持するテーブルの構成の一例を示す図である。
図5A、図5Bは、アクセスポイントテーブル221の一例を示す図である。アクセスポイントテーブル221A、221Bは、ストレージ200のストレージIDを保持するストレージID欄2211と、ストレージ200へのアクセスポイントとなるIPアドレスを保持するIPアドレス欄2212と、を有する。
アクセスポイントテーブル221は、管理者等が使用する管理端末50などから予め設定された情報である。
図5C、図5Dは、リモートストレージテーブル222の一例を示す図である。リモートストレージテーブル222A、222Bは、ボリュームのコピーペア構成を構築可能なストレージのストレージIDを保持するリモートストレージID欄2221と、ボリュームコピーのデータパスのIDを保持するリモートパスID2222と、を有する。
図5E、図5Fは、ボリュームテーブル223の一例を示す図である。ボリュームテーブル223A、223Bは、ストレージ200のボリュームのIDを保持するボリュームID2231と、ボリューム280の容量の値を保持する容量欄2232と、ボリューム280が登録されているCTG290のIDを保持するCTG ID欄2233と、を保持する。本実施例では、ボリュームのIDは、<ストレージID>.<ストレージ内で一意のID>のフォーマットとしている。
ボリュームテーブル223は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。ボリュームテーブル223によって、ボリューム280とCTG290の対応関係が定義される。
図5G、図5Hは、コンシステンシグループペアテーブル224の一例を示す図である。コンシステンシグループペアテーブル224A、224Bは、ストレージ200のCTG290のIDを保持するCTG ID欄2241と、CTG ID欄2241のCTGがプライマリ(データコピー元)かセカンダリ(データコピー先)のいずれであるかを示す情報を保持するPrimary/Secondary欄2242と、CTG ID欄2241のCTGとペアとなるCTGがあるストレージのIDを保持するリモートストレージID欄2243と、CTG ID欄2241のCTGとペアとなるCTGのIDを保持するリモートCTG ID欄2244と、を有する。
Primary/Secondary欄2242には、CTGがプライマリであれば”Primary”、セカンダリであれば”Secondary”の文字列が登録される。
コンシステンシグループペアテーブル224は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。コンシステンシグループペアテーブル224によって、他の系でペアとなるCTG290とストレージ200の対応関係が定義される。
図5I、図5Jは、ボリュームペアテーブル225の一例を示す図である。ボリュームペアテーブル225A、225bは、ストレージ200のボリュームのIDを保持するボリュームID欄2251と、ボリュームID欄2251のボリュームがプライマリボリューム(コピー元ボリューム)かセカンダリボリューム(コピー先ボリューム)かを示す情報を保持するPVOL/SVOL欄2252と、ボリュームID欄2251のボリュームとペアとなるボリュームのIDを保持するリモートボリュームID欄2253と、ペアとなるボリューム間のデータコピー状態を示す情報を保持するペア状態欄2254と、を有する。
PVOL/SVOL欄2252には、ボリュームがプライマリボリュームであれば”PVOL”、セカンダリボリュームであれば”SVOL”の文字列が登録される。また、ペア状態欄2254には、ペアとなるボリューム間でデータコピー中であれば”COPY”、コピー完了状態であれば”SYNC”、コピー停止状態であれば”SUSPEND”の文字列が登録される。
ボリュームペアテーブル225は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。ボリュームペアテーブル225によって、他の系でペアとなるCTG290とストレージ200の対応関係が定義される。
図6A〜図6Fは、ストレージ管理サーバ300A、300Bのメモリ320が保持するテーブルの構成の一例を示す図である。
図6A、図6Bは、アクセスポイントテーブル321の一例を示す図である。アクセスポイントテーブル321A、321Bは、ストレージ管理サーバ300のストレージ管理プログラム329のIDを保持するストレージ管理プログラムID欄3211と、VM管理サーバ400とストレージ管理サーバ300とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する外部IPアドレス欄3212と、ストレージ管理サーバ300とストレージ200とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄3213と、を有する。
アクセスポイントテーブル321は、管理者等が使用する管理端末50などから予め設定された情報である。
図6C、図6Dは、ストレージテーブル322の一例を示す図である。ストレージテーブル322A、322Bは、ストレージ管理プログラム329が管理するストレージのIDを保持するストレージID欄3221と、ストレージID欄3221のストレージ200のIPアドレスを保持するIPアドレス欄3222と、を有する。
ストレージテーブル322は、管理者等が使用する管理端末50などから予め設定された情報である。
図6E、図6Fは、グループマッピングテーブル323の一例を示す図である。グループマッピングテーブル323A、323Bは、ストレージ管理プログラム329が管理するストレージ200と接続するホスト100のハイパバイザのIDを保持するハイパバイザID欄3231と、ハイパバイザID欄3231のハイパバイザ上で稼働するVMのグループのIDを示すVMグループID欄3232と、前記ストレージ200のIDを保持するストレージID欄3233と、VMグループID欄3232のVMグループ190に対応付けられたCTGのIDを保持するCTG ID欄3234と、を保持する。
グループマッピングテーブル323は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。グループマッピングテーブル323によって、ハイパバイザ122上のVMグループ190と、ストレージ200のCTG290の対応関係が定義される。
図7A〜図7Hと図8A〜図8Fは、VM管理サーバ400A、400Bのメモリ420が保持するテーブルの構成例である。
図7A、図7Bは、アクセスポイントテーブル421の一例を示す図である。アクセスポイントテーブル421A、421Bは、VM管理サーバ400のVM管理プログラム429のIDを保持するVM管理プログラムID欄4211と、VM DR制御サーバ500とVM管理サーバ400とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する外部IPアドレス欄4212と、VM管理サーバ400とストレージ管理サーバ300とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄4213と、を有する。
アクセスポイントテーブル421は、管理者等が使用する管理端末50などから予め設定された情報である。
図7C、図7Dは、ハイパバイザテーブル422の一例を示す図である。ハイパバイザテーブル422A、422Bは、VM管理プログラム429が管理するホストのIDを保持するホストID欄4221と、ホストID欄4221のホストで稼働するハイパバイザのIDを保持するハイパバイザIDと、ホストID欄4221のホストのIPアドレスを保持するIPアドレス欄4223と、を有する。
ハイパバイザテーブル422は、管理者等が使用する管理端末50などから予め設定された情報である。
図7E、図7Fは、VMテーブル423の一例を示す図である。VMテーブル423A、423Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4231と、ハイパバイザID欄4231のハイパバイザで稼働するVMのIDを保持するVM ID欄4232と、VM ID欄4232のVMの状態を示す情報を保持する状態欄4233と、VM ID欄4232のVMが登録されているVMグループ190のIDを保持するVMグループID欄4234と、を有する。状態欄4233には、VMが起動していれば”POWER−ON”、停止していれば”POWER−OFF”の文字列が登録される。
VMテーブル423は、管理者等が使用する管理端末50などから予め設定され、また、VM管理サーバ400によって更新される情報である。VMテーブル423を参照することによって、VM123が所属するVMグループ190と、VM123の状態を取得することができる。
図7G、図7Hは、ハイパバイザペアテーブル424の一例を示す図である。ハイパバイザペアテーブル424A、424Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4241と、ハイパバイザID欄4241のハイパバイザとDR運用可能なハイパバイザのIDを保持するリモートハイパバイザID欄4242と、を有する。
ハイパバイザペアテーブル424は、管理者等が使用する管理端末50などから予め設定された情報である。ハイパバイザペアテーブル424によって、他の系でペアを組むハイパバイザ122が定義される。
図8A、図8Bは、VM管理サーバ400のVMグループペアテーブル425の一例を示す図である。
VMグループペアテーブル425A、425Bは、VM管理プログラム429が管理するホスト100で稼働するVM123のグループのIDを保持するVMグループID欄4251と、VMグループID欄4251のVMグループ190がソース(VMデータコピー元)かターゲット(VMデータコピー先、フェイルオーバ先)のいずれかを示す情報を保持するSource/Target欄4252と、VMグループID欄4251のVMグループとペアになるVMグループのVMが稼働するハイパバイザのIDを保持するリモートハイパバイザID欄4253と、VMグループID欄4251のVMグループとペアになるVMグループのIDを保持するリモートVMグループID欄4254と、を有する。
Source/Target欄4252には、VMグループがソースであれば”SOURCE”、ターゲットであれば”Target”の文字列が登録される。
VMグループペアテーブル425は、管理者等が使用する管理端末50などから設定され、また、VM管理サーバ400によって更新される情報である。VMグループペアテーブル425によって、移動元のVMグループ190Aと移動先のVMグループ190Bのペアが定義される。
図8C、図8Dは、ストレージ管理サーバテーブル426の一例を示す図である。ストレージ管理サーバテーブル426A、426Bは、VM管理サーバ400と通信するストレージ管理サーバ300のストレージ管理プログラムのIDを保持するストレージ管理プログラムID欄4261と、前記ストレージ管理サーバ300のIPアドレスを保持するIPアドレス欄4262と、を有する。
ストレージ管理サーバテーブル426は、管理者等が使用する管理端末50などから予め設定される情報である。
図8E、図8Fは、VM−ボリュームマッピングテーブル427の一例を示す図である。VM‐ボリュームマッピングテーブル427A、427Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4271と、ハイパバイザID欄4271のハイパバイザで稼働するVMのIDを保持するVM ID欄4272と、VM ID欄4272のVMが接続するストレージ管理サーバ300のボリュームのIDを保持するボリュームID欄4273と、を有する。
VM−ボリュームマッピングテーブル427は、管理者等が使用する管理端末50などから予め設定される情報である。VM−ボリュームマッピングテーブル427によって、VM123に割り当てられたボリューム280のIDが定義される。
図9A〜図9Cは、VM DR制御サーバ500のメモリ520が保持するテーブルの構成例である。
図9Aは、アクセスポイントテーブル521の一例を示す図である。アクセスポイントテーブル521は、VM管理者が利用する管理端末50からVM DR制御サーバ500へアクセスするためのIPアドレスを保持する外部IPアドレス欄5211と、VM DR制御サーバ500とVM管理サーバ400とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄5212と、を有する。
アクセスポイントテーブル521は、管理者等が使用する管理端末50などから予め設定される情報である。
図9Bは、VM管理サーバテーブル522の一例を示す図である。VM管理サーバテーブル522は、VM DR制御プログラム529が管理するVM管理プログラム429のIDを保持するVM管理プログラムID欄5221と、VM管理プログラムID欄5221のVM管理プログラム429が稼働するVM管理サーバ400のIPアドレスを保持するIPアドレス欄5222と、を有する。
VM管理サーバテーブル522は、管理者等が使用する管理端末50などから予め設定される情報である。
図9Cは、VMグループペアテーブル523の一例を示す図である。VMグループペアテーブル523は、ソースとなるVMグループのIDを管理するSource VMグループID欄5231と、Source VMグループID欄5231のVMグループを管理するVM管理プログラムのIDを保持するSource VM管理プログラムID欄5232と、ターゲットとなるVMグループのIDを管理するTarget VMグループID欄5233と、Target VMグループID欄5231のVMグループを管理するVM管理プログラムのIDを保持するTarget VM管理プログラムID欄5234と、を有する。
VM管理サーバテーブル522は、管理者等が使用する管理端末50などから設定され、また、VM DR制御プログラム529によって更新される情報である。VM管理サーバテーブル522によって、DRを行う際の移動元のVMグループ190Aと、移動先のVMグループ190Bの関係が定義される。
<処理の説明>
図10Aから図13では、本実施例の計算機システムにおけるVM管理操作の処理の一例を示す。
図10Aから図13において、図1に示したVM DR制御サーバ500ではVM DR制御プログラム529が稼働する。図1のVM管理サーバ1(200A)ではVM管理プログラム429が稼働し、図1のVM管理サーバ2(200B)ではVM管理プログラム429が稼働する。図1のストレージ管理サーバ1(300A)ではストレージ管理プログラム329が稼働し、ストレージ管理サーバ2(300B)ではストレージ管理プログラム329が稼働する。
図10Aは、VMグループ190を生成する処理の一例を示すシーケンス図である。まず、ステップS001において、ストレージ管理者が利用する管理端末50は、ストレージ管理サーバ1(300A)のストレージ管理プログラム329へ、VMグループ190の生成を指示する。このとき、ストレージ管理者が利用する管理端末50は、各Source/TargetのハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDを指定する。
次に、ステップS002において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理者の管理端末50から受信した指示内容を解析する。そして、ストレージ管理プログラム329は、各Source/TargetのハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDが入力されていることを確認する。
次に、ステップS003において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS001でストレージ管理者の管理端末50より入力されたストレージID、CTG IDに基づいてストレージ1(200A)のコンシステンシグループペアテーブル224Aを更新する。
次に、ステップS004において、現用系のストレージ管理サーバ300のストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたストレージIDと、CTG IDに基づくコンシステンシグループペアテーブル224Bの更新を指示する。
次に、ステップS005において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS004でストレージ管理プログラム329より指定されたストレージIDと、CTG IDに基づきコンシステンシグループペアテーブル224Bを更新する。
次に、ステップS006において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329へ、コンシステンシグループペアテーブルの更新処理完了通知を送信する。
次に、ステップS007において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、VM管理サーバ400AのVM管理プログラム429へ、ステップS001でストレージ管理者の管理端末50より入力されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Aの更新を指示する。
次に、ステップS008において、現用系のVM管理サーバ400AのVM管理プログラム429は、ステップS007でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づきVMグループペアテーブル425Aを更新する。
次に、ステップS009において、VM管理サーバ400AのVM管理プログラム429は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、VMグループペアテーブルの更新処理完了通知を送信する。
次に、ステップS010において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Bの更新を指示する。
次に、ステップS011において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ステップS010でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Bの更新を指示する。
次に、ステップS012において、VM管理サーバ400BのVM管理プログラム429は、ステップS011でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づきVMグループペアテーブル425Bを更新する。
次に、ステップS013において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理プログラム329へ、VMグループペアテーブル更新処理完了通知を送信する。
次に、ステップS014において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、VMグループペアテーブルの更新処理完了通知を送信する。
次に、ステップS015において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS001でストレージ管理者の管理端末より入力されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づきグループマッピングテーブル323Aを更新する。
次に、ステップS016において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づくグループマッピングテーブル323Bの更新を指示する。
次に、ステップS017において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS016でストレージ管理プログラム329より指定されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づきグループマッピングテーブル323Bを更新する。
次に、ステップS018において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、グループマッピングテーブルの更新完了通知を送信する。
次に、ステップS019において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理者の管理端末50へVMグループの生成完了通知を送信する。
上記の処理によって、現用系のストレージ管理サーバ300Aと待機系のストレージ管理サーバ300Bは、コンシステンシグループペアテーブル224A、224Bを更新し、VM管理サーバ400A、400BがVMグループペアテーブル425A、425Bを更新し、ストレージ管理サーバ300A、300Bがグループマッピングテーブル323A、323Bを更新する。これらの更新の結果、VMグループ190A、190Bが現用系と待機系にそれぞれ生成される。
なお、VM DR制御サーバ500のVMグループペアテーブル523は、VM DR制御プログラム529により、所定のタイミングで更新される。VM DR制御プログラム529が定期的にVM管理サーバ400A、400BのVM管理プログラム429とそれぞれ通信し、VMグループ190の情報を取得してVMグループペアテーブル523を更新してもよい。また、VM DR制御プログラム529が、VMグループペアテーブル523を参照するタイミングでVM管理サーバ400A、400BのVM管理プログラム429とそれぞれ通信し、VMグループ190の情報を取得してVMグループペアテーブル523を更新してもよい。
図10Bは、レプリケーション構成のVM123を生成する処理の一例を示すシーケンス図である。
まず、ステップS101において、VM管理者は、現用系のVM管理サーバ400AのVM管理プログラム429へ、管理端末50を介してレプリケーション構成のVM123の生成を指示する。このとき、VM管理者は管理端末50で、生成対象のVM123のディスク容量と、生成対象のVM123を登録するVMグループIDを指定する。
次に、ステップS102において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50から受信した指示の内容を解析する。VM管理サーバ400AのVM管理プログラム429は、VMグループペアテーブル425AのVMグループID欄4251に指定された情報が含まれること、対応するペア状態欄4252が”SOURCE”、つまり当該VMグループ190がコピー元であることを確認する。
次に、ステップS103において、VM管理サーバ400AのVM管理プログラム492Aは、ストレージ管理プログラム329へ、生成対象VMのディスク用のボリューム生成を指示する。このとき、VM管理サーバ400AのVM管理プログラム429は、ボリューム容量と、VM管理者の管理端末50より指定されたVMグループIDと、を指定する。
上記ステップS103では、VM管理サーバ400AがVMグループ190に対する操作(VMの作成)を、ボリュームグループの操作(ボリュームグループの作成)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作を受け付けて、ボリュームグループのフェイルオーバに変換してもよい。
なお、操作の変換は、予め設定したテーブルやルールに従って変換を行う。本実施例では、上記操作の変換は、VMグループ190に対する作成(追加)やフェイルオーバや移動等の操作を、ボリュームグループ(CTG290)に対する作成(追加)やフェイルオーバや移動等の操作へ変換するものとする。
次に、ステップS104において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、グループマッピングテーブル323AのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。
これにより、ストレージ管理サーバ300Aは、ホスト100AのVMグループ190AのIDに対してCTG(ボリュームグループ)290AのIDを対応付けることが可能となる。
次に、ステップS105において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、指定された容量のボリューム280Aの生成を指示する。当該処理の完了後、ストレージ1(200A)のストレージ制御プログラム229は、ボリュームテーブル223AのボリュームID欄2231と容量(GB)欄2232に当該ボリュームの情報を追加する。
次に、ステップS106において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ステップS105で生成したボリュームを、ステップS104でVMグループIDから変換したCTG IDを有するCTG290Aへ登録する処理を指示する。
当該処理の終了後、ストレージ1(200A)のストレージ制御プログラム229は、ステップS105でボリュームテーブル223へ追加した行のCTG ID欄2233に当該ボリュームを登録するCTG IDを追加する。
次に、ステップS107において、ストレージ管理サーバ300Aのストレージ管理プログラム392Aは、ストレージ1(200A)へ、上記生成したボリューム280AのLUパスの生成を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS105で生成したボリューム280AのボリュームIDと、ホスト100Aが接続されたポート250のポートIDを指定する。
上記LUパスは、例えば、Conglomerate LU Structureで定義されているALU(Administrative Logical Unit)とSLU(Subsidiary Logical Unit)を用いて生成することができる。この場合、予め設定した代表的なボリュームをALUとし、ボリューム280をSLUとしてマッピングすることができる。なお、ボリューム280は仮想ボリュームであってもよい。
次に、ステップS108において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS106でボリューム280Aを登録したCTG290AのCTG IDを、ペアとなる待機系のストレージ2(200B)のCTG290BのCTG IDに変換する。この処理は、ストレージ管理サーバ300Aがストレージ1(200A)のコンシステンシグループペアテーブル224AからリモートストレージID欄2243と、リモートCTG ID2244を取得して、ペアのCTG IDとする。
そして、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ステップS106でボリューム280Aを登録したCTG290AのCTG IDとともに、ペアとなるCTG290BのCTG ID取得要求を送信する。ストレージ1(200A)は、コンシステンシグループペアテーブル224AのCTG ID欄2241と、リモートストレージID欄2243と、リモートCTG ID2244欄の情報より、ストレージ管理プログラム329から受信したCTG IDを有するCTG290BとペアとなるCTG290AのCTG IDを取得し、ストレージ管理プログラム329へ応答する。
次に、ステップS109において、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bで稼働するストレージ管理プログラム329へ、ステップS105で生成したボリューム280Aと同容量のボリューム280Bを生成する処理を指示する。このとき、現用系のストレージ管理プログラム329は、ボリューム容量と、ステップS108でストレージ1(200A)より取得したCTG IDを指定する。
次に、ステップS110において、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、指定された容量のボリューム280Bの生成処理を指示する。当該処理の完了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ボリュームテーブル223BのボリュームID欄2231と容量(GB)欄2232に当該ボリューム280Bの情報を追加する。
次に、ステップS111において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ステップS110で生成したボリューム280Bを、ステップS109で指定されたCTG IDを有するCTG290Bへ登録する処理を指示する。
当該処理の終了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS112でボリュームテーブル223Bへ追加した行のCTG ID欄2233に当該ボリューム280Bを登録するCTG IDを追加する。
次に、ステップS112において、ストレージ管理サーバ300Bのストレージ管理プログラム392Bは、ストレージ2(200B)へ、生成したボリューム280BのLUパスの生成を指示する。このとき、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS105で生成したボリューム280BのボリュームIDと、ホスト100Bが接続されたポート250のポートIDを指定する。なお、LUパスの生成は、現用系と同様であり、上記Conglomerate LU StructureのALUとSLUを用いることができる。
次に、ステップS113において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ステップS112で生成したボリューム280BのボリュームIDと、ボリュームマッピング情報の更新要求を送信する。
VM管理サーバ400BのVM管理プログラム429は、VMテーブル423BのハイパバイザID欄4231にハイパバイザIDと、VM ID欄4232に新規VM IDと、状態欄4233に”POWER−OFF”と、VMグループID欄4234にVMグループIDを追加する。また、VM管理サーバ400BのVM管理プログラム429は、ボリュームマッピングテーブル427BのハイパバイザID欄4271にハイパバイザIDと、VM ID欄4272に新規VM IDと、ボリュームID4273にストレージ管理プログラム329から受信したボリュームID情報を追加する。
次に、ステップS114において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームマッピング情報の更新完了通知を送信する。
次に、ステップS115において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム生成処理の完了通知と、生成したボリューム280BのボリュームIDを送信する。
次に、ステップS116において、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの生成を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS105で生成したボリューム280AのボリュームIDと、ステップS110で生成したボリューム280BのボリュームIDと、を指定する。
ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Aのストレージ管理プログラム239Aが指定したボリュームIDを有するボリューム間でのペア生成処理を実行する。
ペア生成処理の開始後、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームペアテーブル255AのボリュームID欄2251と、PVOL/SVOL欄2252と、リモートボリュームID欄2253と、ペア状態欄2254に情報を追加する。ペア生成処理の開始直後は、ボリュームペアテーブル255Aのペア状態欄2254は”COPY”が追加される。
ペア生成処理が完了し、ペアボリューム間でデータが同期状態となったら、ストレージ1(200A)のストレージ制御プログラム229は、ボリュームペアテーブル225Aのペア状態欄を”SYNC”に変更する。
次に、ステップS117において、ストレージ管理サーバ300Aのストレージ管理プログラム239Aは、VM管理サーバ400AのVM管理プログラム429へ、ボリューム生成処理の完了通知と、生成したボリューム280AのボリュームIDを送信する。
VM管理サーバ400AのVM管理プログラム429は、VMテーブル423AのハイパバイザID欄4231にハイパバイザIDと、VM ID欄4232に新規VM IDと、状態欄4233に”POWER−ON”と、VMグループID欄4234にVMグループIDを追加する。また、VM管理サーバ400AのVM管理プログラム429は、ボリュームマッピングテーブル427AのハイパバイザID欄4271にハイパバイザIDと、VM ID欄4272に新規VM IDと、ボリュームID4273にストレージ管理プログラム329から受信したボリュームID情報を追加する。
次に、ステップS118において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50へVM生成処理の完了通知を送信する。
上記処理によりレプリケーション構成の新たなVM123が生成され、このVM123に新たなボリューム280が割り当てられ、指定されたVMグループ190のペアと、割り当てられたボリューム280のCTG290のペアが現用系と待機系に設定される。
図11は、レプリケーション構成のVM123のフェイルオーバ処理の一例を示すシーケンス図である。このフェイルオーバは、メンテナンスなどのために、管理者が計画的に実行する例を示す。
まず、ステップS201において、VM管理者は、VM DR制御サーバ500のVM DR制御プログラム529へ、管理端末50を介してレプリケーション構成のVM123Aのフェイルオーバを指示する。このとき、VM管理者は、フェイルオーバ対象となるターゲットのVMグループ190AのVMグループIDを指定する。
次に、ステップS202において、VM DR制御プログラム529は、VM管理者の管理端末50から受信した指示の内容を解析する。VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233に指定された情報が含まれることを確認する。また、VM DR制御プログラム529は、前記確認したTarget VMグループID欄5233と同じ行のTarget VM管理プログラムID欄5234より、ターゲット(フェイルオーバ先)となるVM管理サーバ400BのVM管理プログラムIDを取得する。
次に、ステップS203において、VM DR制御プログラム529は、ステップS202で取得したVM管理プログラムIDを有するVM管理サーバ400BのVM管理プログラム429へ、VMグループ190Bへのフェイルオーバを指示する。このとき、VM DR制御プログラム529は、ターゲットのVMグループ190BのVMグループID(例えば、VM Group3:VMGRP3)を指定する。
次に、ステップS204において、VMグループ190Bへのフェイルオーバの指示を受け付けたVM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251と、リモートVMグループID欄4254を参照し、指定されたフェイルオーバ先のVMグループIDを、フェイルオーバ元となる対応するリモートのVMグループIDへ変換する。本実施例の場合、VM管理サーバ400Bは、VMグループ3が指定されているので、「VMGRP3」をリモートVMグループID4254の「VMGRP1」(VM Group1)に変換する。
次に、ステップS205において、VM管理サーバ400BのVM管理プログラム429は、現用系のVM管理サーバ400AのVM管理プログラム429へ、VMグループ190単位でVM123の停止を指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ステップS204で変換したVMグループID(フェイルオーバ元のVM Group1)を指定する。
次に、ステップS206において、現用系のVM管理サーバ400AのVM管理プログラム429は、VMテーブル423のVM ID欄4232と、VMグループID4232を参照し、ステップS205で指定されたVMグループIDを有するVMグループに所属するVM123のVM IDを特定する。そして、VM管理サーバ400AのVM管理プログラム429は、ハイパバイザ122Aへ、特定したVM IDを有するVM(この例では、VM1、VM2)の停止要求を送信する。
ハイパバイザ122Aは、停止要求のあったVM123を停止させ、VM停止処理完了をVM管理サーバ400AのVM管理プログラム429へ応答する。VM管理プログラム429は、VMテーブル423の状態欄4233のうち、停止したVMに関する項目を”POWER−OFF”に変更する。
次に、ステップS207において、VM管理サーバ400AのVM管理プログラム429は、待機系のVM管理サーバ400BのVM管理プログラム429へ、VMグループ190単位のVM123の停止の完了通知を送信する。
次に、ステップS208において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームフェイルオーバを指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ターゲットのVMグループID(本実施例ではVM Group3=「VMGRP3」)を指定する。
上記ステップS208では、VM管理サーバ400AがVMグループ190に対する操作(VMのフェイルオーバ)を、ボリュームグループの操作(ボリュームグループのフェイルオーバ)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(フェイルオーバ)を受け付けて、ボリュームグループの操作(フェイルオーバ)に変換してもよい。なお、操作の変換は、予め設定したテーブルやルールに従って変換を行う。
本実施例では、上記操作の変換は、VMグループ190に対する作成、削除、フェイルオーバや移動等の操作を、ボリュームグループ(CTG290)に対する作成、削除、フェイルオーバや移動等の操作へ変換するものとする。
次に、ステップS209において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、グループマッピングテーブル323BのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。すなわち、ストレージ管理サーバ300Bは。VMグループ190に対する操作のパラメータ「VMGRP3」を、ボリュームグループ(CTG)に対する操作のパラメータ「CTG1」に変換する。
次に、ステップS210において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS209で取得したCTG IDを、ペアとなるストレージ1(200A)のCTG290AのCTG IDに変換する。
ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ステップS209で取得したCTG IDとともに、ペアCTGのCTG ID取得要求を送信する。ストレージ2(200B)は、コンシステンシグループペアテーブル224のCTG ID欄2241と、リモートストレージID欄2243と、リモートCTG ID2244欄の情報より、ストレージ管理プログラム329から受信したCTG IDを有するCTGとペアとなるCTGのCTG IDを取得し、ストレージ管理サーバ300Bのストレージ管理プログラム329へ応答する。本実施例では、ストレージ管理サーバ300Bがストレージ2(200B)のCTG1のペアとして、ストレージ1(200A)のCTG1を取得する。
次に、ステップS211において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリュームペア分割を指示する。このとき、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS210で取得したCTG IDを指定する。
次に、ステップS212において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの分割を指示する。
このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS211でストレージ管理サーバ300Bのストレージ管理プログラム329より受信したCTG IDを指定する。
ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理プログラム239Aが指定したCTG IDを有するCTG単位でのペア分割処理を実行する。
ペア分割処理が完了した後、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームテーブル223AのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリュームのボリュームIDを特定する。そして、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームペアテーブル225AのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のペア状態欄2254の情報を”SUSPEND”に変更する。
次に、ステップS213において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、フェイルオーバ先のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームペアの分割処理の完了通知を送信する。
次に、ステップS214において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ボリュームフェイルオーバ処理の完了通知を送信する。
次に、ステップS215において、VM管理サーバ400BのVM管理プログラム429は、VMテーブル423BのVM ID欄4232と、VMグループID4232を参照し、VM DR制御サーバ500から指定されたVMグループIDを有するVMグループに所属するVM123のVM IDを特定する。
そして、VM管理サーバ400BのVM管理プログラム429は、ハイパバイザ122Bへ、特定したVM IDを有するVM123の起動要求を送信する。ハイパバイザ122Bは、起動要求を受け付けたVM123を起動し、VM起動処理の完了をVM管理プログラム429へ応答する。VM管理サーバ400BのVM管理プログラム429は、VMテーブル423Bの状態欄4233のうち、起動したVM123に関する項目を”POWER−ON”に変更する。
次に、ステップS216において、VM管理サーバ400BのVM管理プログラム429は、VM DR制御プログラム529へ、VMグループ190単位のフェイルオーバ処理の完了通知を送信する。
次に、ステップS217において、VM DR制御プログラム529は、VM管理者の管理端末50へ、VMグループ190のフェイルオーバの完了通知を送信する。
以上の処理により、ホスト100AのVMグループ1がホスト100BのVMグループ3へフェイルオーバし、VMグループ1に対応するストレージ1(200A)のCTG1が、ストレージ2(200B)のCTG1へフェイルオーバすることができる。
これにより、VM123のDRとストレージ200のDRの構成変更を連動させることができるので、VM123のディスクとストレージ200のボリューム280が一対一となる計算機システムにおいて、VM123のグループ(190)単位でデータの一貫性を保ったDR操作を実現できる。
図12は、レプリケーション構成のVM123の再保護処理の一例を示すシーケンス図である。この処理は、図11のフェイルオーバが完了したときなどに実施される。
まず、ステップS301において、VM管理者は、VM DR制御サーバ500のVM DR制御プログラム529へ、管理端末50を介してレプリケーション構成のVM再保護を指示する。このとき、VM管理者の管理端末50は、再保護対象となるターゲットのVMグループ190のVM Group IDを指定する。以下の例では、図11でフェイルオーバが完了したVM Group3を再保護する例を示す。
次に、ステップS302において、VM DR制御サーバ500のVM DR制御プログラム529は、VM管理者の管理端末50から受信した指示内容を解析する。VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233に指定された情報が含まれることを確認する。また、VM DR制御プログラム529は、前記確認したTarget VMグループID欄5233と同じ行のTarget VM管理プログラムID欄5234から、ターゲットとなるVM管理プログラム429のVM管理プログラムIDを取得する。
次に、ステップS203において、VM DR制御プログラム529は、ステップS302で取得したVM管理プログラムIDを有するVM管理プログラム(ここではVM管理サーバ400BのVM管理プログラム429)へ、VMグループ190Bの再保護を指示する。このとき、VM DR制御プログラム529は、ターゲットのVMグループ190のVMグループIDを指定する。本実施例ではVMグループ3を指定した場合を示す。
次に、ステップS304において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリューム再保護を指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ターゲットのVMグループIDを指定する。
上記ステップS304では、VM管理サーバ400BがVMグループ190に対する操作(VMの再保護)を、ボリュームグループの操作(ボリュームグループの再保護)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(再保護)を受け付けて、ボリュームグループの操作(再保護)に変換してもよい。
次に、ステップS305において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、グループマッピングテーブル323BのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。本実施例ではVMグループ3からCTG1が得られる。
次に、ステップS306において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリュームペアスワップを指示する。このとき、ストレージ管理プログラム329は、ステップS305で取得したCTG IDを指定する。
ストレージ2(200B)のストレージ制御プログラム229は、ストレージ1(200A)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Bのストレージ管理プログラム239が指定したCTG IDを有するCTG単位でのボリュームペアスワップ処理を実行する。
ボリュームペアスワップ処理の完了後、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームテーブル223BのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリューム280BのボリュームIDを特定する。
そして、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームペアテーブル225BのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のPVOL/SVOL欄の情報を”PVOL”から”SVOL”へ、または”SVOL”から”PVOL”に、ペア状態欄2254の情報を”SUSPEND”へ変更する。
さらに、ストレージ2(200B)のストレージ制御プログラム299は、コンシステンシグループペアテーブル224BのCTG ID欄2241を参照し、当該欄の情報が指定されたCTG IDと一致する行のPrimary/Secondary欄の情報を”Primary”から”Secondary”へ、または”Secondary”から”Primary”へ変更する。
次に、ステップS307において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリュームペア再同期を指示する。このとき、ストレージ管理プログラム329は、ステップS305で取得したCTG IDを指定する。
ストレージ2(200B)のストレージ制御プログラム229は、ストレージ1(200A)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Bのストレージ管理プログラム239が指定したCTG IDを有するCTG単位でのボリュームペアの再同期処理を実行する。
ボリュームペアの再同期処理完了後、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームテーブル223BのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリューム280BのボリュームIDを特定する。
そして、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームペアテーブル225BのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のペア状態欄2254の情報を”SYNC”へ変更する。
次に、ステップS308おいて、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ボリューム再保護処理の完了通知を送信する。また、VM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251から、指定されたVMグループIDに一致する行のSource/Target欄4252を”SOURCE”に変更する。
次に、ステップS309において、VM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251と、リモートVMグループID欄4254を参照し、指定されたVMグループIDを、対応するリモートのVMグループIDへ変換する。
次に、ステップS310において、VM管理サーバ400BのVM管理プログラム429は、VM管理サーバ400AのVM管理プログラム429へ、ステップS309で取得したVMグループIDと、VMグループペアテーブル更新要求を送信する。
VM管理サーバ400AのVM管理プログラム429は、VMグループペアテーブル425AのVMグループID欄4251から、指定されたVMグループIDに一致する行のSource/Target欄4252を”TARGET”に変更する。
次に、ステップS311において、VM管理サーバ400AのVM管理プログラム429は、VM管理サーバ400BのVM管理プログラム429へ、VMグループペアテーブル更新処理の完了通知を送信する。
次に、ステップS312において、VM管理サーバ400BのVM管理プログラム429は、VM DR制御プログラム529へ、VMグループ190の再保護の完了通知を送信する。
VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233の情報から、再保護を実施したVMグループIDに一致する行を特定する。VM DR制御プログラム529は、特定した行のSource VMグループID欄5231とTarget VMグループID5233、及びSource VM管理プログラムID欄5232とTarget VM管理プログラムID欄5234の情報を相互に入れ替えて更新する。
次に、ステップS313において、VM DR制御プログラム529は、VM管理者の管理端末50へ、VMグループ190の再保護が完了した通知を送信する。
上記処理によって、フェイルオーバを行ったストレージ2(200B)のCTG1(290B)は、ストレージ1(200A)のCTG1とボリュームペアを構成し、冗長性を確保することが可能となる。
図13は、レプリケーション構成のVM123を削除する処理の一例を示すシーケンス図である。
まず、ステップS401において、VM管理者は、VM管理サーバ400AのVM管理プログラム429へ、管理端末50を介してレプリケーション構成のVM123の削除を指示する。このとき、VM管理者の管理端末50は、削除対象VM123のVM IDを指定する。
次に、ステップS402において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50から受信した指示内容を解析する。VM管理サーバ400AのVM管理プログラム429は、VMテーブル423AのVM ID欄4232に指定された情報が含まれることを確認する。
次に、ステップS403において、VM管理サーバ400AのVM管理プログラム429は、VM‐ボリュームマッピングテーブル427Aより、指定されたVM IDに対応するボリュームIDを取得する。
次に、ステップS404において、VM管理サーバ400AのVM管理プログラム429は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム280Aの削除を指示する。このとき、VM管理プログラム429は、ステップS403で取得したボリュームIDを指定する。
上記ステップS404では、VM管理サーバ400AがVMグループ190に対する操作(VMの削除)を、ボリュームグループの操作(ボリュームグループの削除)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(削除)を受け付けて、ボリュームグループの削除に変換してもよい。
次に、ステップS405において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ボリュームペアテーブル225Aと指定されたボリュームIDから、指定されたボリュームIDを有するボリュームとペアとなるボリューム280BのボリュームIDを取得する。
次に、ステップS406において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの削除を指示する。このとき、ストレージ管理プログラム329は、ステップS404で指定されたボリュームIDと、ステップS405で取得したボリュームIDと、を指定する。
ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Aのストレージ管理プログラム239が指定したボリュームIDを有するボリューム間でのペア削除処理を実行する。ペア削除処理の開始後、ストレージ管理サーバ300Aのストレージ制御プログラム299は、ボリュームペアテーブル255Aのペア削除対象となる情報を削除する。
次に、ステップS407において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ペア削除済みボリューム280AのLUパスの削除を指示する。
次に、ステップS408において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリューム280Aの削除を指示する。当該処理の完了後、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ボリュームテーブル223Aの削除対象ボリュームの情報を削除する。
次に、ステップS409において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリューム280Bの削除を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム392は、ステップS405で取得したボリュームIDを指定する。
次に、ステップS410において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ペア削除済みボリューム280BのLUパスの削除を指示する。
次に、ステップS411において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリューム280Bの削除を指示する。当該処理の完了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ボリュームテーブル223Bの削除対象ボリュームの情報を削除する。
次に、ステップS412において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、VMテーブル423B、VM‐ボリュームマッピングテーブル427Bから、削除済みボリューム280B及び当該ボリュームに接続するVM123Bの情報を削除する指示を送信する。VM管理サーバ400BのVM管理プログラム429は、VMテーブル423B、VM‐ボリュームマッピングテーブル427Bから指定されたVM123B及びボリューム280Bの情報を削除する。
次に、ステップS413において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS412で要求があった処理の完了を通知する。
次に、ステップS414において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム削除処理の完了通知を送信する。
次に、ステップS415において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、VM管理サーバ400AのVM管理プログラム429へ、ボリューム削除の完了通知を送信する。VM管理サーバ400AのVM管理プログラム429は、VMテーブル423A、VM‐ボリュームマッピングテーブル427Aから、削除済みボリューム280A及び当該ボリューム280Aに接続するVM123Aの情報を削除する。
次に、ステップS416において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50へVM生成完了通知を送信する。
上記処理によって、現用系のVM123Aを削除する場合、当該VM123Aに接続されているボリューム280Aと、当該ボリューム280Aとペアを構成している待機系のボリューム280Bすることで、ストレージ1(200A)とストレージ2(200B)のリソースを解放することができる。
以上のように、VM管理サーバ400が、VMのリソースに対する操作(フェイルオーバ)を受け付けると、VMのリソース(VMグループ190)に対する操作をストレージのリソース(ボリュームグループ)に対する操作(ボリュームグループのフェイルオーバ)に変換してストレージ管理サーバ300に通知する。
ストレージ管理サーバ300は、グループマッピングテーブル323とコンシステンシグループペアテーブル224によって、VMのリソース操作のパラメータ(VMグループ190のID)を、ストレージ200のリソース操作のパラメータ(CTG ID)に変換することで、ボリュームのフェイルオーバを実現することができる。
これによって、VMグループ190内のボリューム間でデータの一貫性を保ちながら、ボリュームグループ(CTG290)単位のレプリケーション操作を実現することができる。
上記実施例では、VM管理サーバ400が、VMのリソースに対する操作をストレージ200のリソースに対する操作に変換したが、上述のように、ストレージ管理サーバ300が、VMのリソースに対する操作を受け付けてストレージ200のリソースに対する操作に変換することができる。
これにより、ストレージ管理サーバ300が、VM(またはVMグループ190)のリソースに対する操作とパラメータ(例えば、移動元と移動先のVMグループの識別子)を、ストレージ200のリソースに対する操作とパラメータ(例えば、移動元と移動先のボリュームグループの識別子)に変換することが可能となる。この場合、ストレージ管理サーバ300が、VMのリソースに対する操作とパラメータを受け付ければ、ストレージ200のリソースに対する操作とパラメータに変換できるので、VM123(またはVMグループ190)の管理に適合したストレージ管理サーバ300を提供することが可能となる。
上記実施例では、VM管理サーバ400がボリュームグループ(CTG290)のフェイルオーバ(または移動)をストレージ管理サーバ300に指令する例を示したが、VM DR制御サーバ500が、ストレージ管理サーバ300にVMのリソースに対する操作とパラメータを通知して、ストレージ管理サーバ300がボリュームグループのフェイルオーバに変換してもよい。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。

Claims (15)

  1. 管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有し、サーバリソースに割り当てるストレージリソースを管理するストレージ管理サーバであって、
    前記管理情報は、
    前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、
    前記プロセッサは、
    前記サーバリソースに対する操作と前記第1のパラメータとを受け付けて、予め設定した情報に基づいて前記サーバリソースに対する操作を前記ストレージリソースに対する操作に変換し、
    前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースを特定して前記ストレージリソースに対する操作を指示することを特徴とするストレージ管理サーバ。
  2. 請求項1に記載のストレージ管理サーバであって、
    前記第1のパラメータは、仮想マシンのグループの識別子を含み、
    前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
    前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
    前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
    前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とするストレージ管理サーバ。
  3. 請求項2に記載のストレージ管理サーバであって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第1のストレージ管理サーバは、
    前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作として仮想マシンの追加を受け付けると、
    予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
    前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令し、予め設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とするストレージ管理サーバ。
  4. 請求項3に記載のストレージ管理サーバであって、
    前記第2のストレージ管理サーバは、
    前記第1のストレージ管理サーバから前記第2のパラメータと、前記ボリュームの追加指令を受け付けると、
    当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令することを特徴とするストレージ管理サーバ。
  5. 請求項2に記載のストレージ管理サーバであって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第2のストレージ管理サーバは、
    前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付けると、
    前記サーバリソースに対する操作を前記ストレージリソースに対する操作としてボリュームのフェイルオーバに変換し、
    前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを特定し、前記第1のストレージ管理サーバに前記特定した現用系の第2のパラメータと、ペア分割の指令を送信することを特徴とするストレージ管理サーバ。
  6. プロセッサとメモリを有するストレージ管理サーバの制御方法であって、
    前記ストレージ管理サーバが、サーバリソースのグループに割り当てられた第1のパラメータと、ストレージリソースのグループに割り当てられた第2の識別子とを対応付けて、前記サーバリソースの第1のパラメータと前記ストレージリソースの第2のパラメータとを相互に変換するグループマッピング情報を設定する第1のステップと、
    前記ストレージ管理サーバが、前記サーバリソースに対する操作と前記第1のパラメータとを受け付ける第2のステップと、
    前記ストレージ管理サーバが、前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを、前記ストレージリソースの第2のパラメータに変換する第3のステップと、
    前記ストレージ管理サーバが、前記変換された前記第2のパラメータに含まれるストレージリソースを特定して前記操作を指令する第4のステップと、
    を含むことを特徴とするストレージ管理サーバの制御方法。
  7. 請求項6に記載のストレージ管理サーバの制御方法であって、
    前記第1のパラメータは、仮想マシンのグループの識別子を含み、
    前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
    前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
    前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
    前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とするストレージ管理サーバの制御方法。
  8. 請求項7に記載のストレージ管理サーバの制御方法であって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第2のステップは、
    前記第1のストレージ管理サーバが、前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてボリュームの追加を受け付け、
    前記第3のステップは、
    前記第1のストレージ管理サーバが、前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、
    前記第4のステップは、
    前記第1のストレージ管理サーバが、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令し、予め設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とするストレージ管理サーバの制御方法。
  9. 請求項8に記載のストレージ管理サーバの制御方法であって、
    前記第2のストレージ管理サーバが、前記第1のストレージ管理サーバから前記第2のパラメータと、前記ボリュームの追加指令を受け付ける第5のステップと、
    前記第2のストレージ管理サーバが、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令する第6のステップと、
    をさらに含むことを特徴とするストレージ管理サーバの制御方法。
  10. 請求項7に記載のストレージ管理サーバの制御方法であって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第2のステップは、
    前記第2のストレージ管理サーバが、前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付け、
    前記第3のステップは、
    前記第2のストレージ管理サーバが、前記グループマッピング情報に基づいて、前記第1のパラメータを第2のパラメータに変換し、
    前記第4のステップは、
    前記第2のストレージ管理サーバが、予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを特定し、前記第1のストレージ管理サーバに前記特定した現用系の第2のパラメータと、ペア分割の指令とを送信することを特徴とするストレージ管理サーバの制御方法。
  11. 管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有するストレージ管理サーバと、サーバリソースに割り当てるストレージリソースを有するストレージ装置と、を含む計算機システムであって、
    前記ストレージ管理サーバの前記管理情報は、
    前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、
    前記ストレージ管理サーバの前記プロセッサは、
    前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作とを受け付け、
    予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
    前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータに対応する前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースのストレージ装置を特定し、当該ストレージ装置に前記操作を指示することを特徴とする計算機システム。
  12. 請求項11に記載の計算機システムであって、
    前記第1のパラメータは、仮想マシンのグループの識別子を含み、
    前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
    前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
    前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
    前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とする計算機システム。
  13. 請求項12に記載の計算機システムであって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第1のストレージ管理サーバは、
    前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作として仮想マシンの追加を受け付けると、
    予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
    前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースのストレージ装置に前記ボリュームの追加を指令し、前記ストレージ装置に設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とする計算機システム。
  14. 請求項13に記載の計算機システムであって、
    前記第2のストレージ管理サーバは、
    前記第1のストレージ管理サーバから前記第2のパラメータと、ボリュームの追加指令を受け付けると、
    当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースのストレージ装置に前記ボリュームの追加を指令することを特徴とする計算機システム。
  15. 請求項12に記載の計算機システムであって、
    前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
    前記第2のストレージ管理サーバは、
    フェイルオーバ先のサーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付けると、
    前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、第2のパラメータに対応するストレージ装置に予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを取得し、前記第1のストレージ管理サーバに前記取得した現用系の第2のパラメータと、ペア分割の指令を送信することを特徴とする計算機システム。
JP2018539457A 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム Active JP6602983B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077290 WO2018051467A1 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム

Publications (2)

Publication Number Publication Date
JPWO2018051467A1 JPWO2018051467A1 (ja) 2018-11-22
JP6602983B2 true JP6602983B2 (ja) 2019-11-06

Family

ID=61618721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539457A Active JP6602983B2 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム

Country Status (3)

Country Link
US (1) US10528279B2 (ja)
JP (1) JP6602983B2 (ja)
WO (1) WO2018051467A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210120B2 (en) * 2014-06-30 2021-12-28 Vmware, Inc. Location management in a volume action service
US10496431B2 (en) * 2017-07-31 2019-12-03 Red Hat Israel, Ltd. Virtual machine storage operation progress tracking
US10599354B1 (en) * 2018-04-30 2020-03-24 Amazon Technologies, Inc. Block storage with volume locality placement based on performance requirements
WO2024111045A1 (ja) * 2022-11-22 2024-05-30 日本電信電話株式会社 仮想コンピュータ管理システム、同期サーバおよび仮想コンピュータ管理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046435A (ja) * 2002-07-10 2004-02-12 Hitachi Ltd バックアップ方法、その方法に用いた記憶制御装置
JP2006293850A (ja) * 2005-04-13 2006-10-26 Hitachi Ltd リモートコピーシステムおよびリモートコピー方法
US7475280B1 (en) * 2008-02-24 2009-01-06 International Business Machines Corporation Active-active server for high availability of data replication management application
JP5227887B2 (ja) * 2009-05-21 2013-07-03 株式会社日立製作所 バックアップ管理方法
JP5124551B2 (ja) * 2009-09-30 2013-01-23 株式会社日立製作所 ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
US8775774B2 (en) 2011-08-26 2014-07-08 Vmware, Inc. Management system and methods for object storage system
JP5982826B2 (ja) * 2012-01-06 2016-08-31 富士通株式会社 環境構築装置、環境登録装置、環境切替装置、環境構築方法、環境登録方法、環境切替方法、環境構築プログラム、環境登録プログラム、及び環境切替プログラム
WO2014054075A1 (en) * 2012-10-04 2014-04-10 Hitachi, Ltd. System management method, and computer system
CN104919429B (zh) * 2013-06-14 2018-01-09 株式会社日立制作所 存储管理计算机及存储管理方法
US9766992B2 (en) * 2013-10-31 2017-09-19 Sandisk Technologies Llc Storage device failover
JP6394212B2 (ja) * 2014-09-11 2018-09-26 富士通株式会社 情報処理システム、ストレージ装置及びプログラム
US9575858B2 (en) * 2014-10-02 2017-02-21 Vmware, Inc. Dynamic protection of storage resources for disaster recovery
US10628055B2 (en) * 2016-06-21 2020-04-21 Vmware, Inc. Management of storage replication consistency groups using automatic replication group identifiers

Also Published As

Publication number Publication date
US10528279B2 (en) 2020-01-07
JPWO2018051467A1 (ja) 2018-11-22
US20190073150A1 (en) 2019-03-07
WO2018051467A1 (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
US10346042B2 (en) Management of external memory
JP5461216B2 (ja) 論理ボリューム管理の為の方法と装置
JP6602983B2 (ja) ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム
JP4681505B2 (ja) 計算機システム、管理計算機及びプログラム配布方法
JP6734251B2 (ja) システム及びその制御方法並びにプログラム
JP5718533B1 (ja) ストレージシステムのデータ移行方法
JP5944001B2 (ja) ストレージシステム、管理計算機、ストレージ装置及びデータ管理方法
JP7012010B2 (ja) 情報処理システム、及び、情報処理システムの制御方法
EP1569083A2 (en) Storage system, computer system and a method of establishing volume attribute
US9875059B2 (en) Storage system
US20140040212A1 (en) Storage control grid and method of operating thereof
JP2004295465A (ja) 計算機システム
JP6557785B2 (ja) 計算機システム及びストレージ装置の制御方法
US11340820B2 (en) Storage system and data migration method of migrating group of volume and logical resources of the volume
JP5272185B2 (ja) 計算機システム及びストレージシステム
JP6000391B2 (ja) ストレージシステムのデータ移行方法
JP4343056B2 (ja) ストレージ装置割当て方法ならびにそのための管理サーバおよびプログラム
US20200050388A1 (en) Information system
JP7193602B2 (ja) システム及びその制御方法並びにプログラム
JP7350824B2 (ja) データ複製システム及びデータ複製方法
US20240004575A1 (en) Storage system and data management method of storage system
WO2018055751A1 (ja) 計算機システム及び記憶制御方法
JP2024030968A (ja) 情報処理システム及びバックアップ方法
US8527716B2 (en) Volume sharing method and storage system using the same
JP2020013227A (ja) ストレージシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191009

R150 Certificate of patent or registration of utility model

Ref document number: 6602983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350