WO2016098150A1 - ストレージシステム - Google Patents

ストレージシステム Download PDF

Info

Publication number
WO2016098150A1
WO2016098150A1 PCT/JP2014/083080 JP2014083080W WO2016098150A1 WO 2016098150 A1 WO2016098150 A1 WO 2016098150A1 JP 2014083080 W JP2014083080 W JP 2014083080W WO 2016098150 A1 WO2016098150 A1 WO 2016098150A1
Authority
WO
WIPO (PCT)
Prior art keywords
primary
data
volume
copy
update
Prior art date
Application number
PCT/JP2014/083080
Other languages
English (en)
French (fr)
Inventor
憲亮 成田
浩之 森本
井上 浩伸
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/083080 priority Critical patent/WO2016098150A1/ja
Publication of WO2016098150A1 publication Critical patent/WO2016098150A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures

Definitions

  • An object of the present invention is to suppress host I / O performance degradation during initial copy pair re-synchronization in the remote copy function.
  • the disk unit 12 has a plurality of drives 121 mounted thereon.
  • Each drive 121 mainly stores write data from the host 2.
  • a magnetic disk such as an HDD is used for the drive 121, but a storage medium other than the HDD such as an SSD (Solid State Drive) may be used.
  • SSD Solid State Drive
  • the difference management table 200 is a table having columns of an address 201 and a difference bit 202.
  • the difference management table 200 is a table stored in the SM 143 and is provided for each volume pair.
  • the address 201 is a column in which an address (for example, LBA) on the storage space of the P-VOL is stored. Also, 0 or 1 is stored in the difference bit 202.
  • the value of the difference bit 202 of all rows is “0”.
  • the storage apparatus 10 indicates that the address 201 of the difference management table 200 is “n”.
  • the value of the row difference bit 202 is set to “1”. Thereby, the storage apparatus 10 can specify the P-VOL area that has been changed (the content does not match the S-VOL) while the volume pair is in the Suspend state.
  • the host 2 In the host response priority copy, the host 2 is informed that the write process has been completed without performing the copy process to the S-VOL. As a result, the response time to the host 2 is shorter than in the normal copy. Therefore, it is desirable to use the host response priority copy when it is desired to suppress an increase in response time.
  • each primary storage apparatus 10a and each secondary storage apparatus 10b The configuration of each primary storage apparatus 10a and each secondary storage apparatus 10b is the same as that of the storage apparatus 10 according to the first embodiment.
  • Each primary storage apparatus 10a and each secondary storage apparatus 10b have the remote copy function described in the first embodiment.
  • Various methods can be selected as the connection method between the storage apparatus 10, the plurality of hosts 2, and the plurality of primary storage apparatuses 10a.
  • the host 2-n (where n is 1 is an integer satisfying 1 ⁇ n ⁇ N) is connected to the storage apparatus 10a-n and the transmission line 6-n.
  • all the hosts 2 (2-1 to 2-N) and all the primary storage apparatuses 10a (10a-1 to 10a-N) are connected to a SAN which is a common single network.
  • a configuration may be employed.
  • the copy mode of the plurality of storage devices is controlled based on the set priority.
  • copy mode of the volume used by a host with lower priority is changed to a copy mode that does not use the bandwidth of the communication path. Can be changed.
  • the copy processing priority of the volume pair used by the host 2 having a high priority can be increased.

Abstract

 本発明の一実施形態に係るストレージシステムは、正ストレージ装置、副ストレージ装置間でボリュームのミラーリングを行う。ストレージシステムは、形成コピー中にホストから正ボリュームに対して更新要求を受信すると、正ボリュームの更新のみを行って、更新の行われたボリューム上領域の情報を差分情報として記憶しておく第1の処理タイプ、そして更新要求が形成コピーによるコピー済み領域に対するものの場合に副ボリュームを更新してから正ボリュームの更新を行い、形成コピーによるコピーが済んでいない領域に対するものの場合に第1の処理タイプと同様の処理を行う第2の処理タイプのいずれを選択可能に構成されている。形成コピー中にホストから正ボリュームに対する更新要求を受信した時、正ストレージ装置は、正ボリュームと副ボリューム間の差分データ量の変化率に基づいて、第1の処理タイプあるいは第2の処理タイプのいずれかを選択し、選択された処理タイプにより、更新データのコピー処理を行う。

Description

ストレージシステム
 本発明は、ストレージ装置間のボリュームコピー技術に関する。
 高可用性を要求されるシステムでは、正ストレージ装置と副ストレージ装置を設け、ホストからのライトデータを、正ストレージ装置のボリューム(正ボリューム)と副ストレージ装置の副ボリュームの両方に格納する(二重書きする)という、いわゆるリモートコピー技術が用いられることがある。リモートコピー技術によれば、副ボリュームには常時、正ボリュームの複製(ミラーコピー)が格納されている。そのため、正ストレージ装置に障害が発生した場合、あるいは正ストレージ装置の設置されているサイト全体が障害で停止した場合にも、副ストレージ装置の設置されているサイトで業務継続が可能になる。
 たとえば特許文献1に、リモートコピー技術による、データコピー処理の詳細が開示されている。リモートコピーでは、コピーペアの初期形成・再同期の際、正ボリュームと副ボリューム間のデータ不一致個所を、正ボリュームの先頭から順次副ボリュームにコピーする(以下、このコピー処理を形成コピーと呼ぶ)。
 またこの処理中に、ホストから正ボリュームへの更新要求を受け付けることも可能である。この場合、次の処理が行われる。
a)           形成コピーによるコピー済み領域にホストから更新要求があった場合、副ボリュームを更新してから正ボリュームの更新を行う。
b)           形成コピーによるコピーが済んでいない領域に更新があった場合には、正ボリュームのみ更新を実施する。この正ボリュームに書き込まれた更新データは、後で形成コピーによって副ボリュームに反映される。
米国特許出願公開第2006/0236048号明細書
 リモートコピー技術では、上で述べたような手順で、形成コピーを行うため、以下の問題がある。まず、形成コピーと、ホストからの更新データの転送とが同時に起こるため、正ストレージ装置と副ストレージ装置間の通信路のトラフィックが増大する。そのためコピー性能が低下する。またホストから正ボリュームにデータライトを行った場合、正ボリュームから副ボリュームへのデータ転送が発生するが、形成コピーも同時に行われているため、応答時間が通常よりも長くなる。
 本発明の目的は、リモートコピー機能におけるコピーペアの初期形成・再同期中のホストI/O性能劣化を抑止することにある。
 上記課題を解決するために、本発明の一実施形態に係るストレージシステムは、正ストレージ装置、副ストレージ装置間でボリュームのミラーリングを行う。ストレージシステムは、形成コピー中にホストから正ボリュームに対して受信した更新データについて、以下の第1の処理タイプ、第2の処理タイプのいずれか一方により、副ボリュームにコピーする機能を備える。
 (第1の処理タイプ)正ボリュームの更新のみを行って、更新の行われたボリューム上領域の情報を差分情報として記憶しておく。
 (第2の処理タイプ)形成コピーによるコピー済み領域に対する更新要求を受信した場合、副ボリュームを更新してから正ボリュームの更新を行う。また形成コピーによるコピーが済んでいない領域に対する更新要求を受信した場合には、正ボリュームの更新のみを行って、更新の行われたボリューム上領域の情報を差分情報として記憶しておく。
 そしてストレージシステムは、形成コピー中にホストから正ボリュームに対する更新要求を受信した時、差分データ量に基づいて、第1の処理タイプあるいは第2の処理タイプのいずれかを選択し、選択された処理タイプに従ってコピー処理を行う。
 本発明のストレージシステムでは、コピーペアの初期形成・再同期中のホストI/O性能劣化を抑止しつつ、初期形成・再同期処理の速度を向上することができる。
実施例1に係るストレージシステムの構成図である。 差分管理テーブルの構成の説明図である。 ペア管理テーブルの構成の説明図である。 実施例1に係るストレージシステムにおける、形成コピー処理の全体の流れを表した図である。 実施例1に係るストレージシステムにおける、差分データコピー処理のフローチャートである。 実施例1に係るストレージシステムにおける、更新コピー処理のフローチャートである。 実施例1に係るストレージシステムにおける、ホスト優先度更新処理のフローチャートである。 実施例2に係る計算機システムの構成図である。 コピー管理テーブルの構成の説明図である。
 以下、本発明の実施例について、図面を用いて説明する。なお本発明は、以下に説明する実施形態に限定されるものではない。
 なお、以後の説明では「aaaテーブル」等の表現にて、各種管理情報を説明する場合があるが、これら情報は、テーブル等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」等について「aaa情報」と呼ぶことがある。また、「bbb名」等の表現にて本発明の「bbb」を識別するための情報を説明する場合があるが、これらの識別するための情報は、名前に限られず、識別子や識別番号、アドレスなど、「bbb」が特定できる情報であればよい。
 また、以後の説明では、説明が冗長になることを防ぐために、処理内容の説明において、「プログラム」を主語として説明を行う場合がある。ただし実際にはその処理は、プログラムを実行するプロセッサ(典型的にはCPU(Central Processing Unit))によって実行されることを意味する。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。記憶メディアとしては、例えば、ICカード、SDカード、DVD等であってもよい。
 図1は、本発明の実施例1に係るストレージシステムの構成を示す。ストレージシステム1は、ホスト2からのI/O要求を受け付ける正ストレージ装置10a、正ストレージ装置10aに接続される副ストレージ装置10b、管理端末13からなる。
 正ストレージ装置10aは、たとえばファイバチャネル等の伝送線6によってホスト2や副ストレージ装置10bと接続されるとともに、イーサネット5等の伝送線によって管理端末13と接続される。なお、本実施例では、ホスト2と正ストレージ装置10aを接続する伝送線6のことをSAN(Storage Area Network)と呼ぶこともある。また正ストレージ装置10aと副ストレージ装置10bを接続する伝送線7のことは、DKC間通信路と呼ぶこともある。伝送線6、伝送線7の数は1に限定されない。複数の伝送線6が、ホスト2と正ストレージ装置10aの間に設けられて良い。同様に複数の伝送線7が正ストレージ装置10aと副ストレージ装置10bの間に設けられていてよい。
 正ストレージ装置10aは、ストレージコントローラ(以下、「コントローラ」と略記することもある)11と複数のドライブ121を備えるディスクユニット12から構成される。ストレージコントローラ11は、正ストレージ装置10aで行われるI/O処理などの制御を実行するプロセッサボードであるMPB111、ホスト2や副ストレージ装置10bとのデータ転送インタフェースボードであるフロントエンドパッケージ(FEPK)112、ディスクユニット12とのデータ転送インタフェースボードであるバックエンドパッケージ(BEPK)113、キャッシュデータや制御情報などを格納するメモリを備えたメモリパッケージ(CMPK)114が、スイッチ(SW)115で相互接続された構成をとる。各構成要素(MPB111、FEPK112、BEPK113、CMPK114)の数は、図1に示された数に限定されるものではないが、高可用性の確保のため、通常各構成要素は複数存在する。また、これら構成要素を後で増設することも可能である。
 各MPB111は、1以上のプロセッサ(MPとも呼ばれる)141と、当該プロセッサ141が使用するデータを格納するローカルメモリ(LM)142を有する。LM142には、MP141が実行するプログラム等が格納される。またMPB111は時計(非図示)を有し、MP141は時計から現在時刻情報を取得することができる。なお、時計はMP141に内蔵されている構成でもよい。
 CMPK114は、ホスト2からのライトデータやドライブ121から読み出されたデータを一時格納する、いわゆるディスクキャッシュとして用いられる領域であるCM144と、MPB111が使用する制御情報等を格納する領域であるSM143とを有する。SM143に格納される情報は、全MPB111の全MP141からアクセス可能である。CMPK114は、停電等の障害が発生してもデータ消失しないようにするために、バッテリを搭載していてもよい。
 ディスクユニット12には複数のドライブ121が搭載されている。各ドライブ121には主にホスト2からのライトデータが格納される。ドライブ121には、一例としてHDDなどの磁気ディスクが用いられるが、SSD(Solid State Drive)等、HDD以外の記憶媒体が用いられてもよい。
 副ストレージ装置10bは、正ストレージ装置10aと同様の構成要素を有する装置である(図1では内部構成の記載を省略している)。ただし、各構成要素(MPB111、FEPK112、ドライブ121等)の数は正ストレージ装置10aと同じである必要はない。以下、正ストレージ装置10a、副ストレージ装置10bが共通に備えている機能等を説明する場合、正ストレージ装置10a、副ストレージ装置10bを区別せず、「ストレージ装置10」と表記する。
 続いて、本実施例におけるストレージ装置10で取り扱うボリューム、及びストレージ装置10が有するリモートコピー機能について説明する。まずボリュームについて説明する。ストレージ装置10は、自身のディスクユニット12に存在する複数のドライブ121の中の2以上のHDDを用いてRAIDグループを形成する。そしてストレージ装置10は、RAID技術に基づいたデータ格納を行う。つまり、ホスト2からのライトデータを所定サイズ(たとえば16KB等)に分割し、分割されたデータからパリティ(冗長データ)を生成し、分割されたデータとパリティとをRAIDグループ内の各HDDに格納する処理を行う。これらの処理は、MP141で、ホスト2からのI/O要求を処理するための各種プログラムが実行されることにより、実現される。
 またストレージ装置10は、1つのRAIDグループの記憶領域を1または複数の論理ボリューム(LDEVとも呼ばれる)としてホスト2に提供する(ホストからアクセス可能な状態にする)。ストレージ装置10では、各LDEVに対して、ストレージ装置10内で一意な識別番号を付して、各LDEVを管理する。この識別番号は、「論理ボリューム番号」あるいは「LDEV#」と呼ばれる。論理ボリュームの形成方法、及び形成された論理ボリュームをホスト2に提供する方法は、公知のストレージ装置で行われているものと同じである。
 続いてリモートコピー機能について概要を説明する。リモートコピー機能は、正ストレージ装置10aの論理ボリューム(LDEV)のデータの複製(ミラーコピー)を副ストレージ装置10bの論理ボリューム(LDEV)に作成する機能である。本明細書では、複製元のデータが格納されている正ストレージ装置10aの論理ボリュームのことをプライマリボリューム(P-VOL)と呼ぶ。一方P-VOLのデータの複製先となる、副ストレージ装置10bの論理ボリュームのことを、セカンダリボリューム(S-VOL)と呼ぶ。そして、P-VOL及び当該P-VOL内データの複製が格納されるS-VOLのセットのことを、「ペア」あるいは「ボリュームペア」と呼ぶ。また、あるP-VOLの複製が格納されるS-VOLは、「P-VOLとペア関係にあるボリューム」あるいは「P-VOLのペアボリューム」と呼ばれる。逆に、あるS-VOLの複製元データが格納されている論理ボリュームであるP-VOLのことも、「S-VOLとペア関係にあるボリューム」、「S-VOLのペアボリューム」と呼ばれる。
 図3にペア管理テーブル300の構成を示す。ストレージ装置10では、各ペアに識別子を付して管理しており、この識別子をペア番号と呼ぶ。そしてペア管理テーブル300には、各ペアのP-VOL、S-VOLの情報(P-VOLの属するストレージ装置を特定可能な識別番号であるPDKC#、P-VOLのLDEV#、S-VOLの属するストレージ装置を特定可能な識別番号であるSDKC#、S-VOLのLDEV#)を管理する。またペア管理テーブル300内にあるステータス(Status)302の欄には、各ペアのステータス(コピーが行われている状態であるか否か等)を表す情報が格納される。ペアのステータスについては後述する。また、指定終了時刻307、ホスト優先度308、差分量309、モード310についても後述する。このテーブルは正ストレージ装置10a、副ストレージ装置10b双方のSM143に存在し、いずれのSM143にも同内容のテーブルが格納される。
 ペアステータスについて説明する。各ボリュームペアは、以下に説明するいずれかの状態を有する。これらの状態のことを本明細書では「ペアステータス」と呼ぶ。
 (a)Initial-Copy状態:
 これまでペア関係になかった、ストレージ装置10aの論理ボリュームとストレージ装置10bの論理ボリュームを、ボリュームペアにすることを、「ボリュームペアを形成する」あるいは「ペアを形成する」という。ボリュームペアの形成は、ユーザからストレージシステム1に対してボリュームペアの形成指示が発行されることにより、行われる。ストレージシステム1は、ボリュームペアを形成する際、最初にP-VOLの内容をすべてS-VOLへとコピーする処理(初期コピー処理、あるいは形成コピー処理と呼ばれる)を行う。この処理中の状態のことを「Initial-Copy状態」と呼ぶ。
 (b)Duplex状態:
 初期コピー処理または後述する再同期処理により、P-VOLの内容とS-VOLの内容が同一になったボリュームペアの状態を、「Duplex状態」または「同期状態」と呼ぶ。
 (c)Suspend状態:
 P-VOLの内容がS-VOLに反映されない状態のことを「Suspend状態」と呼ぶ。たとえばストレージ装置10aとストレージ装置10bを接続する伝送線7が遮断されて、コピーが不可能になった場合に、ボリュームペアのペアステータスは「Suspend状態」になる。あるいはユーザからの指示によって、ペアステータスが「Suspend状態」に変更されることもある。なお、ボリュームペアのペアステータスを「Suspend状態」にする処理のことを、サスペンド(Suspend)処理と呼ぶ。ペアステータスがSuspend状態の間、P-VOLに障害が発生していなければ、ホスト2はP-VOLに対してI/O要求を発行可能である。ホスト2からP-VOLに対する書き込みが発生した場合(仮にP-VOLのアドレスAに対する書き込みが発生したとする)、ストレージ装置10はP-VOLにライトデータを書き込む。そしてアドレスAに対して書き込みが発生したという記録を残しておく。詳細は後述する。
 (d)Duplex-Pending状態:
 P-VOL、S-VOL、そしてストレージ装置10aと10bを接続する伝送線に異常がない状態になった場合、Suspend状態にあるボリュームペアをDuplex状態に遷移させることが可能である。ただしボリュームペアは即座にSuspend状態からDuplex状態に遷移できるわけではない。特にボリュームペアがSuspend状態の間に、ホスト2からP-VOLに対する書き込みが発生した場合、P-VOLとS-VOLの内容が不一致になっている。そのため、P-VOLとS-VOLの内容を再び一致(同期)させる処理が必要である。そのため、「Suspend状態」のボリュームペアをDuplex状態に遷移させる処理のことは、再同期処理(リシンク処理)と呼ばれる。再同期処理は一般に、ストレージ装置10がユーザからの再同期指示を受信した契機で開始される。そしてボリュームペアの再同期処理が行われている途中の状態のことは「Duplex-Pending状態」と呼ばれる。この状態では、Suspend状態にあったボリュームペアについて、P-VOLとS-VOLの内容を一致(同期)させるため、P-VOL(またはS-VOL)のデータがS-VOL(またはP-VOL)へとコピーされる。コピーが完了した時点で、そのボリュームペアの状態は「Duplex状態」になる。
 ペア管理テーブル300のStatus(302)には、上で説明した4つの状態のいずれかが格納される。Status(302)に0が格納されている場合、ボリュームペアの状態が「Initial-Copy状態」であることを表し、1が格納されている場合、ボリュームペアの状態が「Duplex状態」であることを表す。またStatus(302)に2が格納されている場合、ボリュームペアの状態が「Suspend状態」であることを表し、3が格納されている場合、ボリュームペアの状態が「Duplex-Pending状態」であることを表す。
 なお、上では「Initial-Copy状態」と「Duplex-Pending状態」がそれぞれ別な状態であるとして説明した。ただしボリュームペアが「Initial-Copy状態」または「Duplex-Pending状態」である時、いずれもP-VOLとS-VOLの内容が同期中であるという点で一致している。そのため、必ずしも2つの状態を、別の状態として管理する必要はなく、1つの状態として管理するようにしてもよい。
 先に述べたとおり、Suspend状態のボリュームペアに対する書き込みが発生した場合(仮にP-VOLのアドレスAに対する書き込みが発生したとする)、ストレージ装置10は、「差分管理テーブル」と呼ばれる管理情報に、P-VOLのアドレスAに対して書き込みが発生したという記録を残す。図2を用いて、差分管理テーブル200の構成例を説明する。差分管理テーブル200は、アドレス201と差分ビット202のカラムを有するテーブルである。また差分管理テーブル200はSM143に格納されているテーブルで、ボリュームペアごとに設けられる。アドレス201は、P-VOLの記憶空間上のアドレス(たとえばLBA)が格納される欄である。また差分ビット202には0または1が格納される。
 Duplex状態のボリュームペアの差分管理テーブル200では、全行の差分ビット202の値は「0」である。ボリュームペアがSuspend状態に遷移した後、そのボリュームペアのP-VOLのアドレス“n”に格納されたデータが更新されると、ストレージ装置10は、差分管理テーブル200のアドレス201が“n”の行の差分ビット202の値を「1」にする。これによりストレージ装置10は、ボリュームペアがSuspend状態の間に、変更された(S-VOLと内容が不一致である)P-VOLの領域を特定することができる。再同期処理では、ストレージ装置10は差分管理テーブル200を参照し、差分ビット202が「1」のP-VOLアドレスに格納されているデータを、S-VOLにコピーすることで、ボリュームペアが再同期される。P-VOLのアドレスnに格納されているデータが、S-VOL(のアドレスn)にコピーされると、アドレスnに対応する差分ビット202の値は、「1」から「0」に変更される。
 差分管理テーブル200は、ボリュームペアを形成する際にも用いられる。ユーザが管理端末13(あるいはホスト2)を用いて、ストレージシステム1に対してボリュームペアの形成を指示すると、ペア管理テーブル300に、ボリュームペアの情報が登録されるとともに、このボリュームペア用の差分管理テーブル200が作成される。この時、差分管理テーブル200の全行の差分ビット202には「1」が格納される。ストレージ装置10は、差分管理テーブル200を参照することで、差分ビット202が「1」であるP-VOLアドレスのデータをS-VOLへとコピーする(つまりP-VOLの全アドレスのデータが、S-VOLにコピーされる)。
 続いて、本実施例に係るストレージシステム1において実行される、形成コピー処理の流れを、図4以降の図面を用いて説明する。図4は、形成コピー処理の全体の流れを表した図である。形成コピー処理は、ホスト2からストレージ装置10(P-VOLが存在するストレージ装置10)に対し、ボリュームペアの形成指示、あるいはボリュームペアの再同期指示が発行されることを契機に、開始される。なお、ホスト2に代えて、管理端末13からボリュームペアの形成指示あるいはボリュームペアの再同期指示を発行してもよい。また、図4では、ストレージ装置10aにP-VOLが存在し、このP-VOLとペア関係にあるS-VOLがストレージ装置10bに存在する構成における、形成コピー処理の流れが示されている。
 ストレージ装置10aがボリュームペアの形成指示あるいはボリュームペアの再同期指示を受領すると、MP141は、管理テーブルの準備を行う(S10)。S10で行われる管理テーブルの準備について、具体的に説明する。S10でボリュームペアの形成指示を受領した場合には、MP141はペア管理テーブル300に、新たに形成されるボリュームペアの情報を登録する。ホスト2から受領するボリュームペアの形成指示の中には、ボリュームペアの情報(P-VOLのLDEV#及びPDKC#、そしてS-VOLのLDEV#及びSDKC#)、さらにペア管理テーブル300のモード310等に登録すべき情報が含まれている。そのためMP141は、ボリュームペアの形成指示の中に含まれているこれらの情報を、ペア管理テーブル300に登録する。またこの時、ペア管理テーブル300の差分量309には、P-VOLの終端アドレスの値が格納される。ペア管理テーブル300への情報登録と同時に、MP141はボリュームペアの差分管理テーブル200を作成する。そして作成された差分管理テーブル200の全行について、差分ビット202の欄に「1」を格納する。
 一方S10でボリュームペアの再同期指示を受領した場合、ペア管理テーブル300にはすでに、PDKC#304、P-VOL#304、SDKC#305、S-VOL#306は登録されているので、これらの情報の登録は行われない。ただしモード310等に登録すべき情報がボリュームペアの再同期指示には含まれており、この情報がペア管理テーブル300に登録される。またこの時、MP141は再同期対象となるボリュームペアの差分管理テーブル200を参照し、差分ビット202に「1」が格納されている行の数を計数する。そして計数された値を、差分量309に格納する。
 管理テーブルの準備が終了すると、MP141はホスト優先度更新処理を起動する(S11)。それと同時に、ストレージ装置10aは、差分データコピー処理を開始する(S12)。ホスト優先度更新処理と差分データコピー処理は、独立に並行して実行される。ホスト優先度更新処理は周期的に実行される処理で、差分データ量の変化率に基づいてホスト優先度308を更新する処理である。ホスト優先度更新処理の詳細は後述する。
 ここで差分データコピー処理S12の詳細を説明する。差分データコピー処理は、P-VOLとS-VOLとでデータ内容が一致していない領域のデータ(これを差分データと呼ぶ)を、P-VOLからS-VOLへとコピーする処理である。P-VOLとS-VOLとでデータ内容が一致していない領域の情報は、差分管理テーブル200に記録されている。なお、ストレージ装置10aがこれまでボリュームペアでなかった2つのボリュームについて、ボリュームペアの形成指示を受け付けた場合、上で述べたとおり、差分管理テーブル200の全差分ビット202に「1」が格納される。つまりボリュームペア形成直後のP-VOLとS-VOLについては、ボリューム内の全データが差分データとして扱われる。そのため、ペア形成直後のボリュームペアについては、差分データコピー処理により、P-VOLの全領域のデータがS-VOLにコピーされる。
 以下図5を用いて、差分データコピー処理の流れを説明する。まずMP141は、変数cを用意し、変数cに0(P-VOLの先頭アドレス)を格納する(S51)。この変数cのことを、以下の説明では「コピーポインタ」と呼ぶ。
 続いてMP141は、差分管理テーブル200のアドレス201が変数cの値と等しい行の差分ビット202を参照する。そしてこの差分ビット202が「1」であれば、MP141はP-VOLからデータを読み出し、S-VOLのあるストレージ装置10(ストレージ装置10b)にデータの書き込みを指示する(S52)。ここでデータが読み出されるP-VOLのアドレスは、変数cの値と等しいアドレスである。また読み出されたデータの書き込まれるS-VOLのアドレスも、変数cの値と等しい(つまりMP141はストレージ装置10bに対し、S-VOLのアドレスcにデータを書き込む指示を発行する)。また、S52で参照した差分ビット202が「0」の場合には、MP141はP-VOLからのデータ読み出し及びS-VOLへのデータコピーは行わない。
 ストレージ装置10aからデータの書き込みの指示(及び書き込み対象のデータ)を受け付けたストレージ装置10bは、S-VOLにデータの書き込みを行う(S62)。データの書き込みが完了した後、ストレージ装置10bは、S-VOLへのデータ書き込みが完了した旨の応答を返却する(S63)。この応答が返却されると、ストレージ装置10aのMP141はS52で参照した差分ビット202に「0」を格納する(S53)。続いてMP141は、変数cに1を加算する(S54)。
 変数cが、P-VOLの終端アドレス以下の値である場合(S55:Y)、MP141は再びS52~S54の処理を繰り返す。これにより、P-VOLの先頭領域から順に、差分データがS-VOLへとコピーされる。一方変数cが、P-VOLの終端アドレスを超える値になった場合(S55:N)、差分データコピー処理は終了する。
 図4の説明に戻る。差分データコピー処理の実行中、ホスト2からP-VOLに対するライト要求が発行された場合(S2)、ストレージ装置10aは、このライト要求を処理するための更新コピー処理を実行する(S13)。更新コピーが終了すると、ストレージ装置10aはホスト2に、ライト要求に係る処理が完了した旨を報告し、ホスト2はその報告を受領する(S3)。なお、図4では、ホスト2からのライト要求(S2)が1回発行された場合の例が示されているが、実際にはホスト2からのライト要求(S2)は複数回発行されてもよい。また、図4からもわかるとおり、更新コピー処理の実行は、差分データコピー処理の完了を待たない。差分データコピー処理の実行中に、更新コピー処理が実行されてよい。
 差分データコピー処理が終了すると、ストレージ装置10a(MP141)は、差分管理テーブル200を参照し、差分ビット202が1であるアドレスが残っているか否か判定する(S14)。以下では、差分ビット202が1であるアドレスが残っている場合のことを、「差分データが残っている」場合と呼ぶこともある。なお、S14の判定時に差分データが残っている状態は、差分データコピー処理(S12)の途中で、ホスト2からP-VOLに対するライト要求を受け付けた場合(更新コピー処理が発生した場合)に発生し得る。差分データが残っている場合(S14:Y)、MP141は再び差分データコピー処理(S12)を開始する。
 差分データが残っていない場合(S14:N)、MP141はS11で開始させた、ホスト優先度更新処理を終了させる(S15)。最後にMP141は、ボリュームペアの形成あるいはボリュームペアの再同期が完了した旨の通知をホスト2に送信し(S16)、形成コピー処理は終了する。
 続いてS13の更新コピー処理の流れを、図6を用いて説明する。ホスト2がライト要求を発行(S2)し、ストレージ装置10aがそのライト要求を受領すると(S101)、MP141は乱数生成アルゴリズムを用いて、0より大きく1未満の乱数を1つ生成する(S102)。以下、ここで生成された乱数を、Rと表記する。またここで用いられる乱数生成アルゴリズムは、0より大きく1未満の値が等確率で生成できるものである。
 続いてMP141は、ペア管理テーブル300を参照し、ライト対象となるP-VOLに対応するホスト優先度(308)を読み出す。ホスト優先度(308)は、後述するホスト優先度更新処理によって、定期的に更新されている値で、0以上1以下の値が格納されている。以下、ここで読み出されたホスト優先度(308)を、Pと表記する。MP141は、Pと、S102で生成された乱数Rとに基づいて、ライト要求の処理方法を決定する。
 ボリュームペアに対するライト要求及びライトデータをホスト2から受領した場合、このライトデータはP-VOLに書き込まれるとともに、S-VOLにも書き込まれる(コピーされる)必要がある。本実施例におけるストレージシステム1は、以下で説明するいずれかの方法で、ライトデータのS-VOLへのコピーを行う。
 (1) 通常コピー
 この方法は、背景技術において説明した方法と同じコピー方法である。ストレージ装置10aのMP141は差分管理テーブル200を参照し、ライト要求で指定されているライト位置(アドレス)に対応する差分ビット202が「0」か「1」かを判定する(S105)。差分ビット202が「0」の場合(S105:N)、これより前に行われた形成コピー処理(差分データコピー処理)によって、ライト要求で指定されているライト位置に格納されたデータがS-VOLにコピー済みであることを意味する。そのため更新コピー処理では、ライトデータをS-VOLへと送信する(S106)。ここで行われるS-VOLへのライトデータの送信は、S52で説明したものと同様の処理である。ただし、S52ではP-VOLに格納されていたデータを読み出して、その読み出したデータをS-VOLに格納するように、ストレージ装置10bに指示していたが、S106ではストレージ装置10aは、ホスト2からのライト要求とともに送信されてきたライトデータをストレージ装置10bに送信し、このライトデータをS-VOLに書き込む旨を指示する。その後、P-VOLにライトデータを書き込み(S107)、ホスト2にライト処理が完了した旨を応答し(S108)、更新コピー処理を終了する。一方差分ビット202が「1」の場合(S105:Y)、S106の処理は行われない。MP141はS107とS108の処理だけを行って、更新コピー処理を終了する。差分ビット202が「1」の場合には、ライト要求で指定されているライト位置に格納されたデータが、まだ形成コピー処理(差分データコピー処理)によってS-VOLにコピーされていないことを意味する。そのためP-VOLにライトデータを書き込んでおけば、更新コピー処理と並行して行われている差分データコピー処理によって、P-VOLに格納されたライトデータがS-VOLへコピーされる。そのため、ここでS-VOLにデータをコピーする必要がないので、差分ビット202が「1」の場合(S105:Y)にはMP141はS106の処理を行わない。
 (2) ホストレスポンス優先コピー
 ホストレスポンス優先コピーでは、ライト要求で指定されているライト位置(アドレス)に対応する差分ビット202に「1」を格納する(S104)。その後P-VOLにライトデータを書き込み(S107)、ホスト2にライト処理が完了した旨を応答し(S108)、更新コピー処理を終了する。つまりホストレスポンス優先コピーの場合、S-VOLへのコピー処理は行われない。差分ビット202に「1」を格納することにより、更新コピー処理と並行して行われている差分データコピー処理によって、P-VOLに格納されたライトデータが後でS-VOLへコピーされるからである。なお、ここで説明した処理の順序は一例であり、上で説明した以外の順序で処理が行われてもよい。たとえばS104とS107の実行順は逆でも良い。
 ホストレスポンス優先コピーでは、S-VOLへのコピー処理を行わずに、ホスト2にライト処理が完了した旨を応答する。そのため通常コピーと比べて、ホスト2への応答時間が短くなる。そのため、応答時間が長くなることを抑制したい場合、ホストレスポンス優先コピーを用いることが望ましい。
 ただし、ホスト2からのライトデータはすべて、差分データコピー処理によってS-VOLにコピーされなければならない。そのため、差分データコピー処理を繰り返し実施する必要があり(図4 S14で差分データが残っていると判定され、再びS12の処理が実施される)、形成コピーが完了するまでの時間が長くなることがある。
 特に、ホスト2から書き込まれる単位時間あたりのライトデータ量が、差分データコピー処理によってP-VOLからS-VOLにコピーされる単位時間あたりのデータ量以上の場合、ホストレスポンス優先コピーが行われると、形成コピー処理がいつまでも終了しない事態が発生し得る。形成コピー処理が行われている期間は、P-VOLとS-VOLのデータ内容が一致していない状態であるから、この状態の時にP-VOLのあるストレージ装置10aで障害が発生すると、S-VOLを用いた業務継続が不可能になる。そのため形成コピー処理はできるだけ早く終了することが望ましい。
 S103ではMP141は、Pと、S102で生成された乱数Rとを比較し、R≦Pの場合(S103:Y)、ホストレスポンス優先コピー(S104、S107、S108)を実施する。そしてR>Pの場合(S103:N)、通常コピー(S105、S106、S107、S108)を実施する。S102で生成されるRは一様乱数であるので、S102を実行するたびに0から1の間の値が等確率で生成される。そのためR≦Pである確率はPである。Pはいわば、ホストレスポンス優先コピーが実施される確率に相当する値といえる。たとえばP=0.2の場合、ホストレスポンス優先コピーが実施される確率は0.2である。
 続いて、上で説明したPを生成する処理である、ホスト優先度更新処理の流れを説明する。その前に、ペア管理テーブル300に格納される、指定終了時刻307、モード310について説明する。
 本実施例に係るストレージシステム1は、ユーザがボリュームペアの形成指示あるいはボリュームペアの再同期指示を行う際、コピーモードの指定を行うことを許している。コピーモードには以下の3種類がある。
(a) ホストレスポンス最優先モード
(b) コピー時間最優先モード
(c) 終了時刻指定モード
 ストレージ装置10が、ボリュームペアの形成指示あるいは再同期指示を受け付けると、この指示に含まれているコピーモードの内容を、ペア管理テーブル300のモード310に格納する。本実施例に係るストレージ装置10は、コピーモードとしてホストレスポンス最優先モードが指定されている場合、モード310に0を格納する。また、コピー時間最優先モードが指定されている場合、モード310に1を、そして終了時刻指定モードが指定された場合には、モード310に2を格納する。また、コピーモードとして終了時刻指定モードが指定される場合、ボリュームペアの形成指示あるいは再同期指示には、形成コピー処理の終了希望時刻も含まれている(ユーザが指定する)。そのためストレージ装置10は、終了時刻指定モードが指定された場合には、指定されている終了希望時刻を、ペア管理テーブル300の指定終了時刻307に格納する。
 続いてP(先にも述べたが、Pはホスト優先度308に格納される値である)の設定方法の概略を説明する。(a)のホストレスポンス最優先モードが指定されると、更新コピー処理(図6)における、S-VOLへのデータコピー方法は必ず、先に説明したホストレスポンス優先コピーが選択される。上で説明したPの値が1であれば、更新コピー処理(図6)において必ずホストレスポンス優先コピーが実施される。そのため、ホスト優先度更新処理では、ユーザがコピーモードとしてホストレスポンス最優先モードを指定した場合には、Pを1にする。
 (b)のコピー時間最優先モードが指定された場合には、先に説明した通常コピーによって、S-VOLへのデータコピーが行われる。上で説明したPの値が0であれば、更新コピー処理(図6)において必ず通常コピーが実施される。そのため、ホスト優先度更新処理では、ユーザがコピーモードとしてコピー時間最優先モードを指定した場合には、Pを0にする。
 (c)の終了時刻指定モードが指定される場合、ユーザはあわせて、ボリュームペアの形成コピー処理の終了希望時刻も指定する。この場合ストレージ装置10は、差分量309の変化率と終了希望時刻に基づいて、Pを動的に変更する。この処理の詳細は、以下で図7を参照しながら説明する。
 先に述べたとおり、ホスト優先度更新処理は形成コピー処理により開始される。またホスト優先度更新処理は、ボリュームペアごとに実行される処理である。そのため、ストレージシステム1内でn個のボリュームペアが形成コピー処理中の場合、n個のホスト優先度更新処理が並行に実施される。ホスト優先度更新処理が形成コピー処理から呼び出される時(図4 S11)、形成コピー処理は、形成コピーを実施するボリュームペアのペア番号(ペア管理テーブル300のペア番号301に格納されている番号)をホスト優先度更新処理に渡す。ホスト優先度更新処理は、ペア管理テーブル300の行の中で、ペア番号301が渡されたペア番号と等しい行の各情報(モード310、差分量309、ホスト優先度308、指定終了時刻307)の参照、更新を行う。また、以下では、形成コピー処理から渡されたボリュームペア番号で特定されるボリュームペアのことを、「処理対象ペア」と呼ぶ。
 図7から分かる通り、ホスト優先度更新処理は、S201~S209の処理を実行すると、一定時間(たとえば1分)待機(S210)した後、再びS201~S209の処理を実行する、という処理を繰り返すことにより、P(ホスト優先度308)の値を定期的に更新する。以下では、S210において待機する一定時間のことを、「見直し間隔」と呼ぶ。
 ホスト優先度更新処理が開始されると、MP141はモード310を参照し、処理対象ペアのコピーモードを判定する。モード310が0の場合、ホストレスポンス最優先モードであるので、P(ホスト優先度308)に1を格納する(S208)。これにより、更新コピー処理は、ホストレスポンス優先コピーを行うように動作する。
 モード310が1の場合、コピー時間最優先モードであるので、P(ホスト優先度308)に0を格納する(S209)。これにより、更新コピー処理は、通常コピーを行うように動作する。
 モード310が2の場合、終了時刻指定モードである。この場合、MP141は処理対象ペアの差分管理テーブル200の差分ビット202が「1」である行の数を計数する(S202)。これは、処理対象ペアの現在の差分量である。
 続いてMP141は終了予定時刻を計算する(S203)。終了予定時刻は、現在の差分量と差分量の変化率(単位時間当たりの差分量の減少量)に基づいて計算される。以下、計算方法の具体例を説明する。
 先に述べたとおりS202で現在の差分量を計数している。また前回S202が実行された時の値(以下ではこれを「前回差分量」と呼ぶ)は、差分量309に保存されることになっている(後述するS204で保存が行われる)。そのため、現在の差分量<前回差分量の場合には、以下の計算式で終了予定時刻を算出する。
 終了予定時刻=現在時刻+現在差分量÷((前回差分量-現在の差分量)÷見直し間隔)
 一方、現在の差分量≧前回差分量の場合には、差分量が増大傾向にある。この場合、いつまでたっても形成コピー処理が終了しないため、上の計算式を用いずに、終了予定時刻を無限大とする。
 S203の後、MP141はS202で計数した差分量を、差分量309に格納する(S204)。上で述べたとおり、ここで差分量309に格納された値は、次回ホスト優先度更新処理が実行された時に、前回差分量として使用される。
 S205ではMP141は、終了予定時刻と指定終了時刻307を比較する。終了予定時刻>指定終了時刻307の場合(S205:Y)、P(ホスト優先度308)を減少させる。たとえばPから0.1を減算する(S207)。ただしP<0となる場合には、P=0にする。これにより通常コピーの実行される確率が増大するため、差分データが減少しやすくなる。結果として、形成コピー処理が終了するまでの時間を短縮することができる。
 終了予定時刻≦指定終了時刻307の場合(S205:N)、P(ホスト優先度308)を増加させる。たとえばPに0.1を加算する(S206)。ただしP>1となる場合には、P=1にする。これにより、ホストレスポンス優先コピーの実行される確率を増加する。そのため、ホスト2がライト要求を行った時の応答時間が短縮される。
 S206~S209の処理が終了すると、MP141は一定時間(見直し間隔に相当する時間)待機し(S210)、一定時間経過後にS201から処理を再開する。
 ホスト優先度更新処理は、形成コピー処理が行われている間、実行されている。そして形成コピーが終了した時点で、形成コピー処理からホスト優先度更新処理の終了が指示される(図4 S15)。ホスト優先度更新処理の終了指示を受領すると、MP141はホスト優先度更新処理を停止する。
 以上が、実施例1に係るストレージシステムにおける、形成コピー処理の流れである。実施例1に係るストレージシステムでは、形成コピー処理中のボリューム(P-VOL)に対して受け付けた、ホストからのライトデータのS-VOLへのコピー方法として、ホストレスポンス優先コピーと通常コピーという、2種類のコピー方法をサポートする。ホストレスポンス優先コピーでは、ライトデータのS-VOLへのコピーを後回しにし、後で行われる差分データコピー処理によって、S-VOLへのコピーを行わせる。そのため、ホストI/O性能(ホストがライト要求を発行してから、ライト完了の応答を受信するまでのレスポンスタイム)が悪化しないという利点がある。ただし、ホストからのライト要求頻度が高い場合、差分データが増加し、形成コピー処理の終了が遅延することがある。
 一方通常コピーでは、差分データコピー処理でコピー済み領域に対してホストからのライト要求を受け付けた場合、その領域のデータをS-VOLにコピーする処理を行う。そのため、ホストからのライト要求頻度が高い場合でも差分データが増加しないので、形成コピー処理の終了が遅延しない。ただし、差分データコピー処理に加えて、ホストから受け付けたライトデータをS-VOLにコピーする処理が発生するため、正ストレージ装置と副ストレージ装置間の通信路のトラフィックが増加する。またホストI/O性能も悪化する。
 実施例1に係るストレージシステムでは、差分データ量の変化に基づいて、ホストレスポンス優先コピーと通常コピーの中から、適切なコピー方法を選択する。差分データ量の減少速度が速く、指定終了時刻よりも早く形成コピーが終了することが見込まれる場合には、ホストレスポンス優先コピーの実行確率を上げる。逆に差分データ量が増加傾向にある場合、あるいは差分データ量の減少速度が遅いために指定終了時刻までに形成コピーが終了しないと予測される場合には、通常コピーの実行確率を上げる。これにより、ホストI/O性能を維持しつつ、形成コピー処理を早期に終了させることを可能にする。
 なお、本発明は上で説明した実施形態に限定されない。上で説明した実施例以外にも、様々な変形例が考えられる。たとえば実施例1で説明した更新コピー処理では、Pと乱数Rの比較を行い、R>Pであると判定された後で、ライト要求で指定されているライト位置に対応する差分ビット202が「0」か「1」か(ライト位置がコピー済みか否か)判定していた。しかし更新コピー処理の各ステップの処理順序は実施例1で説明した順序に限定されない。ライト要求を受領(S101)した直後に、S105の判定(ライト位置がコピー済みか否かの判定)を行うようにしてもよい。その場合、ライト位置がコピー済みでない場合(差分ビット202が「0」の場合)に限って、S102以降の処理を実施し(ただしS105の判定は行わない)、ライト位置がコピー済みの場合(差分ビット202が「1」の場合)には、S102~S106は実行せずにS107以降の処理を実行すればよい。
 また実施例1では、ボリュームペアごとにホスト優先度Pが設定される例が説明された。つまり正ストレージ装置10aはボリュームペアごとに、異なるコピーモードを用いて更新コピー処理を行うことができる。しかし必ずしも、ボリュームペアごとにホスト優先度Pが設定されなくてもよい。ストレージシステムに1つのホスト優先度だけが設定されるようにしてもよい。その場合正ストレージ装置10aは、全ボリュームペアについて、同じコピーモードを用いて更新コピーを行う。
 また実施例1で説明したホスト優先度更新処理では、ユーザに終了希望時刻(指定終了時刻)を指定させ、終了予定時刻と指定終了時刻の大小を比較することで、P(ホストレスポンス優先コピーの実行確率)を制御していた。ただしPの制御方法はこれに限定されない。たとえば前回の差分量 > 現在の差分量であれば(つまり差分量が減少傾向にある場合)、Pを増加させ、前回の差分量 < 現在の差分量であれば(差分量が増加傾向にある場合)、Pを減少させる、等の単純な方法を選択してもよい。この場合、ユーザに終了希望時刻を指定させる必要がなくなる。
 あるいはさらに単純化した方法を採用することもできる。たとえば、前回の差分量 > 現在の差分量であればP=1にし、前回の差分量 < 現在の差分量であればP=0にする、という方法を採用してもよい。
 続いて実施例2について説明する。図8に、実施例2に係る計算機システム0の構成を示す。計算機システム0は、複数(N台)の正ストレージ装置10a(10a-1~10a-N)、複数(N台)の副ストレージ装置10b(10b-1~10b-N)、複数のホスト2(2-1~2-N)、そして管理サーバ15を有する。
 各正ストレージ装置10a、各副ストレージ装置10bの構成は、実施例1に係るストレージ装置10と同じである。また各正ストレージ装置10a、各副ストレージ装置10bは、実施例1で説明したリモートコピー機能を有する。ストレージ装置10と複数のホスト2と複数の正ストレージ装置10a間の接続の方法は、様々な方法を選択し得るが、実施例2に係る計算機システム0においては、ホスト2-n(ただしnは、1≦n≦Nを満たす整数である)はそれぞれ、ストレージ装置10a-nと伝送線6-nによって接続されるものとする。ただし別の実施形態として、全ホスト2(2-1~2-N)と全ての正ストレージ装置10a(10a-1~10a-N)が、共通の単一のネットワークであるSANに接続される構成が採用されてもよい。
 各正ストレージ装置10aと各副ストレージ装置10bの間は、DKC間通信路7で接続される。実施例2に係る計算機システム0では、各正ストレージ装置10aと各副ストレージ装置10bが、同一のDKC間通信路7を用いて、データ転送を行う。
 各正ストレージ装置10aには、少なくとも1つ以上の論理ボリュームが定義されてよい。また各副ストレージ装置10bにも、少なくとも1つ以上の論理ボリュームが定義されてよい。ただし以下では説明の簡単化のため、各正ストレージ装置10aと各副ストレージ装置10bには、それぞれ1つの論理ボリュームのみが存在する構成について説明する。
 正ストレージ装置10a-n(1≦n≦N)の論理ボリューム20a-nと、副ストレージ装置10b-nの論理ボリューム20b-nとは、ペア関係にあり、論理ボリューム20a-nがP-VOL、論理ボリューム20b-nがS-VOLの関係にある。ホスト2-nは、論理ボリューム20a-nに対してアクセス(リード、ライト)する。
 管理サーバ15は、各ホスト2とイーサネット5等の伝送線によって接続されている。各ホスト2のメモリ(非図示)にはエージェント100と呼ばれるプログラムが存在する。エージェント100は各ホスト2のCPU(非図示)によって実行される。エージェント100は、管理サーバ15から指示により、ストレージ装置10aに対して、リモートコピーのペア形成指示、再同期指示、コピーモード変更の指示等を発行するプログラムである。またホスト2のI/O性能情報を取得し、管理サーバ15に送信することも行う。
 管理サーバ15のメモリ(非図示)には、リモートコピー管理プログラム151が存在し、管理サーバ15のCPU(非図示)がこのプログラムを実行する。リモートコピー管理プログラム151は、各ホスト2上で動作するプログラムであるエージェント100から、ホスト2の性能情報を取得する。そして、取得した性能情報に基づいて、エージェント100に対してコピーモードの変更指示を発行する。
 図9は、管理サーバ15のメモリに格納されている、コピー管理テーブル500の構成を表している。コピー管理テーブル500は、リモートコピー管理プログラム151によって管理される。コピー管理テーブル500は、優先度501、ホストID502、DKC#503、目標性能504、性能505、コピー中フラグ506のカラムを有する。ホストID502は、管理サーバ15で管理対象となるホスト2の識別情報(たとえばホスト2のIPアドレスやホスト名等)が格納される欄である。そしてコピー管理テーブル500の各行には、ホストID502で特定されるホストに対して設定されるべき情報が格納される。
 優先度501には、ホスト2の優先度が格納される(あるいはホスト2がアクセスするストレージ装置10a(P-VOLを有するストレージ装置)の優先度ともいえる)。優先度501には1以上の整数値が格納され、数値が小さいほど優先度が高いことを意味する。また優先度501が高いほど、形成コピー処理を優先的に実行できるように制御される。DKC#503は、ホスト2がアクセスするストレージ装置10a(P-VOLを有するストレージ装置)の識別番号が格納される。優先度501は計算機システム0の管理者によって決められる。
 目標性能504は、ホスト2のP-VOLに対するアクセス性能(スループット。たとえばMB/secあるいはIOPS)の目標値である。この値も計算機システム0の管理者によって決められる。性能505は、ホスト2のP-VOLに対するアクセス性能の実測値である。リモートコピー管理プログラム151がホスト2のエージェント100から性能情報を取得し、性能505に格納する。コピー中フラグ506には、ホスト2がアクセスするP-VOLのペア状態に関する情報が格納される。リモートコピー管理プログラム151がホスト2のエージェント100からペアステータスを取得する。そしてペアステータスがコピー中(Initial-Copy状態、あるいはDuplex-Pending状態)の場合、コピー中フラグ506に1が格納され、それ以外の状態であれば、コピー中フラグ506に0が格納される。
 リモートコピー管理プログラム151は定期的に、ホスト2のエージェント100に対して、ホスト2のP-VOLに対するアクセス性能、及びボリュームペアのステータスを問い合わせ、性能505、コピー中フラグ506に情報を格納する。そして、性能505が目標性能504を下回っているホスト2が存在する場合(仮にこのホスト2が、ホスト2-m(1≦m≦N)だったとする)、リモートコピー管理プログラム151はホスト2-mよりも優先度501が低いホスト2(ホスト2-1~2-N)のうち、優先度501が最も低いホスト2のエージェント100に対し、コピーモードをホストレスポンス最優先モードに変更するように指示する。指示を受けたエージェント100は、ストレージ装置10aに対し、コピーモード変更指示を発行する。コピーモード変更指示を受信したストレージ装置10aでは、コピーモードをホストレスポンス最優先モードに変更する。
 なお、優先度501が最も低いホスト2の接続されたストレージ装置10aのコピーモードが、すでにホストレスポンス最優先モードであった場合、2番目に優先度501が低いホスト2に接続されたストレージ装置10aのコピーモードをホストレスポンス最優先モードに変更させる。2番目に優先度501が低いホスト2に接続されたストレージ装置10のコピーモードもホストレスポンス最優先モードであった場合には、その次に優先度501が低いホスト2に接続されたストレージ装置10のコピーモードを変更することを繰り返す。ただし、ホスト2-mよりも優先度の高いホスト2のエージェント100に対してコピーモードの変更を指示することは行わない。
 あるいは、優先度501が最も低いホスト2の接続されたストレージ装置10のコピーモードを変更しても、ホスト2-mの性能505が改善しない場合(依然として目標性能504を下回っている場合等が該当する)、2番目以降に優先度501が低いホスト2のエージェント100に対し、ストレージ装置10aのコピーモードをホストレスポンス最優先モードに変更させる指示を発行するようにしてもよい。この場合も、ホスト2-mよりも優先度の高いホスト2のエージェント100に対してコピーモードの変更を指示することは行わない。
 これにより、コピーモード変更指示を受信したストレージ装置10aで、更新コピー処理時に必ずホストレスポンス優先コピーを行う。そのため、通信路7のトラフィックが削減され、優先度の高いホスト2が使用しているボリュームペアのために通信路帯域をより多く使用させることができる。
 以上が、実施例2に係る計算機システムの説明である。実施例2に係る計算機システムでは、複数のストレージ装置が通信路を共有している場合、設定された優先度に基づいて、複数のストレージ装置のコピーモードを制御する。特に優先度の高いホストが使用しているボリュームのアクセス性能が目標性能を下回っている場合、優先度の低いホストが使用しているボリュームのコピーモードを、より通信路の帯域を使用しないコピーモードに変更させることができる。結果として、優先度の高いホスト2が使用しているボリュームペアの、コピー処理の優先度を高くすることができる。
 なお、上で説明した構成の変形例も考えられる。たとえば管理サーバ15がホスト2に接続される構成に代えて、管理サーバ15が各ストレージ装置10aに接続されるようにしてもよい。この場合、各ストレージ装置10aは管理サーバ15に、ボリュームのI/O性能情報を提供する機能を有する。そして管理サーバ15は、各ストレージ装置10aの優先度を管理し、目標性能を下回っているストレージ装置10aが存在した場合、そのストレージ装置10aよりも優先度の低いストレージ装置10aのコピーモードを変更(ホストレスポンス最優先モードに変更)させるようにしてもよい。
 また、管理サーバ15を設けることに代えて、ホスト2-1~2-Nの1つに管理サーバ15の持つ機能(リモートコピー管理プログラム151)を実行させるようにしてもよい。あるいはストレージ装置10a-1~10a-Nのいずれかが管理サーバ15の持つ機能を実行するようにしてもよい。
 なお、実施例2では、取得するI/O性能及び目標性能として、スループット(MB/sec.)を用いたが、それ以外の評価尺度、例えば応答時間(ホストがストレージ装置にライト要求を発行してから、処理完了の応答を受信するまでの時間)を用いてもよい。一般に、通信路のトラフィックが減少すると、応答時間も短くなるという傾向にある。そのため、応答時間が目標値よりも長くなっているホストが存在する場合に、優先度の最も低いホスト(が使用しているストレージ装置)のコピーモードをホストレスポンス最優先度モードにすると、通信路のトラフィックが減少し、結果として優先度の高いホストの応答時間が短くなる。
10a: 正ストレージ装置
10b: 副ストレージ装置
11: ストレージコントローラ
12:  ディスクユニット
13:  管理端末
111: MPB
112: FEPK
113: BEPK
114: CMPK
115: スイッチ
141: MP
142: LM/PM
143: SM
144: CM

Claims (10)

  1.  正ボリュームを有する正ストレージ装置と、前記正ストレージ装置に接続され、前記正ボリュームのデータの複製を格納する副ボリュームを有する副ストレージ装置を有するストレージシステムであって、
     前記ストレージシステムは、前記正ボリュームと前記副ボリュームの差分データを前記副ボリュームに複製する形成コピーの実行中に、前記正ストレージ装置に接続されたホスト計算機から、前記正ボリュームに対する更新要求と更新データを受信した時、
     前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を差分情報に記録する、第1の処理タイプと、
     前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みの場合には、前記正ボリュームと前記副ボリュームに前記更新データを格納し、前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みでない場合には、前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を前記差分情報に記録する、第2の処理タイプの、いずれかの処理タイプを用いて更新データの格納を実施するよう構成されており、
     前記正ストレージ装置は、前記形成コピーの実行中に、前記ホスト計算機から前記正ボリュームに対する更新要求と更新データを受信した時、前記第1の処理タイプと前記第2の処理タイプのうち、差分データ量に基づいて、いずれかの処理タイプを選択し、前記選択された処理タイプに従う処理を行う、
    ことを特徴とする、ストレージシステム。
  2.  前記正ストレージ装置は、差分データ量の変化量に基づいて、第1の処理タイプによる更新データの格納を実施する確率を算出し、前記算出された確率に基づいて前記第1の処理タイプまたは前記第2の処理タイプのいずれかを選択する、
    ことを特徴とする、請求項1に記載のストレージシステム。
  3.  前記ストレージシステムは、差分データがなくなるまで、前記形成コピーを繰り返し実行するよう構成されており、
     前記正ストレージ装置は、前記差分データ量の変化率をもとに前記形成コピー処理の完了予定時刻を算出し、
     前記完了予定時刻が、外部から指定された完了希望時刻より後の場合、前記第1の処理タイプによる更新データの格納を実施する確率を減少させ、
     前記完了予定時刻が、前記外部から指定された完了希望時刻以前の場合、前記第1の処理タイプによる更新データの格納を実施する確率を増加させる、
    ことを特徴とする、請求項2に記載のストレージシステム。
  4.  前記正ストレージ装置は、前記差分データ量が増加傾向にあると判断した時、前記第1の処理タイプによる更新データの格納を実施する確率を減少させ、
     前記差分データ量が減少傾向にあると判断した時、前記第1の処理タイプによる更新データの格納を実施する確率を増加させる、
    ことを特徴とする、請求項2に記載のストレージシステム。
  5.  前記ストレージシステムは、N(N>1)台の前記正ストレージ装置とN台の前記副ストレージ装置を有し、
     前記N台の正ストレージ装置と前記N台の副ストレージ装置は共通の通信路で接続され、m(1≦m≦N)番目の前記正ストレージ装置の有する第m正ボリュームの複製が、m番目の前記副ストレージ装置の有する第m副ボリュームに格納されるように構成され、
     前記第m正ボリュームのアクセス性能が、あらかじめ定められた目標性能を下回っている場合、前記ストレージシステムは前記N台の正ストレージ装置のうち、優先度の低い前記正ストレージ装置から順に、前記正ストレージ装置に第1の処理タイプによる更新データの格納を行わせる、
    ことを特徴とする、請求項1に記載のストレージシステム。
  6.  正ボリュームを有し、前記正ボリュームのデータの複製を格納する副ボリュームを有する副ストレージ装置に接続される正ストレージ装置であって、
     前記正ストレージ装置は、前記正ボリュームと前記副ボリュームの差分データを前記副ボリュームに複製する形成コピーの実行中に、前記正ストレージ装置に接続されたホスト計算機から、前記正ボリュームに対する更新要求と更新データを受信した時、
     前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を差分情報に記録する、第1の処理タイプと、
     前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みの場合には、前記正ボリュームと前記副ボリュームに前記更新データを格納し、前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みでない場合には、前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を前記差分情報に記録する、第2の処理タイプの、いずれかの処理タイプを用いて更新データの格納を実施するよう構成されており、
     前記正ストレージ装置は、前記形成コピーの実行中に、前記ホスト計算機から前記正ボリュームに対する更新要求と更新データを受信した時、前記第1の処理タイプと前記第2の処理タイプのうち、差分データ量に基づいて、いずれかの処理タイプを選択し、前記選択された処理タイプに従う処理を行う、
    ことを特徴とする、正ストレージ装置。
  7.  前記正ストレージ装置は、差分データ量の変化量に基づいて、第1の処理タイプによる更新データの格納を実施する確率を算出し、前記算出された確率に基づいて前記第1の処理タイプまたは前記第2の処理タイプのいずれかを選択する、
    ことを特徴とする、請求項6に記載の正ストレージ装置。
  8.  前記正ストレージ装置は、差分データがなくなるまで、前記形成コピーを繰り返し実行するよう構成されており、
     前記正ストレージ装置は、前記差分データ量の変化率をもとに前記形成コピー処理の完了予定時刻を算出し、
     前記完了予定時刻が、外部から指定された完了希望時刻より後の場合、前記第1の処理タイプによる更新データの格納を実施する確率を減少させ、
     前記完了予定時刻が、外部から指定された完了希望時刻以前の場合、前記第1の処理タイプによる更新データの格納を実施する確率を増加させる、
    ことを特徴とする、請求項7に記載の正ストレージ装置。
  9.  前記正ストレージ装置は、前記差分データ量が増加傾向にあると判断した時、前記第1の処理タイプによる更新データの格納を実施する確率を減少させ、
     前記差分データ量が減少傾向にあると判断した時、前記第1の処理タイプによる更新データの格納を実施する確率を増加させる、
    ことを特徴とする、請求項7に記載の正ストレージ装置。
  10.  正ボリュームを有する正ストレージ装置と、前記正ストレージ装置に接続され、前記正ボリュームのデータの複製を格納する副ボリュームを有する副ストレージ装置を有するストレージシステムの制御方法であって、
     前記ストレージシステムは、前記正ボリュームと前記副ボリュームの差分データを前記副ボリュームに複製する形成コピーの実行中に、前記正ストレージ装置に接続されたホスト計算機から、前記正ボリュームに対する更新要求と更新データを受信した時、
     前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を差分情報に記録する、第1の処理タイプと、
     前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みの場合には、前記正ボリュームと前記副ボリュームに前記更新データを格納し、前記更新要求で指定されている更新対象領域のデータが、前記形成コピーにより前記副ボリュームに複製済みでない場合には、前記正ボリュームに前記更新データを格納し、更新の行われた領域に前記差分データが格納されている旨を前記差分情報に記録する、第2の処理タイプの、いずれかの処理タイプを用いて更新データの格納を実施するよう構成されており、
     前記正ストレージ装置は、前記形成コピーの実行中に、前記ホスト計算機から前記正ボリュームに対する更新要求と更新データを受信した時、前記第1の処理タイプと前記第2の処理タイプのうち、差分データ量に基づいて、いずれかの処理タイプを選択し、前記選択された処理タイプに従う処理を行う、
    ことを特徴とする、ストレージシステムの制御方法。
PCT/JP2014/083080 2014-12-15 2014-12-15 ストレージシステム WO2016098150A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/083080 WO2016098150A1 (ja) 2014-12-15 2014-12-15 ストレージシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/083080 WO2016098150A1 (ja) 2014-12-15 2014-12-15 ストレージシステム

Publications (1)

Publication Number Publication Date
WO2016098150A1 true WO2016098150A1 (ja) 2016-06-23

Family

ID=56126077

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/083080 WO2016098150A1 (ja) 2014-12-15 2014-12-15 ストレージシステム

Country Status (1)

Country Link
WO (1) WO2016098150A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282258B1 (en) 2017-11-30 2019-05-07 International Business Machines Corporation Device reservation state preservation in data mirroring
US10521147B2 (en) 2017-11-30 2019-12-31 International Business Machines Corporation Device reservation state synchronization in data mirroring
US10613946B2 (en) 2017-11-30 2020-04-07 International Business Machines Corporation Device reservation management for overcoming communication path disruptions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062928A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 複数のサイトにリモートコピーを行うシステム
JP2006236019A (ja) * 2005-02-25 2006-09-07 Hitachi Ltd データコピー方式の切替方法
JP2006293947A (ja) * 2005-04-15 2006-10-26 Hitachi Ltd リモートコピーペアの移行を行うシステム
JP2008250695A (ja) * 2007-03-30 2008-10-16 Nec Corp ディスクアレイコントローラ及びこれを備えたディスクアレイシステム
JP2013515292A (ja) * 2010-06-17 2013-05-02 株式会社日立製作所 複数のマイクロプロセッサを有するストレージシステム、及び、そのストレージシステムにおける処理分担方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062928A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 複数のサイトにリモートコピーを行うシステム
JP2006236019A (ja) * 2005-02-25 2006-09-07 Hitachi Ltd データコピー方式の切替方法
JP2006293947A (ja) * 2005-04-15 2006-10-26 Hitachi Ltd リモートコピーペアの移行を行うシステム
JP2008250695A (ja) * 2007-03-30 2008-10-16 Nec Corp ディスクアレイコントローラ及びこれを備えたディスクアレイシステム
JP2013515292A (ja) * 2010-06-17 2013-05-02 株式会社日立製作所 複数のマイクロプロセッサを有するストレージシステム、及び、そのストレージシステムにおける処理分担方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282258B1 (en) 2017-11-30 2019-05-07 International Business Machines Corporation Device reservation state preservation in data mirroring
US10521147B2 (en) 2017-11-30 2019-12-31 International Business Machines Corporation Device reservation state synchronization in data mirroring
US10613946B2 (en) 2017-11-30 2020-04-07 International Business Machines Corporation Device reservation management for overcoming communication path disruptions
US10884872B2 (en) 2017-11-30 2021-01-05 International Business Machines Corporation Device reservation state preservation in data mirroring
US11119687B2 (en) 2017-11-30 2021-09-14 International Business Machines Corporation Device reservation state synchronization in data mirroring

Similar Documents

Publication Publication Date Title
JP5620614B1 (ja) ストレージシステム
US8521685B1 (en) Background movement of data between nodes in a storage cluster
US8839030B2 (en) Methods and structure for resuming background tasks in a clustered storage environment
US9213490B2 (en) Computer system and data migration method
JP6185668B2 (ja) ストレージ装置
US20120221813A1 (en) Storage apparatus and method of controlling the same
JP2005301590A (ja) ストレージシステム及びデータ複製方法
JP2009122873A (ja) ストレージシステム間でのリモートコピーを管理する装置
JP2011076130A (ja) ストレージクラスタ環境でのリモートコピー制御方法及びシステム
US7886186B2 (en) Storage system and management method for the same
JP2007141047A (ja) 計算機システム及び計算機システムのデータ複製方法
WO2016098150A1 (ja) ストレージシステム
JP2010211318A (ja) デバイス管理装置、デバイス初期化方法、デバイス初期化プログラムおよびデバイスシステム
JP6019940B2 (ja) 情報処理装置、コピー制御プログラム、およびコピー制御方法
US10140183B2 (en) Efficient state tracking for clusters
US20200349073A1 (en) Managing data storage devices for spontaneous de-staging of cache
WO2016059715A1 (ja) 計算機システム
US20180307427A1 (en) Storage control apparatus and storage control method
JP7266060B2 (ja) ストレージシステムの構成変更方法及びストレージシステム
US9619173B1 (en) Updating synchronization progress
US7587466B2 (en) Method and computer system for information notification
WO2016084156A1 (ja) ストレージシステム
JP2007193839A (ja) ストレージシステム、ストレージシステムにおけるデータ送受信方法及びシステム
US20160357479A1 (en) Storage control apparatus
JP2014215990A (ja) ストレージシステム、制御装置、制御プログラムおよび制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14908360

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14908360

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP