JP4990064B2 - ストレージシステム及びバックアップ方法 - Google Patents

ストレージシステム及びバックアップ方法 Download PDF

Info

Publication number
JP4990064B2
JP4990064B2 JP2007207742A JP2007207742A JP4990064B2 JP 4990064 B2 JP4990064 B2 JP 4990064B2 JP 2007207742 A JP2007207742 A JP 2007207742A JP 2007207742 A JP2007207742 A JP 2007207742A JP 4990064 B2 JP4990064 B2 JP 4990064B2
Authority
JP
Japan
Prior art keywords
volume
data
information
storage
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007207742A
Other languages
English (en)
Other versions
JP2009043054A5 (ja
JP2009043054A (ja
Inventor
陽一 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Telecommunication Engineering Ltd
Original Assignee
Hitachi Computer Peripherals Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Computer Peripherals Co Ltd, Hitachi Ltd filed Critical Hitachi Computer Peripherals Co Ltd
Priority to JP2007207742A priority Critical patent/JP4990064B2/ja
Priority to US12/020,801 priority patent/US8065271B2/en
Priority to EP08251741A priority patent/EP2023247A2/en
Publication of JP2009043054A publication Critical patent/JP2009043054A/ja
Publication of JP2009043054A5 publication Critical patent/JP2009043054A5/ja
Application granted granted Critical
Publication of JP4990064B2 publication Critical patent/JP4990064B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1466Management of the backup or restore process to make the backup process non-disruptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1469Backup restoration techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • G06F11/1451Management of the data involved in backup or backup restore by selection of backup contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本願明細書で開示される技術は、ストレージシステムの管理方法に関し、特に、テープライブラリへのデータのバックアップ方法に関する。
企業等の計算機システムが扱うデータの量は、増大する傾向にある。これに伴い、障害等によるデータ消失を防ぐためのバックアップデータの量も増大している。
大量のデータを低コストで保存するため、一般に、階層化されたストレージシステムが使用される。階層化されたストレージシステムにおいて、アクセス頻度が高いデータは、磁気ディスクのように、比較的高価であるが高性能な記憶媒体に格納される。一方、例えばバックアップデータのようにアクセス頻度が低いデータは、磁気テープのように、比較的安価な記憶媒体に格納される。
磁気ディスクに格納されたデータをバックアップのために磁気テープにコピーする処理が、コピー元の磁気ディスク装置の性能に影響を与える場合がある。その結果、コピー元の磁気ディスク装置を使用する他の処理(例えば、その磁気ディスク装置内のデータにアクセスするアプリケーションの処理)の性能が低下する場合がある。このような性能の影響を防ぐため、磁気ディスク装置間のデータコピーと、磁気ディスク装置から磁気テープ装置へのデータコピーとを組み合わせた技術が開示されている(特許文献1参照)。
特許文献1によれば、磁気ディスク装置に設定された二つのボリュームがミラーリングされる。すなわち、一方のボリューム(正ボリューム)のデータが更新されると、その更新がもう一方のボリューム(副ボリューム)にもコピーされる。その結果、それらの二つのボリュームには同一のデータが格納される。それらのボリュームのデータを磁気テープにバックアップするとき、二つのボリューム間のコピーが停止する。副ボリュームのデータが磁気テープにコピーされる間、正ボリュームはアプリケーションによるアクセスを受けることができる。このため、アプリケーションの処理性能に影響を与えることなく、データのバックアップを実行することができる。
一方、ホストコンピュータに対してディスクインターフェースを持ち、論理ボリュームのデータを磁気テープに格納する機能を有するストレージシステムが開示されている(特許文献2参照)。このようなストレージシステムによれば、磁気ディスク装置と磁気テープ装置の記憶領域を論理ボリュームとして統合管理することによって、管理コストを削減することができる。
特開2003−140981号公報 特開2006−163454号公報
上記特許文献1に開示された技術を実現するためには、正ボリュームと同数の副ボリュームを用意する必要がある。副ボリュームには、少なくとも、そのボリュームに割り当てられる記憶容量と同一の記憶容量を割り当てる必要がある。このため、ストレージシステムに搭載する必要がある磁気ディスク装置の容量が増大し、その結果コストが上昇するという問題があった。
本願で開示する代表的な発明は、一つ以上のディスク記憶装置と、テープ記憶装置と、前記一つ以上のディスク記憶装置及び前記テープ記憶装置を制御するコントローラと、を備えるストレージシステムであって、前記テープ記憶装置は、データを格納する複数のテープ記憶媒体を備え、前記複数のテープ記憶媒体は、第1テープ記憶媒体及び第2テープ記憶媒体を含み、前記コントローラは、前記一つ以上のディスク記憶装置の記憶領域を、第1ボリューム、第2ボリューム及び第3ボリュームを含む複数のボリュームに分割し、前記第1ボリュームのデータ格納状況を示す第1情報、前記第2ボリュームのデータ格納状況を示す第2情報、前記第1ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第3情報、及び前記第2ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第4情報を格納するメモリを備え、前記第1ボリュームと前記第3ボリュームとの間で第1コピーペアを設定し、前記第1情報と前記第3情報とを組み合わせ、前記第1情報と前記第3情報とを組み合わせた情報を基に、更新され格納された前記第1ボリュームのデータである第1データを前記第3ボリュームにコピーし、前記第1データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第1テープ記憶媒体に格納し、前記第1コピーペアから前記第2ボリュームと前記第3ボリュームとの間で設定される第2コピーペアに切り替え、前記第2情報と前記第4情報とを組み合わせ、前記第2情報と前記第4情報とを組み合わせた情報を基に、更新され格納された前記第2ボリュームのデータである第2データを前記第3ボリュームにコピーし、前記第2データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第2テープ記憶媒体に格納することを特徴とする。
本発明の一実施形態によれば、アプリケーションの処理性能に影響を与えないデータバックアップを、低コストで実現することができる。
以下、本発明の実施形態を、図面を参照して説明する。
最初に、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態の計算機システムの構成を示すブロック図である。
本実施形態の計算機システムは、ストレージシステム101、ホスト102及び管理端末103を備える。
ストレージシステム101は、ネットワーク105を介してホスト102と接続され、ネットワーク106を介して管理端末103と接続される。ホスト102は、ネットワーク104を介して管理端末103と接続される。
ネットワーク104〜106は、いかなる種類のネットワークであってもよい。例えば、ネットワーク104及び106は、LAN(Local Area Network)のようなIP(Internet Protocol)ネットワークであってもよい。ネットワーク105は、ネットワーク104及び106と同様のネットワークであってもよいし、FC(Fibre Channel)プロトコルが適用されるいわゆるストレージエリアネットワークであってもよい。
ホスト102は、ユーザに種々のサービスを提供する計算機である。ホスト102は、ネットワーク104及び105に接続されるインターフェース(図示省略)、インターフェースに接続されるプロセッサ(図示省略)及びプロセッサに接続されるメモリ(図示省略)を備える。
ホスト102のメモリには、アプリケーションプログラム210及び指示プログラム220が格納される。アプリケーションプログラム210は、ホスト102がユーザにサービスを提供するためにプロセッサによって実行されるプログラムである。アプリケーションプログラム210を実行するプロセッサは、必要に応じて、ストレージシステム101内のデータへのアクセス要求(すなわち、データ書き込み要求又はデータ読み出し要求)を発行する。指示プログラム220は、ユーザがストレージシステム101にデータのバックアップを指示するためにプロセッサによって実行されるプログラムである。指示プログラムによる処理については、後で詳細に説明する(図13等参照)。
なお、図1の例では、ホスト102が指示プログラム220を保持する。しかし、計算機システム内のどの装置が指示プログラム220を保持し、実行してもよい。例えば、管理端末103又はストレージシステム101が指示プログラム220を保持及び実行してもよい。
管理端末103は、本実施形態の計算機システムを管理する計算機である。管理端末103は、ネットワーク104及び106に接続されるインターフェース(図示省略)、インターフェースに接続されるプロセッサ(図示省略)及びプロセッサに接続されるメモリ(図示省略)を備える。
管理端末103のメモリには、管理プログラム310が格納される。管理プログラム310は、ストレージシステム101によるデータバックアップを管理するためにプロセッサによって実行されるプログラムである。管理プログラム310による処理については後で詳細に説明する(図12等参照)。以下の説明において管理プログラム310が実行する処理は、実際には、管理端末103のプロセッサ(図示省略)によって実行される。
ストレージシステム101は、ホスト102によって書き込まれたデータを格納する。本実施形態のストレージシステム101は、コントローラ110、一つ以上のディスク装置120及び一つ以上のテープライブラリ装置130を備える。
コントローラ110は、ディスク装置120及びテープライブラリ装置130を制御するために、少なくともコピー制御プログラム117、ディスク制御プログラム118及びテープ制御プログラム119を保持する。コントローラ110の構成については、後で詳細に説明する(図2参照)。
ディスク装置120は、典型的には磁気ディスクドライブであるが、フラッシュメモリのような半導体記憶装置又はその他の種類の記憶装置であってもよい。図1に示すディスク装置A120A及びディスク装置B120Bの各々は、複数のディスク装置120の一つである。ストレージシステム100は、さらに多くのディスク装置120(例えば図3に示すディスク装置120N)を備えてもよい。複数のディスク装置120がRAID(Redundant Arrays of Inexpensive Disks)を構成してもよい。
ここで、ディスク装置120が提供する記憶領域について図3を参照して説明する。
図3は、本発明の第1の実施形態のディスク装置120が提供する記憶領域の説明図である。
図3の例では、複数のディスク装置120の記憶領域が一つ以上の内部LU(Logical Unit)141に分割して管理される。例えば、図3に示すように、各ディスク装置120の記憶領域の一部の集合が一つの内部LU141として管理されてもよい。図3に示す内部LU141A、141B及び141Cの各々は、複数の内部LU141の一つである。図3に示すLUN00、LUN01及びLUN02は、それぞれ、内部LU141A、141B及び141Cの識別子である。コントローラ110は、任意の容量の内部LU141を任意の数設定することができる。
各内部LU141は、それぞれ一つの論理ボリューム140と対応付けられる。図3の例では、論理ボリューム140A、140B及び140Cが、それぞれ、内部LU141A、141B及び141Cと対応付けられる。論理ボリューム140A、140B及び140Cの各々は、複数の論理ボリューム140の一つである。図3に示すLUN0、LUN1及びLUN2は、それぞれ、論理ボリューム140A、140B及び140Cの識別子である。
各論理ボリューム140は、ホスト102によって一つの論理的な記憶装置として認識される。例えば、ホスト102が論理ボリューム140Aにデータを書き込む要求を発行すると、コントローラ110は、要求されたデータを、論理ボリューム140Aに対応する内部LU141Aに格納する。
再び図1を参照する。
テープライブラリ装置130は、一つ以上のテープドライブ131及び一つ以上のテープ132を備える。図1に示すテープライブラリ装置130は、テープドライブA131A、テープドライブB131B、テープA132A及びテープB132Bを備える。テープドライブA131A及びテープドライブB131Bの各々は、複数のテープドライブ131の一つである。テープA132A及びテープB132Bの各々は、複数のテープ132の一つである。各テープ132は、具体的には1巻のテープ記憶媒体に相当する。一つ以上のテープ132が一つのテープグループ142を構成してもよい(図4及び図5参照)。テープライブラリ装置130は、さらに多くのテープドライブ131及びテープ132を備えてもよい。
図2は、本発明の第1の実施形態のコントローラ110の構成を示すブロック図である。
本実施形態のコントローラ110は、メモリ111、CPU112、上位インターフェース(I/F)113、下位I/F114、I/F115及びブリッジ116を備える。
メモリ111は、例えば半導体記憶装置のようなデータ記憶装置である。メモリ111には、CPU112によって実行されるプログラム及びCPU112によって参照されるデータが格納される。本実施形態のメモリ111には、少なくとも、コピー制御プログラム117、ディスク制御プログラム118及びテープ制御プログラム119が格納される。
コピー制御プログラム117は、コンシステンシグループ(CTG)管理テーブル1171、複製用ボリュームグループ(複製用VolG)管理テーブル1172、複製グループ(複製G)管理テーブル1173及び状態管理テーブル1174を含む。
ディスク制御プログラム118は、ディスク管理テーブル1181を含む。
テープ管理プログラム119は、テープ管理テーブル1191を含む。
これらのプログラム及びテーブルについては、後で詳細に説明する。
CPU112は、メモリ111に格納されたプログラムを実行するプロセッサである。以下の説明において各プログラムが実行する処理は、実際には、各プログラムを実行するCPU112によって実行される。
上位I/F113は、コントローラ110を、ネットワーク105を介してホスト102に接続するためのインターフェースである。下位I/F114は、コントローラ110をディスク装置120に接続するためのインターフェースである。上位I/F113及び下位I/F114は、例えばSCSIアダプタ又はFCアダプタであってもよい。
I/F115は、コントローラ110を、ネットワーク106を介して管理端末103に接続するためのインターフェースである。ネットワーク106がLANである場合、I/F115はいわゆるネットワークインターフェースカードであってもよい。
ブリッジ116は、メモリ111、CPU112、上位I/F113、下位I/F114及びI/F115を接続し、これらの間で行われる通信を制御する。
図4は、本発明の第1の実施形態において実行されるバックアップの概要の説明図である。
図4において、論理ボリューム140A〜140Nの各々は、複数の論理ボリューム140の一つである。図4に表示されたLUN0〜LUN8は、それぞれ、論理ボリューム140A〜140Iの識別子である。LUN10〜LUN14は、それぞれ、論理ボリューム140J〜140Nの識別子である。以下の説明において、各論理ボリューム140は、その論理ボリューム140の識別子によっても表示される。例えば、論理ボリューム140Aは、LUN0と表示される。
複数の論理ボリューム140が、コンシステンシグループ(CTG)402を構成してもよい。コンシステンシグループ402とは、データの一貫性(コンシステンシ)が保証されている必要がある複数の論理ボリューム140の集合である。例えば、一つのアプリケーションの一つのインスタンスに関する複数の論理ボリューム140が一つのコンシステンシグループ402を構成してもよいし、一つのデータベースに関する複数の論理ボリューム140が一つのコンシステンシグループ402を構成してもよい。
図4の例では、LUN0及びLUN1がコンシステンシグループ402Aを構成する。LUN2及びLUN3がコンシステンシグループ402Bを構成する。LUN4及びLUN5がコンシステンシグループ402Cを構成する。LUN6、LUN7及びLUN8がコンシステンシグループ402Dを構成する。コンシステンシグループ402A〜402Dの各々は、複数のコンシステンシグループ402の一つである。
図4に表示されたCTG0〜CTG3は、それぞれ、コンシステンシグループ402A〜402Dの識別子である。以下の説明において、各コンシステンシグループ402は、そのコンシステンシグループ402の識別子によっても表示される。例えば、コンシステンシグループ402Aは、CTG0とも表示される。
後述するように、論理ボリューム140から取得されたバックアップデータが、テープ132に格納される。バックアップデータとは、それが取得された時点で論理ボリューム140に格納されていたデータの複製である。コントローラ110は、バックアップデータを用いて、そのバックアップデータが取得された時点の論理ボリューム140を復元することができる。
前述のように、一つのコンシステンシグループ402に属する複数の論理ボリューム140において、格納されているデータの一貫性が保証される必要がある。このため、一つのコンシステンシグループ402に属する複数の論理ボリューム140のバックアップデータは、同一のタイミングを基準にして取得する必要がある。
例えば、図4において、LUN0及びLUN1がCTG0に属する。この例において、ある時点のLUN0と、別のある時点のLUN1とが復元された場合、それらのLUN0及びLUN1に格納されたデータを使用することはできない。複数の論理ボリューム140にそれぞれ異なる時点において格納されていたデータの一貫性は保証されないためである。
したがって、同一の時点のLUN0及びLUN1を復元できるように、ある時点でLUN0のバックアップデータを取得するときには、その時点におけるLUN1のバックアップデータも取得する必要がある。そして、LUN0のバックアップデータを使用してLUN0を復元するときには、そのLUN0のバックアップデータと同時に取得されたLUN1のバックアップデータを使用して、LUN1も復元する必要がある。
LUN10〜LUN14は、LUN0〜LUN8に格納されたデータの複製を格納する論理ボリューム140である。以下の説明において、データのコピー元であるLUN0〜LUN8を総称して正ボリューム(正Vol)、コピー先であるLUN10〜LUN14を総称して副ボリューム(副Vol)とも記載する。正Volと、その正Volに格納されたデータの複製を格納する副Volとの組み合わせは、コピーペアと記載される。なお、後述するように、正Volと副Volには、それぞれ、異なるディスク装置120の記憶領域が割り当てられていることが望ましい。
正Volがコンシステンシグループ402に属する場合、その正Volに格納されたデータの複製を格納する副Volもコンシステンシグループに属する。副Volが構成するコンシステンシグループは、図4において複製用ボリュームグループ(複製用VolG)403と記載される。図4に示す複製用ボリュームグループ403A及び403Bの各々は、複数の複製用ボリュームグループ403の一つである。
図4に示す複製用VolG0及び複製用VolG1は、それぞれ、複製用ボリュームグループ403A及び403Bの識別子である。以下の説明において、各複製用ボリュームグループ403は、その複製用ボリュームグループ403の識別子によっても表示される。例えば、複製用ボリュームグループ403Aは、複製用VolG0とも表示される。
正Volと、その正Volに格納されたデータの複製を格納する副Volとが、それぞれ、コンシステンシグループ402及び複製用ボリュームグループ403に属する場合、そのコンシステンシグループ402と複製用ボリュームグループ403との組み合わせも、コピーペアと記載される。
各テープグループ(TG)142は、一つ以上のテープ132を含む(詳細は図5参照)。一つのテープグループ142は、一つのコンシステンシグループ402に対応する。言い換えると、一つのテープグループ142には、一つのコンシステンシグループ402に格納されていたデータの少なくとも一部が格納される。
図4に示すテープグループ142A〜142Rの各々は、複数のテープグループ142の一つである。図4に示すTG10〜TG24は、それぞれ、テープグループ142A〜142Oの識別子である。TG30〜TG32は、それぞれ、テープグループ142P〜142Rの識別子である。以下の説明において、各テープグループ142は、そのテープグループ142の識別子によっても表示される。例えば、テープグループ142Aは、TG10とも表示される。
正Volは、ホスト102のアプリケーションプログラム210によって書き込まれるデータの書き込み先として指定される。すなわち、アプリケーションプログラム210によって書き込まれたデータは、まず、いずれかの正Volに格納される。正Volに格納されたデータは、副Volにコピーされる。その結果、副Volには、正Volに格納されたデータの複製が格納される。副Volに格納されたデータは、バックアップデータとしてテープグループ142にコピーされる。このようなデータのバックアップ方法は、Disk to Disk to Tapeバックアップ(D2D2Tバックアップ)とも呼ばれる。
D2D2Tバックアップによれば、正Volは、テープグループ142へのバックアップデータのコピーに関与しない。このため、正Volと副Volのそれぞれに、異なるディスク装置120の記憶領域が割り当てられていれば、アプリケーションプログラム210による正Volへのデータ書き込み処理の性能に影響を与えることなく、副Volからテープグループ142へのデータのバックアップを実行することができる。
従来のD2D2Tバックアップでは、正Volと、その正Volに格納されたデータの複製を格納する副Volとが1対1に対応付けられている必要があった。言い換えると、正Volと同数の副Volを用意する必要があった。各副Volは、少なくとも、その副Volに対応する正Volと同一の容量を有する必要がある。このため、従来のD2D2Tバックアップを実現するためには、正Volの容量の少なくとも倍の容量のディスク装置120を用意する必要があった。
一方、本実施形態によれば、一つの副Volが、コピーペア切り替えによって、複数の正Volに順次対応付けられる。
例えば、ある時点において、LUN10はLUN0とコピーペアを構成する(すなわち、LUN10はLUN0に対応付けられている)。この場合、LUN10には、LUN0に格納されたデータの複製が格納される。そして、LUN10に格納されたデータが、いずれかのテープグループ(例えば、TG10)にコピーされる。
その後、コピーペアが切り替えられた結果、LUN10はLUN2とコピーペアを構成する。この場合、LUN10には、LUN2に格納されたデータの複製が格納される。そして、LUN10に格納されたデータが、いずれかのテープグループ(例えば、TG15)にコピーされる。
このように、本実施形態によれば、正Volと同数の副Volを用意する必要がないため、ストレージシステム101のハードウェアのコストを削減することができる。
本実施形態において、一つの副Vol、その副Volに対応付けられる可能性がある正Vol、及び、それらの正Volに格納されたデータをバックアップするテープ132の集合は、複製グループ(複製G)401と記載される。図4に示す複製グループ401A及び401Bの各々は、複数の複製グループ401の一つである。図4に示す複製G0及び複製G1は、それぞれ、複製グループ401A及び401Bの識別子である。以下の説明において、各複製グループ401は、その複製グループ401の識別子によっても表示される。例えば、複製グループ401Aは、複製G0とも表示される。
なお、副Volは、その副Volに対応付けられる可能性がある複数の正Volのうち、最も容量が大きいものと少なくとも同一の容量を有する必要がある。例えば、図4において、LUN10は、LUN0及びLUN2に対応付けられる可能性がある。仮にLUN2の容量がLUN0の容量より大きい場合、LUN10は、少なくともLUN2と同一の容量を有する必要がある。
さらに、複製用ボリュームグループ403は、その複製用ボリュームグループ403に対応付けられる可能性がある複数のコンシステンシグループ402のうち、それに含まれる論理ボリューム140の数が最も多いものと同一の数の論理ボリューム140を含む必要がある。例えば、図4において、複製用VolG1は、CTG2及びCTG3と対応付けられる可能性がある。CTG2は、二つの論理ボリューム140を含む。一方、CTG3は、三つの論理ボリューム140を含む。この場合、複製用VolG1は、少なくとも三つの論理ボリューム140を含む必要がある。
上記のように、本実施形態によれば、コピーペア切り替えによって一つの副Volが複数の正Volに共有される。この場合、コピーペア切り替えの度に、新たにコピーペアに属することになった正Volに格納されたデータを副Volにコピーする必要がある。このとき、正Volに格納された全てのデータを副Volにコピーしてもよいが、正Volの容量が大きくなるほど、コピーに要する時間は長くなる。このコピーに要する時間を短縮するために、ビットマップ405が使用されてもよい。
ビットマップ405は、メモリ111内の記憶領域に格納されてもよいし、ディスク装置120内の記憶領域に格納されてもよい。図4に示すビットマップ405A〜405Rの各々は、複数のビットマップ405の一つである。図4に示すBM0〜BM8は、それぞれ、ビットマップ405A〜405Iの識別子である。BM10〜BM18は、それぞれ、ビットマップ405J〜405Rの識別子である。以下の説明において、各ビットマップ405は、そのビットマップ405の識別子によっても表示される。例えば、ビットマップ405Aは、BM0とも表示される。
一つの正Volには、一つのビットマップ405が割り当てられる。図4の例では、LUN0〜LUN8には、それぞれ、BM0〜BM8が割り当てられる。
一方、一つの副Volには、複数のビットマップ405が割り当てられる場合がある。図4の例では、LUN10には、BM10及びBM12が割り当てられる。この例において、BM10は、LUN0に対応するビットマップ405であり、BM12は、LUN2に対応するビットマップ405である。同様にして、LUN11には、BM11及びBM13が割り当てられる。LUN12には、BM14及びBM16が割り当てられる。LUN13には、BM15及びBM17が割り当てられる。LUN14には、BM18が割り当てられる。
各ビットマップ405は、複数のビットを含む。各ビットマップ405の各ビットは、そのビットマップ405が割り当てられた論理ボリューム140の記憶領域と対応する。各ビットマップ405の各ビットの値は、そのビットに対応する記憶領域のデータが更新されたか否か、すなわち、そのビットに対応する記憶領域のデータを正Volから副Volにコピーする必要があるか否かを示している。
具体的には、正Volに割り当てられたビットマップ405のビットの値が「ON」である場合、そのビットに対応する正Volの記憶領域のデータが更新されたが、その更新されたデータがまだ副Volにコピーされていないことを示している。一方、副Volに割り当てられたビットマップ405のビットの値が「ON」である場合、そのビットに対応する副Volの記憶領域のデータが、そのビットマップ405に対応する正Volのデータ以外のデータによって更新されたことを示す。
例えば、図4において、BM0は、LUN0に割り当てられる。LUN0のデータが更新されると、そのデータが格納された領域に対応するBM0のビットが「ON」に設定される。そして、そのデータがLUN10にコピーされると、そのデータを含む領域に対応するBM0のビットが「OFF」に設定される。
さらに、図4において、LUN10に割り当てられたBM10は、LUN0に対応する。この例において、LUN10に、LUN2に格納されたデータがコピーされた場合、そのデータが格納された領域に対応するBM10のビットが「ON」に設定される。そして、そのデータが格納された領域に、LUN0に格納されたデータが新たにコピーされた場合、そのデータが格納された領域に対応するBM10のビットが「OFF」に設定される。
このように、正Volと副Volとの間で同期が保証されていない領域に対応するビットマップ405のビットが「ON」に設定される。
なお、ビットマップ405のビットの値「1」が「ON」、「0」が「OFF」に対応してもよいし、「0」が「ON」、「1」が「OFF」に対応してもよい。
ビットマップ405の設定方法及び使用方法については、後で詳細に説明する(図13から図15参照)。
本実施形態では、さらに、テープグループ142へのバックアップの際に、ビットマップ406が使用されてもよい。ビットマップ406は、メモリ111内の記憶領域に格納されてもよいし、ディスク装置120内の記憶領域に格納されてもよい。さらに、ビットマップ406は、テープグループ142へのバックアップが実行されるときに、バックアップデータに加えてテープグループ142に格納される。
図4に示すビットマップ406A〜406Iの各々は、複数のビットマップ406の一つである。図4に示すBM20〜BM28は、それぞれ、ビットマップ406A〜406Iの識別子である。以下の説明において、各ビットマップ406は、そのビットマップ406の識別子によっても表示される。
ビットマップ406は、正Volに割り当てられたビットマップ405の複製である。ビットマップ406の設定方法及び使用方法については、後で詳細に説明する(図13から図15参照)。
図5は、本発明の第1の実施形態のテープグループ142の説明図である。
各テープグループ142は、コンシステンシグループ402に対応する。一つのテープグループ142に要求される記憶容量が、一つのテープ132の記憶容量より大きい場合、一つのテープグループ142は、複数のテープ132を含む。図5の例では、テープグループ142Aは、テープ132A〜132Jを含む。テープグループ142Bは、テープ132K〜132Nを含む。
図6は、本発明の第1の実施形態のCTG管理テーブル1171の説明図である。
CTG管理テーブル1171は、各コンシステンシグループ402に含まれる論理ボリューム140の識別子を管理する。
CTG管理テーブル1171は、CTG−ID11711及びLUN11712を含む。
CTG−ID11711は、コンシステンシグループ402の識別子を示す。図6の例では、CTG−ID11711として「0」〜「3」が格納される。これらは、それぞれ、図4に示すCTG0〜CTG3に相当する。
LUN11712は、各コンシステンシグループ402に含まれる論理ボリューム140の識別子を示す。図6の例では、CTG0に対応するLUN11712として「0」及び「1」が格納される。これらは、それぞれ、図4に示すLUN0及びLUN1に相当する。すなわち、これらは、図4に示すように、CTG0にLUN0及びLUN1が含まれることを意味する。
図7は、本発明の第1の実施形態の複製用VolG管理テーブル1172の説明図である。
複製用VolG管理テーブル1172は、各複製用ボリュームグループ403に含まれる論理ボリューム140の識別子を管理する。
複製用VolG管理テーブル1172は、複製用VolG−ID11721及びLUN11722を含む。
複製用VolG−ID11721は、複製用ボリュームグループ403の識別子を示す。図7の例では、複製用VolG−ID11721として「0」及び「1」が格納される。これらは、それぞれ、図4に示す複製用VolG0及び複製用VolG1に相当する。
LUN11722は、各複製用ボリュームグループ403に含まれる論理ボリューム140の識別子を示す。図7の例では、複製用VolG0に対応するLUN11722として「10」及び「11」が格納される。これらは、それぞれ、図4に示すLUN10及びLUN11に相当する。すなわち、これらは、図4に示すように、複製用VolG0にLUN10及びLUN11が含まれることを意味する。
図8は、本発明の第1の実施形態の複製グループ管理テーブル1173の説明図である。
複製グループ管理テーブル1173は、各複製グループ401の構成要素(例えば、各複製グループ401に含まれる論理ボリューム140等)を管理する。
複製グループ管理テーブル1173は、複製G−ID11731、複製用VolG−ID11732、CTG−ID11733、TG−ID11734、正Vol用BM−ID11735、副Vol用BM−ID11736及びテープコピー用BM−ID11737を含む。
複製G−ID11731は、複製グループ401の識別子を示す。図8の例では、複製G−ID11731として「0」及び「1」が格納される。これらは、それぞれ、図4に示す複製G0及び複製G1に相当する。
複製用VolG−ID11732は、図7の複製用VolG−ID11721と同様に、複製用ボリュームグループ403の識別子を示す。例えば、図8では、複製G0に対応する複製用VolG−ID11732として、「0」が格納されている。これは、図4に示すように、複製G0に複製用VolG0が含まれることを示す。
CTG−ID11733は、図6のCTG−ID11711と同様に、コンシステンシグループ402の識別子を示す。例えば、図8では、複製用VolG0に対応するCTG−ID11733として、「0」及び「1」が格納されている。これらは、図4に示すように、複製用VolG0がCTG0及びCTG1に対応すること、すなわち、複製用VolGが、データのコピー先としてCTG0及びCTG1に共有されることを示す。
TG−ID11734は、テープグループ142の識別子を示す。例えば、TG−ID11734に格納されている値「10」は、図4のTG10に相当する。例えば、図8では、CTG0に対応するTG−ID11734として、「10」〜「14」が格納されている。これらは、CTG0に格納されたデータが、TG10〜TG14にバックアップされることを示す。
正Vol用BM−ID11735は、正Volに割り当てられたビットマップ405の識別子を示す。例えば、正Vol用BM−ID11735に格納されている値「0」は、図4に示すBM0に相当する。例えば、図8では、CTG0に対応する正Vol用BM−ID11735として、「0」及び「1」が格納されている。これらは、CTG0に含まれる正Vol(すなわちLUN0及びLUN1)に、BM0及びBM1が割り当てられることを示す。
副Vol用BM−ID11736は、副Volに割り当てられたビットマップ405の識別子を示す。例えば、副Vol用BM−ID11736に格納されている値「10」は、図4に示すBM10に相当する。例えば、図8では、CTG0に対応する副Vol用BM−ID11736として、「10」及び「11」が格納されている。これらは、複製用VolG0に含まれる副Vol(すなわちLUN10及びLUN11)に、CTG0に対応するビットマップ405として、BM10及びBM11が割り当てられることを示す。例えば、BM10は、LUN10に割り当てられ、LUN0に対応する。BM11は、LUN11に割り当てられ、LUN1に対応する。
テープコピー用BM−ID11737は、テープグループ142へのデータバックアップの際に使用されるビットマップ406の識別子を示す。例えば、テープコピー用BM−ID11737に格納されている値「20」は、図4に示すBM20に相当する。例えば、図8では、CTG0に対応するテープコピー用BM−ID11737として、「20」及び「21」が格納されている。これらは、TG10〜TG14にデータがバックアップされる際にBM20及びBM21が使用されることを示す。
図9は、本発明の第1の実施形態の状態管理テーブル1174の説明図である。
状態管理テーブル1174は、コンシステンシグループ402と複製用ボリュームグループ403との間に設定されているコピーペアの状態を管理する。
状態管理テーブル1174は、複製G−ID11741、複製用VolG−ID11742、CurrentCTG−ID11743、CurrentTG−ID11744及び状態11745を含む。
複製G−ID11741は、図8の複製G−ID11731と同様に、複製グループ401の識別子を示す。
複製用VolG−ID11742は、図8の複製用VolG−ID11732と同様に、複製用ボリュームグループ403の識別子を示す。
CurrentCTG−ID11743は、カレントコンシステンシグループの識別子、すなわち、現在複製用ボリュームグループ403とコピーペアを構成しているコンシステンシグループ402の識別子を示す。例えば、図9では、複製用VolG0に対応するCurrentCTG−ID11743として「0」が、複製用VolG1に対応するCurrentCTG−ID11743として「3」が格納されている。これらは、現在、CTG0と複製用VolG0とがコピーペアを構成し、CTG3と複製用VolG1とがコピーペアを構成していることを示す。
CurrentTG−ID11744は、現在実行されているバックアップ(すなわち複製用ボリュームグループ403からテープグループ142へのデータのコピー)のコピー先として設定されているテープグループ142の識別子を示す。現在バックアップが実行されていない場合、CurrentTG−ID11744には、バックアップが実行されていないことを示す値が格納されてもよいし、有効な値が格納されなくてもよい。
例えば、図9では、CTG0及び複製用VolG0に対応するCurrentTG−ID11744として有効な値が格納されておらず、CTG3及び複製用VolG1に対応するCurrentTG−ID11744として「30」が格納されている。これらは、現在、複製用VolG0からテープグループ142へのコピーが実行されておらず、複製用VolG1からTG30へのコピーが実行されていることを示す。
状態11745は、コピーペアの状態を示す。具体的には、状態11745には、「ペア(PAIR)」、「静止化(SUSPEND)」、「同期中(COPY)」及び「テープコピー中(TAPE COPY)」のいずれかが格納される。
状態「ペア」は、コピーペアの正Volにデータが書き込まれると、その書き込まれたデータの複製を副Volに転送し、副Volに書き込む処理が実行される状態を示す。その結果、正Volに対して行われた更新が、副Volにも反映される。例えば、正Volにデータが書き込まれ、そのデータの複製が副Volに書き込まれた後に、正Volへの書き込み処理の完了通知がホスト102に送信されてもよい。
状態「静止化」は、コピーペアの正Volにデータが書き込まれても、その書き込まれたデータの複製が副Volに転送されない状態を示す。このため、コピーペアの状態が「静止化」である間、正Volに対して行われたデータの更新は、副Volに反映されない。
状態「同期中」は、コピーペアの状態を「静止化」から「ペア」に変更するときに発生する過渡的な状態を示す。具体的には、状態が「同期中」であるコピーペアにおいて、正Volに格納された全てのデータが副Volにコピーされてもよい。
あるいは、コピーペアの状態が「静止化」であった間に正Vol又は副Volにおいて更新された領域のデータのみが、正Volから副Volにコピーされてもよい。具体的には、正Volに割り当てられたビットマップ405及び副Volに割り当てられたビットマップ405のうち少なくとも一方で「ON」に設定されているビットに対応する領域のデータのみが、正Volから副Volにコピーされてもよい。副Volに格納されたデータが正Volに格納されたデータと一致した時点で、コピーペアの状態は「同期中」から「ペア」に遷移する。
状態「テープコピー中」は、複製用ボリュームグループ403に格納されたデータのテープグループ142へのコピーが実行されている状態を示す。状態が「テープコピー中」であるコピーペアでは、「静止化」の場合と同様、正Volから副Volへのデータコピーが実行されない。
例えば、図9では、CTG0及び複製用VolG0に対応する状態11745として「ペア」が格納されている。これは、現在CTG0へのデータの書き込みが実行されると、その書き込まれたデータの複製が複製用VolG0にも書き込まれることを示す。一方、CTG3及び複製用VolG1に対応する状態11745として「テープコピー中」が格納されている。これは、現在、複製用VolG1からテープグループ142(図9の例ではTG30)へのコピーが実行されていることを示す。
図10は、本発明の第1の実施形態のディスク管理テーブル1181の説明図である。
ディスク管理テーブル1181は、ディスク装置120の記憶領域を管理するために必要な情報を保持する。
ディスク管理テーブル1181は、論理ボリュームID11811、内部LUN11812、LUサイズ11813及び物理ディスクアドレス11814を含む。
論理ボリュームID11811は、論理ボリューム140の識別子を示す。例えば、図10では、論理ボリュームID11811として「0」及び「1」が格納されている。これらは、それぞれ、図3及び図4に示すLUN0及びLUN1に相当する。
内部LUN11812は、論理ボリューム140に対応付けられた内部LU141の識別子を示す。例えば、図10では、LUN0及びLUN1に対応する内部LUN11812として「00」及び「01」が格納されている。これらは、それぞれ、図3に示すLUN00及びLUN01に相当する。
LUサイズ11813は、各内部LU141に割り当てられている記憶領域のサイズ、すなわち、その記憶領域に格納できるデータの容量を示す。例えば、図10では、LUN00及びLUN01に対応するLUサイズ11813として、それぞれ、「1テラバイト(TB)」及び「500ギガバイト(GB)」が格納されている。これらは、LUN00及びLUN01としてそれぞれ1TB及び500GBの記憶領域が割り当てられていることを示す。
物理ディスクアドレス11814は、各内部LU141に割り当てられているディスク装置120内の記憶領域のアドレスを示す。例えば、図10では、LUN00に対応する物理ディスクアドレス11814として、「A:0−2000、B:0−2000、・・・、N:0−2000」が格納されている。これは、少なくとも、ディスク装置120Aのアドレス0からアドレス2000までの記憶領域、ディスク装置120Bのアドレス0からアドレス2000までの記憶領域、及び、ディスク装置120Nのアドレス0からアドレス2000までの記憶領域が、LUN00として割り当てられていることを示す。
なお、図10では省略されているが、ディスク管理テーブル1181は、さらに、図4に示すLUN2〜LUN14に対応する論理ボリュームID11811、内部LUN11812、LUサイズ11813及び物理ディスクアドレス11814を格納してもよい。
図11は、本発明の第1の実施形態のテープ管理テーブル1191の説明図である。
テープ管理テーブル1191は、テープグループ142を管理するために必要な情報を保持する。
テープ管理テーブル1191は、TG−ID11911、Tape−ID11912及びKeyword11913を含む。
TG−ID11911は、テープグループ142の識別子を示す。例えば、図11では、TG−ID11911として「10」、「11」及び「12」が格納されている。これらは、それぞれ、図4に示すTG10〜TG12に相当する。
Tape−ID11912は、各テープグループ142に含まれるテープ132の識別子である。例えば、図11では、TG10に対応するTape−ID11912として、「1000、1001、1002」が格納されている。これは、TG10が、識別子「1000」、「1001」及び「1002」によって識別される三つのテープ132を含むことを示す。
Keyword11913は、ユーザがテープグループ142を検索するときに使用されるキーワードを示す。ユーザは、データをテープグループ142にバックアップするときに、任意のキーワードを指定することができる。例えば、ユーザは、バックアップ元であるコンシステンシグループ402の識別子、及び、バックアップが実行された日時等をキーワードとして指定してもよい。このようにして指定されたキーワードが、Keyword11913として格納される。図11の例では、TG10に対応するKeyword11913として、「ABCDE」が格納されている。
ユーザは、コンシステンシグループ402を復元(リストア)するために、テープグループ142に格納されたデータを論理ボリューム140にコピーすることができる。このコピーを実行するときに、ユーザは、コピー元のテープグループ142を、Keyword11913に格納されたキーワードによって指定することができる(図16参照)。
なお、図11では省略されているが、テープ管理テーブル1191は、さらに、図4に示すTG13〜TG32に対応するTG−ID11911、Tape−ID11912及びKeyword11913を格納してもよい。
次に、本実施形態において実行される処理について、フローチャートを参照して説明する。
以下の説明は、複数の論理ボリューム140がコンシステンシグループ402を構成する場合についてのものである。しかし、本発明は、コンシステンシグループ402が構成されない場合にも適用することができる。その場合にも、一つの論理ボリューム140が一つのコンシステンシグループ402を構成すると仮定することによって、以下の説明を適用することができる。その場合、論理ボリューム140の識別子がコンシステンシグループ402の識別子として使用されてもよい。
図12は、本発明の第1の実施形態において実行される複製用ボリュームグループ作成処理1200のフローチャートである。
図12に示す処理は、複数のコンシステンシグループ402に対応付けられる複製用ボリュームグループ403を作成するために実行される。
複製用ボリュームグループ作成処理1200が開始されると、管理者は、グループ化される複数のコンシステンシグループ402の識別子を管理プログラム310に入力する(ステップ1201)。ここで、グループ化される複数のコンシステンシグループ402とは、一つの複製用ボリュームグループ403へのデータのコピー元となる複数のコンシステンシグループ402を意味する。例えば、ステップ1201において、図4に示す複製用VolG0を作成するために、CTG0及びCTG1が入力されてもよい。
次に、管理プログラム310は、ステップ1201において入力された識別子をコントローラ110に送信する(ステップ1202)。
次に、コントローラ110のコピー制御プログラム117は、ディスク管理テーブル1181を参照して、ステップ1201において入力された識別子によって識別される複数のコンシステンシグループ402の最大論理ボリューム数及び最大論理ボリュームサイズを算出する(ステップ1203)。
次に、ディスク制御プログラム118は、ステップ1203において算出された最大論理ボリューム数及び最大論理ボリュームサイズに基づいて、ストレージシステム101内の空きディスク容量から、複製用ボリュームグループ403を作成するために必要な論理ボリューム140を作成する。または、ストレージシステム101内に未割り当ての内部LU141(即ち論理ボリューム140に対応付けられていない内部LU141)が存在する場合は、未割り当ての内部LU141から要件に該当する内部LU(必要容量と同一サイズまたはそれより大きなサイズの内部LU)を選択して、当該内部LUを論理ボリュームとして用いてもよい(ステップ1204)。
例えば、図4の複製G1に示すように、2個の論理ボリューム140を含むCTG2及び3個の論理ボリューム140を含むCTG3がグループ化される場合、それらのうち最大の論理ボリューム数である「3」が最大論理ボリューム数として算出される(ステップ1203)。この場合、3個の論理ボリューム140(すなわちLUN12〜LUN14)が、複製用VolG1のために作成される(ステップ1204)。
さらに、この場合において、LUN4及びLUN6のうち大きい方のサイズ、LUN5及びLUN7のうち大きい方のサイズ、及び、LUN8のサイズが、最大論理ボリュームサイズとして算出される(ステップ1203)。そして、算出されたそれらのサイズ(又はそれらより大きいサイズ)が、それぞれ、LUN12〜LUN14のサイズとして設定される(ステップ1204)。例えば、LUN6よりLUN4のサイズが大きく、LUN7よりLUN5のサイズが大きい場合、LUN12には少なくともLUN4と同一の容量の記憶領域が、LUN13には少なくともLUN5と同一の容量の記憶領域が、LUN14には少なくともLUN8と同一の容量の記憶領域が割り当てられる。
次に、コピー制御プログラム117は、作成された論理ボリューム140の識別子及び作成された複製用ボリュームグループ403に関する情報を、複製用VolG管理テーブル1172及び複製グループ管理テーブル1173に登録する(ステップ1205)。さらに、ステップ1205において、ディスク制御プログラム118は、作成または選択された論理ボリューム140の識別子、サイズ及びアドレスを、ディスク管理テーブル1181に登録する。
以上で、複製用ボリュームグループ作成処理1200が終了する。
図13は、本発明の第1の実施形態において実行されるフルバックアップ取得処理1300のフローチャートである。
フルバックアップ取得処理1300は、コンシステンシグループ402に格納されている全データの複製をテープグループ142に格納する処理である。コンシステンシグループ402に格納されているデータは、図4において説明したように、複製用ボリュームグループ403を経由してテープグループ142にコピーされる。
指示プログラム220がバックアップ指示を発行したときに、フルバックアップ取得処理1300が開始される(ステップ1301)。このバックアップ指示は、バックアップ対象のコンシステンシグループ402、そのコンシステンシグループ402を含む複製グループ401、及び、キーワードを指定する情報を含む。バックアップ対象のコンシステンシグループ402とは、そのバックアップによってコピーされるデータのコピー元のコンシステンシグループ402である。
バックアップ対象のコンシステンシグループ402、及び、そのコンシステンシグループ402を含む複製グループ401は、それらの識別子によって指定される。一つのコンシステンシグループ402のみがバックアップ対象として指定されてもよいし、複数のコンシステンシグループ402がバックアップ対象として指定されてもよい。バックアップ指示によって指定される情報は、指示プログラム220を使用するユーザによって入力されてもよい。
バックアップ指示を受信したコピー制御プログラム117は、状態管理テーブル1174を参照する(ステップ1302)。
次に、コピー制御プログラム117は、バックアップ対象として指定された一つ又は複数のコンシステンシグループ402の中に、カレントコンシステンシグループ(CurrentCTG)が含まれるか否かを判定する(ステップ1303)。具体的には、コピー制御プログラム117は、バックアップ対象として指定された一つ又は複数のコンシステンシグループ402の識別子のうち一つが、状態管理テーブル1174のCurrentCTG−ID11743に登録されている場合、ステップ1303において「含まれる(すなわちYES)」と判定する。
ステップ1303において「YES」と判定された場合、コピー制御プログラム117は、その時点のカレントコンシステンシグループを選択する(ステップ1304)。
一方、ステップ1303において「NO」と判定された場合、コピー制御プログラム117は、未処理のコンシステンシグループ402のうち一つを選択して、その選択されたコンシステンシグループがカレントコンシステンシグループとなるようにペアを切り替える。このとき、同期処理のデータ量をなるべく少なくするため、未処理のコンシステンシグループのうち総容量の小さいコンシステンシグループから選択するようにしてもよい(ステップ1305)。未処理のコンシステンシグループとは、バックアップ対象として指定された一つ以上のコンシステンシグループ402のうち、格納されているデータが今回のフルバックアップ取得処理によってまだテープグループにコピーされていないものを意味する。
具体的には、ステップ1305において、選択された未処理のコンシステンシグループの識別子を、新たに状態管理テーブル1174のCurrentCTG−ID11743に登録する。ステップ1305の結果、選択された未処理のコンシステンシグループ402は、複製用ボリュームグループ403とコピーペアを構成する。
ステップ1304又はステップ1305が実行された後、処理はステップ1306に進む。
ステップ1306において、コピー制御プログラム117は、ステップ1304又はステップ1305において選択されたコンシステンシグループ402の差分管理を停止する。以後、ホスト102から選択されたコンシステンシグループ402への書き込み要求があった場合、ビットマップ405は更新されない。そして、書き込みを要求されたデータは選択されたコンシステンシグループ402に格納され、さらに、そのデータの複製が複製用ボリュームグループ403にも格納される。
次に、コピー制御プログラム117は、正Vol用ビットマップを副Vol用ビットマップにマージする(ステップ1307)。図13〜図15の説明において、正Vol用ビットマップとは、選択されたコンシステンシグループ402に割り当てられたビットマップ405を意味する。図13〜図15の説明において、副Vol用ビットマップとは、複製用ボリュームグループ403に割り当てられたビットマップ405のうち、選択されたコンシステンシグループ402に対応するビットマップ405を意味する。
具体的には、コピー制御プログラム117は、ステップ1307において、副Vol用ビットマップの各ビットを、正Vol用ビットマップの対応するビットと比較し、それらのビットのうち少なくとも一方が「ON」である場合、副Vol用ビットマップのビットを「ON」にする。さらに、コピー制御プログラム117は、ステップ1307において、マージが終了すると正Vol用ビットマップの全ビットをクリアする(すなわち、全ビットを「OFF」にする)。
次に、コピー制御プログラム117は、同期処理1500を実行する(ステップ1308)。同期処理1500については、後で詳細に説明する(図15参照)。同期処理1500の結果、複製用ボリュームグループ403には、選択されたコンシステンシグループ402に格納されているものと同一のデータが格納される。
次に、コピー制御プログラム117は、複製用ボリュームグループ403に格納されている全データを、バックアップデータとしてテープグループ142にコピーする(ステップ1309)。具体的には、コピー制御プログラム117は、複製用ボリュームグループ403に格納されている全データを順次読み出し、読み出されたデータの複製を順次テープグループ142に格納する。
次に、テープ制御プログラム119は、テープ管理テーブル1191のKeyword11913に、ステップ1301において指定されたキーワードを登録する(ステップ1310)。
次に、コピー制御プログラム117は、ステップ1301において指定された全てのコンシステンシグループ402の処理が完了したか否か、すなわち、指定された全てのコンシステンシグループ402に格納されたデータがテープグループ142にコピーされたか否かを判定する(ステップ1311)。
ステップ1311において、指定された全てのコンシステンシグループ402の処理が完了していないと判定された場合、残りのコンシステンシグループ402に対する処理を実行するために、処理はステップ1305に戻る。
一方、ステップ1311において、指定された全てのコンシステンシグループ402の処理が完了したと判定された場合、フルバックアップ取得処理1300が終了する。
図14は、本発明の第1の実施形態において実行される差分バックアップ取得処理1400のフローチャートである。
差分バックアップ取得処理1400は、コンシステンシグループ402に格納されているデータのうち、前回バックアップが実行された後で更新されたデータ(すなわち差分データ)の複製のみをテープグループ142に格納する処理である。差分バックアップ取得処理1400の手順のうち、フルバックアップ取得処理1300の手順と同様のものについては、説明を省略する。
差分バックアップ取得処理1400のうち、ステップ1401からステップ1406までは、それぞれ、図13のステップ1301からステップ1306までと同様である。
コピー制御プログラム117は、ステップ1406の次に、正Vol用ビットマップの内容をテープコピー用ビットマップにコピーする(ステップ1407)。図14の説明において、テープコピー用ビットマップとは、バックアップデータのコピー先のテープグループ142に割り当てられたビットマップ406を意味する。ステップ1407の結果、テープコピー用ビットマップの「ON」ビットに対応するコピー元のコンシステンシグループ402の記憶領域のデータは、前回バックアップが実行された後で更新されている。
続いて実行されるステップ1408及びステップ1409は、それぞれ、図13のステップ1307及びステップ1308と同様である。
次に、コピー制御プログラム117は、ステップ1407においてコピーされたテープコピー用ビットマップに基づいて、複製用ボリュームグループ403に格納されているデータをテープグループ142にコピーする(ステップ1410)。具体的には、コピー制御プログラム117は、テープコピー用ビットマップの「ON」に設定されているビットに対応する複製用ボリュームグループ403の記憶領域のデータを順次読み出し、読み出されたデータの複製をバックアップデータとしてテープグループ142に格納する。さらに、コピー制御プログラム117は、このとき参照されたテープコピー用ビットマップも、バックアップデータと同じテープグループ142にコピーする。
続いて実行されるステップ1411及びステップ1412は、それぞれ、図13のステップ1310及びステップ1311と同様である。
コンシステンシグループ402に格納されたデータをバックアップするために、フルバックアップ取得処理1300又は差分バックアップ取得処理1400のどちらが実行されてもよい。ただし、最初の世代のバックアップデータは、フルバックアップ取得処理1300によって取得する必要がある。
差分バックアップ取得処理1400によれば、差分データのみがバックアップされるため、使用されるテープ132を節約することができる。しかし、差分データを用いてコンシステンシグループ402のデータを復元するためには、複数の世代のバックアップデータをマージする必要がある。このため、差分データを用いた復元に要する時間は、フルバックアップデータを用いた復元に要する時間と比較して長くなる。
図15は、本発明の第1の実施形態において実行される同期処理1500のフローチャートである。
同期処理1500は、図13のステップ1308及び図14のステップ1409において実行される。
同期処理1500が開始されると、コピー制御プログラム117は、マージされた副Vol用ビットマップに基づいて、選択されたコンシステンシグループ402に格納されているデータを複製用ボリュームグループ403にコピーする(ステップ1501)。具体的には、コピー制御プログラム117は、マージされた副Vol用ビットマップを参照し、「ON」に設定されているビットに対応する記憶領域に格納されたデータをコンシステンシグループ402から読み出し、読み出されたデータの複製を複製用ボリュームグループ403に格納する。
次に、コピー制御プログラム117は、ステップ1501においてコピーが終了した記憶領域に対応する副Vol用ビットマップのビットを「OFF」にする(ステップ1502)。さらに、ステップ1502においてコピー制御プログラム117は、コピー先の複製用ボリュームグループ403に割り当てられたビットマップ405のうち、現在選択されているコンシステンシグループ402以外のコンシステンシグループ402に対応するビットマップ405において、ステップ1501のコピーが終了した記憶領域に対応するビットを「ON」にする。
なお、本実施形態では、図13のステップ1307又は図14のステップ1408において、正Vol用ビットマップが副Vol用ビットマップにマージされている。しかし、これらのステップにおいてビットマップ405をマージする代わりに、ステップ1501において正Vol用ビットマップ及び副Vol用ビットマップの両方が参照されてもよい。いずれの場合であっても、結局、正Vol用ビットマップ及び副Vol用ビットマップの少なくとも一方で「ON」に設定されているビットに対応するコンシステンシグループ402の記憶領域に格納されたデータがコピーされる(ステップ1501)。そして、コピーが終了した記憶領域に対応する正Vol用ビットマップ及び副Vol用ビットマップのビットが「OFF」に設定される(ステップ1502)。
次に、コピー制御プログラム117は、まだ同期していないデータがあるか否か、すなわち、マージされた副Vol用ビットマップがまだ「ON」ビットを含んでいるか否かを判定する(ステップ1503)。
マージされた副Vol用ビットマップがまだ「ON」ビットを含んでいると判定された場合、まだ同期していないデータが存在する。すなわち、複製用ボリュームグループ403に格納されているデータは、まだ選択されたコンシステンシグループ402に格納されているデータと一致していない。この場合、処理はステップ1501に戻り、ステップ1501以降の処理が繰り返し実行される。
一方、マージされた副Vol用ビットマップが「ON」ビットを含んでいないと判定された場合、複製用ボリュームグループ403に格納されているデータは、選択されたコンシステンシグループ402に格納されているデータと一致した。この場合、コピー制御プログラム117は、選択されたコンシステンシグループ402及び複製用ボリュームグループ403からなるコピーペアの状態を「静止化」に変更し、差分管理を再開する(ステップ1504)。以後、ホスト102から選択されたコンシステンシグループ402への書き込み要求があった場合、コントローラ110は、書き込みを要求されたデータを、選択されたコンシステンシグループ402のみに格納する。さらに、コントローラ110は、書き込みを要求されたデータが格納された領域に対応する正Vol用ビットマップのビットを「ON」に設定する。
以上で同期処理1500が終了する。
図16は、本発明の第1の実施形態において実行されるテープからのリストア処理1600のフローチャートである。
テープからのリストア処理1600は、テープグループ142に格納されたバックアップデータを使用して、コンシステンシグループ402を復元(リストア)する処理である。
指示プログラム220がリストア指示を発行すると(ステップ1601)、テープからのリストア処理1600が開始される。リストア指示には、これから復元しようとするコンシステンシグループ402の識別子及びキーワードを指定する情報が含まれる。例えば、ユーザがこれらの識別子及びキーワードを指定して、リストア指示の発行を指示プログラムに実行させることができる。このとき、ユーザは、これから復元しようとする複数のコンシステンシグループ402の識別子と、それに対応するキーワードとを指定することもできる。
リストア指示を受信したコントローラ110のテープ制御プログラム119は、テープ管理テーブル1191を参照して、指定されたキーワードに対応するテープグループ142及びテープ132を特定する(ステップ1602)。
次に、テープライブラリ装置130は、特定されたテープ132をテープドライブ131に装着する(ステップ1603)。
次に、コピー制御プログラム117は、複製グループ管理テーブル1173を参照して、特定されたテープ132に格納されているデータを、指定されたコンシステンシグループ402の論理ボリューム140にコピーする(ステップ1604)。このとき、コピー制御プログラム117は、特定されたテープ132に格納されているデータを、そのデータがかつて格納されていた論理ボリューム140以外の論理ボリューム140にコピーしてもよい。
次に、コピー制御プログラム117は、特定されたテープグループ142が次のテープ132を含むか否か、言い換えると、特定されたテープグループ142が、まだステップ1604におけるコピーが実行されていないテープ132を含むか否かを判定する(ステップ1605)。
特定されたテープグループ142が次のテープ132を含むと判定された場合、次のテープ132のデータをコピーするために、処理はステップ1603に戻る。
一方、特定されたテープグループ142が次のテープ132を含まないと判定された場合、特定されたテープグループ142の全てのデータがコンシステンシグループ402にコピーされた。この場合、コピー制御プログラム117は、指定された全てのコンシステンシグループ402の復元が完了したか否かを判定する(ステップ1606)。
指定された全てのコンシステンシグループ402の復元が完了していないと判定された場合、残りのコンシステンシグループ402の復元を実行するために、処理はステップ1602に戻る。
一方、指定された全てのコンシステンシグループ402の復元が完了したと判定された場合、テープからのリストア処理1600が終了する。
以上、本発明の第1の実施形態によれば、複数の正Volが、データのコピー先として一つの副Volを共有する。その結果、副Volに割り当てられる記憶領域を節約することができる。このため、アプリケーションの処理性能に影響を与えないD2D2Tバックアップを、低コストで実現することができる。
次に、本発明の第2の実施形態について説明する。
図17は、本発明の第2の実施形態の計算機システムの構成を示すブロック図である。
本実施形態の計算機システムは、ストレージシステム101A、ストレージシステム101B、ホスト102、管理端末103A及び管理端末103Bを備える。
ストレージシステム101A及び101Bは、第1の実施形態のストレージシステム101(図1及び図2参照)と同様であるため、詳細な説明を省略する。すなわち、コントローラ110A及び110Bは、コントローラ110に相当する。コピー制御プログラム117A及び117Bは、コピー制御プログラム117に相当する。ディスク制御プログラム118A及び118Bは、ディスク制御プログラム118に相当する。テープ制御プログラム119A及び119Bは、テープ制御プログラム119に相当する。ディスク装置120A〜120Dは、図1に示すディスク装置120A等に相当する。テープライブラリ装置130A及び130Bは、テープライブラリ装置130に相当する。テープドライブA131A及びテープドライブC131Cは、図1に示すテープドライブA131A等に相当する。テープA132A及びテープC132Cは、図1に示すテープA132A等に相当する。
ストレージシステム101A及び101Bは、第1の実施形態と同様、ネットワーク105を介してホスト102と接続される。
ホスト102は、第1の実施形態のホスト102と同様であるため、説明を省略する。
管理端末103A及び管理端末103Bは、第1の実施形態の管理端末103と同様であるため、詳細な説明を省略する。管理プログラム310A及び310Bは、管理プログラム310に相当する。ただし、本実施形態の管理端末103Aは、ネットワーク104Aを介してホスト102及びストレージシステム101Aと接続される。一方、管理端末103Bは、ネットワーク104Bを介してストレージシステム101Bと接続される。
ネットワーク104A及び104Bは、第1の実施形態のネットワーク104と同様である。
図17に示すように、複数のストレージシステム101を含む計算機システムにも、第1の実施形態と同様の処理を適用することができる。
例えば、図4におけるLUN0〜LUN8がストレージシステム101Aのディスク装置120A等に作成され、LUN10〜LUN14がストレージシステム101Bのディスク装置120C等に作成され、TG10〜TG32がストレージシステム101Bのテープライブラリ装置130B内に作成されてもよい。この場合、正Volから副Volにコピーされるデータは、ネットワーク105を介してストレージシステム101Aからストレージシステム101Bに転送される。
この場合、BM0〜BM8は、ストレージシステム101Aによって保持され、コントローラ110Aによって更新される。BM10〜BM18及びBM20〜28は、ストレージシステム101Bによって保持され、コントローラ110Bによって更新される。
この場合、コントローラ110Aとコントローラ110Bは、図6〜図11に示すテーブルを保持する。なお、コントローラ110Aは、図6〜図11のうち、図11のテープ管理テーブルを保持していなくてもよい。そして、図12〜図16に示す処理のうち、第1の実施形態でコピー制御プログラム117が実行する処理は、コピー制御プログラム117Aとコピー制御プログラム117Bとが協同で実行する。第1の実施形態においてディスク制御プログラム118が実行する処理は、ディスク制御プログラム118Aとディスク制御プログラム118Bが協同で実行する。第1の実施形態においてテープ制御プログラム119が実行する処理は、テープ制御プログラム119Bが実行する。
コピー制御プログラム117Aとコピー制御プログラム117Bとの間、ディスク制御プログラム118Aとディスク制御プログラム118Bの間では、協同して処理を実行するために、適宜ネットワーク109を介した通信によって、処理に必要な情報がやりとりされる。この情報のやりとりは、管理端末103を介して行われてもよい。
なお、第2の実施形態においては、論理ボリュームを識別するための識別情報として、第1の実施形態において用いられたLUNに加え、各ストレージシステム101の識別情報が用いられてもよい。
以上、本発明の第2の実施形態によれば、正Volと副Volが異なるストレージシステム101に含まれる場合にも、本発明を適用することによって、副Volに割り当てられる記憶領域を節約することができる。このため、アプリケーションの処理性能に影響を与えないD2D2Tバックアップを、低コストで実現することができる。
本発明の第1の実施形態の計算機システムの構成を示すブロック図である。 本発明の第1の実施形態のコントローラの構成を示すブロック図である。 本発明の第1の実施形態のディスク装置が提供する記憶領域の説明図である。 本発明の第1の実施形態において実行されるバックアップの概要の説明図である。 本発明の第1の実施形態のテープグループの説明図である。 本発明の第1の実施形態のCTG管理テーブルの説明図である。 本発明の第1の実施形態の複製用VolG管理テーブルの説明図である。 本発明の第1の実施形態の複製グループ管理テーブルの説明図である。 本発明の第1の実施形態の状態管理テーブルの説明図である。 本発明の第1の実施形態のディスク管理テーブルの説明図である。 本発明の第1の実施形態のテープ管理テーブルの説明図である。 本発明の第1の実施形態において実行される複製用ボリュームグループ作成処理のフローチャートである。 本発明の第1の実施形態において実行されるフルバックアップ取得処理のフローチャートである。 本発明の第1の実施形態において実行される差分バックアップ取得処理のフローチャートである。 本発明の第1の実施形態において実行される同期処理のフローチャートである。 本発明の第1の実施形態において実行されるテープからのリストア処理のフローチャートである。 本発明の第2の実施形態の計算機システムの構成を示すブロック図である。
符号の説明
101、101A、101B ストレージシステム
110、110A、110B コントローラ
111 メモリ
112 CPU
113 上位インターフェース(I/F)
114 下位I/F
115 I/F
116 ブリッジ
117、117A、117B コピー制御プログラム
118、118A、118B ディスク制御プログラム
119、119A、119B テープ制御プログラム
120A〜120D ディスク装置
130、130A、130B テープライブラリ装置
131A、131B テープドライブ
132A〜132N テープ
140A〜140N 論理ボリューム
142A〜142R テープグループ
401A、401B 複製グループ
402A〜402D コンシステンシグループ
403A、403B 複製用ボリュームグループ
405A〜405R、406A〜406I ビットマップ

Claims (18)

  1. 一つ以上のディスク記憶装置と、テープ記憶装置と、前記一つ以上のディスク記憶装置及び前記テープ記憶装置を制御するコントローラと、を備えるストレージシステムであって、
    前記テープ記憶装置は、データを格納する複数のテープ記憶媒体を備え、
    前記複数のテープ記憶媒体は、第1テープ記憶媒体及び第2テープ記憶媒体を含み、
    前記コントローラは、
    前記一つ以上のディスク記憶装置の記憶領域を、第1ボリューム、第2ボリューム及び第3ボリュームを含む複数のボリュームに分割し、
    前記第1ボリュームのデータ格納状況を示す第1情報、前記第2ボリュームのデータ格納状況を示す第2情報、前記第1ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第3情報、及び前記第2ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第4情報を格納するメモリを備え、
    前記第1ボリュームと前記第3ボリュームとの間で第1コピーペアを設定し、
    前記第1情報と前記第3情報とを組み合わせ、
    前記第1情報と前記第3情報とを組み合わせた情報を基に、更新され格納された前記第1ボリュームのデータである第1データを前記第3ボリュームにコピーし、
    前記第1データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第1テープ記憶媒体に格納し、
    前記第1コピーペアから前記第2ボリュームと前記第3ボリュームとの間で設定される第2コピーペアに切り替え、
    前記第2情報と前記第4情報とを組み合わせ、
    前記第2情報と前記第4情報とを組み合わせた情報を基に、更新され格納された前記第2ボリュームのデータである第2データを前記第3ボリュームにコピーし、
    前記第2データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第2テープ記憶媒体に格納することを特徴とするストレージシステム。
  2. 前記コントローラは、
    前記第1ボリュームの記憶領域に対応する前記第1情報のビット、及び、その記憶領域に対応する前記第3情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって、前記第1データを前記第3ボリュームにコピーし、
    前記第2ボリュームの記憶領域に対応する前記第2情報のビット、及び、その記憶領域に対応する前記第4情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第2ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって、前記第2データを前記第3ボリュームにコピーすることを特徴とする請求項1に記載のストレージシステム。
  3. 前記コントローラは、
    前記第1ボリュームへのデータの書き込み要求を受信した場合、前記要求されたデータが格納される記憶領域に対応する前記第1情報のビットを、データが更新されたことを示す値に設定し、
    前記第1ボリュームの記憶領域に格納されたデータの複製を前記第3ボリュームに格納した場合、前記記憶領域に対応する前記第1情報のビット及び前記第3情報のビットを、データが更新されていないことを示す値に設定し、
    前記第1ボリュームの記憶領域に格納されたデータの複製を前記第3ボリュームに格納した場合、前記記憶領域に対応する前記第4情報のビットを、データが更新されたことを示す値に設定することを特徴とする請求項2に記載のストレージシステム。
  4. 前記ストレージシステムは、前記第1情報の複製を含む第5情報をさらに保持し、
    前記コントローラは、
    前記第5情報のビットが、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を、前記第3ボリュームから読み出し、
    前記第3ボリュームから読み出された複製、及び、前記第5情報を、前記第1テープ記憶媒体に格納することを特徴とする請求項2に記載のストレージシステム。
  5. 前記コントローラは、前記第1ボリュームの記憶容量が前記第2ボリュームの記憶容量より大きい場合、少なくとも、前記第1ボリュームと同一の記憶容量を前記第3ボリュームに割り当てることを特徴とする請求項1に記載のストレージシステム。
  6. 前記複数のボリュームは、さらに第4ボリューム及び第5ボリュームを含み、
    前記コントローラは、
    第1時点において前記第1ボリュームに格納されているデータの複製を前記第3ボリュームに格納する場合、前記第1時点において前記第4ボリュームに格納されているデータの複製を前記第5ボリュームに格納し、
    前記第4ボリュームに格納されているデータの複製を、前記第5ボリュームから読み出して、前記テープ記憶装置が備える前記複数のテープ記憶媒体の少なくとも一つに格納することを特徴とする請求項1に記載のストレージシステム。
  7. 第1ストレージシステムと、前記第1ストレージシステムとネットワークを介して接続された第2ストレージシステムと、を備える計算機システムであって、
    前記第1ストレージシステムは、一つ以上の第1ディスク記憶装置と、前記一つ以上の第1ディスク記憶装置を制御する第1コントローラと、を備え、
    前記第2ストレージシステムは、一つ以上の第2ディスク記憶装置と、テープ記憶装置と、前記一つ以上の第2ディスク記憶装置及び前記テープ記憶装置を制御する第2コントローラと、を備え、
    前記テープ記憶装置は、データを格納する複数のテープ記憶媒体を備え、
    前記複数のテープ記憶媒体は、第1テープ記憶媒体及び第2テープ記憶媒体を含み、
    前記第1コントローラは、
    前記一つ以上の第1ディスク記憶装置の記憶領域を、第1ボリューム及び第2ボリュームを含む複数のボリュームに分割し、
    前記第1ボリュームのデータ格納状況を示す第1情報、及び前記第2ボリュームのデータ格納状況を示す第2情報を格納する第1メモリを備え、
    前記第2コントローラは、
    データが格納される前記一つ以上の第2ディスク記憶装置の記憶領域を、第3ボリュームを含む複数のボリュームに分割し、
    前記第1ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第3情報、及び前記第2ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第4情報を格納する第2メモリを備え
    前記第1コントローラ及び第2コントローラは、
    前記第1ボリュームと前記第3ボリュームとの間で第1コピーペアを設定し、
    前記第1情報と前記第3情報とを組み合わせ、
    前記第1情報と前記第3情報とを組み合わせた情報を基に、更新され格納された前記第1ボリュームのデータである第1データを前記第3ボリュームにコピーし、
    前記第1データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第1テープ記憶媒体に格納し、
    前記第1コピーペアから前記第2ボリュームと前記第3ボリュームとの間で設定される第2コピーペアに切り替え、
    前記第2情報と前記第4情報とを組み合わせ、
    前記第2情報と前記第4情報とを組み合わせた情報を基に、更新され格納された前記第2ボリュームのデータである第2データを前記第3ボリュームにコピーし、
    前記第2データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第2テープ記憶媒体に格納することを特徴とする計算機システム。
  8. 前記第2コントローラは、
    前記第1ボリュームの記憶領域に対応する前記第1情報のビット、及び、その記憶領域に対応する前記第3情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって、前記第1データを前記第3ボリュームにコピーし、
    前記第2ボリュームの記憶領域に対応する前記第2情報のビット、及び、その記憶領域に対応する前記第4情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第2ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって、前記第2データを前記第3ボリュームにコピーすることを特徴とする請求項7に記載の計算機システム。
  9. 前記第1コントローラは、
    前記第1ボリュームへのデータの書き込み要求を受信した場合、前記要求されたデータが格納される記憶領域に対応する前記第1情報のビットを、データが更新されたことを示す値に設定し、
    前記第1ボリュームの記憶領域に格納されたデータの複製が前記第3ボリュームに格納される場合、前記記憶領域に対応する前記第1情報のビットを、データが更新されていないことを示す値に設定し、
    前記第2コントローラは、
    前記第1ボリュームの記憶領域に格納されたデータの複製が前記第3ボリュームに格納される場合、前記記憶領域に対応する前記第3情報のビットを、データが更新されていないことを示す値に設定し、
    前記第1ボリュームの記憶領域に格納されたデータの複製が前記第3ボリュームに格納される場合、前記記憶領域に対応する前記第4情報のビットを、データが更新されたことを示す値に設定することを特徴とする請求項8に記載の計算機システム。
  10. 前記第2ストレージシステムは、前記第1情報の複製を含む第5情報をさらに保持し、
    前記第2コントローラは、
    前記第5情報のビットが、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を、前記第3ボリュームから読み出し、
    前記第3ボリュームから読み出された複製、及び、前記第5情報を、前記第1テープ記憶媒体に格納することを特徴とする請求項8に記載の計算機システム。
  11. 前記第2コントローラは、前記第1ボリュームの記憶容量が前記第2ボリュームの記憶容量より大きい場合、少なくとも、前記第1ボリュームと同一の記憶容量を前記第3ボリュームに割り当てることを特徴とする請求項7に記載の計算機システム。
  12. 前記第1ストレージシステムの複数のボリュームは、さらに第4ボリュームを含み、
    前記第2ストレージシステムの複数のボリュームは、さらに第5ボリュームを含み、
    前記第2コントローラは、
    第1時点において前記第1ボリュームに格納されているデータの複製を前記第3ボリュームに格納する場合、前記第1時点において前記第4ボリュームに格納されているデータの複製を前記第5ボリュームに格納し、
    前記第4ボリュームに格納されているデータの複製を、前記第5ボリュームから読み出して、前記テープ記憶装置が備える前記複数のテープ記憶媒体の少なくとも一つに格納することを特徴とする請求項7に記載の計算機システム。
  13. 一つ以上のディスク記憶装置と、テープ記憶装置と、前記一つ以上のディスク記憶装置及び前記テープ記憶装置を制御するコントローラと、を備えるストレージシステムを制御する方法であって、
    前記テープ記憶装置は、データを格納する複数のテープ記憶媒体を備え、
    前記複数のテープ記憶媒体は、第1テープ記憶媒体及び第2テープ記憶媒体を含み、
    前記一つ以上のディスク記憶装置の記憶領域は、第1ボリューム、第2ボリューム及び第3ボリュームを含む複数のボリュームに分割され、
    前記コントローラは、前記第1ボリュームのデータ格納状況を示す第1情報、前記第2ボリュームのデータ格納状況を示す第2情報、前記第1ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第3情報、及び前記第2ボリューム以外のボリュームから前記第3ボリュームへのデータのコピーによる前記第3ボリュームのデータ格納状況を示す第4情報を格納するメモリを備え、
    前記第1ボリュームと前記第3ボリュームとの間で第1コピーペアが設定され、
    前記方法は、
    前記第1情報と前記第3情報とを組み合わせる手順と、
    前記第1情報と前記第3情報とを組み合わせた情報を基に、更新され格納された前記第1ボリュームのデータである第1データを前記第3ボリュームにコピーする手順と、
    前記第1データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第1テープ記憶媒体に格納する手順と、
    前記第1コピーペアから前記第2ボリュームと前記第3ボリュームとの間で設定される第2コピーペアに切り替える手順と、
    前記第2情報と前記第4情報とを組み合わせる手順と、
    前記第2情報と前記第4情報とを組み合わせた情報を基に、更新され格納された前記第2ボリュームのデータである第2データを前記第3ボリュームにコピーする手順と、
    前記第2データを前記第3ボリュームから読み出して、前記テープ記憶装置が備える前記第2テープ記憶媒体に格納する手順と、を含むことを特徴とする方法。
  14. 前記第1データを前記第3ボリュームにコピーする手順は、前記第1ボリュームの記憶領域に対応する前記第1情報のビット、及び、その記憶領域に対応する前記第3情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって実行され、
    前記第2データを前記第3ボリュームにコピーする手順は、前記第2ボリュームの記憶領域に対応する前記第2情報のビット、及び、その記憶領域に対応する前記第4情報のビットのうち少なくとも一方が、データが更新されたことを示す値である場合、前記ビットに対応する前記第2ボリュームの記憶領域に格納されているデータの複製を前記第3ボリュームに格納することによって実行されることを特徴とする請求項13に記載の方法。
  15. 前記方法は、さらに、
    前記第1ボリュームへのデータの書き込み要求を受信した場合、前記要求されたデータが格納される記憶領域に対応する前記第1情報のビットを、データが更新されたことを示す値に設定する手順と、
    前記第1ボリュームの記憶領域に格納されたデータの複製を前記第3ボリュームに格納した場合、前記記憶領域に対応する前記第1情報のビット及び前記第3情報のビットを、データが更新されていないことを示す値に設定する手順と、
    前記第1ボリュームの記憶領域に格納されたデータの複製を前記第3ボリュームに格納した場合、前記記憶領域に対応する前記第4情報のビットを、データが更新されたことを示す値に設定する手順と、を含むことを特徴とする請求項14に記載の方法。
  16. 前記ストレージシステムは、前記第1情報の複製を含む第5情報をさらに保持し、
    前記第1データを前記第1テープ記憶媒体に格納する手順は、
    前記第5情報のビットが、データが更新されたことを示す値である場合、前記ビットに対応する前記第1ボリュームの記憶領域に格納されているデータの複製を、前記第3ボリュームから読み出す手順と、
    前記第3ボリュームから読み出された複製、及び、前記第5情報を、前記第1テープ記憶媒体に格納する手順と、を含むことを特徴とする請求項14に記載の方法。
  17. 前記方法は、さらに、前記第1ボリュームの記憶容量が前記第2ボリュームの記憶容量より大きい場合、少なくとも、前記第1ボリュームと同一の記憶容量を前記第3ボリュームに割り当てる手順を含むことを特徴とする請求項13に記載の方法。
  18. 前記複数のボリュームは、さらに第4ボリューム及び第5ボリュームを含み、
    前記方法は、さらに、
    第1時点において前記第1ボリュームに格納されているデータの複製を前記第3ボリュームに格納する場合、前記第1時点において前記第4ボリュームに格納されているデータの複製を前記第5ボリュームに格納する手順と、
    前記第4ボリュームに格納されているデータの複製を、前記第5ボリュームから読み出して、前記テープ記憶装置が備える前記複数のテープ記憶媒体の少なくとも一つに格納する手順と、を含むことを特徴とする請求項13に記載の方法。
JP2007207742A 2007-08-09 2007-08-09 ストレージシステム及びバックアップ方法 Expired - Fee Related JP4990064B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007207742A JP4990064B2 (ja) 2007-08-09 2007-08-09 ストレージシステム及びバックアップ方法
US12/020,801 US8065271B2 (en) 2007-08-09 2008-01-28 Storage system and method for backing up data
EP08251741A EP2023247A2 (en) 2007-08-09 2008-05-19 Storage system and method for backing up data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007207742A JP4990064B2 (ja) 2007-08-09 2007-08-09 ストレージシステム及びバックアップ方法

Publications (3)

Publication Number Publication Date
JP2009043054A JP2009043054A (ja) 2009-02-26
JP2009043054A5 JP2009043054A5 (ja) 2010-03-18
JP4990064B2 true JP4990064B2 (ja) 2012-08-01

Family

ID=40032429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007207742A Expired - Fee Related JP4990064B2 (ja) 2007-08-09 2007-08-09 ストレージシステム及びバックアップ方法

Country Status (3)

Country Link
US (1) US8065271B2 (ja)
EP (1) EP2023247A2 (ja)
JP (1) JP4990064B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8131681B1 (en) * 2010-01-21 2012-03-06 Netapp, Inc. Backup disk-tape integration method and system
WO2011142762A1 (en) * 2010-05-13 2011-11-17 Hewlett-Packard Development Company, L.P. File system migration
US8850145B1 (en) * 2012-03-30 2014-09-30 Emc Corporation Managing consistency groups in storage systems
US10210050B1 (en) * 2013-12-23 2019-02-19 EMC IP Holding Company LLC Consistency group driven backup
US9116853B1 (en) 2014-08-20 2015-08-25 International Business Machines Corporation Tape backup and restore in a disk storage environment
US9240209B1 (en) 2014-09-30 2016-01-19 International Business Machines Corporation Pass-through tape access in a disk storage environment
CN108132858A (zh) * 2017-12-22 2018-06-08 周川 一种容灾备份方法
US20240036758A1 (en) * 2022-08-01 2024-02-01 International Business Machines Corporation Replicating data to a plurality of replication devices through a tape device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281933A (ja) * 1994-04-05 1995-10-27 Hitachi Ltd 計算機システム
JP3794232B2 (ja) * 1999-02-19 2006-07-05 株式会社日立製作所 情報処理システムにおけるデータのバックアップ方法
US6795895B2 (en) * 2001-03-07 2004-09-21 Canopy Group Dual axis RAID systems for enhanced bandwidth and reliability
JP3904894B2 (ja) 2001-11-07 2007-04-11 株式会社日立製作所 バックアップ管理方法およびこの方法に用いる記憶制御装置
KR100550725B1 (ko) 2002-03-14 2006-02-08 마츠시타 덴끼 산교 가부시키가이샤 플라즈마 디스플레이 장치
JP2004199116A (ja) * 2002-12-16 2004-07-15 Hitachi Ltd 分割バックアップ/リストア運用方式
JP4639075B2 (ja) 2004-12-02 2011-02-23 株式会社日立製作所 可搬記憶媒体に対する論理ディスク仮想化機能を有するディスクシステム
WO2006123416A1 (ja) * 2005-05-19 2006-11-23 Fujitsu Limited ディスク故障復旧方法及びディスクアレイ装置
US7552295B2 (en) * 2006-01-03 2009-06-23 International Business Machines Corporation Maintaining consistency when mirroring data using different copy technologies
JP4741371B2 (ja) * 2006-01-05 2011-08-03 株式会社日立製作所 システム、サーバ装置及びスナップショットの形式変換方法

Also Published As

Publication number Publication date
JP2009043054A (ja) 2009-02-26
US20090043829A1 (en) 2009-02-12
EP2023247A2 (en) 2009-02-11
US8065271B2 (en) 2011-11-22

Similar Documents

Publication Publication Date Title
JP4990064B2 (ja) ストレージシステム及びバックアップ方法
JP4800031B2 (ja) ストレージシステム及びスナップショット管理方法
US6594745B2 (en) Mirroring agent accessible to remote host computers, and accessing remote data-storage devices, via a communcations medium
US6598174B1 (en) Method and apparatus for storage unit replacement in non-redundant array
US7313663B2 (en) Storage system and data processing system
US6950915B2 (en) Data storage subsystem
US7404051B2 (en) Method for replicating snapshot volumes between storage systems
US9098466B2 (en) Switching between mirrored volumes
US8037265B2 (en) Storage system and data management method
JP2005301590A (ja) ストレージシステム及びデータ複製方法
US20060047926A1 (en) Managing multiple snapshot copies of data
US9785349B2 (en) Efficient free-space management of multi-target peer-to-peer remote copy (PPRC) modified sectors bitmap in bind segments
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
US9792061B2 (en) Efficient cache management of multi-target peer-to-peer remote copy (PPRC) modified sectors bitmap
US7386664B1 (en) Method and system for mirror storage element resynchronization in a storage virtualization device
US20100082924A1 (en) Storage controller having virtual volume
JP2008269374A (ja) ストレージシステムおよびその制御方法
US20030200389A1 (en) System and method of cache management for storage controllers
US7680839B1 (en) System and method for resynchronizing mirrored volumes
US9785553B2 (en) Asynchronous cleanup after a peer-to-peer remote copy (PPRC) terminate relationship operation
US11188425B1 (en) Snapshot metadata deduplication
US9535610B2 (en) Optimizing peer-to-peer remote copy (PPRC) transfers for partial write operations using a modified sectors bitmap
US10366014B1 (en) Fast snap copy
US11340795B2 (en) Snapshot metadata management
US20150113097A1 (en) Volume hierarchy download in a storage area network

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120501

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees