JP7142052B2 - ハイブリッドクラウドにおけるデータを保護する方法 - Google Patents

ハイブリッドクラウドにおけるデータを保護する方法 Download PDF

Info

Publication number
JP7142052B2
JP7142052B2 JP2020050977A JP2020050977A JP7142052B2 JP 7142052 B2 JP7142052 B2 JP 7142052B2 JP 2020050977 A JP2020050977 A JP 2020050977A JP 2020050977 A JP2020050977 A JP 2020050977A JP 7142052 B2 JP7142052 B2 JP 7142052B2
Authority
JP
Japan
Prior art keywords
data
storage
server system
journal
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050977A
Other languages
English (en)
Other versions
JP2021149773A (ja
Inventor
愛 里山
智大 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020050977A priority Critical patent/JP7142052B2/ja
Priority to US17/017,962 priority patent/US20210294701A1/en
Publication of JP2021149773A publication Critical patent/JP2021149773A/ja
Application granted granted Critical
Publication of JP7142052B2 publication Critical patent/JP7142052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • G06F11/1451Management of the data involved in backup or backup restore by selection of backup contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1464Management of the backup or restore process for networked environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1471Saving, restoring, recovering or retrying involving logging of persistent data for recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Description

本発明は、概して、データのバックアップを含むデータ保護の技術に関する。
データ保護の一例として、バックアップ及びディザスタリカバリがある。バックアップ及びディザスタリカバリに関する技術として、例えば、特許文献1に開示の技術が知られている。
US2005/0033827
オンプレミスストレージ(オンプレミスベースのストレージシステム)とクラウドストレージ(クラウドベースのストレージシステム)とを含んだハイブリッドクラウドが知られている。そして、ハイブリッドクラウドでのバックアップ(及びディザスタリカバリ)が注目されている。
ハイブリッドクラウドでのバックアップ方法として、オンプレミスストレージ内の業務ボリューム(業務アプリケーションのようなアプリケーションからのライト要求に従いデータが書き込まれる論理ボリューム)からデータをクラウドストレージに転送する方法が考えられる。
しかし、この方法によれば、転送されたデータがクラウドストレージに格納されるタイミングは、クラウドストレージゲートウェイに依存する。すなわち、ハイブリッドクラウドでは、一般に、オンプレミスストレージとクラウドストレージとの間に、オンプレミスストレージからクラウドストレージへのアクセスを提供するクラウドストレージゲートウェイが介在し、クラウドストレージゲートウェイが、オンプレミスストレージから転送されたデータをクラウドストレージに転送するタイミングを決定する。このため、業務ボリューム内のデータとクラウドストレージ内のデータとの整合性を維持することが難しい。このような環境において業務ボリューム内のデータがロストしてしまうと、当該データを復元することができない。また、業務ボリュームのI/O(Input/Output)性能の低下が懸念される。
このような問題は、クラウドストレージを提供する者と異なる者により提供されるストレージシステムが、オンプレミスストレージ以外のストレージシステム、例えば、プライベートクラウドベースのストレージシステムである場合にも起こり得る。
クラウドベースのストレージシステムを提供する者と異なる者により提供されるストレージシステムを、「ローカルストレージ」と総称する。ローカルストレージが、業務ボリュームに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域を作成する。ローカルストレージが、業務ボリュームを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータを業務ボリュームに書き込み、当該データをバックアップ領域にバックアップする。ローカルストレージが、バックアップ領域にバックアップされたデータをクラウドストレージに書き込むために当該データをバックアップ領域からサーバシステムに送信する。
ハイブリッドクラウドにおいてローカルストレージの業務ボリューム内のデータと整合性がとれたデータを業務ボリュームのI/O性能を低下させることなくバックアップすることができる。
実施形態に係るシステム全体の物理構成を示す。 実施形態に係るシステム全体の論理構成を示す。 オンプレミスストレージのメモリに格納される情報及びプログラムの一例を示す。 サーバシステムのメモリに格納される情報及びプログラムの一例を示す。 オンプレミスストレージが持つ共有領域に格納される情報の一例を示す。 VOL管理テーブルの一例を示す。 VOLペア管理テーブルの一例を示す。 ジャーナル管理テーブルの一例を示す。 オンプレミスストレージが持つVOLマッピングテーブルの一例を示す。 サーバシステムが持つVOLマッピングテーブルの一例を示す。 システム構成処理のフローチャートである。 クラスタリング処理(図11のS1010)のフローチャートである。 バックアップ処理のフローチャートである。 障害復旧処理のフローチャート。 スナップショット取得処理のフローチャートである。 一変形例に係るシステム全体の物理構成を示す。 実施形態に係る障害復旧処理の概要を示す。 スナップショット取得処理の一比較例を示す。 実施形態に係るスナップショット取得処理の概要を示す。
以下の説明では、「通信インターフェース装置」は、一つ以上の通信インターフェースデバイスでよい。一つ以上の通信インターフェースデバイスは、一つ以上の同種の通信インターフェースデバイス(例えば一つ以上のNIC(Network Interface Card))であってもよいし二つ以上の異種の通信インターフェースデバイス(例えばNICとHBA(Host Bus Adapter))であってもよい。
また、以下の説明では、「メモリ」は、一つ以上の記憶デバイスの一例である一つ以上のメモリデバイスであり、典型的には主記憶デバイスでよい。メモリにおける少なくとも一つのメモリデバイスは、揮発性メモリデバイスであってもよいし不揮発性メモリデバイスであってもよい。
また、以下の説明では、「永続記憶装置」は、一つ以上の記憶デバイスの一例である一つ以上の永続記憶デバイスでよい。永続記憶デバイスは、典型的には、不揮発性の記憶デバイス(例えば補助記憶デバイス)でよく、具体的には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、NVMe(Non-Volatile Memory Express)ドライブ、又は、SCM(Storage Class Memory)でよい。
また、以下の説明では、「記憶装置」は、メモリと永続記憶装置の少なくともメモリでよい。
また、以下の説明では、「プロセッサ」は、一つ以上のプロセッサデバイスでよい。少なくとも一つのプロセッサデバイスは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサデバイスでよいが、GPU(Graphics Processing Unit)のような他種のプロセッサデバイスでもよい。少なくとも一つのプロセッサデバイスは、シングルコアでもよいしマルチコアでもよい。少なくとも一つのプロセッサデバイスは、プロセッサコアでもよい。少なくとも一つのプロセッサデバイスは、処理の一部又は全部を行うハードウェア記述言語によりゲートアレイの集合体である回路(例えばFPGA(Field-Programmable Gate Array)、CPLD(Complex Programmable Logic Device)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサデバイスでもよい。
また、以下の説明では、「xxxテーブル」といった表現にて、入力に対して出力が得られる情報を説明することがあるが、当該情報は、どのような構造のデータでもよいし(例えば、構造化データでもよいし非構造化データでもよいし)、入力に対する出力を発生するニューラルネットワークのような学習モデルでもよい。従って、「xxxテーブル」を「xxx情報」と言うことができる。また、以下の説明において、各テーブルの構成は一例であり、一つのテーブルは、二つ以上のテーブルに分割されてもよいし、二つ以上のテーブルの全部又は一部が一つのテーブルであってもよい。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶装置及び/又は通信インターフェース装置等を用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体であってもよい。また、以下の説明において、二つ以上のプログラムが一つのプログラムとして実現されてもよいし、一つのプログラムが二つ以上のプログラムとして実現されてもよい。
また、以下の説明では、「VOL」は、論理ボリュームの略であり、論理的な記憶デバイスでよい。VOLは、実体的なVOL(RVOL)であってもよいし、仮想的なVOL(VVOL)であってもよい。「RVOL」は、そのRVOLを提供するストレージシステムが有する永続記憶装置に基づくVOLでよい。「VVOL」は、外部接続VOL(EVOL)と、容量拡張VOL(TPVOL)と、スナップショットVOL(SS-VOL)とのうちのいずれでもよい。EVOLは、外部のストレージシステムの記憶空間(例えばVOL)に基づいておりストレージ仮想化技術に従うVOLでよい。TPVOLは、複数の仮想領域(仮想的な記憶領域)で構成されており容量仮想化技術(典型的にはThin Provisioning)に従うVOLでよい。SS-VOLは、オリジナルのVOLのスナップショットとして提供されるVOLでよい。SS-VOLは、RVOLであってもよい。
また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号のうちの共通符号を使用し、同種の要素を区別して説明する場合には、参照符号を使用することがある。
以下、一実施形態を説明する。なお、以下の実施形態では、クラウドストレージ(クラウドベースのストレージシステム)の一例として、パブリックストレージ(パブリッククラウドベースのストレージシステム)が採用される。ローカルストレージ(クラウドベースのストレージシステムを提供する者と異なる者により提供されるストレージシステム)の一例として、オンプレミスストレージ(オンプレミスベースのストレージシステム)が採用される。しかし、クラウドストレージもローカルストレージも上記の例に限られないでよい。例えば、ローカルストレージは、プライベートストレージ(プライベートクラウドベースのストレージシステム)でもよい。
図1は、本実施形態に係るシステム全体の物理構成を示す。
ネットワーク(典型的にはIP(Internet Protocol)ネットワーク)204に、オンプレミスストレージ200と、サーバシステム50と、パブリックストレージ120と、クライアントサーバ201と、管理システム205とが接続されている。
オンプレミスストレージ200が、業務VOL(クライアントサーバ201で実行されるアプリケーションからのI/O要求で指定されるVOL)を提供する。クライアントサーバ201が、業務VOLを指定したライト要求やリード要求をオンプレミスストレージ200に送信する。オンプレミスストレージ200が、当該ライト要求やリード要求に応答して、業務VOLに対するデータの読み書きを行う。
オンプレミスストレージ200は、PDEV群220と、PDEV群220に接続されたストレージコントローラ101とを有する。
PDEV群220は、複数(又は1つ)のPDEV(物理記憶デバイス)である。PDEV群220は、永続記憶装置の一例であり、PDEVは、永続記憶デバイスの一例である。PDEV群220は、一つ以上のRAID(Redundant Array of Independent (or Inexpensive) Disks)グループでよい。
ストレージコントローラ101は、フロントエンドのI/F214と、バックエンドのI/F213と、メモリ212と、それらに接続されたプロセッサ211とを有する。I/F214及びI/F213が、通信インターフェース装置の一例である。例えば、メモリ212及びプロセッサ211が二重化されている。
I/F214がネットワーク204に接続される。I/F214は、クライアントサーバ201、サーバシステム50及び管理システム205とストレージコントローラ101との間の通信を、ネットワーク204を介して行う。また、I/F214は、ストレージコントローラ101とサーバシステム50の間のデータ転送を仲介する。
I/F213は、PDEV群220に接続される。I/F213を介して、PDEV群220に対するデータの読み書きが行われる。
メモリ212は、情報や一つ以上のプログラムを格納する。プロセッサ211が、当該一つ以上のプログラムを実行することで、論理ボリュームの提供、ライト要求やリード要求といったI/O(Input/Output)要求の処理、データのバックアップ、及び、バックアップされたデータをパブリックストレージ120に格納するために当該データをサーバシステム50に転送することといった処理を行う。
オンプレミスストレージ200の構成は、図1に例示の構成に限られない。例えば、オンプレミスストレージ200は、それぞれが記憶装置を有する複数のストレージノードを備えたマルチノード構成のノード群(例えば分散システム)でもよい。各ストレージノードは、汎用の物理計算機でよい。各物理計算機が所定のソフトウェアを実行することにより、SDx(Software-Defined anything)が構築されてよい。SDxとしては、例えば、SDS(Software Defined Storage)又はSDDC(Software-defined Datacenter)を採用することができる。
また、オンプレミスストレージ200がクライアントサーバ201のような外部システムからライト要求やリード要求を受け付けることに代えて、オンプレミスストレージ200が、ハイパーコンバージドインフラストラクチャベースのストレージシステム、例えば、I/O要求を発行するホストシステムとしての機能(例えば、I/O要求を発行するアプリケーションの実行体(例えば、仮想マシンやコンテナ))と、当該I/O要求を処理するストレージシステムとしての機能(例えば、ストレージソフトウェアの実行体(例えば、仮想マシンやコンテナ)とを有するシステムでもよい。
パブリックストレージ120としては、例えば、AWS(Amazon Web Services)(登録商標)、Azure(登録商標)、Google Cloud Platform(登録商標)などがある。
サーバシステム50は、オンプレミスストレージ200とパブリックストレージ120間のデータ転送を仲介するアプライアンスである。サーバシステム50は、データ転送プログラムを実行する。データ転送プログラムは、オンプレミスストレージ200とパブリックストレージ120とのデータ転送制御を行うプログラム(例えば、アプリケーションプログラム)の一例である。データ転送プログラムは、VOLを提供し、オンプレミスストレージ200からのデータをパブリックストレージ120に転送する。
サーバシステム50は、物理計算機110A及び110B(複数の物理計算機の一例)で構成されたクラスタシステムである。物理計算機110A及び110Bの各々は、I/F215、メモリ217及びそれらに接続されたプロセッサ216を有する。I/F215がネットワーク204に接続される。I/F215が、オンプレミスストレージ200とパブリックストレージ120間のデータ転送を仲介する。メモリ217が、情報やプログラム(例えば、データ転送プログラム)を格納する。プロセッサ216が、当該プログラムを実行する。
管理システム205は、オンプレミスストレージ200の記憶領域の構成を管理する計算機システム(一つ以上の計算機)である。
図2は、本実施形態に係るシステム全体の論理構成を示す。
サーバシステム50は、物理計算機110A及び110Bがクラスタリングプログラム111によりクラスタとされたクラスタシステムである。クラスタリングプログラム111は、物理計算機110A及び110Bの各々で実行される。クラスタリングプログラム111が、ハイパバイザのようなVM管理プログラム(例えば、VM(仮想マシン)を生成したり削除したりするプログラム)を含む概念でもよい。
物理計算機110A及び110Bについて、物理計算機110Aを代表的に例に取る。物理計算機110Aにおいて、VM112Aが生成される。VM112Aが、データ転送プログラム113A(例えば、クラウドストレージゲートウェイ)を実行する。データ転送プログラム113Aは、VOL260AをVM112A上に生成し、生成したVOL260Aをオンプレミスストレージ200に提供する。なお、同様の処理は、物理計算機110Bによっても行われる。すなわち、物理計算機110Bにおいて、VM112Bが生成される。VM112Bが、データ転送プログラム113Bを実行する。データ転送プログラム113Bが、VOL260BをVM112B上に生成し、生成したVOL260Bをオンプレミスストレージ200に提供する。
オンプレミスストレージ200のプロセッサ211が、クライアントサーバ201に提供される業務VOLをPVOL70Pとする。プロセッサ211が、PVOL70Pに対し、PVOL70P内のデータのバックアップ先としてのSVOL70Sを作成する。SVOL70Sは、PVOL70PとVOLペアを構成する。SVOL70Sは、業務VOLに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域の少なくとも一部でよい。パブリックストレージ120へのバックアップ処理では、バックアップ領域79(例えば、SVOL70S)が使用され、PVOL70Pは使用されない。このため、パブリックストレージ120へのバックアップ処理が業務VOL(PVOL70P)のI/O性能を低下させることを避けることができる。
また、オンプレミスストレージ200のプロセッサ211が、JVOL70Jを作成する。JVOL70Jは、バックアップ領域79の少なくとも一部でよい。本実施形態では、バックアップ領域79は、SVOL70SとJVOL70Jとの両方を含むが、SVOL70SとJVOL70Jとの一方を含んでもよい。
本実施形態では、PVOL70P、SVOL70S及びJVOL70Jの各々への書き込みは、例えば以下の通りである。
SVOL70Sは、PVOL70Pのフルコピーである。このため、プロセッサ211が、PVOL70PとSVOL70Sの差分を、例えばブロック単位で管理している(例えば、PVOL70Pの複数のブロックにそれぞれ対応した複数のビットで構成されたビットマップを管理している)。PVOL70Pのいずれかのブロックにデータが書き込まれる場合、当該ブロックについて差分があると管理され、差分があるブロックについて、PVOL70PのブロックからSVOL70Sのブロックへの差分コピー(データコピー)が生じる。PVOL70PとSVOL70SのVOLペアの状態が“PAIR”の場合、PVOL70Pに生じた差分はSVOL70Sにコピーされる状態、すなわち、PVOL70PとSVOL70Sが同期している状態である。
プロセッサ211は、SVOL70Sにデータを書き込む(コピーする)場合、当該データを含んだジャーナルをJVOL70Jに格納する。ジャーナルは、SVOL70Sに書き込まれたデータ(結果として、PVOL70Pに書き込まれたデータ)を含む。また、ジャーナルには、当該データの管理情報が関連付けられる。各ジャーナルについて、管理情報は、当該ジャーナルにおけるデータの格納先アドレスを表す情報と当該データの順番を意味するジャーナル番号を表す情報とを含む。SVOL70Sに書き込まれたデータを含みJVOL70Jに格納されるジャーナルが、サーバシステム50に送信される。本実施形態では、バックアップ領域79からサーバシステム50へはジャーナルが送信されるが、ジャーナルに代えてジャーナル内のデータが送信されてもよい。ジャーナル内のデータは、SVOL70Sにコピーされたデータであり、当該データは、PVOL70Pに書き込まれるデータの一例である。
なお、PVOL70PからSVOL70Sへのデータコピーは、上述の例に限定されない。例えば、プロセッサ211は、PVOL70Pに書き込まれたデータを含んだジャーナルを作成し、作成されたジャーナルをJVOL(図示せず)に格納してよい。プロセッサ211は、JVOL70Jのうち、SVOL70Sに未反映のジャーナルを、ジャーナル番号の小さい順に反映する。ジャーナルをSVOL70Sに反映するとは、ジャーナル内のデータをSVOL70Sに書き込むことを意味する。また、本実施形態では、ジャーナル番号が小さい程、ジャーナルが古い(過去のジャーナル)のため、「ジャーナル番号の小さい順」は、ジャーナルの古い順の一例である。なお、この例では、サーバシステム50に送信されるジャーナル(又は、当該ジャーナル内のデータ)は、JVOLからSVOLに反映されるジャーナル(又は、当該ジャーナル内のデータ)でよい。
さて、オンプレミスストレージ200が、共有領域270を有する。共有領域270の一例は、VOL(例えば、PDEV群220に基づくVOL)でよい。共有領域270は、オンプレミスストレージ200(特にプロセッサ211)と物理計算機110A及び110Bとに共有される記憶領域である。SVOL70SにVOL260Aがマッピングされ、共有領域270に、VOL260AのIPアドレス(アドレスの一例)を表す情報が格納される。このため、プロセッサ211が、PVOL70Pに書き込まれSVOL70Sにバックアップされたデータを含むジャーナルを、SVOL70SにIPアドレスがマッピングされているVOL260Aに転送する(例えば、当該ジャーナルの書き込みの要求を当該IPアドレスを用いて送信する)。データ転送プログラム113Aが、当該転送されたジャーナルをVOL260Aに格納する。VOL260Aにジャーナルを格納することは、例えば、物理計算機110Aのメモリ217に当該ジャーナルを蓄積することでよい(物理計算機110Aが永続記憶装置を有していて、VOL260Aが当該永続記憶装置に基づいていれば、当該データは当該永続記憶装置に格納されてもよい)。データ転送プログラム113Aが、VOL260Aに格納されたジャーナルに関連付いている管理情報を基に、ジャーナル番号の小さい順に、ジャーナル内のデータをパブリックストレージ120に転送する。
本実施形態では、物理計算機110Aがアクティブ(現用系)であり物理計算機110Bがスタンバイ(待機系)である。物理計算機110Aの障害が検出された場合、フェイルオーバが行われる。具体的には、例えば、後述するように、サーバシステム50の物理計算機110Bがオンプレミスストレージ200の共有領域270からIPアドレスを特定し、特定されたIPアドレスが、物理計算機110A(VOL260A)から物理計算機110B(VOL260B)に引き継がれる。フェイルオーバ後、プロセッサ211がIPアドレスを用いてジャーナル(データ)を転送する場合、当該ジャーナル(データ)の転送先は、VOL260Bとなる。
管理システム205が、サーバシステム50からパブリックストレージ120へのデータの転送状況(及び/又は、SVOL70Sからサーバシステム50へのデータの転送状況)を監視してよい。
図3は、オンプレミスストレージ200のメモリ212に格納される情報及びプログラムの一例を示す。
メモリ212は、ローカル領域401、キャッシュ領域402及びグローバル領域404を有する。これらのメモリ領域のうちの少なくとも1つは、独立したメモリであってもよい。
ローカル領域401は、このメモリ212と同一組に属するプロセッサ211により使用される領域である。ローカル領域401には、当該プロセッサ211により実行されるプログラムとして、例えば、I/Oプログラム411及びジャーナル管理プログラム413が格納される。
キャッシュ領域402には、PDEV群220に対してライト又はリードされるデータが一時的に格納される。
グローバル領域404は、このグローバル領域404を含むメモリ212と同一組に属するプロセッサ211と、当該組と異なる組に属するプロセッサ211との両方により使用される領域である。グローバル領域404には、ストレージ管理情報が格納される。ストレージ管理情報は、例えば、VOL管理テーブル421、VOLペア管理テーブル423、ジャーナル管理テーブル425及びVOLマッピングテーブル427を含む。
図4は、サーバシステム50のメモリ217に格納される情報及びプログラムの一例を示す。
メモリ217には、クラスタリングプログラム111、データ転送プログラム113、VMテーブル433、最終完了ジャーナル番号434、及び、障害管理プログラム435が格納される。
クラスタリングプログラム111は、物理計算機110A及び110Bを一つのサーバシステム50として見せる。
データ転送プログラム113は、オンプレミスストレージ200とパブリックストレージ120間のデータ転送を行う。
VMテーブル433は、VM毎に、VMに関する情報(例えば、VMが実行するOS(例えばゲストOS)やアプリケーションプログラム、VMのID、及び、VMの状態を表す情報)を保持する。
最終完了ジャーナル番号434は、パブリックストレージ120に最後に転送されたデータを含むジャーナルの番号である。データ転送プログラム113が、オンプレミスストレージ200からのジャーナルをVOL260に格納する。データ転送プログラム113が、当該VOL260に格納されておりパブリックストレージ120に未転送のデータを含んだジャーナルのうち、最も小さいジャーナル番号のジャーナル内のデータを、パブリックストレージ120に転送する。パブリックストレージ120から完了応答が返ってきた場合、データ転送プログラム113は、当該ジャーナルを、VOL260から削除してよい。データ転送プログラム113が、当該ジャーナルのジャーナル番号を、最終完了ジャーナル番号434に上書きする。ジャーナルのジャーナル番号は、当該ジャーナルがPVOL70Pに格納された順番、つまり更新順番を意味する。
障害管理プログラム435は、サーバシステム50における物理計算機110の障害の有無を監視する。障害が検出された場合、障害管理プログラム435が、物理計算機110間のフェイルオーバを行う。
図5は、オンプレミスストレージ200が持つ共有領域270に格納される情報の一例を示す。
共有領域270には、例えば、VM制御情報451及びIPアドレス情報452が格納される。VM制御情報451は、VM112の制御のための情報、例えば、各VM112へ割り当てられるリソース(例えばVOL)の量を表す情報を含む。IPアドレス情報452は、VOL260へのIPアドレスを表す情報である。
次に、各テーブルの構成例を説明する。
図6は、VOL管理テーブル421の一例を示す。
VOL管理テーブル421は、オンプレミスストレージ200が有するVOLに関する情報を保持する。VOL管理テーブル421は、オンプレミスストレージ200が有するVOL毎に、エントリを有する。各エントリは、VOL ID801、VOL容量802、ペアID803及びJVOL ID804といった情報を格納する。以下、一つのVOL(図6の説明において「対象VOL」)を例に取る。
VOL ID801は、対象VOLの番号(識別番号)を表す。VOL容量802は、対象VOLの容量を表す。ペアID803は、対象VOLを含むVOLペアのペアIDを表す。JVOL ID804は、対象VOLを含むVOLペアに関連付けられたJVOLの番号(識別番号)を表す。JVOLは、VOLペア毎に用意されてもよいし、二つ以上のVOLペアに共通でもよい。
VOL管理テーブル421における各エントリは、図示していないが、VOL属性(対象VOLの属性(例えば、対象VOLがPVOL、SVOL或いはJVOLのいずれであるか)、PDEV ID(VOLに基づく一つ以上のPDEVの各々のID)、RAIDレベル(対象VOLの基になっているRAIDグループのRAIDレベル)、LUN(クライアントサーバ201から指定される対象VOLのIDとしてのLUN(Logical Unit Number))、及び、物理ポート番号(対象VOLに対するI/Oにおいて使用される物理ポートの識別番号)のうちの少なくとも一つ又はその他情報を保持してもよい。
PVOL70Pに対してデータが書き込まれる場合、当該データのライト先のJVOL70Jは、当該PVOL70Pを含んだVOLペアのペアID803に対応したJVOL ID804から特定される。
図7は、VOLペア管理テーブル423の一例を示す。
VOLペア管理テーブル423は、VOLペア(PVOLとSVOLとのペア)に関する情報を保持する。VOLペア管理テーブル423は、VOLペア毎にエントリを有する。各エントリは、ペアID901、PVOL ID902、SVOL ID903及びペア状態904といった情報を格納する。以下、一つのVOLペア(図7の説明において「対象VOLペア」)を例に取る。
ペアID901は、対象VOLペアの番号(識別番号)を表す。PVOL ID902は、対象VOLペアにおけるPVOLの番号を表す。SVOL ID903は、対象VOLペアにおけるSVOLの番号を表す。ペア状態904は、対象VOLペアにおける複製状態を表す。例えば、ペア状態904の値として、“COPY”(PVOLからSVOLにデータをコピーしている状態)、“PAIR”(PVOLとSVOLが同期している状態)、及び“SUSPEND”(PVOLとSVOLが非同期の状態)がある。
図8は、ジャーナル管理テーブル425の一例を示す。
ジャーナル管理テーブル425は、各ジャーナルの管理情報を保持する。ジャーナル管理テーブル425は、ジャーナル毎にエントリを有する。各エントリは、管理情報に含まれる情報、例えば、ジャーナル番号701、更新時刻702、VOL ID703、格納アドレス704及びデータ長705といった情報を格納する。以下、一つのジャーナル(図8の説明において「対象ジャーナル」)を例に取る。
ジャーナル番号701は、対象ジャーナルの番号を表す。更新時刻702は、対象ジャーナル内のデータがSVOLに書き込まれた時刻(更新時刻)を表す。VOL ID703は、対象ジャーナル内のデータが格納されているSVOL70SのIDを表す。格納アドレス704は、対象ジャーナル内のデータが格納されている領域(SVOL70S内の領域)の先頭アドレスを表す。データ長705は、対象ジャーナル内のデータの長さを示す。対象ジャーナルについて、格納アドレス704とデータ長705が、対象ジャーナル内のデータが格納されている領域の全域を表す。
ジャーナル管理テーブル425は、オンプレミスストレージ200のメモリ212に格納されるテーブルであるが、サーバシステム50のメモリ217にも、ジャーナル管理テーブルが格納されてよい。例えば、データ転送プログラム113が、オンプレミスストレージ200から転送されたジャーナルをVOL260に格納し、VOL260内のジャーナル内のデータを、ジャーナル番号の小さい順に、パブリックストレージ120に転送してよい(例えば、データのライト要求をパブリックストレージ120に送信してよい)。その際、パブリックストレージ120には、当該ジャーナルの管理情報が持つ情報、例えば、格納アドレスとデータ長とを表す情報が指定されてよい。なお、サーバシステム50が持つジャーナル管理テーブルにおいて、管理情報が含む格納アドレスは、VOL260に格納されたジャーナル内のデータが存在する領域のアドレスであり、例えば、サーバシステム50内のメモリ217のアドレスでよい。
図9は、オンプレミスストレージ200が持つVOLマッピングテーブル427の一例を示す。
VOLマッピングテーブル427は、オンプレミスストレージ200が持つSVOL70S毎に、当該SVOL70SにマッピングされているVOL260に関する情報を保持する。VOLマッピングテーブル427は、SVOL70S毎にエントリを有する。各エントリが、VOL ID501、サーバシステム内VOL ID502及びIPアドレス503といった情報を格納する。以下、一つのSVOL70S(図9の説明において「対象SVOL70S」)を例に取る。
VOL ID501は、対象SVOL70Sの番号を表す。サーバシステム内VOL ID502は、対象SVOL70SにマッピングされているVOL260のサーバシステム50内での番号を表す。IPアドレス503は、対象SVOL70SにマッピングされているVOL260のIPアドレスを表す。
このマッピングにより、SVOL70Sから当該SVOL70SにマッピングされているVOL260へジャーナルが転送される。
図10は、サーバシステム50が持つVOLマッピングテーブル437の一例を示す。
VOLマッピングテーブル437は、サーバシステム50が持つVOL260毎に、当該VOL260にマッピングされているSVOL70Sに関する情報を保持する。VOLマッピングテーブル437は、VOL260毎にエントリを有する。各エントリが、VOL ID601及びオンプレミスストレージ内VOL ID602といった情報を格納する。以下、一つのVOL260(図10の説明において「対象VOL260」)を例に取る。
VOL ID601は、対象VOL260の番号を表す。オンプレミスストレージ内VOL ID602は、対象VOL260にマッピングされているSVOL70Sのオンプレミスストレージ200内での番号を表す。
図11は、システム構成処理のフローチャートである。
オンプレミスストレージ200の管理者側にて物理計算機110A及び110Bを準備する。例えば、物理計算機110A及び110Bの各々は、オンプレミスストレージ200を使用する顧客が保持する既存の物理計算機でもよい。物理計算機110A及び110Bがサーバシステム50として使用される。サーバシステム50は、オンプレミスストレージ200とクライアントサーバ201とパブリックストレージ120にネットワーク204を介して接続される。各物理計算機110にクラスタリングプログラム111がインストールされる。物理計算機110A及び110Bが、クラスタリングプログラム111により、クラスタシステムを構成する(S1010)。
各物理計算機110は、VM112を生成する(S1012)。物理計算機110A及び110Bでは同じVM環境が構築される。
VM112のVM制御情報451は、オンプレミスストレージ200内の共有領域270に格納される(S1014)。物理計算機110A及び110B間でVM制御情報451が共有される。
各物理計算機110において、VM112により実行されるデータ転送プログラム113が、VM112上にVOL260を生成する(S1016)。
オンプレミスストレージ200とサーバシステム50間のパスが張られる。アクティブな物理計算機110Aのデータ転送プログラム113Aが、例えば、オンプレミスストレージ200に対してinquiryコマンドを発行することで、オンプレミスストレージ200のSVOL70Sを検出する。データ転送プログラム113Aが、検出したSVOL70SにVOL260をマッピングし、当該VOL260をオンプレミスストレージ200に提供する(S1018)。SVOL70SとVOL260のマッピング関係は、VOLマッピングテーブル437に記録される。
データ転送プログラム113Aは、生成したVOL260をパブリックストレージ120(例えば、パブリックストレージ120内のVOL(図示せず))に提供する(S1020)。データ転送プログラム113は、VOL260からパブリックストレージ120内のVOLにデータをバックアップする。バックアップ処理は後述する。
図12は、クラスタリング処理(図11のS1010)のフローチャートである。
管理システム205は、サーバシステム50から一つの物理計算機110を選択する。図2が示した例によれば、選択された物理計算機110は、物理計算機110Aであるととする。管理システム205が、この物理計算機110Aの状態を“アクティブ”とする。管理システム205が、別の物理計算機110Bの状態を“スタンバイ”とする(S1110)。
アクティブな物理計算機110Aのクラスタリングプログラム111が、スタンバイの物理計算機110Bとクラスタ構成を作る。アクティブな物理計算機110Aとオンプレミスストレージ200間にパスが張られる。管理システム205は、物理計算機110Aの稼働及び物理計算機110Bのスタンバイ状態を管理し、アクティブな物理計算機110AにIPアドレスを割り当てる(S1112)。管理システム205が、当該IPアドレスを表すIPアドレス情報452を、共有領域270に格納する(S1114)。なお、当該IPアドレスが、S1016で生成されたVOL260に関連付けられ、IPアドレス503としてVOLマッピングテーブル427に登録される。
図13は、バックアップ処理のフローチャートである。
VOL70PからVOL70SへのフルコピーがされることでまずVOL70SはVOL70Pと同じとされる。VOL70Sのデータがサーバシステム50のVOL260を介してパブリックストレージ120にバックアップされる。具体的には、例えば、PVOL70PからSVOL70Sへのフルコピー(初期コピー)がされた直後のSVOL70SのデータがVOL260経由でパブリックストレージ120に転送されてよい。これにより、PVOL70P、SVOL70S及びパブリックストレージ120が同じデータを保持してよい。その後にPVOL70Pにデータが書き込まれた場合、I/Oプログラム411により当該データがSVOL70Sにコピーされ、当該データを含むジャーナルが、I/Oプログラム411によりJVOL70Jに格納され、当該ジャーナル内のデータの管理情報がジャーナル管理プログラム413によりジャーナル管理テーブル425に登録され、I/Oプログラム411により当該ジャーナルがVOL260に転送されてよい。VOL260からジャーナル内のデータがパブリックストレージ120に転送されてよい。図13は、具体的には、PVOL70PからSVOL70Sへのフルコピー後にPVOL70Pにデータが書き込まれSVOL70Sに当該データがコピーされた場合(SVOL70Sが更新された場合)のバックアップ処理を示す。
I/Oプログラム411が、SVOL70Sにデータが書き込まれた場合、当該データを含んだジャーナルを生成し、当該ジャーナルをJVOL70Jに格納し、当該ジャーナルの管理情報を、ジャーナル管理プログラム413が、ジャーナル管理テーブル425に登録する(S1210)。
I/Oプログラム411が、SVOL70SにマッピングされているVOL260AのIPアドレス503をVOLマッピングテーブル427から特定し、IPアドレス503を用いて、S1210で生成したジャーナルをVOL260Aへ転送する(S1212)。なお、オンプレミスストレージ200からサーバシステム50へのジャーナルの転送は、例えば下記のいずれかにより行われてよい。サーバシステム50がジャーナルを受け取れない場合は、下記のいずれかがリトライされてよい。
・サーバシステム50のデータ転送プログラム113が、VOL260Aに所定容量以上の空きがある場合に、サーバシステム50からジャーナルの転送要求をオンプレミスストレージ200へ送信し、その要求に応答してジャーナルを受信する。
・オンプレミスストレージ200のI/Oプログラム411が、ジャーナルをサーバシステム50に送信し、サーバシステム50のVOL260Aに所定容量以上の空きがある場合に、当該ジャーナルをサーバシステム50のデータ転送プログラム113が受信しVOL260Aに書き込む。
サーバシステム50のデータ転送プログラム113Aは、オンプレミスストレージ200から転送されたジャーナルを受けると、当該ジャーナルをVOL260Aに格納する(S1214)。例えば、ジャーナルは、サーバシステム50内で受信した順、つまりオンプレミスストレージ200内で更新された時刻順(ジャーナル番号の小さい順)に管理される。
ジャーナル番号の小さい順に、データ転送プログラム113Aが、VOL260Aに対応するパブリックストレージ120内のVOLへジャーナル内のデータを転送する。具体的には、例えば、データ転送プログラム113Aは、ジャーナル番号の小さい順に一つジャーナルを選択する。データ転送プログラム113Aは、選択したジャーナル内のデータをVOL260Aに対応するVOL(パブリックストレージ120内のVOL)に書き込むためのライト要求を生成する(S1216)。当該ライト要求に従うライト対象とされるデータは、当該選択したジャーナル内の管理情報が含む格納アドレス704とデータ長705から特定されてよい。また、当該ライト要求では、それらの格納アドレス704とデータ長705が指定されてもよい。データ転送プログラム113Aは、当該ライト要求をパブリックストレージ120へ発行する(S1218)。これにより、当該データが、パブリックストレージ120内のVOLに書き込まれる。なお、形式はライト要求でなくてもよい。パブリックストレージ120へデータが転送され書き込まれればよい。
サーバシステム50のVOL260A内に格納されたジャーナルのパブリックストレージ120への転送の状況を管理システム205が監視する(S1220)。管理システム205が、最後にパブリックストレージ120へ転送されたデータを含むジャーナルのジャーナル番号を、最終完了ジャーナル番号434に上書きする。
なお、バックアップ処理に関して、図13を参照した説明の少なくとも一部に代えて又は加えて、下記のうちの少なくとも一つが採用されてもよい。
・サーバシステム50が、JVOLを有する。オンプレミスストレージ200からのジャーナルが当該JVOLに格納される。つまり、VOL260がJVOL相当でよい。
・データ転送プログラム113Aが、最後にパブリックストレージ120に転送されたデータを含むジャーナルのジャーナル番号を、最終完了ジャーナル番号434に上書きする。
・データ転送プログラム113Aが、オンプレミスストレージ200に、サーバシステム50からパブリックストレージ120にジャーナル内のデータの転送状況を表す情報を、オンプレミスストレージ200に通知する。つまり、オンプレミスストレージ200のジャーナル管理テーブル425が、サーバシステム50からパブリックストレージ120へのデータ転送状況(ジャーナル反映状況)を監視する。
・PVOL70PとSVOL70Sが同期していて、I/Oプログラム411が、SVOL70Sに書き込まれた(バックアップされた)データをジャーナルとしてJVOL70Jに格納する。JVOL70Jにジャーナルが格納される都度に、I/Oプログラム411が、ジャーナルをサーバシステム50のVOL260Aに転送する。
VOL260を介して、オンプレミスストレージ200からパブリックストレージ120内のVOLへデータが転送されする。バックアップ処理する際、PVOL70Pのレスポンス性能は低減させないまま、PVOL70Pに書き込まれたデータのバックアップをパブリックストレージ120に格納することが望ましい。そこで、PVOL70PのフルコピーとしてのSVOL70Sが生成され、SVOL70Sに、サーバシステム50のVOL260がマッピングされる。オンプレミスストレージ200がVOL260へSVOL70Sにコピーされたデータを含んだジャーナルを転送することで、VOL260経由で、ジャーナル内のデータをパブリックストレージ120へバックアップすることができる。このように、PVOL70PのレプリカであるSVOL70Sにコピーされたデータをバックアップ対象とすることで、PVOL70Pの更新を含む業務の性能を低減させずにバックアップ処理をすることができる。
図14は、障害復旧処理のフローチャートである。
稼働中の物理計算機110Aに障害が検出されるかが監視される(S1310)。例えば、稼働中の物理計算機110Aの死活確認処理が定期的に行われる。例えば、オンプレミスストレージ200内にQuorumが置かれ、物理計算機110A及び110Bの各々の障害管理プログラム435が、監視対象の物理計算機110との通信状態をQuorumに書き込む。例えば、定期的またはI/Oの応答に同期して、障害管理プログラム435Aは、Quorumの所定ビットに1を設定する。障害管理プログラム435Bは、予め決めた時間間隔で定期的に、Quorum内の所定ビットに“1”が設定されているか判定する。所定ビットに基づいて継続稼動させる物理計算機110と停止される物理計算機110が決定される。Quorumの所定ビットの確認された値が“1”の場合、物理計算機110Aが正常に動作していることが確認できる。確認したら、障害管理プログラム435Bは、Quorumの所定ビットの値を“0”にリセットする。物理計算機110Aが正常に動作していれば定期的に所定ビットが“1”にされる。
これに対し、Quorumの所定ビットの確認された値が“0”の場合、物理計算機110Aに障害が発生しているために所定ビットの値が“1”に更新されないことがわかる。障害管理プログラム435Bは、物理計算機110Aに障害が発生したことを検知する。なお、Quorumを使用した上述の処理は、死活確認処理の一例であり、死活確認処理は、当該例に限られないでよい。例えば、物理計算機110同士が直接ハートビートにより死活確認されてよい。
物理計算機110Aの障害が検出された場合(S1312:YES)、スタンバイの物理計算機110Bが起動する(S1314)。
VMマイグレーションにより、物理計算機110Aの稼働中に必要な情報を含むVM制御情報(例えば、VMの状態を表す情報)が物理計算機110Bへマイグレーションされる(S1316)。VMマイグレーションが開始したら、オンプレミスストレージ200からのジャーナル転送をサーバシステム50が受けないようにするため、受付不可の返信か返信をせずオンプレミスストレージ200をタイムアウトさせることが行われる。また、VMマイグレーションにおいて、VOL260Aに蓄積されている一つ以上のジャーナル(パブリックストレージ120に未反映の一つ以上のジャーナル)がVOL260AからVOL260Bにマイグレーションされてもよい。或いは、管理システム205が、物理計算機110Aにおける最終完了ジャーナル番号434を管理していて、VMマイグレーション後、最終完了ジャーナル番号434が表すジャーナル番号より大きいジャーナル番号のジャーナルの送信をオンプレミスストレージ200に依頼し、当該依頼に応答して、オンプレミスストレージ200のI/Oプログラム411が、最終完了ジャーナル番号434が表すジャーナル番号より大きいジャーナル番号のジャーナルをサーバシステム50に送信し、結果として、引継ぎ後のVOL260Bに、当該ジャーナルが蓄積されてよい。
オンプレミスストレージ200からアクティブの物理計算機110Aへのパスが切断される。起動したスタンバイの物理計算機110Bとのパスが接続される(S1318)。アクティブとスタンバイの物理計算機110の情報が更新される。
クラスタリングプログラム111は物理計算機110Bをアクティブとして動作し、これにより物理計算機110Aの処理を物理計算機110Bが引き継げる。VM制御情報は、物理計算機110A内でプロセッサ216を稼働している際に使用する制御情報であり、これらの情報をスタンバイの物理計算機110Bへマイグレーションすることで、物理計算機110でのプロセッサ処理を物理計算機110Bで継続して処理できる。
さらに、管理システム205は、物理計算機110A内のVOL260Aへ割り当てられたIPアドレス(共有領域270内のIPアドレス情報452が表すIPアドレス)を物理計算機110BのVOL260Bに割り当てる。つまり、IPアドレスの引継ぎが行われる(S1320)。その間、物理計算機110Aはアクセス要求を受けつつタイムアウトと返信してよい。VMマイグレーションよりマイグレーションが完了し、タイムアウトで返信された要求をリトライすると物理計算機110Bで受けて継続して実行される。例えば、オンプレミスストレージ200は、SVOL70SにマッピングされたVOL260のIPアドレスに従ってサーバシステム50へアクセス要求を出し、受信不可又はタイムアウトにより当該アクセス要求を出すことを繰り返していると、やがて、当該IPアドレスの示す先である切替後の物理計算機110B(VOL260B)へのアクセスが可能となる。
なお、IPアドレスの引継ぎは、VMマイグレーションにおいて行われてもよい。例えば、物理計算機110Bのクラスタリングプログラム111が、共有領域270内のIPアドレス情報452が表すIPアドレスを特定し、特定したIPアドレスを、起動した物理計算機110B(VOL260B)に割り当ててよい。当該IPアドレスが、物理計算機110Aから物理計算機110Bに引き継がれるVM制御情報に含まれていてもよい。
以上により、オンプレミスストレージ200とパブリックストレージ120間のデータ転送を制御するサーバシステム50の物理計算機110が冗長化され、冗長化された物理計算機110が共有する情報(IPアドレスを含む情報)がオンプレミスストレージ200に共有領域270に格納される。これにより、物理計算機110A及び110B間で情報を共有し、物理計算機110Aに障害が生じても、自動的にフェイルオーバが行われて、オンプレミスストレージ200からパブリックストレージ120へのバックアップ処理を継続することが可能となる。
図15は、スナップショット取得処理のフローチャートである。
オンプレミスストレージ200は、クライアントサーバ201(例えば、アプリケーションプログラム)からPVOL70Pへのスナップショット取得要求を受ける(S1510)。
I/Oプログラム411が、当該スナップショット取得要求で指定されたPVOL70Pを含むVOLペアをサスペンドする(S1512)。つまり、当該VOLペアのペア状態904が“SUSPEND”に更新される。これにより、SVOL70Sを、サスペンド時点のPVOL70Pと同じ内容に確定できる。サスペンド時点で、PVOL70Pに書き込まれたデータのうちSVOL70Sにコピーされていないデータ(つまり差分データ)がある場合、I/Oプログラム411が、当該差分データをSVOL70Sにコピーする。これにより、SVOL70Sを、サスペンド時点のPVOL70Pと同期がとれた状態のVOLとすることができる(S1514)。なお、サスペンド後も、I/Oプログラム411が、PVOL70Pを指定したライト要求を受け付けているため、PVOL70Pの更新と差分管理が発生する。
SVOL70Sが、サスペンド時のPVOL70Pと同じ内容になったら、I/Oプログラム411が、サーバシステム50へ、スナップショット取得要求を、ジャーナルを使って転送する(S1516)。例えば、スナップショット取得要求が、マーカという形式で、ジャーナル内のデータの一種としてジャーナルに含められる。サーバシステム50に未転送なジャーナルがオンプレミスストレージ200からサーバシステム50へジャーナルの時刻順(ジャーナル番号の小さい順)に転送される。当該ジャーナルの転送先は、アクティブの物理計算機110A(VOL260A)である。
データ転送プログラム113Aが、オンプレミスストレージ200から受け取ったジャーナルを基に、パブリックストレージ120へデータ転送を行う。転送の仕方は、例えば、S1216と同様である。
データ転送プログラム113Aが、パブリックストレージ120にサスペンド前のデータ転送が完了したこと、すなわち、オンプレミスストレージ200がスナップショット取得要求を受けた時のPVOL70P内の全データと同じデータがパブリックストレージ120に格納されていることを認識した場合、データ転送プログラム113Aは、パブリックストレージ120に、スナップショット取得要求を出す(S1518)。
「パブリックストレージ120にサスペンド前のデータ転送が完了したこと」は、例えば、下記のうちのいずれかにより認識されてよい。
・管理システム205が、サーバシステム50からパブリックストレージ120へのデータ転送の状況を監視する。サーバシステム50からパブリックストレージ120へ次に転送されるデータがマーカ(スナップショット取得要求)の場合、管理システム205が、「パブリックストレージ120にサスペンド前のデータ転送が完了したこと」を認識する。パブリックストレージ120に最後に転送されたデータが、PVOL70Pのサスペンドの前に最後にPVOL70Pに更新されたデータだからである。
・データ転送プログラム113Aが、パブリックストレージ120へ次に転送されるデータがマーカ(スナップショット取得要求)の場合、「パブリックストレージ120にサスペンド前のデータ転送が完了したこと」を認識する。パブリックストレージ120に最後に転送されたデータが、PVOL70Pのサスペンドの前に最後にPVOL70Pに更新されたデータだからである。
S1518でパブリックストレージ120に送信されるスナップショット取得要求は、ジャーナルにデータの一種として含まれていたマーカでよい。
以上により、オンプレミスストレージ200に格納されたデータをパブリックストレージ120にバックアップする際、オンプレミスストレージ200とサーバシステム50とスナップショットを取得するタイミングを連携することにより、整合性の取れたスナップショットをパブリックストレージ120で取得できる。
以上が、本実施形態についての説明である。なお、システム全体の構成としては、図1に示した構成に限らず、別の構成、例えば、図16に例示する構成が採用されてもよい。すなわち、サーバシステム50とオンプレミスストレージ200間が、ネットワーク204に代えて、ストレージエリアネットワーク203経由で接続されてもよい。
上述の説明を、例えば、下記のように総括することができる。
ハイブリッドクラウドでのバックアップ方法の一比較例として、オンプレミスストレージ200における業務VOLからデータをパブリックストレージ120に転送する方法が考えられる。しかし、この方法によれば、上述したように、業務VOL内のデータがロストしてしまうと当該データを復元することができず、また、業務VOLのI/O性能の低下が懸念される。
そこで、オンプレミスストレージ200のプロセッサ211が、業務VOLをPVOL70Pとし、PVOL70PとVOLペアを構成するSVOL70Sを作成する。プロセッサ211が、サーバシステム50(VOL260)に、作成したSVOL70Sを関連付ける。プロセッサ211が、PVOL70Pを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータをPVOL70Pに書き込み、当該データをSVOL70Sにコピー(バックアップ)する。プロセッサ211が、SVOL70Sにバックアップされたデータをパブリックストレージ120に書き込むために当該データをサーバシステム50に送信する。これにより、PVOL70Pと整合性の取れたVOLがSVOL70Sとして存在する。また、パブリックストレージ120へのバックアップは、SVOL70Sについて行われるため、PVOL70PのI/O性能に影響しない。このように、ハイブリッドクラウドにおいてオンプレミスストレージ200の業務VOL内のデータと整合性がとれたデータを業務VOLのI/O性能を低下させることなくバックアップすることができる。
一比較例において、単一の物理計算機がサーバシステムであると、当該単一の物理計算機の障害があった場合、当該物理計算機を別の物理計算機にリプレースするといった立ち上げ直しが必要になる。そうすると、物理計算機に障害が発生してから再開するまでに長い時間がかる。つまり、バックアップ処理の中断期間が長くなる。
そこで、図17が示すように、複数の物理計算機110の一例としての物理計算機110A及び110Bで構成されたクラスタシステムがサーバシステム50である。プロセッサ211が、物理計算機110Aが提供するVOL260A(第1の論理ボリュームの一例)のIPアドレス(対象アドレスの一例)をSVOL70Sに関連付ける。オンプレミスストレージ200が、共有領域270を有し、当該IPアドレスを表すIPアドレス情報452を含んだ共有情報が共有領域270に格納される。物理計算機110Aに障害が生じた場合、物理計算機110Aから物理計算機110Bへのフェイルオーバを含む障害復旧が行われる。この障害復旧において、IPアドレス情報452から特定されるIPアドレスが、物理計算機110A(VOL260A)から物理計算機110B(VOL260B(第2の論理ボリュームの一例))に引き継がれる。オンプレミスストレージ200のプロセッサ211が、SVOL70Sに対応したIPアドレス503が表すIPアドレス(IPアドレス情報452が表すIPアドレスと同じIPアドレス)を用いてサーバシステム50への転送を行っている。このため、障害復旧後には物理計算機110A(VOL260A)に代えて物理計算機110B(VOL260B)にデータを転送できる。このようにして、バックアップ処理を継続できる。なお、IPアドレスは、物理計算機110Aから物理計算機110BへのVMマイグレーションに起因して(例えば、VMマイグレーションを含んだフェイルオーバの一環として)、VOL260AからVOL260Bに引き継がれてよい。これにより、VMマイグレーションを利用してIPアドレスの引継ぎが可能となるので、IPアドレスの引継ぎのための追加処理が不要又は少なく済むことが期待される。
JVOL70Jが、一つ以上のVOLペアについて用意される。JVOL70Jに格納されるジャーナルが含むデータは、上述の実施形態では、SVOL70Sに書き込まれたデータであるが、それに代えて、PVOL70Pに書き込まれたデータでもよい。すなわち、オンプレミスストレージ200のプロセッサ211が、SVOL70Sにデータをバックアップする都度に(又は、PVOL70Pにデータを書き込む都度)、当該データを含み当該データの管理情報が関連付けられたジャーナルを作成し、作成したジャーナルをJVOL70Jに格納する。プロセッサ211が、サーバシステム50に未送信のデータを含むジャーナルをサーバシステム50に送信する。サーバシステム50が、パブリックストレージ120に未反映の一つ以上のジャーナルの各々におけるデータを、ジャーナル番号の小さい順にパブリックストレージ120に転送するようになっている。「パブリックストレージ120に未反映のジャーナル」とは、パブリックストレージ120に未送信のデータ(パブリックストレージ120に書き込まれていないデータ)を含むジャーナルである。オンプレミスストレージ200においてライト要求に応答してPVOL70Pにデータが書き込まれ当該データがサーバシステム50を通じてパブリックストレージ120にバックアップされることが完了してからライト要求の完了とすることは困難である。このため、ジャーナルを利用することにより、PVOL70Pにデータが書き込まれることと非同期に、当該データをパブリックストレージ120へバックアップすることができる。
管理システム205が、サーバシステム50からパブリックストレージ120へのデータ転送を監視することで、最終完了ジャーナル番号434(サーバシステム50からパブリックストレージ120に最後に転送されたデータを含むジャーナルのジャーナル番号を表す情報)を管理してよい。オンプレミスストレージ200のベンダがサーバシステム50の機能を追加又は変更できないこと又はその他の理由により、サーバシステム50がジャーナル管理機能を有していなくても、オンプレミスストレージ200のベンダが管理システム205を構築することで、オンプレミスストレージ200とパブリックストレージ120間でデータの整合性を維持することが期待できる。例えば、管理システム205が、最終完了ジャーナル番号434が表すジャーナル番号よりも大きいジャーナル番号のジャーナル(最後にパブリックストレージ120に反映されたジャーナルより新しいジャーナルの一例)をパブリックストレージ120に転送することをサーバシステム50に依頼したり、最終完了ジャーナル番号434が表すジャーナル番号よりも大きいジャーナル番号のジャーナルをサーバシステム50に送信することをオンプレミスストレージ200に依頼したりすることができる。
なお、オンプレミスストレージ200からサーバシステム50への送信は、ジャーナル送信に代えて、ジャーナル内のデータの送信でもよい。また、管理システム205が、オンプレミスストレージ200からサーバシステム50へのデータ転送を監視することで、サーバシステム50へのジャーナルの時系列を管理してよい。オンプレミスストレージ200のベンダ(又はプロバイダ)がサーバシステム50の機能を追加又は変更できないこと又はその他の理由により、サーバシステム50がジャーナル管理機能を有していなくても、オンプレミスストレージ200のベンダ(又はプロバイダ)が管理システム205を構築することで、サーバシステム50にジャーナルの欠落無しにジャーナルを蓄積することを支援することが期待できる。例えば、管理システム205が、サーバシステム50においてジャーナルの番号が連続しないことを検出した場合、不足しているジャーナルの送信をオンプレミスストレージ200に依頼することができる。
ところで、PVOL70Pのスナップショット取得の要求が、I/O要求の送信元(例えば、アプリケーション)から送信されることがある。オンプレミスストレージ200のプロセッサ211が、当該スナップショット取得要求に応答して、PVOL70Pのスナップショットを取得する。
ここで、図18が示す一比較例によれば、オンプレミスストレージ20が、PVOL内のデータAをデータBに更新した場合、データBが、SVOLに反映され、且つ、サーバシステム60に送信されることになるが、データBが、パブリックストレージ120に反映されるタイミングは、サーバシステム60に依存する。オンプレミスストレージ20が、スナップショット取得要求を受けた場合(S1701)、データBを含むスナップショットを取得する(S1702)。この場合、パブリックストレージ120にデータBが届いていないと、オンプレミスストレージ20でのスナップショットとパブリックストレージ120でのデータとの整合性が取れない。
そこで、図19に示すように、オンプレミスストレージ200のプロセッサ211が、スナップショット取得要求を受けた場合、スナップショット取得要求が、サーバシステム50を通じてパブリックストレージ120に連携される。図19が示す例によれば、PVOL70PにデータBが格納されているため、データBがSVOL70Sに格納されていて、且つ、データBを含んだジャーナルがJVOL70Jに格納されている。ここで、プロセッサ211が、スナップショット取得要求(第1のスナップショット取得要求の一例)を受けた場合(S1801)、PVOL70PとSVOL70SとのVOLペアをサスペンドする(S1802)。その後、プロセッサ211が、サスペンド時点の時刻とSVOL70Sに未反映のジャーナルの管理情報における更新時刻702とを比較する又はその他の方法により、サスペンド時点のPVOL70Pに存在するがSVOL70Sに存在しない差分データの有無を判断する。ここでは、そのような差分データは無いとする。プロセッサ211が、データBを含むジャーナルをサーバシステム50に送信する(S1803)。プロセッサ211が、当該ジャーナルの他に、スナップショット取得要求(第2のスナップショット取得要求の一例)をサーバシステム50に送信する(S1803)。サーバシステム50が、当該ジャーナル内のデータBをパブリックストレージ120に送信し、当該スナップショット取得要求をパブリックストレージ120に送信する(S1804)。当該スナップショット取得要求に対する完了応答を、オンプレミスストレージ200のプロセッサ211が、当該スナップショット取得要求を受けて未反映のデータBをパブリックストレージ120に送信したサーバシステム50から受信する。このようにして、スナップショット取得要求の連携が行われて、オンプレミスストレージ200でのスナップショットとパブリックストレージ120でのスナップショットの整合性を維持することができる。
上述したジャーナルの生成、オンプレミスストレージ200からサーバシステム50へのジャーナルの転送、サーバシステム50からパブリックストレージ120へのジャーナル内のデータの転送は、スナップショットの整合性の維持のために有効である。特に、例えば、オンプレミスストレージ200からサーバシステム50へ送信されるスナップショット取得要求は、ジャーナル内のデータの一種としてのマーカでよい。サーバシステム50からパブリックストレージ120に送信されるスナップショット取得要求は、ジャーナル内のデータの転送の一種でよい。これにより、ジャーナルの転送やジャーナル内のデータの送信を、スナップショット取得要求の送信(連携)とすることができる。
以上、本発明の一実施形態を説明したが、本発明は、この実施形態に限定されるものでなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
50:サーバシステム
120:パブリックストレージ
200:オンプレミスストレージ

Claims (14)

  1. クラウドベースのストレージシステムであるクラウドストレージと前記クラウドストレージを提供する者と異なる者により提供されるストレージシステムであるローカルストレージとを含んだハイブリッドクラウドにおけるデータを保護する方法であって、
    前記ローカルストレージが、業務ボリュームに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域を作成し、
    前記ローカルストレージが、前記ローカルストレージから前記クラウドストレージへのアクセスを提供するサーバシステムに、前記作成したバックアップ領域を関連付け、
    前記ローカルストレージが、前記業務ボリュームを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータを前記業務ボリュームに書き込み、当該データを前記バックアップ領域にバックアップし、
    前記ローカルストレージが、前記バックアップ領域にバックアップされたデータを前記クラウドストレージに書き込むために当該データを前記バックアップ領域から前記サーバシステムに送信し、
    前記ローカルストレージが、第1の物理計算機が提供する第1の論理ボリュームへのアドレスである対象アドレスを前記バックアップ領域に関連付け、
    前記サーバシステムは、前記第1の物理計算機を含む複数の物理計算機をベースとしたクラスタシステムであり、前記第1の論理ボリュームに対するデータを受けた場合、当該データを前記クラウドストレージに送信し、
    前記ローカルストレージが、前記対象アドレスを含み前記ローカルストレージと前記サーバシステムとが共有する情報である共有情報を格納し、
    前記第1の物理計算機に障害が生じた場合に行われる、前記第1の物理計算機から第2の物理計算機へのフェイルオーバを含む障害復旧において、前記共有情報から特定される前記対象アドレスが、前記第1の物理計算機から、前記第2の物理計算機が提供する第2の論理ボリュームに引き継がれ、
    前記ローカルストレージが、前記バックアップ領域にバックアップされたデータの前記サーバシステムへの送信において、前記対象アドレスを指定する、
    方法。
  2. 前記フェイルオーバは、前記第1の物理計算機から前記第2の物理計算機への仮想マシンのマイグレーションを含み、
    前記対象アドレスは、前記マイグレーションに起因して、前記第1の物理計算機から前記第2の物理計算機に引き継がれる、
    請求項に記載の方法。
  3. 前記ローカルストレージが、前記業務ボリュームに書き込まれるデータを含み当該データの管理情報が関連付けられたジャーナルを作成し、当該ジャーナルを前記バックアップ領域に格納し、
    各ジャーナルについて、前記管理情報は、当該ジャーナルにおけるデータの格納先アドレスを表す情報と当該データの順番を意味するジャーナル番号を表す情報とを含み、
    前記ローカルストレージが、前記サーバシステムに未送信のデータを含むジャーナルを前記サーバシステムに送信し、
    前記サーバシステムが、ジャーナルの古い順に、前記クラウドストレージに未反映の一つ以上のジャーナルの各々におけるデータを前記クラウドストレージに転送するようになっている、
    請求項に記載の方法。
  4. 前記サーバシステムに接続された管理システムが、前記サーバシステムから前記クラウドストレージへのデータ転送を監視することで、前記サーバシステムから前記クラウドストレージに最後に転送されたデータを含むジャーナルのジャーナル番号を管理する、
    請求項に記載の方法。
  5. 前記ローカルストレージが、前記業務ボリュームに書き込まれるデータを含み当該データの管理情報が関連付けられたジャーナルを作成し、当該ジャーナルを前記バックアップ領域に格納し、
    各ジャーナルについて、前記管理情報は、当該ジャーナルにおけるデータの格納先アドレスを表す情報と当該データの順番を意味するジャーナル番号を表す情報とを含み、
    前記ローカルストレージが、ジャーナルの古い順に、前記サーバシステムに未送信のデータを含む一つ以上のジャーナルの各々におけるデータを前記サーバシステムに送信する、
    請求項に記載の方法。
  6. 前記サーバシステムに接続された管理システムが、前記ローカルストレージから前記サーバシステムへのデータ転送を監視することで、前記サーバシステムへのジャーナルの時系列を管理する、
    請求項に記載の方法。
  7. クラウドベースのストレージシステムであるクラウドストレージと前記クラウドストレージを提供する者と異なる者により提供されるストレージシステムであるローカルストレージとを含んだハイブリッドクラウドにおけるデータを保護する方法であって、
    前記ローカルストレージが、業務ボリュームに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域を作成し、
    前記ローカルストレージが、前記ローカルストレージから前記クラウドストレージへのアクセスを提供するサーバシステムに、前記作成したバックアップ領域を関連付け、
    前記ローカルストレージが、前記業務ボリュームを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータを前記業務ボリュームに書き込み、当該データを前記バックアップ領域にバックアップし、
    前記ローカルストレージが、前記バックアップ領域にバックアップされたデータを前記クラウドストレージに書き込むために当該データを前記バックアップ領域から前記サーバシステムに送信し、
    前記バックアップ領域は、前記業務ボリュームをプライマリボリュームとし前記業務ボリュームとボリュームペアを構成するセカンダリボリュームを含み、
    前記ローカルストレージが、前記業務ボリュームについて第1のスナップショット取得要求を受けた場合、前記ボリュームペアの状態を、サスペンド状態とし、
    前記サスペンド状態は、前記業務ボリュームにデータが書き込まれても当該データが前記セカンダリボリュームにコピーされることが保留となる状態であり、
    前記ローカルストレージが、前記ボリュームペアの状態が前記サスペンド状態となった時点での前記業務ボリュームと同じ前記セカンダリボリューム内のデータのうち前記サーバシステムに未反映のデータと、第2のスナップショット取得要求とを、前記サーバシステムに送信し、
    前記ローカルストレージが、当該第2のスナップショット取得要求に対する完了応答を、当該第2のスナップショット取得要求を受けて前記未反映のデータの全てを前記クラウドストレージに送信した前記サーバシステムから受信する、
    方法。
  8. 前記ローカルストレージが、前記業務ボリュームに書き込まれるデータを含み当該データの管理情報が関連付けられたジャーナルを作成し、
    各ジャーナルについて、前記管理情報は、当該ジャーナルにおけるデータの格納先アドレスを表す情報と当該データの順番を意味するジャーナル番号を表す情報とを含み、
    前記ローカルストレージが、前記サーバシステムに未送信のデータを含むジャーナルを前記サーバシステムに送信し、
    前記サーバシステムが、前記クラウドストレージに未反映の一つ以上のジャーナルの各々におけるデータを、ジャーナル番号の古い順にクラウドストレージに転送するようになっている、
    請求項に記載の方法。
  9. 前記第2のスナップショット取得要求は、前記サーバシステムへ転送されるジャーナル内にデータの一種として含められたマーカである、
    請求項に記載の方法。
  10. 前記サーバシステムに接続された管理システムが、前記サーバシステムから前記クラウドストレージへのデータ転送を監視することで、前記サーバシステムから前記クラウドストレージに最後に転送されたデータを含むジャーナルのジャーナル番号を管理する、
    請求項に記載の方法。
  11. 前記サーバシステムに接続された管理システムが、前記ローカルストレージから前記サーバシステムへのジャーナル転送を監視することで、前記サーバシステムへのジャーナルの時系列を管理する、
    請求項に記載の方法。
  12. 前記ローカルストレージが、第1の物理計算機が提供する第1の論理ボリュームへのアドレスである対象アドレスを前記セカンダリボリュームに関連付け、
    前記サーバシステムは、前記第1の物理計算機を含む複数の物理計算機をベースとしたクラスタシステムであり、前記第1の論理ボリュームに対するデータを受けた場合、当該データを前記クラウドストレージに送信し、
    前記ローカルストレージが、前記対象アドレスを含み前記ローカルストレージと前記サーバシステムの前記複数の物理計算機とが共有する情報である共有情報を格納し、
    前記第1の物理計算機に障害が生じた場合に行われる、前記第1の物理計算機から第2の物理計算機へのフェイルオーバにおいて、前記共有情報から特定される前記対象アドレスが、前記第1の物理計算機から、前記第2の物理計算機が提供する論理ボリュームに引き継がれ、
    前記ローカルストレージが、前記セカンダリボリュームにコピーされたデータの前記サーバシステムへの送信において、前記対象アドレスを指定する、
    請求項に記載の方法。
  13. クラウドベースのストレージシステムであるクラウドストレージを含んだハイブリッドクラウドに備えられ前記クラウドストレージを提供する者と異なる者により提供されるローカルストレージとしてのストレージシステムであって、
    前記クラウドストレージへのアクセスを提供するサーバシステムに接続される通信インターフェース装置と、
    ライト要求に付随するデータが格納される記憶装置と、
    前記通信インターフェース装置及び前記記憶装置に接続されたプロセッサと
    を有し、
    前記プロセッサが、業務ボリュームに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域を作成し、
    前記プロセッサが、前記作成したバックアップ領域を前記サーバシステムに関連付け、
    前記プロセッサが、前記業務ボリュームを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータを前記業務ボリュームに書き込み、当該データを前記バックアップ領域にバックアップし、
    前記プロセッサが、前記バックアップ領域にバックアップされたデータを前記クラウドストレージに書き込むために当該データを前記バックアップ領域から前記サーバシステムに送信
    前記プロセッサが、第1の物理計算機が提供する第1の論理ボリュームへのアドレスである対象アドレスを前記バックアップ領域に関連付け、
    前記サーバシステムは、前記第1の物理計算機を含む複数の物理計算機をベースとしたクラスタシステムであり、前記第1の論理ボリュームに対するデータを受けた場合、当該データを前記クラウドストレージに送信し、
    前記プロセッサが、前記対象アドレスを含み前記ローカルストレージと前記サーバシステムとが共有する情報である共有情報を格納し、
    前記第1の物理計算機に障害が生じた場合に行われる、前記第1の物理計算機から第2の物理計算機へのフェイルオーバを含む障害復旧において、前記共有情報から特定される前記対象アドレスが、前記第1の物理計算機から、前記第2の物理計算機が提供する第2の論理ボリュームに引き継がれ、
    前記プロセッサが、前記バックアップ領域にバックアップされたデータの前記サーバシステムへの送信において、前記対象アドレスを指定する、
    ストレージシステム。
  14. クラウドベースのストレージシステムであるクラウドストレージを含んだハイブリッドクラウドに備えられ前記クラウドストレージを提供する者と異なる者により提供されるローカルストレージとしてのストレージシステムであって、
    前記クラウドストレージへのアクセスを提供するサーバシステムに接続される通信インターフェース装置と、
    ライト要求に付随するデータが格納される記憶装置と、
    前記通信インターフェース装置及び前記記憶装置に接続されたプロセッサと
    を有し、
    前記プロセッサが、業務ボリュームに書き込まれたデータのバックアップ先とされる記憶領域であるバックアップ領域を作成し、
    前記プロセッサが、前記作成したバックアップ領域を前記サーバシステムに関連付け、
    前記プロセッサが、前記業務ボリュームを指定したライト要求を受け付けた場合、当該ライト要求に付随するデータを前記業務ボリュームに書き込み、当該データを前記バックアップ領域にバックアップし、
    前記プロセッサが、前記バックアップ領域にバックアップされたデータを前記クラウドストレージに書き込むために当該データを前記バックアップ領域から前記サーバシステムに送信し、
    前記バックアップ領域は、前記業務ボリュームをプライマリボリュームとし前記業務ボリュームとボリュームペアを構成するセカンダリボリュームを含み、
    前記プロセッサが、前記業務ボリュームについて第1のスナップショット取得要求を受けた場合、前記ボリュームペアの状態を、サスペンド状態とし、
    前記サスペンド状態は、前記業務ボリュームにデータが書き込まれても当該データが前記セカンダリボリュームにコピーされることが保留となる状態であり、
    前記プロセッサが、前記ボリュームペアの状態が前記サスペンド状態となった時点での前記業務ボリュームと同じ前記セカンダリボリューム内のデータのうち前記サーバシステムに未反映のデータと、第2のスナップショット取得要求とを、前記サーバシステムに送信し、
    前記プロセッサが、当該第2のスナップショット取得要求に対する完了応答を、当該第2のスナップショット取得要求を受けて前記未反映のデータの全てを前記クラウドストレージに送信した前記サーバシステムから受信する、
    ストレージシステム。
JP2020050977A 2020-03-23 2020-03-23 ハイブリッドクラウドにおけるデータを保護する方法 Active JP7142052B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020050977A JP7142052B2 (ja) 2020-03-23 2020-03-23 ハイブリッドクラウドにおけるデータを保護する方法
US17/017,962 US20210294701A1 (en) 2020-03-23 2020-09-11 Method of protecting data in hybrid cloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050977A JP7142052B2 (ja) 2020-03-23 2020-03-23 ハイブリッドクラウドにおけるデータを保護する方法

Publications (2)

Publication Number Publication Date
JP2021149773A JP2021149773A (ja) 2021-09-27
JP7142052B2 true JP7142052B2 (ja) 2022-09-26

Family

ID=77747898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050977A Active JP7142052B2 (ja) 2020-03-23 2020-03-23 ハイブリッドクラウドにおけるデータを保護する方法

Country Status (2)

Country Link
US (1) US20210294701A1 (ja)
JP (1) JP7142052B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11372556B2 (en) * 2020-09-03 2022-06-28 Dell Products, L.P. Snapshot access using nocopy undefined thin devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025683A (ja) 2003-07-03 2005-01-27 Hitachi Ltd 記憶システム及び記憶装置システム
JP2008171387A (ja) 2007-01-05 2008-07-24 Hitachi Ltd 継続的データ保護を備えたバックアップシステム
JP2014041395A (ja) 2012-08-21 2014-03-06 Hitachi Ltd 計算機システム
JP2015060375A (ja) 2013-09-18 2015-03-30 日本電気株式会社 クラスタシステム、クラスタ制御方法及びクラスタ制御プログラム
JP2017174107A (ja) 2016-03-23 2017-09-28 日本電気株式会社 ディザスタリカバリシステム、マスタストレージ装置、リモートストレージ装置、通常時転送装置、被災時転送装置、方法およびプログラム
US20190294509A1 (en) 2018-03-23 2019-09-26 Veritas Technologies Llc Systems and methods for backing-up an eventually-consistent database in a production cluster

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025683A (ja) 2003-07-03 2005-01-27 Hitachi Ltd 記憶システム及び記憶装置システム
JP2008171387A (ja) 2007-01-05 2008-07-24 Hitachi Ltd 継続的データ保護を備えたバックアップシステム
JP2014041395A (ja) 2012-08-21 2014-03-06 Hitachi Ltd 計算機システム
JP2015060375A (ja) 2013-09-18 2015-03-30 日本電気株式会社 クラスタシステム、クラスタ制御方法及びクラスタ制御プログラム
JP2017174107A (ja) 2016-03-23 2017-09-28 日本電気株式会社 ディザスタリカバリシステム、マスタストレージ装置、リモートストレージ装置、通常時転送装置、被災時転送装置、方法およびプログラム
US20190294509A1 (en) 2018-03-23 2019-09-26 Veritas Technologies Llc Systems and methods for backing-up an eventually-consistent database in a production cluster

Also Published As

Publication number Publication date
JP2021149773A (ja) 2021-09-27
US20210294701A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
US10621060B2 (en) Storage system and control software deployment method
JP4551096B2 (ja) ストレージサブシステム
EP1624376B1 (en) Storage system and data processing system
US6598174B1 (en) Method and apparatus for storage unit replacement in non-redundant array
US6571354B1 (en) Method and apparatus for storage unit replacement according to array priority
JP5244332B2 (ja) 情報システム、データ転送方法及びデータ保護方法
EP1179770B1 (en) File system
US8417905B2 (en) Methods and apparatus for point-in-time volumes
US8875134B1 (en) Active/active storage and virtual machine mobility over asynchronous distances
US7149769B2 (en) System and method for multi-destination merge in a storage area network
JP5138530B2 (ja) ストレージ容量仮想化技術における障害管理方式
US9098466B2 (en) Switching between mirrored volumes
JP2008065525A (ja) 計算機システム、データ管理方法及び管理計算機
JP2007052772A (ja) データ複製システム並びにデータ移行方法
US20120260051A1 (en) Computer system, management system and data management method
JP7167078B2 (ja) 分散ストレージシステム及び記憶制御方法
JP7142052B2 (ja) ハイブリッドクラウドにおけるデータを保護する方法
US10846012B2 (en) Storage system for minimizing required storage capacity during remote volume replication pair duplication
JP2004272318A (ja) 系切り替えシステムおよびその処理方法並びにその処理プログラム
JP5947974B2 (ja) 情報処理装置及び情報処理装置の交換支援システム並びに交換支援方法
CN112445652A (zh) 远程复制系统
US20230350753A1 (en) Storage system and failure handling method
JP2021174392A (ja) リモートコピーシステム及びリモートコピー管理方法
JP2024030968A (ja) 情報処理システム及びバックアップ方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7142052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150