JP2006146661A - レプリケーションシステム、方法、レプリカストレージ、およびプログラム - Google Patents

レプリケーションシステム、方法、レプリカストレージ、およびプログラム Download PDF

Info

Publication number
JP2006146661A
JP2006146661A JP2004337319A JP2004337319A JP2006146661A JP 2006146661 A JP2006146661 A JP 2006146661A JP 2004337319 A JP2004337319 A JP 2004337319A JP 2004337319 A JP2004337319 A JP 2004337319A JP 2006146661 A JP2006146661 A JP 2006146661A
Authority
JP
Japan
Prior art keywords
storage
master
data
replica
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004337319A
Other languages
English (en)
Inventor
Junichi Yamato
純一 大和
Maki Suga
真樹 菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004337319A priority Critical patent/JP2006146661A/ja
Publication of JP2006146661A publication Critical patent/JP2006146661A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 一定以上の信頼性を維持しつつコストを抑えたレプリケーションシステムを提供することである。
【解決手段】 複数のマスターストレージ1a〜1bは、正常系サイトにて処理に用いられるデータを格納し、処理に提供しており、データが更新されると更新情報を待機系サイトに送信する。
レプリカストレージ3は、待機系サイトにて、複数のマスターストレージ1a〜1bの複製データを上位ストレージ13および下位ストレージ14からなる階層型ストレージに格納している。そして、レプリカストレージ3は、第1のモードでは、マスターストレージ1からの更新情報を受信して複製データを更新する。また、レプリカストレージ3は、第2のモードでは、いずれかの正常系サイトのマスターストレージ1を選択し、選択したマスターストレージ1に対応する複製データを上位ストレージ13にて処理に提供する。
【選択図】 図1

Description

本発明は、マスターストレージとレプリカストレージの間のレプリケーションを行うレプリケーションシステムに関する。
ストレージにデータを格納しておき、ホストが処理を実行するときにストレージにアクセスするコンピュータシステムが従来から用いられている。ストレージとは、磁気ディスク、光ディスク、光磁気ディスクのディスク装置あるいはそのディスクアレイ装置等の不揮発なデータ記録装置をいう。
また、処理能力を向上するために、ストレージに用いられるメモリーより高速動作可能なメモリーで構成したディスクキャッシュが従来から用いられてきた。また、停電等の障害時でも、ディスクキャッシュ上で更新されたデータが失われてしまわないように、バッテリーバックアップにより、一定期間、ディスクキャッシュを不揮発化したものもあった。
また、ストレージシステムでは、ストレージの容量単価を低減するために、従来から、階層化された複数レベルのストレージを備え、データのアクセス頻度により保存するストレージを使い分けることが行われている。一般的には、上位ストレージには高性能あるいは高可用性のストレージが用いられ、下位ストレージには上位ストレージに比べて性能あるいは可用性の劣るストレージが用いられる。性能あるいは可用性の劣るストレージは容量単価が低いので、それを用いることによりコストダウンの効果が得られる。また、上位ストレージに高性能あるいは高可用性のストレージを用いることによりストレージ全体として所定の性能または可用性を実現することができる。
階層型ストレージでは、一例として、アクセス頻度の高いデータは上位ストレージに格納され、アクセス頻度の低いデータは下位ストレージに格納される。そして、例えば、ホストからのアクセス先を上位ストレージに限定し、上位ストレージに格納されていないデータへのアクセスがあると、下位ストレージから上位ストレージにデータブロックを移動する。また、階層型ストレージでは、上位ストレージをアクセス頻度の高い状態に維持するためにも上位ストレージと下位ストレージの間でデータの移動が行われる。
データのアクセス頻度に基づく上位ストレージと下位ストレージの間でのデータの移動は、例えばHSM(hierarchical Storage Management)に基づいて行われる。このような階層型ストレージによれば、アクセス性能を一定以上に維持しつつ、高価な上位ストレージの容量を削減することで、ストレージシステムの装置コストを低減することができる。
さらに、ストレージシステムでは、大容量ストレージを安価に実現するために、従来からATAやSerial ATAのような安価な磁気記憶装置により構築されたディスクアレイが用いられてきた。
一方、災害等が発生したときに正常系サイトに代わって待機系サイトが動作することによりシステム機能を維持するコンピュータシステムが用いられることがある。例えば、平時には正常系サイトがシステム機能を提供する動作をしており、正常系サイトが正常に機能できない状態となると待機系サイトが動作を開始する。平時とは、災害が発生していないような通常運用状態をいう。被災時とは、災害が発生し、サイトあるいはサイトに設置された装置が使用できなくなった状態をいう。正常系とは、平時に使用される装置やシステム等をいい、待機系とは、被災時に使用される装置やシステム等をいう。
コンピュータシステムとしての機能を継続的に提供するために、正常系サイトと待機系サイトは各々にデータを格納するためのストレージを有している。正常系サイトにマスターストレージが設置され、待機系サイトにレプリカストレージが設置されたストレージシステムはレプリケーションシステムと呼ばれる。
そして、レプリケーションシステムでは、待機系サイトが正常系サイトに代わって動作できるように、マスターストレージ内のデータがレプリカストレージに複製され、保持される(例えば、非特許文献1、2参照)。この処理をレプリケーションと呼ぶ。また、マスターストレージとは、レプリケーションシステムでの正常系サイトに設置される複製元になるストレージをいう。レプリカストレージとは、レプリケーションシステムでの待機系サイトに設置される複製に当たるストレージをいう。
レプリケーションには、正常系サイトおよび待機系サイトのデータの更新方法により、同期型(同期レプリケーション)と非同期型(非同期レプリケーション)がある。
同期レプリケーションでは、正常系サイトにおいて、ホストからマスターストレージへのwrite(データの書き込み)が発生すると、それを契機として待機系サイトのストレージにも同じデータのwriteが行われる。そして、両ストレージにデータが適用された後に正常系サイトのホストにwriteに対する応答が返される。
一方、非同期レプリケーションでは、正常系サイトにおいて、ホストからマスターストレージへのwriteは発生すると、まずマスターストレージにwriteが行われ、その段階でホストに応答が返される。そして、待機系サイトのレプリカストレージに対するwriteは、別の任意のタイミングで行われる。
イーエムシー・コーポレーション、EMC SRDF[online][平成16年7月28日検索]、インターネット< URL http://japan.emc.com/local/ja/JP/products/networking/srdf.jsp > 日本電気株式会社、System Globe Remote Data Replication[online][平成16年7月28日検索]、インターネット<URL http://www.sw.nec.co.jp/products/istorage/product/software/rdr/index.shtml >
レプリケーションシステムでは、被災時のためにレプリカストレージを備え、リプリケーションが行われるので、信頼性の向上と引き換えにシステムのコストは高くなる。また、レプリカストレージを安価なストレージで構成することによりレプリケーションシステムのコストダウンを行おうとすると、どうしても平時のレプリケーションや被災時のレプリカストレージでの業務処理能力が低下してしまう。
例えば、ATAやSerial ATAによる安価なストレージやテープ装置等でレプリカストレージを構成した場合、正常系サイトの被災時、待機系サイトにて処理能力の低い安価なストレージを業務用に用いることとなる。そのため、正常系サイトの被災時には、どうしても業務処理能力が低下してしまう。ディスクキャッシュにより処理能力を改善することも考えられるが、業務に必要な全容量のデータセットを格納できるだけのディスクキャッシュを備えることはできないのでキャッシュミスによる処理能力の低下は避けられない。
また、ATAやSerial ATAによる安価なストレージやテープ装置等は、マスターストレージに使用される高価なストレージよりも可用性が劣るので被災時の可用性も低下してしまう。
このように、従来のレプリケーションシステムの信頼性とコストとは、一定以上の信頼性を維持しようとするとそれに伴うコストアップは避けられないというトレードオフの関係にあった。また、その信頼性向上の費用効率は良いとはいえず、一定以上の信頼性を維持しつつ、コストを抑えたレプリケーションシステムの実現が期待されていた。
本発明の目的は、一定以上の信頼性を維持しつつコストを抑えたレプリケーションシステムを提供することである。
上記目的を達成するために、本発明のレプリケーションシステムは、
正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムであって、
前記正常系サイトにて処理に用いられるデータを格納し、処理に提供しており、前記データが更新されると更新情報を前記待機系サイトに送信する複数のマスターストレージと、
前記待機系サイトにて、複数の前記マスターストレージの複製データを上位ストレージおよび下位ストレージからなる階層型ストレージに格納しており、第1のモードでは、前記マスターストレージからの前記更新情報を受信して前記複製データを更新し、第2のモードでは、いずれかの正常系サイトのマスターストレージを選択し、選択した該マスターストレージに対応する複製データを前記上位ストレージにて処理に提供するレプリカストレージとを有している。
したがって、複数のマスターストレージでレプリカストレージを共用し、レプリカストレージは、複数の中から選択されたマスターストレージの複製データを階層型ストレージの上位ストレージにて処理に提供するので、処理に提供可能な程度のストレージの記憶容量を削減し、一定以上の信頼性を維持しつつコストダウンを図ることができる。
また、前記レプリカストレージは、前記上位ストレージおよび前記下位ストレージへのデータの配置を、予め設定された配置ポリシーの設定に従って決定することとしてもよい。
また、前記第1のモードにおいて、複数の前記マスターストレージの複製データを前記下位ストレージに配置する配置ポリシーと、前記第2のモードにおいて、前記レプリカストレージで処理に提供する複製データを前記上位ストレージに配置する配置ポリシーとが設定されることとしてもよい。
これによれば、第1のモードにて複数のマスターストレージの複製データを下位ストレージに配置しておき、第2のモードにて処理に提供する複製データのみを上位ストレージに移動するので、下位ストレージには処理に提供可能な程度のストレージを用いる必要が無く、コストダウンを図ることができる。
また、前記第2のモードの配置ポリシーは、選択された前記マスターストレージ毎に異なるポリシーであるとしてもよい。
これによれば、マスターストレージ毎に第2のモードの配置ポリシーを変更可能なので、どのマスターストレージが選択されても、そのマスターストレージに適した配置ポリシーを用いることができ、マスターストレージに対して最適化が可能である。
また、前記第2のモードに遷移するときに用いる配置ポリシーがさらに設定されるとしてもよい。
これによれば、モード遷移時には、遷移に適した配置ポリシーを用いることができ、遷移状態に対して最適化が可能である。
また、前記第2のモードに遷移するときに用いる配置ポリシーは、前記マスターストレージにおいて業務を開始したときのアクセスパターンに基づいて作成されているものとしてもよい。
これによれば、第2のモードへの遷移時にはマスターストレージによる業務開始時と類似したアクセスパターンとなる場合、それに基づく配置ポリシーによりアクセスを先取りしたデータの移動が可能であり、業務開始直後のアクセス性能を向上させることができる。
また、前記第2のモードに遷移するときに用いる配置ポリシーは、過去に前記第2のモードに遷移したときのアクセスパターンに基づいて作成されているものとしてもよい。
これによれば、第2のモードへの遷移時には過去のアクセスパターンに類似したアクセスパターンとなる場合、それに基づく配置ポリシーによりアクセスを先取りしたデータの移動が可能であり、業務開始直後のアクセス性能を向上させることができる。
また、前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、選択された該マスターストレージに対応する複製データを格納可能な容量を有し、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供することとしてもよい。
これによれば、下位ストレージにより、全てのマスターストレージの複製データを格納可能とし、また上位ストレージにより、いずれのマスターストレージが選択されてもそのマスターストレージの代わりに複製データを処理に提供可能としたレプリカストレージを、上位ストレージの容量を削減して低コストで構成できる。
また、前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
前記上位ストレージは、前記第2のモードにて、予め定められた最大同時選択数のいずれのマスターストレージが選択されても、選択された複数の該マスターストレージに対応する複製データを格納可能な容量を有し、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供することとしてもよい。
また、前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
前記上位ストレージは、選択された前記マスターストレージの前記再開対象業務に関する前記複製データを格納可能な容量であり、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する部分を前記上位ストレージに配置して処理に提供することとしてもよい。
これによれば、いずれのマスターストレージが被災しても、被災したマスターストレージの再開対象業務のデータを上位ストレージに格納できるため、レプリカストレージの可用性および性能が再開対象業務に関して上位ストレージとほぼ同等になるレプリケーションシステムを上位ストレージの容量を削減して低コストで構成できる。
また、前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、該マスターストレージに対応するアクティブデータを格納可能な容量を有し、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち前記アクティブデータの部分を前記上位ストレージに配置して処理に提供することとしてもよい。

また、前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
前記上位ストレージは、前記第2のモードにて、予め定められた最大同時選択数のいずれのマスターストレージが選択されても、選択された複数の該マスターストレージに対応するアクティブデータを格納可能な容量を有し、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち前記アクティブデータの部分を前記上位ストレージに配置して処理に提供することとしてもよい。
また、前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
前記上位ストレージは、選択された前記マスターストレージの前記再開対象業務に関する前記アクティブデータを格納可能な容量であり、
前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する前記アクティブデータの部分を前記上位ストレージに配置して処理に提供することとしてもよい。
また、前記上位ストレージおよび前記下位ストレージへのデータ配置のポリシーを設定する配置ポリシー設定手段をさらに有することとしてもよい。
また、前記マスターストレージの被災を前記レプリカストレージに通知する被災通知手段をさらに有し、
前記レプリカストレージは、平時には前記第1のモードで動作しており、前記被災通知手段から前記マスターストレージの被災の通知を受けると、被災した前記マスターストレージを選択して前記第2のモードに遷移することとしてもよい。
これによれば、マスターストレージの被災時に、そのマスターストレージの複製データを上位ストレージにて処理に提供することができるので、災害時に業務を継続させることができる。
また、前記レプリカストレージの前記下位ストレージにおいて前記マスターストレージ毎の領域が静的に定められることとしてもよい。
これによれば、第1のモードにおいて、レプリカストレージは、マスターストレージからの更新情報を、下位ストレージの静的に定められた領域に適用すればよいので、複製データ更新処理が単純化され、処理負荷が少なくて済む。
また、前記レプリカストレージは、前記第1のモードにおいて、該第1のモードに特化して前記複製データの更新の性能を向上させるためのアクセス動作を行うこととしてもよい。
これによれば、第1のモードにて特に高い性能向上効果の得られる動作を第1のモードにて行うことができるので、高い性能向上効果を得ることができる。
また、前記レプリカストレージは、前記第2のモードへの遷移時、選択した前記マスターストレージに対応する前記複製データを前記下位ストレージから前記上位ストレージに移動することとしてもよい。
また、前記レプリカストレージは、前記第2のモードへの遷移時、前記下位ストレージから前記上位ストレージへのデータの移動に特化して性能を向上させるためのアクセス動作を行うこととしてもよい。
これによれば、第2のモードにて特に高い性能向上効果の得られる動作を第2のモードにて行うことができるので、高い性能向上効果を得ることができる。
また、前記レプリカストレージは、複製データを処理に提供するために利用可能な前記上位ストレージの資源量を設定可能であることとしてもよい。
また、前記レプリカストレージは、複製データの処理に提供するために利用可能な前記上位ストレージの資源量を前記マスターストレージ毎に設定可能であることとしてもよい。
また、前記レプリカストレージは、前記上位ストレージの資源量として該上位ストレージへのアクセス帯域を設定することとしてもよい。
また、前記レプリカストレージは、前記上位ストレージの資源量として、該上位ストレージに蓄積するデータ量、または該上位ストレージの占有率を設定することとしてもよい。
また、前記レプリカストレージは、前記上位ストレージに蓄積するデータ量または該上位ストレージの占有率を配置ポリシーにて設定することとしてもよい。
これによれば、レプリケーションシステムとして上位ストレージで利用可能な資源量を任意に設定することができ、レプリケーションシステムとして提供するサービスのレベルを任意に設定することができる。
また、前記下位ストレージは前記上位ストレージよりも容量単価の安いストレージであるとしてもよい。
また、前記上位ストレージが所定の処理能力を備えたストレージであり、
前記下位ストレージが前記上位ストレージより処理能力の劣るストレージであるとしてもよい。
また、前記上位ストレージが所定の可用性を備えたストレージであり、
前記下位ストレージが上位ストレージより可用性の劣るストレージであるとしてもよい。
これによれば、マスターストレージ毎に備える下位ストレージが安価なストレージとなるので、システムとしてコストダウンを図ることができる。
また、前記レプリカストレージは、前記マスターストレージから受信した前記更新情報を前記下位ストレージに直接適用することとしてもよい。
これによれば、階層型ストレージを用いたレプリカストレージにおいて、第1のモードにおけるレプリケーションの処理を単純化することができ、処理量を削減することができる。
また、前記レプリカストレージは、前記第1のモードにおいて、前記下位ストレージの複製データの一部を前記上位ストレージに保持することとしてもよい。
これによれば、第1のモードにて一部の複製データが上位ストレージに予め保持されているので、第2のモードへ遷移してレプリカストレージの上位ストレージで複製データを処理に提供し始めるとき、下位ストレージから上位ストレージへ移動するデータを少なくできる。またデータ移動の時間が短縮できるので、レプリカストレージでのアクセスに対する応答を速くすることができる。
また、前記レプリカストレージは、前記第1のモードにおいて、前記マスターストレージにおいて業務を開始したときのアクセスパターンに基づき作成された配置ポリシーに従って、前記下位ストレージの複製データの一部を前記上位ストレージに保持することとしてもよい。
これによれば、第1のモードにおいて予め上位ストレージに保持する複製データを、マスターストレージでの業務開始時のアクセスパターンに基づいて定めているので、第2のモードに遷移するとき、当初にアクセスされるデータが予め上位ストレージに保持されている可能性が高くなり、アクセスに対する応答をさらに速くすることができる。
また、前記レプリカストレージは、前記第1のモードにおいて、過去に前記第2のモードに遷移したときのアクセスパターンに基づき作成された配置ポリシーに従って、前記下位ストレージの複製データの一部を前記上位ストレージに保持することとしてもよい。
これによれば、第1のモードにおいて予め上位ストレージに保持する複製データを、過去に第2のモードに遷移したときのアクセスパターンに基づいて定めているので、第2のモードに遷移するとき、当初にアクセスされるデータが予め上位ストレージに保持されている可能性が高くなり、アクセスに対する応答をさらに速くすることができる。
また、前記レプリカストレージは、前記上位ストレージの利用状況に応じた課金ログを記録することとしてもよい。
これによれば、選択されたマスターストレージの複製データをレプリカストレージの上位ストレージにて処理に提供する構成において、複数のマスターストレージに共用されている上位ストレージを利用したことに応じて課金するという課金体系を採用できる。
また、前記上位ストレージの利用状況は、ホストからのアクセス量に応じて定められることとしてもよい。
また、前記上位ストレージの利用状況は、該上位ストレージに複製データを蓄積したデータ量と蓄積期間に応じて定められることとしてもよい。
また、前記レプリカストレージは、前記第2のモードにおける前記上位ストレージの利用状況に応じた課金ログを記録することとしてもよい。
これによれば、第2のモードにて選択され、複数のマスターストレージに共用されている上位ストレージを利用したとき、その利用に応じて課金するという課金体系を採用できる。
また、前記マスターストレージと前記レプリカストレージは同時に被災しない位置に設置されていることとしてもよい。
これによれば、マスターストレージが被災したときにレプリカストレージがそれに代わって複製データを提供し、業務の継続を継続させることができる。
本発明によれば、複数のマスターストレージでレプリカストレージを共用し、レプリカストレージは、複数の中から選択されたマスターストレージの複製データを階層型ストレージの上位ストレージにて処理に提供するので、処理に提供可能な程度のストレージの記憶容量を削減し、一定以上の信頼性を維持しつつコストダウンを図ることができる。
本発明の実施形態について図面を参照して詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態によるレプリケーションシステムの構成を示すブロック図である。図1を参照すると、本実施形態のレプリケーションシステムは、マスターストレージ1a〜1b、ホスト2a〜2b、アクセスログ9a〜9b、レプリカストレージ3、ホスト4、アクセスログ10、課金ログ6、被災通知部7、アクセス資源設定部5、および配置ポリシー設定部8を有している。
レプリカストレージ3は、上位ストレージ13、下位ストレージ14a〜14b、アクセス部11、データ移動部12、受信部15a〜15b、および配置管理部16を有している。
図2は、第1の実施形態による配置管理部の構成を示すブロック図である。図2を参照すると、配置管理部16は、マッピング算出部20、マッピングデータベース(DB)21、配置ポリシーDB23、および配置変更計画部22を有している。
図3は、第1の実施形態によるマスターストレージの構成を示すブロック図である。図3を参照すると、マスターストレージ1は、アクセス部30、記憶部32、および送信部31を有している。
ホスト2a〜2bは、アプリケーションを実行することにより、所定の業務を行う計算機である。なお、ホスト2a〜2bは、それぞれが複数の計算機からなる構成であってもよい。
マスターストレージ1a〜1bは、各々ホスト2a〜2bが計算に用いるストレージである。
アクセスログ9a〜9bは、各々マスターストレージ1a〜1bのアクセス履歴を不揮発性の記録装置に記録し、保存する。アクセスログ9a〜9bの詳細は後述する。アクセスログ9a〜9bを記録する記録装置として、例えば磁気ディスク、光磁気ディスク、あるいは光ディスクのディスク装置またはアレイ装置を用いることができる。
ホスト4は、ホスト2a〜2b、またはホスト2a〜2bに対応するマスターストレージ1a〜1bが被災したとき、ホスト2a〜2bの業務を代行する計算機である。また、ホスト4は複数の計算機からなる構成であってもよい。
レプリカストレージ3は、ホスト4が計算に用いるストレージである。レプリカストレージ3はマスターストレージ2a〜2bと接続されており、各マスターストレージのデータブロックを同期あるいは非同期で複製する。レプリカストレージ3とマスターストレージ1a〜1bの接続には、例えばFC(Fibre Channel)またはSCSIなどのストレージ接続用ケーブル、あるいはEthernetなどのネットワーク用ケーブルが用いられる。また、その接続に、電話回線またはダークファイバーを利用した専用回線、あるいは共用IP網またはインターネットのような共用回線を用いてもよい。また、レプリカストレージ3とマスターストレージ1a〜1bの間のプロトコルとしては、例えば、SCSIまたはiSCSIなどのストレージ用プロトコル、あるいはTCP/IPなどのネットワーク用プロトコルが用いられる。
被災通知部7は、ホスト2a〜2bまたはマスターストレージ1a〜1bが被災したとき、被災したマスターストレージ2a〜2b、または被災したホスト1a〜1bに対応するマスターストレージ2a〜2bをレプリカストレージ3に通知する。
課金ログ6は、レプリカストレージ3の利用に対する課金のために、レプリカストレージ3の使用状況を不揮発性の記録装置に記録し、保存する。例えば、上位ストレージ13の利用に応じた課金情報をマスターストレージ1a〜1b毎に記録し、保存することとしてもよい。これにより、複数のマスターストレージに共用されている上位ストレージ13を利用したときに料金がかかるという課金体系が可能となる。また、被災時の上位ストレージの利用に応じた課金情報をマスターストレージ1a〜1b毎に記録し、保存することとしてもよい。これにより、マスターストレージの被災により、複数のマスターストレージに利用されている上位ストレージ13を利用すれば、その利用に応じた料金がかかるという課金体系が可能となる。
アクセスログ10は、レプリカストレージ3のアクセス履歴を不揮発性の記録装置に記録し、保存する。
配置ポリシー設定部8は、レプリカストレージ3の上位ストレージ13および下位ストレージ14a〜14bに対するデータブロックの配置に関するポリシー(以下、「配置ポリシー」という)を設定する。配置ポリシーは、データブロックの配置に関する優先度を示し、優先度が高い方から上位ストレージ13に配置される。この配置ポリシーは、例えば、上位ストレージと下位ストレージの間でデータを移動させるとき、どのブロックを移動対象とするかを決めるために用いられる。配置ポリシーの詳細については後述する。
アクセス資源設定部5は、レプリカストレージ3の資源量の設定を変更する。資源量は、レプリカストレージ3の資源(記憶容量など)の割り当てである。例えば、複数のマスターストレージが被災したときに、レプリカスレージ3の資源の各マスターストレージに対する割り当てを決めることができる。資源量には、例えば上位ストレージのアクセス帯域、データ量、占有率などがあり、他に使用キャッシュ容量、内部タスクの数、内部タスクの優先度に関するものが考えられ、配置ポリシーとして設定してもよい。レプリケーションシステムとして上位ストレージ13で利用可能な資源量を任意に設定することができ、レプリケーションシステムとして提供するサービスのレベルを任意に設定することができる。
上位ストレージ13は、高価で高速なメモリーで構成されたストレージであり、データの読み出しおよび書き込みが可能である。上位ストレージ13は、例えば磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置で構成された不揮発性の記憶装置である。
下位ストレージ14a〜14bは、上位ストレージ13よりもデータの読み出しおよび書き込みが遅いが価格の安いメモリーで構成されたストレージであり、データの読み出しおよび書き込みが可能である。下位ストレージ14a〜14bは、例えば磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置で構成された不揮発性の記憶装置である。または、下位ストレージ14a〜14bは、磁気テープ装置あるいは磁気テープライブラリ装置であってもよい。
なお、ここでは、下位ストレージ14a〜14bとして上位ストレージよりも処理能力の低いストレージを用いることによりコストダウンを図っているが、本発明はそれに限定されるものではない。他の例として、他の性能面で差別化することによりコストダウンを図ってもよく、また可用性面で差別化することによりコストダウンを図ってもよい。
アクセス部11は、ホスト4からのアクセスの要求があると、要求されたデータブロックが格納されたストレージ(上位ストレージ13あるいは下位ストレージ14a〜14b)、およびストレージ内のデータブロックの位置を配置管理部16に算出させ、該当する領域のデータの読み出しまたは書き込みを行う。その際、アクセス部11は、アクセス資源設定部5により設定された資源値に従ってアクセス処理を行う。また、アクセス部11は、ホスト4からのアクセス要求の内容をアクセスログ10に通知し、さらに課金情報を課金ログ6に通知する。
配置管理部16は、被災通知部7、アクセス部11、または受信部15の指示により、レプリカストレージ3内のデータブロックが、上位ストレージ13または下位ストレージ14のどの領域に配置されているかを算出する。また、配置管理部16は、データブロックの配置場所の変更に関する計画を立て、データ移動部12にデータの移動を指示する。また、配置管理部16は、データブロックの配置場所が変更されると、データブロックの配置場所変更に伴う課金情報を課金ログ6へ通知する。
データ移動部12は、配置管理部16の指示に従い、上位ストレージ13あるいは下位ストレージ14a〜14b内の指定されたデータを、指定されたストレージの指定された領域へ移動する。
受信部15a〜15bは、対応するマスターストレージ2a〜2bから更新情報を受け取ると、その更新情報を格納すべき下位ストレージおよびストレージ内のデータブロックの位置を配置管理部12から取得し、その位置のデータブロックを更新する。
マッピングDB21は、レプリカストレージ3内の各データブロックが上位ストレージ13または下位ストレージ14a〜14bのどちらに、またその中のどこの領域に格納されているかを不揮発性の記憶装置に記録したDBである。マッピングDB21の詳細は後述する。記憶装置としては、例えば、磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置、あるいは磁気テープ装置または磁気テープライブラリ装置を用いることができる。また他の例としてフラッシュメモリーあるいはバッテリーバックアップのメモリーを用いることもできる。
配置ポリシーDB23は、上述の配置ポリシーを不揮発性の記憶装置に記録したデータベースである。配置ポリシーDB23に記録された配置ポリシーは、配置ポリシー設定部8またはアクセス資源設定部5により追加、変更、削除が可能である。記憶装置としては、マッピングDB21と同様に、例えば、磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置、あるいは磁気テープ装置または磁気テープライブラリ装置を用いることができる。また他の例として、フラッシュメモリーあるいはバッテリーバックアップのメモリーを用いることもできる。
マッピング算出部20は、アクセス部11または受信部15からマッピング算出の要求があると、その対象となるデータブロックが上位ストレージ13または下位ストレージ14a〜14bのいずれのどの領域に格納されているかを、マッピングDB21内の情報を基に算出する。その際、マッピング算出部20は、要求元がアクセス部11であり、かつ格納先が下位ストレージ14a〜14bであれば、アクセス対象のデータを上位ストレージ13へ移動するように配置変更計画部22に依頼する。これにより、ホスト4からアクセス部11を経由したアクセスでは、アクセス先は常に上位ストレージ13となる。
配置変更計画部22は、マッピング算出部20または被災通知部7の要求があると、配置ポリシーDB23に記録されたポリシーに従って上位ストレージ13と下位ストレージ14の間でのデータブロックの移動をデータ移動部12に指示する。その際、配置変更計画部22は、移動させるデータブロックとその移動先のストレージおよび配置領域とを決定し、データ移動部12に指示する。配置変更計画部22は、データブロックの移動が行われると、マッピングDB21の内容を移動後の配置に変更し、配置変更時に伴う課金情報を課金ログ6に通知する。
記憶部32は、メインストレージ1内部でデータを記録し、保管する不揮発性の記憶媒体である。記憶部32は、例えば、磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置で構成される。
アクセス部30は、ホスト2からの要求があると、記憶部32のデータの読み出し、または書き込みを行う。ホスト2からの要求が書き込みであれば、アクセス部30は、レプリカストレージ3のデータを更新するために、送信部31にデータの更新情報を送信させる。また、アクセス部30は、ホスト2からの要求の内容をアクセスログ9に通知する。
送信部30は、アクセス部31からの指示に従い、レプリカストレージ3に更新情報を送信する。
なお、ここでマスターストレージ1a〜1b、上位ストレージ13、および下位ストレージ14a〜14bは、一例としてブロックアクセスを行うブロックベースのストレージであるとして説明する。ただし、本発明はファイルベースのストレージにも同様に適用可能である。その場合、データブロックの代わりにファイルあるいはファイル内のデータブロックを扱えばよい。ファイルベースのストレージの例としてNAS(Network Aattached Storage)がある。
次に、配置ポリシーDB23の詳細について説明する。
配置ポリシーDB23には、複数の配置ポリシーが記録されており、その中のいずれか1つが有効となる。ここでは、一例として配置ポリシー毎の表が作成されているものととする。特に指定が無ければ、いずれか特定の配置ポリシーが有効となる。
図4は、配置ポリシーの各表を構成するエントリーを示す図である。配置ポリシーの表は複数のエントリーにより構成されている。図4を参照すると、エントリーは、優先度、マスターストレージID、マスターストレージ内アドレスの各フィールドで構成されている。
「優先度」は、そのエントリーの優先度を示すフィールドである。
「マスターストレージID」は、そのエントリーに該当するデータブロックのマスターストレージを示す識別子が記録されるフィールドである。データブロックが、マスターストレージ1a〜1bのいずれのときに、そのエントリーに該当するかが示されている。
「マスターストレージ内アドレス」は、マスターストレージ内でのデータブロックの位置および範囲を示す情報が記録されるフィールドである。
あるエントリーの「マスターストレージID」に該当するマスターストレージの、そのエントリーの「マスターストレージ内アドレス」で示されたデータブロックに、そのエントリーの「優先度」が適用される。
なお、これら各フィールドには、そのフィールドの値を考慮しなくてもよいことを示す値(NC)が入る場合もある。ここでは、優先度がNCであれば、そのデータブロックは優先度が低く、下位ストレージ14に格納するデータブロックであるとする。
また、マスターストレージが複数のボリュームから構成される場合、マスターストレージ内アドレスは、ボリュームの識別子と、ボリューム内のアドレスから構成される。
配置ポリシーDB23に記録されている複数の配置ポリシーには、平時配置ポリシー、被災時配置ポリシー、およびモード遷移時配置ポリシーが含まれている。
「平時配置ポリシー」は、いずれのマスターストレージも被災していないときに用いられる。「被災時配置ポリシー」は、いずれかのマスターストレージが被災したときに用いられる配置ポリシーである。この「被災時配置ポリシー」は、被災したマスターストレージに対応しており、ここではマスターストレージ1a被災時配置ポリシーとマスターストレージ2a被災時配置ポリシーがある。マスターストレージ毎に被災時配置ポリシーを変更可能なので、被災したマスターストレージに適した被災時配置ポリシーを用いることができ、マスターストレージに対して最適化が可能である。
「モード遷移時配置ポリシー」は、いずれかのマスターストレージ1が被災し、マスターストレージ1からレプリカストレージ3へ業務を移行するとき、レプリカストレージ3における状態の遷移(モード遷移)の間に用いられる。モード遷移時に、遷移に適した配置ポリシーを用いることにより、遷移状態に対して最適化が可能である。例えば、被災通知から一定時間、「モード遷移時配置ポリシー」が用いられる。この「モード遷移時配置ポリシー」は、被災したマスターストレージに対応しており、ここではマスターストレージ1a被災時モード遷移時配置ポリシーとマスターストレージ1b被災時モード遷移時配置ポリシーがある。
本実施形態における「平時配置ポリシー」は、全データブロックを下位ストレージ14へ格納することを示すポリシーであるとする。これにより、本実施形態では、平時、全てのマスターストレージ1a〜1bのデータブロックが各下位ストレージ14a〜14bに記録された状態となる。このルールを示す「平時配置ポリシー」の一例としては、[優先度=NC、マスターストレージ=a、マスターストレージ内アドレス=NC]と、[優先度=NC、マスターストレージ=b、マスターストレージ内アドレス=NC]という2つのエントリーからなる。
また、本実施形態における「被災時配置ポリシー」は、被災したマスターストレージ1に対応するデータブロックを上位ストレージ13へ格納し、被災していないマスターストレージに対応するデータブロックを下位ストレージ14へ格納することを示すポリシーであるとする。このルールを示す「被災時配置ポリシー」のうち「マスターストレージ1a被災時配置ポリシー」の一例としては、[優先度=1、マスターストレージ=a、マスターストレージ内アドレス=NC]というエントリーからなる。これは、マスターストレージ1aが被災したときに用いる「被災時配置ポリシー」の例である。
また、本実施形態における「モード遷移時配置ポリシー」は、正常系サイトのホスト2が業務を開始してから、システムで設定した一定期間の間に、アクセスされたデータブロックを、アクセス順に上位ストレージに移動させることを示すポリシーである。なお、この業務開始から一定期間にアクセスされたデータブロックの情報は、各マスターストレージ1a〜1bに対応するアクセスログ9から得られる。
これは、業務開始直後には、業務開始に伴う処理などで毎回類似したパターンでアクセスが行われる可能性が高いという推論に基づいている。そして、モード遷移時にアクセスされる可能性の高いデータを予め上位ストレージ13に移動しておくことによりモード遷移時のアクセス性能を高めようとするものである。
モード遷移時にアクセスされるデータとしては、各種設定値が記録されているファイル、データベースの特定のレコードやインデックス、ファイルシステムのスーパーブロックやディレクトリ、ブロックマップなどがある。
これにより、以前の業務開始時にアクセスされたデータブロックがそのアクセス順序で上位ストレージ13に移動されるので、被災などによる業務開始時に、アクセスされるデータブロックの上位ストレージ13への移動が完了している可能性が高まって下位ストレージ14から上位ストレージ13へのデータの移動待ちが減り、アクセスの応答時間が短くなる。モード遷移時にマスターストレージ1による業務開始時と類似したアクセスパターンとなる場合、それに基づく配置ポリシーによりアクセスを先取りしたデータの移動が可能であり、業務開始直後のアクセス性能を向上させることができる。
なお、「モード遷移時配置ポリシー」は、モード遷移の対象となるマスターストレージ1が過去に被災していれば、そのときに待機系サイトのホスト4による業務開始から一定期間のアクセスパターンをアクセスログ10から得て、それに基づいて作成してもよい。モード遷移時には過去のアクセスパターンに類似したアクセスパターンとなる場合、それに基づく配置ポリシーによりアクセスを先取りしたデータの移動が可能であり、業務開始直後のアクセス性能を向上させることができる。
また、対象となるマスターストレージ1が被災したことを想定した動作テストを行い、そのときのレプリカストレージ3による業務開始から一定期間のアクセスパターンをアクセスログ10から取得し、そのログに基づき「モード遷移時配置ポリシー」を作成してもよい。
業務開始から一定期間にアクセスされなかったデータブロックに関しても、データブロックを所定の順序で上位ストレージ13に移動するようなモード遷移時配置ポリシーにしてもよい。これにより、ホスト4からのアクセスがあってから移動するより、アクセス対象のデータブロックが既に上位ストレージ13にある可能性が高くなるので、データアクセスの遅延が低減される。
また、その移動の順序として、マスターストレージ1のアクセスログ9の記録を元に、その記録を取得する時点の前の一定期間にアクセスがあったものを優先して移動させることとしてもよい。この配置ポリシーは、データ使用に時間的局所性があるという想定に基づいている。これにより、上位ストレージ13への移動前のデータブロックがアクセスされる可能性が減少し、応答時間を改善することができる。
そのようなルールを規定する「モード遷移時配置ポリシー」の一例としては、[優先度=1、マスターストレージ=a、マスターストレージ内アドレス=I]、[優先度=2、マスターストレージ=a、マスターストレージ内アドレス=J]、[優先度=3、マスターストレージ=a、マスターストレージ内アドレス=K]・・・[優先度=N、マスターストレージ=a、マスターストレージ内アドレス=Z]、[優先度=NC、マスターストレージ=NC、マスターストレージ内アドレス=NC]というエントリーからなるものが考えられる。
これは、マスターストレージaが被災し、業務開始時のアクセス順序がデータブロックI,J,K・・・Zの順である場合の例である。
なお、レプリカストレージ3は、被災通知部7から被災が通知されるまでは無指定の状態であり、「平時配置ポリシー」が有効となっている。
次にマッピングDB21の詳細について説明する。
マッピングDB21には、レプリカストレージ3内の各データブロックがどこに配置されているかを示す配置管理表の他、空きブロック管理表が記録されている。空きブロック管理表には、マスターストレージ1a〜1bのいずれのデータブロックにも割り当てられていない上位ストレージ13および下位ストレージ14a〜14bのデータブロックのブロック番号が記録されている。各表は複数のエントリーからなる。
図5は、配置管理表のエントリーを示す図である。図5を参照すると、各エントリーは、マスターストレージIDフィールド、マスターストレージ内アドレスフィールド、格納ストレージIDフィールド、格納ストレージ内アドレスフィールド、およびアクセス頻度フィールドから構成されている。
「マスターストレージIDフィールド」は、レプリカ元であるマスターストレージ1の識別子を記録している。「マスターストレージ内アドレスフィールド」は、マスターストレージ1内でのデータブロックのアドレスを記録している。「格納ストレージIDフィールド」は、レプリカストレージ内の上位ストレージ13あるいは、下位ストレージ14のいずれに格納したかを示している。「格納ストレージ内アドレスフィールド」は、格納したストレージ内でのデータブロックのアドレスを記録している。「アクセス頻度フィールド」は、ホスト4からのアクセス頻度を記録している。
また、マスターストレージ、上位ストレージ、および下位ストレージが複数のボリュームから構成されている場合、マスターストレージ内アドレスおよび格納ストレージ内アドレスは、ボリュームの識別子と、ボリューム内のアドレスから構成される。
なお、本実施形態では、平時、全てのデータブロックが下位ストレージ14a〜14bに配置されている。
この配置管理表のエントリー中の「アクセス頻度フィールド」を参照すれば、アクセス頻度に基づき、上位ストレージまたは下位ストレージへのデータの移動を最適化できる。最適化の例として、データブロックへのアクセスにおける時間的局所性を利用し、最近アクセスされたデータブロックを上位ストレージ13に配置することが考えられる。そのために、一定期間内のアクセス数や最終アクセス時刻等を「アクセス頻度フィールド」に記録しておけばよい。
次にアクセスログ9a〜9bの詳細について説明する。
アクセスログ9a〜9bは複数のエントリーからなるリストであり、各エントリーは「アクセス時刻フィールド」および「アクセスブロックフィールド」で構成される。
「アクセス時刻フィールド」は、アクセスが発生した日付および時刻を記録する。「アクセスブロックフィールド」は、アクセスしたデータブロックの番号を記録する。なお、マスターストレージ1a〜1bが複数のボリュームから構成される場合には、アクセスブロックフィールドには、ボリュームの識別子と、ボリューム内のブロックの番号とが記録される。
次にアクセスログ10の詳細について説明する。
アクセスログ10は複数のエントリーからなるリストであり、各エントリーは「アクセス時刻フィールド」、「マスタストレージフィールド」、および「アクセスブロック」で構成される。
「アクセス時刻フィールド」は、アクセスが発生した日付および時刻を記録する。マスターストレージ」は、アクセスしたデータブロックのレプリカ元であるマスターストレージの識別子を記録する。「アクセスブロック」は、アクセスしたデータブロックのマスターストレージ内でのブロック番号を記録する。
なお、マスターストレージが複数のボリュームから構成される場合には、アクセスブロックフィールドには、ボリュームの識別子と、ボリューム内のブロックの番号とが記録される。
次に課金ログ6の詳細について説明する。
課金ログ6に記録される課金情報には、「アクセス情報」、「格納情報」、および「被災情報」の情報が含まれ、これにより例えば蓄積データ量および蓄積期間がわかる。
「アクセス情報」は、ホスト4からのアクセス時に、アクセス部11から課金ログ6に通知される。「アクセス情報」には、アクセス対象のストレージに対応するマスターストレージの識別子、アクセスしたデータ量、アクセスにかかった時間が含まれる。
「格納情報」は、配置管理部16がデータを移動したときに課金ログ6に通知される。「格納情報」には、マスターストレージの識別子、移動した時刻、上位ストレージ内のマスターストレージ毎の格納データ容量が含まれる。
「被災情報」は、被災通知部7から被災を通知された配置管理部16が課金ログ6に記録する。「被災情報」には、被災時刻、被災したマスターストレージの識別子が含まれる。
なお、アクセス情報については、アクセスログ10から作成することとし、課金ログ6への記録を省いてもよい。これにより、記録するログ量を削減でき、課金ログ6のための装置数の削減、ログ記録のための処理量の削減が図れる。
次に、本実施形態によるレプリケーションシステムの全体の動作について説明する。
図6は、第1の実施形態によるレプリケーションシステムの動作を示すフローチャートである。図7は、第1の実施形態によるレプリケーションシステムの動作を示すシーケンス図である。
図6によれば、レプリケーションシステムが動作を開始するとレプリカストレージ3は入力待ちの状態となる。入力があると(ステップS100)、レプリカストレージ3は、その入力が被災通知か否か判定する(ステップS101)。
入力が被災通知でなくマスターストレージ1a〜1bからの更新情報であれば、レプリカストレージ3は、その更新情報を受信し(ステップS102)、その更新情報で、そのマスターストレージ1a〜1bに対応する下位ストレージ14a〜14bのデータブロックを更新し(ステップS103)、入力待ちの状態に戻る。
これが平時の動作であり、ホスト2aがマスターストレージ1aを用いて業務を行っており、それによりマスターストレージ1aへの書き込みが行われる。マスターストレージ1aは、書き込まれたデータをレプリカストレージ3に更新情報として転送する。レプリカストレージ3は、その更新情報を下位ストレージに書き込む(write)ことによりレプリケーションを行う。
図7を参照すると、一例として、平時に、ホスト2aがマスターストレージ1aにアクセスし、その更新情報が下位ストレージ14aに反映されている。
なお、平時には、レプリカストレージ3の配置管理部16は、配置ポリシーDB23に記録された「平時配置ポリシー」を使用し、データブロックの配置を決定する。
図6に戻り、ステップS101の判定において、入力が被災通知であれば、レプリカストレージ3は、配置ポリシーを「被災時配置ポリシー」に変更する(ステップS104)。
次に、レプリカストレージ3は、「モード遷移時配置ポリシー」に基づき、データブロックの配置を計算し、その結果に従って下位ストレージから上位ストレージへのデータブロックの移動を行う(ステップS105)。
次に、待機系サイトのホスト4が正常系サイトのホスト2a〜2bから業務を引き継ぐと、レプリカストレージ3はマスターストレージ1a〜1bを代理する処理を開始する(ステップS106)。
図7を参照すると、マスターストレージ1aまたはホスト2aが被災し、それがレプリカストレージ3に通知されたときの動作が示されている。被災通知があると、モード遷移により下位ストレージ14aから上位ストレージ13へのデータブロックの移動が行われ、ホスト4からの上位ストレージ13へのアクセスが開始されている。
このとき、ホスト2aまたはマスターストレージ1aが被災すると、被災通知部7が、レプリカストレージ3に、マスターストレージ1aの被災を通知する。被災の通知を受けると、レプリカストレージ3は、配置管理部16によって配置ポリシーの変更を行う。
また、配置変更計画部22は、配置ポリシーDB23に記録されたマスターストレージ1a被災時のモード遷移時配置ポリシーに基づいてデータブロックの配置を求め、下位ストレージ14aから上位ストレージ13へのデータブロックの移動をデータ移動部12に指示する。データ移動部12は指示に従ってデータの移動を行う。
なお、マスターストレージ1a被災時のモード遷移時配置ポリシーに基づいてデータを上位ストレージ13に移動するとき、そのデータブロックが既に上位ストレージ13にあればそのデータブロックの移動は行う必要がない。
また、レプリケーションシステムは、マスターストレージ1aが被災しても、被災していないマスターストレージ1bに関しては平時と同様に動作する。マスターストレージ1bは、書き込まれたデータをレプリカストレージ3に更新情報として転送し、レプリカストレージ3は、マスターストレージ1bに対応した下位ストレージ14bに更新情報を書き込む。
また、マスターストレージ1a被災時モード遷移時配置ポリシーに基づいた下位ストレージ14aから上位ストレージ13へのデータブロックの移動中にも、ホスト4からレプリカストレージ3へのアクセスを可能としてもよい。そのためにはステップS105とステップS106の処理を同時に行えばよい。そして、それによりマスターストレージ1aが被災した後の業務停止期間が短縮される。
また、モード遷移中に、上位ストレージ13に移動していないデータブロックへのアクセスがあると、レプリカストレージ3は、マスターストレージ1a被災時配置ポリシーに従ってデータブロックの移動を行う。
次に、マスターストレージ1の動作の詳細について説明する。
マスターストレージ1は、ホスト2によってアクセスされる。アクセスには読み出しと書き込みの2つの種類がある。ホスト2は、アクセス対象となるデータブロックの番号、アクセスの種類、データ量、および書き込みの場合には書き込むデータを指定してマスターストレージ1にアクセス要求を送る。アクセス対象となるデータブロックの番号はアドレスあるいはそれに相当する値である。書き込みの場合、要求と同時に書き込むデータを送らず、要求のコマンドと書き込むデータを異なるフェーズで送る手順でもよい。
マスターストレージ1では、ホスト2よりのアクセスの要求を受け取ると、アクセス部30が処理を行う。
まず、同期レプリケーションの場合のマスターストレージの動作について説明する。
アクセス部30は、ホスト2からの要求が読み出しであれば、記憶部32の指定されたデータブロックから指定された範囲のデータを読み出し、ホスト2に応答を返す。
アクセス部30は、ホスト2からの要求が書き込みであれば、記憶部32の指定されたデータブロックに指定されたデータを書き込む。そして、次に、アクセス部31は、データブロックの番号と書き込むデータを指定し、送信部31にレプリカストレージ3への送信を指示する。次に、アクセス部30は、送信部31からの送信完了の応答を待ち、それを受けるとホスト2へ応答を返す。
送信部31は、アクセス部30からの指示を受け取ると、データブロックの番号と書き込むデータとから更新情報を作成し、この更新情報をレプリカストレージ3へ送信する。
次に、非同期レプリケーションの場合のマスターストレージの動作について説明する。
アクセス部30は、ホスト2からの要求が書き込みであれば、アクセス部30は、記憶部32の指定されたデータブロックに指定されたデータを書き込み、ホスト2へ応答を返す。次いで、アクセス部30は、データブロックの番号と書き込むデータを指定し、レプリカストレージ3への送信を送信部31に指示する。
送信部31は、アクセス部30から指示を受けると、データブロックのアドレスと書き込むデータとから更新情報を作成し、所定のタイミングで更新情報をレプリカストレージ3へ送信する。この所定のタイミングは、一例として、マスターストレージ1に予め設定されたタイミングである。
マスターストレージ1からレプリカストレージ3へ送られる更新情報には、「マスターストレージ識別子(ID)」、「書き込みデータブロックアドレス」、「書き込みデータ量」、「書き込むデータ」が含まれる。なお、更新情報の送信元のマスターストレージ1が通信パス等により識別可能であれば、マスターストレージ1の識別子を送る必要はない。また、更新情報を書き込みデータとその他の部分とに分けて別々に送ることとしてもよい。
次に、マスターストレージ3の動作の詳細について説明する。
まずは、マスターストレージ1から更新情報を受け取ったマスターストレージ3の動作について説明する。
マスターストレージ1からの更新情報がレプリカストレージ3に到着すると、そのマスターストレージに対応した受信部15が更新情報を受信する。
図8は、受信部15の動作を示すフローチャートである。図8を参照すると、受信部15は、マスターストレージ1から更新情報を受けると、更新情報からマスターストレージIDと書き込みアドレスを取り出す(ステップS10)。次に、受信部15は、そのマスターストレージIDと書き込みアドレスを指定し、配置管理部16にアドレス変換を依頼する(ステップS11)。
次いで、受信部16は、配置管理部16からの応答を待つ(ステップS12)。そして、配置管理部16からアドレス変換の結果を受けると、受信部16は、変換結果に示された対象の下位ストレージ14およびそのアドレスを指定し、更新情報にある書き込みデータの書き込みを要求する(ステップS13)。
次いで、受信部16は、下位ストレージ14から書き込み完了の応答を待つ(ステップS14)。下位ストレージ14から応答を受けると、受信部16は、マスターストレージ1に更新の応答を返す(ステップS15)。
図9は、配置管理部のアドレス変換動作を示すフローチャートである。図9を参照すると、配置管理部16は、受信部15からアドレス変換を依頼されると、指定されたマスターストレージIDおよび書き込みアドレスでマッピングDB21を検索し、それに該当するエントリーを取得する(ステップS20)。次に、配置管理部16は、検索で得られたエントリーの格納ストレージIDで対象下位ストレージを指定し、格納ストレージ内アドレスをデータブロックアドレスとして指定し、受信部15に応答する(ステップS21)。
次に、第1の実施形態によるレプリケーションシステムの被災時の動作について説明する。
被災通知部7は、マスターストレージ1a〜1bのいずれかが被災したとき、そのマスターストレージの役割を引き継ぐべき旨の指示をレプリカストレージ3へ通知する。
通知の契機としては以下のものがある。まず、第1の契機として、不図示の入力部からユーザによる指示があったときがある。第2の契機として、通信によりマスターストレージ1a〜1bおよびホスト2a〜2bを監視しており、所定の期間、マスターストレージ1a〜1bまたはホスト2a〜2bとの通信が途絶えたときがある。例えば、一定周期で監視用の通信を行うことにより実現できる。第3の契機として、マスターストレージ1a〜1bおよびホスト2a〜2bとの通信が所定期間途絶えたことを検出すると、それをユーザに表示し、その後にユーザによる指示があったときがある。
被災通知部7は、レプリカストレージ3に被災を通知するとき、被災したマスターストレージを示す識別子も通知する。通知すべきマスターストレージとしては、ユーザが指定したマスターストレージ1、通信が途絶えたマスターストレージ1、あるいは通信途絶えたホスト2に対応するマスターストレージ1である。
次に、被災通知部7から被災通知を受けたレプリカストレージ3の動作について説明する。
被災通知部7からの被災通知は配置管理部16に通知される。被災通知を受けた被災管理部16では、配置変更計画部22が処理を開始する。
図10は、被災通知を受けた配置変更計画部の動作を示すフローチャートである。図10を参照すると、被災が通知された配置変更計画部22は、配置ポリシーDB23内の無指定時に使用される配置ポリシーを、被災したマスターストレージに対応する被災時配置ポリシーに変更する(ステップS30)。また、配置変更計画部22は、被災したマスターストレージに対応するモード遷移時配置ポリシーを配置ポリシーDB23から取得する(ステップS31)。
次いで、配置変更計画部22は、ステップS31で取得したモード遷移時配置ポリシーの対象となるルールを選択する(ステップS32)。次に、配置変更計画部22は、全てのルールの適用が完了しているか否か判定する(ステップS33)。全てのルールが適用済みであれば、配置変更計画部22は処理を終了する。
適用済みでないルールがあれば、配置変更計画部22は、未適用のルールの対象となるデータブロックを、上位ストレージ13への移動の対象として選択する(ステップS34)。次に、配置変更計画部22は、そのルールにおいて、全てのデータブロックへの適用が完了しているか否か判定する(ステップS35)。全てのデータブロックへの適用が完了していれば、配置変更計画部22は、そのルールを適用済みとし、ステップS32に戻る。
未適用のデータブロックがあれば、配置変更計画部22は、マッピングDB21中からステップS34にて選択したデータブロックとマスターストレージIDおよびマスターストレージ内アドレスが一致するエントリーを検索する(ステップS36)。
次いで、配置変更計画部22は、ステップS36にて得られたエントリーの該当データブロックが既に上位ストレージに配置されているか否か判定する(ステップS37)。ステップS36にて得られたエントリーの該当データブロックが既に上位ストレージに配置されていれば、配置変更計画部22はステップS34に移行する。
ステップS36にて得られたエントリーの該当データブロックが上位ストレージ13に配置されていなければ、配置変更計画部22は、マッピングDB21にある上位ストレージ13の空きブロック管理表により、空きのデータブロックがあるか否か判定する(ステップS39)。
空きのデータブロックがなければ、配置変更計画部22は、マッピングDB21を検索し、追い出すデータブロックを決定する(ステップS40)。その際、配置変更計画部22は、上位ストレージ13に格納されている各データブロックを配置ポリシーDB23の無指定時の配置ポリシーにより評価する。そして、一致するルールのないデータブロックがあれば、配置変更計画部22は、それを追い出すデータブロックと決定する。また、そのようなデータブロックがなければ、配置変更計画部22は、上位ストレージ13に格納されているデータブロックの中で最も優先度の低いルールに一致するデータブロックを追い出すデータブロックと決定する。なお、その際、複数のデータブロックが追い出し対象となりうる場合、その中から、マッピングDB21のエントリー毎に記録されたアクセス頻度情報から、最もアクセス頻度の低いものを追い出すデータブロックと決定すればよい。
そして、配置変更計画部22は、追い出し対象のデータブロックを示すマッピングDB21のエントリーの各フィールドに基づき、「マスターストレージID」よりそのデータブロックのマスターストレージを取得し、「マスターストレージ内アドレス」よりそのデータブロックのマスターストレージでのアドレスを取得し、「格納ストレージ内アドレス」よりそのデータブロックの上位ストレージでのアドレスを取得する。
次いで、配置変更計画部22は、追い出し対象データブロックのマスターストレージに対応する下位ストレージ14に関する空きブロック管理表より、空きのデータブロックを抽出し、追い出し対象データブロックの移動先となるデータブロックのアドレスを決定する(ステップS41)。
次いで、配置変更計画部22は、追い出し対象データブロックの上位ストレージ13のアドレスを移動元として指定し、空きブロック管理表から抽出された移動先データブロックのアドレスを移動先として指定してデータ移動部12にデータの移動を指示する(ステップS42)。
追い出しの移動が完了すると、次に、配置変更計画部22は、上位ストレージ13への移動対象として選択されたデータブロックの下位ストレージ14のアドレスを移動元として指定し、ステップS42の追い出しにより空きとなった上位ストレージ13のデータブロックのアドレスを移動先として指定して、データ移動部12にデータの移動を指示する(ステップS43)。
これらの移動が完了すると、次に、配置変更計画部22は、移動に応じてマッピングDB21の配置管理表と空きブロック管理表を更新し(ステップS46)、ステップS34に移行する。このとき、上位ストレージ13に空きデータブロックを作るために追い出しを行っていれば、追い出しの移動先として用いた下位ストレージのデータブロックを空きブロック管理表から削除する。
ステップS39の判定において空きのデータブロックがあれば、配置変更計画部22は、上位ストレージ13の空きのデータブロックを移動先として割り当てる(ステップS44)。次いで、配置変更計画部22は、上位ストレージ13への移動対象として選択されたデータブロックの下位ストレージ14のアドレスを移動元として指定し、ステップS44により移動先として割り当てられた上位ストレージ13の空きデータブロックのアドレスを移動先として指定して、データ移動部12にデータの移動を指示する(ステップS45)。
移動が完了すると、配置変更計画部22は、ステップS46に移行する。
次に、データ移動部12の動作について説明する。
データ移動部12は、移動元のデータブロックと移動先のデータブロックを指定して起動される。移動元および移動先のデータブロックは、それらのストレージおよびそのストレージ中のデータブロックアドレスで指定される。
データ移動部12は、起動すると、指定された移動元のデータブロックからデータを読み出し、指定された移動先のデータブロックへの書き込みを行う。
次に、被災後、ホスト4がレプリカストレージ3にアクセスするときの動作について説明する。
ホスト4は、アクセス対象のマスターストレージおよびブロックアドレスと、アクセス種類と、データの大きさと、書き込みの場合には書き込むデータとを指定し、レプリカストレージ3にアクセス要求を送る。
ホスト4からのアクセス要求は、レプリケーションストレージ3のアクセス部11が受ける。ホスト4がアクセスするマスターストレージを指定する方法には以下のようなものがある。まず、被災しているマスターストレージを、アクセス対象のマスターストレージとする方法がある。他に、ホスト4を複数の計算機により構成し、予め各計算機に対応してアクセス対象のマスターストレージをレプリカストレージに設定しておき、アクセスしてきた計算機に対応するマスターストレージをアクセス対象のマスターストレージとする方法がある。さらに他に、各マスターストレージに対応してレプリカストレージ中のボリュームを割り当てておき、アクセスされたボリュームに対応するマスターストレージをアクセス対象のマスターストレージとする方法がある。
アクセス部11の動作を説明する。
アクセス部11は、アクセス要求を受けると、ホスト4により指定されたマスターストレージおよびデータブロックアドレスを指定し、配置管理部16にアドレス変換を依頼する。そして、その変換結果の応答を配置管理部16から受けると、アクセス部11は、応答に示されたブロックアドレスを指定して、上位ストレージ13に読み出しあるいは書き込みを要求する。上位ストレージ13からの応答を受けると、アクセス部11は、その応答をホスト4に返す。
このとき、アクセス部11は、アクセス対象のマスターストレージおよびブロックアドレスとアクセス種類とをアクセス情報としてアクセスログ10に通知する。
次に、アクセス部11からアクセス変換の要求を受けた配置管理部16の動作について説明する。アクセス部11からのアドレス変換要求は配置管理部16のマッピング算出部20が受ける。
図11は、マッピング算出部の動作を示すフローチャートである。図11を参照すると、マッピング算出部20は、アドレス変換要求を受け取ると、そのアドレス変換要求にて指定されたマスターストレージおよびデータブロックアドレスによりマッピングDB21を検索し、それらと一致するエントリーを探す(ステップS50)。
次いで、マッピング算出部20は、ステップS50で得られたエントリーに示されたデータブロックのデータが上位ストレージ13にあるか否か判定する(ステップS51)。その際、マッピング算出部20は、そのエントリーの格納ストレージIDが上位ストレージ13のIDか否かによりそれを判定する。
そのデータブロックのデータが上位ストレージ13になければ、マッピング算出部20は、配置変更計画部22に上位ストレージ13への移動を依頼する。その際、マッピング算出部20は、マスターストレージおよびデータブロックアドレスを指定する。
データブロックのデータが上位ストレージ13に移動された後、マッピング算出部20は、アドレス変換要求にて指定されたマスターストレージおよびデータブロックアドレスによりマッピングDB21を検索し、それらと一致するエントリーを探す(ステップS53)。なお、このとき、そのデータは既に上位ストレージ13に移動されているので、そのエントリーには上位ストレージ13のIDが含まれていることとなる。
そして、ステップS50またはステップS53の後、マッピング算出部20は、得られたエントリーの格納ストレージ内アドレスを変換結果としてアクセス部11に応答を返す(ステップS54)。
図12は、マッピング算出部から配置変更の依頼を受けた配置変更計画部の動作を示すフローチャートである。図12を参照すると、配置変更計画部22は、マッピング算出部20から配置変更の依頼を受けると、まず、その依頼にて指定されたマスターストレージおよびデータブロックアドレスによりマッピングDB21を検索し、それらと一致するエントリーを探す(ステップS60)。そのエントリーに含まれる格納ストレージIDおよび格納ストレージ内アドレスから移動元のストレージおよびデータブロックアドレスが得られる。
次いで、配置変更計画部22は、マッピングDB21にある上位ストレージ13の空きブロック管理表から、上位ストレージ13に空きのデータブロックがあるか否か判定する(ステップS61)。
上位ストレージ13に空きデータブロックが無ければ、配置変更計画部22は、マッピングDB21を検索し、追い出すデータブロックを決定する(ステップS62)。その際、配置変更計画部22は、上位ストレージ13に格納されている各データブロックを配置ポリシーDB23の無指定時の配置ポリシーにより評価する。そして、一致するルールがないデータブロックがあれば、配置変更計画部22は、それを追い出すデータブロックと決定する。また、そのようなデータブロックがなければ、配置変更計画部22は、上位ストレージ13に格納されているデータブロックの中で最も優先度の低いルールに一致するデータブロックを追い出すデータブロックと決定する。なお、その際、複数のデータブロックが追い出し対象となりうる場合、その中から、マッピングDB21のエントリー毎に記録されたアクセス頻度情報から、最もアクセス頻度の低いものを追い出すデータブロックと決定すればよい。
そして、配置変更計画部22は、追い出し対象のデータブロックを示すマッピングDB21のエントリーの各フィールドに基づき、「マスターストレージID」よりそのデータブロックのマスターストレージを取得し、「マスターストレージ内アドレス」よりそのデータブロックのマスターストレージでのアドレスを取得し、「格納ストレージ内アドレス」よりそのデータブロックの上位ストレージでのアドレスを取得する。
次いで、配置変更計画部22は、追い出し対象データブロックのマスターストレージに対応する下位ストレージ14に関する空きブロック管理表より、空きのデータブロックを抽出し、追い出し対象データブロックの移動先となるデータブロックのアドレスを決定する(ステップS63)。
次いで、配置変更計画部22は、追い出し対象データブロックの上位ストレージ13のアドレスを移動元として指定し、空きブロック管理表から抽出された移動先データブロックのアドレスを移動先として指定してデータ移動部12にデータの移動を指示する(ステップS64)。
追い出しの移動が完了すると、次に、配置変更計画部22は、上位ストレージ13への移動対象として選択されたデータブロックの下位ストレージ14のアドレスを移動元として指定し、ステップS64の追い出しにより空きとなった上位ストレージ13のデータブロックのアドレスを移動先として指定して、データ移動部12にデータの移動を指示する(ステップS65)。
これらの移動が完了すると、次に、配置変更計画部22は、移動に応じてマッピングDB21の配置管理表と空きブロック管理表を更新し(ステップS68)、マッピング算出部20に応答を返す(ステップS69)。このとき、上位ストレージ13に空きデータブロックを作るために追い出しを行っていれば、追い出しの移動先として用いた下位ストレージのデータブロックを空きブロック管理表から削除する。
次に、配置変更計画部22は、ステップS61の判定において空きのデータブロックがあれば、上位ストレージ13の空きのデータブロックを移動先として割り当てる(ステップS66)。次いで、配置変更計画部22は、上位ストレージ13への移動対象として選択されたデータブロックの下位ストレージ14のアドレスを移動元として指定し、ステップS44により移動先として割り当てられた上位ストレージ13の空きデータブロックのアドレスを移動先として指定して、データ移動部12にデータの移動を指示する(ステップS67)。
移動が完了すると、配置変更計画部22は、ステップS68に移行する。
次に、配置ポリシー設定部8からレプリカストレージ3へ要求されるポリシー設定の変更について説明する。
ポリシー設定部8が、変更すべきポリシーの種類とルールを指定して、レプリカストレージ3に変更を要求する。レプリカストレージ3では配置管理部16にてその要求を受け取る。そして、配置管理部16は、その要求に従って、配置ポリシーDB23内の指定されたポリシーのルールを変更する。
次に、モード遷移時配置ポリシーのルール作成方法の一例について説明する。
モード遷移時配置ポリシーは、被災の対象となるマスターストレージ1(あるいはマスターストレージ群)が複数あれば、それらマスターストレージ1毎に作成される。
まず始めに、ルールを作成しようとする対象のマスターストレージ1の業務開始から所定期間(例えば、予めシステムに設定された期間)のアクセスログをアクセスログ9から取得する。次いで、得られたアクセスログに基づき、アクセス順の早いデータブロックから順に高い優先度としたルールを作成する。なお、アクセスログに同一データブロックへのアクセスが複数回あった場合、最初の1回目だけを考慮すればよい。アクセス順が所定範囲内のデータブロックを1つの優先度にまとめてもよい。これにより、優先度のレベルの数を削減でき、エントリー内の優先度フィールドのデータ量を削減できる。
次に、モード遷移時配置ポリシーのルール作成方法の他の例について説明する。
この方法では、対象となるマスターストレージ1が以前に被災した際、あるいは被災時を想定した動作試験を行った際のアクセスログを用いる。具体的には、被災時あるいは動作試験時に、対象マスターストレージ1の業務を引き継ぐレプリカストレージ3およびホスト4の業務開始から所定期間におけるアクセスログをアクセスログ10から取得し、そのアクセスログにおいてアクセス順の早いデータブロックから順に高い優先度としたルールを作成する。
次に、複数のマスターストレージ1が被災した場合の処理について説明する。
複数のマスターストレージ1が被災した場合の本実施形態によるレプリケーションシステムの動作は、被災したマスターストレージ1の全てのデータが上位ストレージ13に格納可能であれば、以下の点を除き1つのマスターストレージが被災したときと同様である。
相違点は、まず、配置ポリシーDB23の無指定時ポリシーが、被災したマスターストレージの組みに対する被災時配置ポリシーとなる点である。もう1つの相違点は、被災を通知された配置管理部16における配置変更計画部22は、被災したマスターストレージの組みに対するモード遷移時配置ポリシーを使用する点である。
一方、被災したマスターストレージ1の全データが上位ストレージ13に格納可能でなければ、上位ストレージ13に格納しきれずに下位ストレージ14にデータが残されることとなる。そのため、上位ストレージ13に移動されずに下位ストレージ14に残されたデータに対するアクセスが要求される毎に、下位ストレージ13と上位ストレージ14の間で、被災時ポリシーのルールに従って、追い出しを伴うデータの移動が発生する。
複数のマスターストレージ1が被災した際のアクセス資源の制限方法について説明する。
アクセス資源設定部5は、被災したマスターストレージの組みの各マスターストレージからレプリカストレージ3に複製されているデータのアクセス資源値を設定する。このアクセス資源値は、各組み合わせ毎に被災前に予め設定されていてもよく、被災後の算出により設定されてもよい。
アクセス資源値は、アクセス帯域、使用キャッシュ容量、内部タスクの数、内部タスクの優先度、使用する配置ポリシーなどに関する設定値であり各マスターストレージに関する処理の際に利用される。
内部タスク数に関する具体例として、アクセス部11内の処理用タスクまたはスレッドの数をマスターストレージ毎に割り当てることとしてもよい。他の具体的として、上位ストレージ13内の処理用タスクまたはスレッドの数をマスターストレージ毎に割り当てることとしてもよい。
また、キャッシュ容量等に関する具体例として、アクセス部11内にキャッシュまたはバッファメモリがある場合、その容量をマスターストレージ毎に割り当てることとしてもよい。また、上位ストレージ13内にキャッシュまたはバッファメモリがある場合、その容量をマスターストレージ毎に割り当てることとしてもよい。
また、配置ポリシーに関する具体例として、上位ストレージ13のデータブロックをマスターストレージ毎に割り当てることとしてもよい。その際、上位ストレージ13に格納しきれないデータが下位ストレージ14に残され、そのデータへのアクセスにおいては追い出しを伴うデータの移動が行われるが、追い出し対象はアクセス先のマスターストレージに割り当てられたデータブロックとなる。
上位ストレージ13の内部処理に優先度がある場合、マスターストレージ毎に優先度を割り当てることとしてもよい。また、下位ストレージ14の内部処理に優先度がある場合、マスターストレージ毎に優先度を割り当てることとしてもよい。また、アクセス部11の内部処理に優先度がある場合、マスターストレージ毎に優先度を割り当てることとしてもよい。
なお、これら資源値を固定値として設定することとしてよく、また各マスターストレージの比率値あるいは優先度として設定してもよい。また、複数の資源値を組み合わせて用いることとしてもよく、例えば上述した具体例からいくつかを組み合わせることもできる。
以上説明したように、第1の実施形態によれば、複数のマスターストレージ1a〜1bでレプリカストレージ3を共用し、レプリカストレージ3は、複数の中から選択されたマスターストレージの複製データを階層型ストレージの上位ストレージ13にて処理に提供するので、動作速度などの点で処理に提供可能な程度のストレージの記憶容量を削減し、一定以上の信頼性を維持しつつコストダウンを図ることができる。
また、平時には複数のマスターストレージ1a〜1bの複製データを下位ストレージ14a〜14bに配置しておき、被災時には、処理に提供する複製データのみを上位ストレージ13に移動するので、下位ストレージ14a〜14bには処理に提供可能な程度のストレージを用いる必要が無く、コストダウンを図ることができる。
平時にマスターストレージ1a〜1bからの更新情報を受けると、受信部15a〜15bは、それぞれのマスターストレージに対応する下位ストレージ14a〜14bに適用しており、いずれかのマスターストレージが被災すると、配置管理部16が、その被災に応じた配置ポリシーに変更し、またモード遷移時配置ポリシーに基づくデータブロックの移動をデータ移動部12に指示し、データ移動部12がその指示に従って被災したマスターストレージに対応する下位ストレージ14から上位ストレージ13へのデータブロックの移動を行うので、平時のレプリケーションにおいて、階層型ストレージを構成する上位ストレージ13と下位ストレージ14a、14bの間でデータを移動させる必要が無く、レプリケーションに伴う処理を削減し、平時のアクセス性能の低下を防止することができる。
また、第1の実施形態によれば、レプリカストレージ3を構成する階層型ストレージには平時および被災時にそれぞれの状況に適したルールの配置ポリシーが適用されるので、被災時と平時のデータ配置をそれぞれに最適化することができる。また、それにより上位ストレージ13と下位ストレージ14の間で無駄なデータの移動も低減でき、即ちデータ移動も被災時と平時のそれぞれに最適化することができる。
また、第1の実施形態によれば、配置管理部16は、被災したマスターストレージ毎に異なる被災時配置ポリシーを設定するので、被災したマスターストレージに適切なデータ配置およびデータ移動が可能となる。
また、第1の実施形態によれば、被災直後の遷移状態において配置管理部16がモード遷移時配置ポリシーに従ったデータブロックの移動をデータ移動部12に指示し、データ移動部12がそれに従ってデータを移動させるので、平時から被災時に遷移するときに、適切なデータブロックの移動がされ、遷移時のホスト4の処理等によるデータの移動を低減することができる。また、被災したマスターストレージ毎に異なるモード遷移時配置ポリシーが設定可能なので、被災したマスターストレージに適切なデータブロックの移動が可能である。
また、第1の実施形態によれば、モード遷移時配置ポリシーに従った下位ストレージ14から上位ストレージ13へのデータブロックの移動をデータ移動部12行っている間でも、マスターストレージの代理処理を開始してアクセス部11による上位ストレージ13へのアクセスを可能にするので、バックアップテープからのリストアのようにデータ移動の完了を待たずにホスト4で業務を開始することができる。これにより被災時の業務停止時間を短縮することができる。
また、第1の実施形態によれば、配置ポリシー設定部8は、以前の被災時や動作試験など過去のホスト4のアクセスログに基づき、モード遷移時配置ポリシーを作成するので、被災直後の処理のアクセスパターンに適したデータブロックの移動を行うことで、アクセス対象のデータブロックが上位ストレージにない可能性を低下できる。これにより、被災後の業務開始近辺での上位ストレージにデータが格納されていないことに伴うデータアクセスの遅延が発生する可能性を低減できる。
また、第1の実施形態によれば、レプリカストレージ3は上位ストレージ13および下位ストレージ14からなる階層型ストレージであり、マスターストレージが被災すると、配置管理部16は、そのマスターストレージのデータブロックを上位ストレージに格納するような被災後配置ポリシーを適用するので、安価なメモリーで構成された下位ストレージ14を用いることによるコストダウンの効果を得つつ、被災後も高速なメモリーで構成された上位ストレージ13により高い処理能力を発揮することができ、費用効率の高いレプリケーションシステムを提供することができる。
また、被災が通知されると、ホスト4からのアクセスの有無に関わらず、モード遷移時配置ポリシーに基づく配置管理部16の指示により、データ移動部が、被災したマスターストレージに対応する下位ストレージ14のデータを上位ストレージへ移動するので、被災したマスターストレージ1のデータをホスト4からのアクセスの前に上位ストレージ13に格納することによりアクセス時のデータ移動を削減し、アクセス性能を向上させることができる。
また、第1の実施形態において、処理速度が速くかつ大容量化が可能な磁気ディスク、光磁気ディスク、または光ディスクあるいはそれらによるアレイ装置により上位ストレージを構成してもよい。これによれば、レプリカストレージの速度向上および大容量化が可能であり、マスターストレージの全容量あるいはアクティブ容量の全てを格納可能とすることもできるので、メモリーを用いたディスクキャッシュでは実現が困難な大容量データに対する処理能力向上を実現することができる。
また、第1の実施形態によれば、課金ログ6は、レプリカストレージ3の上位ストレージ13の使用を課金情報として記録するので、上位ストレージ13の使用状況に応じた課金が可能となる。この課金額をアクセス量または上位ストレージ13へのデータ保存量に基づいて定める課金体系としてもよい。
また、第1の実施形態によれば、複数のマスターストレージが被災すると、配置管理部16は、被災したマスターストレージの組み合わせに適した被災後配置ポリシーおよびモード遷移時配置ポリシーを用い、アクセス資源設定部5は、その組み合わせに適した資源値を設定するので、レプリカストレージ3を複数のマスターストレージの代わりとして用い、かつ資源の利用を各マスターストレージに適切に割り当てることができる。
本実施形態における典型的なマスターストレージとレプリカストレージの配置について説明する。
マスターストレージ1a〜1bとレプリカストレージ3とは、想定した災害(地震、火事、停電)に同時に被災することがないように地理的に分離して配置することが好ましい。マスターストレージ1とレプリカストレージ3が同時に被災しなければ、マスターストレージ1が被災してもレプリカストレージ3で被災したマスターストレージ1の業務を再開させることができる。
また、複数のマスターストレージ1の同時被災が避けられない場合、想定される最大の同時被災数をシステムで規定し、それだけのマスターストレージ1が同時に被災してもレプリカストレージ3でそれらの業務を再開可能とすることが好ましい。
本実施形態のレプリケーションシステムによれば、複数のマスターストレージ1でレプリカストレージ3を共有することにより、被災時の処理性能を低下させること無く、レプリカストレージに必要な設備を削減してコストダウンを図ることができる。
複数のマスターストレージに個別にレプリカストレージを備える構成では、各レプリカストレージが対応するマスターストレージの業務に耐えうる処理能力を持たなければならない。しかし、レプリカストレージを共有する場合、レプリカストレージは、同時被災が想定されるマスターストレージの業務に耐えるだけの処理能力を備えればよく、複数のマスターストレージに個別にレプリカストレージを備えるのに比べて要求される処理能力は少なくて済む。そのため、本実施形態の構成のように、レプリカストレージを階層型ストレージとし、同時被災が想定されるマスターストレージの業務に耐えるだけの処理能力を備えた上位ストレージと、全てのマスターストレージのデータを格納できる容量の安価なメモリーによる下位ストレージとで構成すれば、被災時の処理能力を低下させることなく、費用効率の高いレプリケーションシステムを提供することができる。
なお、上位ストレージ13の可用性および性能は、マスターストレージ1a〜1bと同様にするのが好ましい。ただし、上位ストレージ13として、マスターストレージ1a〜1bよりも可用性または性能が劣るものを用いてもよく、その場合、被災時の可用性や性能は低下するが、その代わりレプリカストレージのコストは低減される。
また、レプリカストレージ3における上位ストレージ13および下位ストレージ14a〜14bの具体例について説明する。
レプリケーションシステムとしての要求条件が満たされれば、下位ストレージ14には、上位ストレージ13よりも低コストのものを用いることができる。そのため、下位ストレージ14aは上位ストレージ13と比べて何らかの性能が劣ることが考えられる。下位ストレージ14が上位ストレージ13より性能が劣ると考えられる項目としては、例えば磁気ディスク、光ディスク、または光磁気ディスク等の記憶媒体の回転速度が考えられる。また、他の例として、ディスク装置のヘッドのシーク時間も考えられる。また、ディスク媒体からのデータ転送速度も考えられる。また、ディスクアレイでのストライピングを構成するディスク数が考えられ、また下位ストレージ14ではストライピングを用いないことも考えられる。また、ディスク装置を接続するインタフェースのスループットも考えられる。また、ディスク装置を接続するパスの結合形態(スイッチ、ループ、バス)の違いによる通信の多重度も考えられる。また、ディスク装置のコマンドの同時受付数(キューあり/なし)も考えられる。また、ディスク装置の内部キャッシュ/バッファの容量も考えられる。また、ディスクアレイコントローラの演算性能も考えられる。また、ディスクアレイコントローラのキャッシュ容量も考えられる。また、ディスクアレイコントローラとの接続インタフェースのスループットも考えられる。また、ディスクアレイコントローラとの接続インタフェースのポート数も考えられる。また、ディスクアレイコントローラとの接続インタフェースとの結合形態(スイッチ、ループ、バス)の違いによる通信の多重度も考えられる。また、上位ストレージ13にだけディスクアレイコントローラ内のキャッシュメモリに不揮発なメモリー(バッテリーバックアップ含む)を用いることも考えられ、その場合、キャッシュに書いた段階で応答が返せるか、実際のディスクにデータを書くまで応答を返さないかという違いが生じる。
これらのような何らかの性能が上位ストレージより劣るものは比較的安価である。したがって、下位ストレージ14にそのようなストレージを用いることで、全容量を高価で高性能のストレージで構成した場合と比べて、レプリカストレージを安価に構成することができる。
また、レプリケーションシステムとしての要求条件が満たされれば、上位ストレージ13と下位ストレージ14を可用性で差別化してもよい。その場合、下位ストレージ14aは上位ストレージ13と比べて可用性の劣るものであってもよい。可用性の項目としては、例えば、磁気ディスク、光ディスク、または光磁気ディスク等の信頼性(MTBF、出荷時の検査内容)が考えられる。また、ディスクアレイの場合の冗長度(2ディスク故障対策(トリプルミラー、RAID6)が考えられる。また、1ディスク故障対策の冗長化レベル(RAID5、RAID3、RAID1)が考えられる。あるいは、下位ストレージ14では、故障対策をせず(ディスク単体、RAID0)バックアップテープを用いる、または故障対策をせずバックアップテープも用いないということも考えられる。また、ディスクアレイコントローラを冗長化するか否かも考えられる。また、磁気ディスク、光ディスク、光磁気ディスク等との接続パスを冗長化するか否かも考えられる。また、ディスク装置との接続パスに代替経路を設けるか否かも考えられる。また、ディスクアレイコントローラとの接続パスを冗長化するか否かも考えられる。また、ディスクアレイコントローラとの接続パスに代替経路を設けるか否かも考えられる。また、ディスクのデータブロックのエラーを訂正するための冗長データ量も考えられる。また、下位ストレージ14には冗長データを持たないことも考えられる。また、ディスクアレイコントローラ内のキャッシュメモリに不揮発なメモリー(バッテリーバックアップ含む)を用いるか否かも考えられる。また、磁気ディスクがホットスワップに対応するか否かも考えられる。
これらのような何らかの可用性が上位ストレージより劣るものは比較的安価である。したがって、下位ストレージ14にそのようなストレージを用いることで、全容量を高価で高性能なストレージで構成した場合と比べて、レプリカストレージを安価に構成することができる。
次に、本実施形態における上位ストレージ13のデータ容量について説明する。
各ストレージの容量はシステム要求を満たすように適宜選択すればよく、例えば、マスターストレージ1a〜1bの容量が互いに異なる場合、それらの中で最も大きな容量以上の上位ストレージ13を用意すればよい。これにより、いずれのマスターストレージ1a〜1bが被災しても、被災したマスターストレージ1の全データを上位ストレージ13に格納できる。そのため下位ストレージ14から上位ストレージ13へのデータブロックの移動が完了すれば、ホスト4から見たレプリカストレージ3の可用性および性能は上位ストレージ13の可用性および性能となる。このように被災したマスターストレージ1の全データを上位ストレージ13に移動できるので、下位ストレージ14がマスターストレージ1および上位ストレージ13より可用性または性能が劣っていても被災時に高い可用性および性能で動作可能である。その結果、階層型ストレージにおいて、可用性あるいは性能の劣る安価な下位ストレージによりコストダウンを図りながら、被災時には高い可用性および性能を得ることができる。
さらに、上位ストレージ13の可用性をマスターストレージ1と同様に高いものとすれば、被災時にもマスターストレージ1と同様の高い可用性を得ることができる。
また、被災したマスターストレージ1の全データを上位ストレージ13に格納できるので、下位ストレージ14から上位ストレージ13へのデータの移動が完了した後は、上位ストレージ13と下位ストレージ14の間でデータブロックの移動は発生しない。上位ストレージ13と下位ストレージ14の間のデータ移動が最適化される。
また、マスターストレージ1a〜1bの中で複数が同時被災することが考えられる場合、上位ストレージ13の容量を同時被災が想定されるマスターストレージ1の総容量以上とすればよい。そうすれば、同時被災があっても、被災した全てのマスターストレージ1の全データを上位ストレージ13に格納できるので、下位ストレージ14から上位ストレージ13へのデータ移動が完了すれば、ホスト4から見たレプリカストレージ3の可用性および性能は上位ストレージ13の可用性および性能と同様になる。システムで想定した範囲内で複数のマスターストレージが被災しても、可用性または性能の劣る下位ストレージを用いた階層型ストレージによりコストダウンを図りつつ、被災時には、上位ストレージ14の可用性および性能で動作させることができる。
また、上位ストレージ13にマスターストレージ1と同様に可用性の高いものを用いれば、被災時に、マスターストレージ1と同様の高い可用性を得ることができる。
また、被災した全てのマスターストレージの全データを上位ストレージ13に格納できるので、下位ストレージ14から上位ストレージ13へのデータ移動が完了した後は、上位ストレージ13と下位ストレージ14の間でデータの移動は必要なく、即ち上位ストレージ13と下位ストレージ14の間のデータ移動が最適化される。
上位ストレージ13のデータ容量として、マスターストレージ1a〜1bの中で最も大きいアクティブ容量以上の容量を用意することとしてもよい。アクティブ容量とは、一定期間以内にアクセスのあったアクティブデータの容量である。
いずれのマスターストレージ1a〜1bが被災しても、被災したマスターストレージ1のアクティブなデータを上位ストレージ13に格納できる。そのため、下位ストレージ14から上位ストレージ13へのデータの移動が完了すれば、ホスト4から見たレプリカストレージ3の可用性および性能は上位ストレージ13の可用性および性能とほぼ同等になる。
なお、アクティブ容量は、システムが規定した期間(1日、1週間、数週間)にアクセスのあったデータブロックの容量から求めることができ、アクセスログ9a〜9bから取得できる。
一般にホストが利用するデータには局所性があると考えられるので、上位ストレージ13にアクティブデータを格納可能な容量があれば、アクティブデータの移動後に下位ストレージ14にアクセスされる可能性は低い。したがって、被災したマスターストレージ1のアクティブデータを上位ストレージ13に全て移動できるので、安価で性能の劣る下位ストレージ14によりコストダウンを図った階層型ストレージを用いても、被災時には、上位ストレージ13の性能で動作可能である。
その場合、被災時配置ポリシーおよびモード遷移時配置ポリシーとして、一定期間内にアクセスのあったデータブロックを優先的に上位ストレージ13に配置するようなルールを適用してもよい。一定期間内にアクセスのあったデータブロックは、アクセスログから得ることができる。一般にマスターストレージ1へのアクセスにおいてデータブロックの局所性があると考えられるので、アクセスされる可能性の高いデータを優先的に上位ストレージ13に配置でき、モード遷移時および被災時にレプリカストレージ3へのアクセス性能の低下を抑えることができる。
さらに、任意期間毎に、アクセスログから被災時配置ポリシーおよびモード遷移時配置ポリシーを新たに作成しなおすこととしてもよい。これによりマスターストレージ1へのアクセスの局所性が時間と共に変化しても、常に新しい状態に対応したポリシーを維持することができる。
安価な下位ストレージ14を用いた階層型ストレージによりコストダウンを図りつつ、被災時には、上位ストレージ13を用いることにより上位ストレージ13の高い性能を得ることができる。さらに、上位ストレージ13にはアクティブデータが格納できればよいので、全データが格納できる容量を容易するのに比べて容量の削減となりコストダウンになる。
さらに、上位ストレージ13の性能をマスターストレージ1と同様に高いものとすれば、被災時にもマスターストレージ1と同様の高い性能を得ることができる。
マスターストレージ1a〜1bの中で複数が同時に被災する可能性があれば、同時被災が想定されるマスターストレージ1a〜1bのアクティブ容量の総和以上の容量を上位ストレージ13に用意すればよい。これにより、想定した同時被災数のマスターストレージ1a〜1bが被災しても、被災した全マスターストレージ1のアクティブデータを上位ストレージ13に格納できる。そのため、下位ストレージ14から上位ストレージ13へのデータの移動が完了すれば、ホスト4から見たレプリカストレージ3の可用性および性能は上位ストレージ13の可用性および性能とほぼ同等になる。
なお、アクティブ容量は、システムが規定した期間(1日、1週間、数週間)にアクセスのあったデータブロックの容量から求めることができ、アクセスログ9a〜9bから取得できる。
一般に、ホストが利用するデータには局所性があると考えられるので、上位ストレージ13にアクティブデータを格納可能な容量があれば、アクティブデータの移動後に下位ストレージ14にアクセスされる可能性は低い。したがって、被災した複数のマスターストレージのアクティブデータを上位ストレージ13に全て移動できるので、安価で性能の劣る下位ストレージ14によりコストダウンを図った階層型ストレージを用いても、被災時には、上位ストレージ13の性能で動作可能である。
その場合、被災時配置ポリシーおよびモード遷移時配置ポリシーとして、一定期間内にアクセスのあったデータブロックを優先的に上位ストレージ13に配置するようなルールを適用してもよい。一定期間内にアクセスのあったデータブロックは、アクセスログから得ることができる。一般にマスターストレージ1へのアクセスにおいてデータブロックの局所性があると考えられるので、アクセスされる可能性の高いデータを優先的に上位ストレージ13に配置でき、モード遷移時および被災時にレプリカストレージ3へのアクセス性能の低下を抑えることができる。
さらに、任意期間毎に、アクセスログから被災時配置ポリシーおよびモード遷移時配置ポリシーを新たに作成しなおすこととしてもよい。これによりマスターストレージ1へのアクセスの局所性が時間と共に変化しても、常に新しい状態に対応したポリシーを維持することができる。
安価な下位ストレージ14を用いた階層型ストレージによりコストダウンを図りつつ、被災時には、上位ストレージ13を用いることにより上位ストレージ13の高い性能を得ることができる。さらに、上位ストレージ13には同時被災のマスターストレージ1のアクティブデータが格納できればよいので、全データが格納できる容量を容易するのに比べて容量の削減となりコストダウンになる。
また、各マスターストレージ1a〜1bにおいて業務の一部を、マスターストレージの被災時にレプリカストレージ3にて再開する対象の業務とすることとしてもよい。その場合、いずれのマスターストレージ1a〜1bが被災しても、被災したマスターストレージの再開対象業務を再開できるだけのデータ容量を上位ストレージ13に備えればよい。上位ストレージ13には、どのマスターストレージが被災しても、その再開対象業務に関するデータを格納可能な容量があればよい。再開対象業務は予め設定することとしてもよい。
これによれば、いずれのマスターストレージが被災しても、被災したマスターストレージ1の再開対象業務のデータを上位ストレージ13に格納できる。そのため、下位ストレージ14から上位ストレージ13へのデータの移動が完了すれば、ホスト4から見たレプリカストレージ3の可用性および性能は再開対象業務に関して上位ストレージ13の可用性および性能とほぼ同等になる。
さらに、上位ストレージ13の性能をマスターストレージ1と同様に高いものとすれば、被災時にもマスターストレージ1と同様の高い性能を得ることができる。
また、本実施形態において、下位ストレージ14a〜14bとして異なるストレージ装置を用いることとしてもよい。また、複数のマスターストレージ1で1つの下位ストレージ14を共有してもよい。
また、本実施形態において、下位ストレージ14として磁気ディスク、光磁気ディスク、または光ディスクのディスク装置またはアレイ装置を用いれば高速なランダムアクセスが可能となる。これにより、被災後に、モード遷移時配置ポリシーに従って下位ストレージ14から上位ストレージ13へデータを転送するとき、シーケンシャルでないアクセスを行ってもデータ転送速度が低下しない。
また、本実施形態において、平時と被災時で下位ストレージ14の内部処理を変更することとしてもよい。
一般に、ストレージでは、データの先読み、近接データのまとめ書き、書き込み順序の変更など、アクセス回数を減らしたり、ヘッドのシーク量を減らしたりする性能向上動作が行われていることがある。これら性能向上動作は、特定のアクセスのパターンに適したものを用いると性能向上が得られる。また、通常、特定条件に特化した性能向上策は汎用的な性能向上策に比べて高い性能向上率が得られる。
ここで、本実施形態の下位ストレージ14においては、平時にはマスターストレージ1からの更新情報の書き込みのみが発生し、被災時には上位ストレージ13へのデータ移動に伴う読み出しが多くなる。このような各状況のアクセスパターンに適した性能向上動作を行うことにより、アクセス性能を向上させることができる。そこで、平時には書き込みに特化した性能向上動作を適用し、被災時には読み出しの多い場合に特化した性能向上動作を適用することにより下位ストレージ14の性能の向上が可能である。
なお、本実施形態では、レプリカストレージ3の受信部15a〜15bをマスターストレージ1a〜1b毎に用意するのではなく、1つの受信部15を共用することとしてもよい。その場合、受信部は、受信データがどのマスターストレージからのものかを判定し、異なる動作を行う必要がある。
本実施形態の変形例として、マスターストレージ1と下位ストレージ14を静的に結び付け、かつマスターストレージ1内のデータブロックのアドレスと下位ストレージ14のデータブロックのアドレスとを静的に対応させることとしてもよい。これによれば、階層型ストレージを用いたレプリカストレージ3において、平時におけるレプリケーションの処理を単純化することができ、処理量を削減することができる。
本変形例において、更新情報を受けた受信部15の動作について説明する。更新情報には、データブロックのアドレスとデータとが含まれている。
受信部15は、更新情報を受信すると、更新情報からアドレスを取り出す。受信部15は、次いで、更新情報の送信元のマスターストレージ1に対応する下位ストレージ14に対してアドレスを指定してデータの書き込みを要求する。次いで、受信部15は、下位ストレージ14から応答があると、マスターストレージ1に更新の応答を送信する。
これにより、更新情報受信したときにアドレスを変換する処理が省略でき、レプリケーション処理が高速化される。また、配置管理部16の配置変更計画部22が配置の計画を立てるとき、配置計画において、データブロックの移動先となる下位ストレージ14のアドレスが一意に決定されるので処理が簡略化され、高速化される。
また、第1の実施形態の変形例として、上位ストレージ13の容量を全てのマスターストレージ1の容量以上とし、マスターストレージ1の複数同時被災を想定しない場合、マスターストレージ1内の各データブロックのアドレスと、上位ストレージ13の同じデータブロックのアドレスとを対応させることとしてもよい。これにより、ホスト4からアクセスするときのアドレス変換が簡略化され、アクセス処理が高速化できる。さらに、マッピングDB21内のエントリーにおいて、格納ストレージ内アドレスのフィールドが不要となり、記憶容量の削減となる。
また、上位ストレージ13と下位ストレージ14の間でデータを移動するときの移動先もマスターストレージ毎に一意に決定されるので、配置管理部16の配置変更計画部22よる配置計画も、どのマスターストレージのデータブロックかによって一意に決定され、処理の簡略化、高速化が図れる。
(第2の実施形態)
本発明の第2の実施形態をついて図面を参照して詳細に説明する。
第1の実施形態では、平時、マスターストレージ1a〜1bからの更新情報は下位ストレージ14a〜14bに適用された。これに対して第2の実施形態では、各マスターストレージ1a〜1bによる業務開始から一定期間にアクセスされたデータブロックを下位ストレージ14a〜14bではなく、上位ストレージ13にも格納しておく点で第1の実施形態と異なる。
一般に、業務開始直後には、システムの初期動作など毎回類似したアクセスパターンになると考えられる。第2の実施形態では、マスターストレージ1a〜1bでの業務開始直後にアクセスされたデータブロックを予め上位ストレージ13に格納しておくことで、被災時のレプリカストレージ40での業務開始直後のアクセス先のデータブロックが上位ストレージ13に格納されている可能性を高めている。業務開始直後のアクセス先としては、初期設定の記録されたファイルあるいはデータベースの特定のレコード、インデックス、またはジャーナルログ、またファイルシステムのスーパーブロック、ディレクトリ、またはブロックマップなどが考えられる。
平時に上位ストレージ13に格納しておくデータブロックは、マスターストレージ1が過去に被災していれば、そのときに待機系サイトのホスト4による業務開始から一定期間のアクセスパターンをアクセスログ10から得て、それに基づいて作成してもよい。
上位ストレージ13に格納するのを業務開始後一定時間内のアクセス先のデータブロックに限定することで、全てのマスターストレージ1a〜1bのデータブロックを上位ストレージ13に格納するための記憶容量は少なく済む。
図13は、第2の実施形態によるレプリケーションシステムの構成を示すブロック図である。図13を参照すると、本実施形態のレプリケーションシステムは、マスターストレージ1a〜1b、ホスト2a〜2b、アクセスログ9a〜9b、レプリカストレージ40、ホスト4、アクセスログ10、課金ログ6、被災通知部7、アクセス資源設定部5、および配置ポリシー設定部8を有している。
レプリカストレージ40は、上位ストレージ13、下位ストレージ14a〜14b、アクセス部11、データ移動部12、受信部41a〜41b、および配置管理部16を有している。
第2の実施形態のマスターストレージ1a〜1b、ホスト2a〜2b、アクセスログ9a〜9b、ホスト4、アクセスログ10、課金ログ6、被災通知部7、アクセス資源設定部5、配置ポリシー設定部8は第1の実施形態と同様のものである。また、レプリカストレージ40の有する上位ストレージ13、下位ストレージ14a〜14b、アクセス部11、データ移動部12、および配置管理部16は第1の実施形態のものと同様である。
第2の実施形態の配置ポリシーDB23には、平時配置ポリシーとして、業務開始から予め設定された期間にアクセスされたデータブロックを下位ストレージ14a〜14bではなく、上位ストレージ13に格納するという配置ポリシーが記録されている。その他のデータブロックは第1の実施形態と同様に下位ストレージ14a〜14bに格納される。
本実施形態における平時配置ポリシーのルールの一例として、[優先度=1、マスターストレージ=a、マスターストレージ内アドレス=I]、・・・[優先度=1、マスターストレージ=a、マスターストレージ内アドレス=L]、[優先度=1、マスターストレージ=b、マスターストレージ内アドレス=M]、・・・・[優先度=1、マスターストレージ=b、マスターストレージ内アドレス=P]、[優先度=NC、マスターストレージ=b、マスターストレージ内アドレス=NC]というエントリーからなるものが考えられる。ここでは、マスターストレージaのデータブロックI・・・Jと、マスターストレージbのデータブロックM・・・Oが、業務開始後一定期間にアクセスされたデータブロックである。このルールによりマスターストレージaのデータブロックI・・・Jと、マスターストレージbのデータブロックM・・・Oを上位ストレージ13に格納することができる。
また、受信部41a〜41bは、マスターストレージ1a〜1bから更新情報を受信したとき、その更新情報が示すデータブロックが上位ストレージ13に格納されていれば上位ストレージ13のデータブロックを更新する。これにより上位ストレージ13のデータが最新の状態に維持される。
以上説明したように、第2の実施形態によれば、平時にて一部の複製データが上位ストレージ13に予め保持されているので、被災時へ遷移してレプリカストレージ3の上位ストレージ13で複製データを処理に提供し始めるとき、下位ストレージ14から上位ストレージ13へ移動するデータを少なくできる。またデータ移動の時間が短縮できるので、レプリカストレージ3でのアクセスに対する応答を速くすることができる。
また、マスターストレージ1a〜1bにおける業務開始直後のアクセス先のデータブロックを予め上位ストレージ13に格納するような平時配置ポリシーを用い、受信部41a〜41bは上位ストレージ13に格納されているデータブロックの更新情報を受信すると、上位ストレージ13のデータブロックを更新して最新の状態に維持するので、業務開始直後にアクセスが予想されるデータブロックを予め上位ストレージ13に格納しておくことができ、レプリカストレージ40による業務開始後、被災した下位ストレージ14から上位ストレージ13へのデータの移動を削減することができ、業務開始時のアクセスに対する応答を速くすることができる。
また、平時において予め上位ストレージ13に保持する複製データを、マスターストレージ1での業務開始時のアクセスパターンに基づいて定めているので、被災時に、当初にアクセスされるデータが予め上位ストレージ13に保持されている可能性が高くなり、アクセスに対する応答を速くすることができる。
なお、第2の実施形態では、平時配置ポリシーとして、各マスターストレージ1a〜1bによる業務開始後一定期間のアクセス先のデータブロックを上位ストレージ13に格納することとしたが他の例も考えられる。他の例として、各マスターストレージ1a〜1bによる業務開始後一定期間のアクセス先のデータブロックを上位ストレージ13および下位ストレージ14a〜14bの双方に格納するような平時配置ポリシーを用いてもよい。
その場合、受信部41a〜41bは、マスターストレージ1a〜1bから更新情報を受信したとき、その更新情報が示すデータブロックが上位ストレージ13と下位ストレージの双方に格納されていれば上位ストレージ13および下位ストレージの双方のデータブロックを更新する。
また、配置管理部16のマッピングDB21には、格納ストレージIDおよび格納ストレージ内アドレスが2組含まれることとなる。図14は、上位ストレージと下位ストレージの双方にデータを格納する場合の配置管理表のエントリーを示す図である。図14を参照すると、格納ストレージIDおよび格納ストレージ内アドレスが2組含まれている。これらはそれぞれ上位ストレージ13と下位ストレージ14a〜14bの格納先を示している。
これによれば、業務開始直後のアクセス先が上位ストレージ13に格納されているので、レプリカストレージ40による業務開始直後の下位ストレージ14から上位ストレージ13へのデータの移動を削減でき、また、平時から下位ストレージ14a〜14bにはマスターストレージ1a〜1bの全てのデータブロックが格納されているので、被災時に被災していないマスターストレージ1に対応するデータブロックのデータを下位ストレージ14に移動することなく上位ストレージ13から削除でき、被災時のデータの移動をさらに少なくすることができる。
第1の実施形態によるレプリケーションシステムの構成を示すブロック図である。 第1の実施形態による配置管理部の構成を示すブロック図である。 第1の実施形態によるマスターストレージの構成を示すブロック図である。 配置ポリシーの各表を構成するエントリーを示す図である。 配置管理表のエントリーを示す図である。 第1の実施形態によるレプリケーションシステムの動作を示すフローチャートである。 第1の実施形態によるレプリケーションシステムの動作を示すシーケンス図である。 受信部の動作を示すフローチャートである。 配置管理部のアドレス変換動作を示すフローチャートである。 被災通知を受けた配置変更計画部の動作を示すフローチャートである。 マッピング算出部の動作を示すフローチャートである。 マッピング算出部から配置変更の依頼を受けた配置変更計画部の動作を示すフローチャートである。 第2の実施形態によるレプリケーションシステムの構成を示すブロック図である。 上位ストレージと下位ストレージの双方にデータを格納する場合の配置管理表のエントリーを示す図である。
符号の説明
1a〜1b マスターストレージ
2a〜2b ホスト
3、40 レプリカストレージ
4 ホスト
5 アクセス資源設定部
6 課金ログ
7 被災通知部
8 配置ポリシー設定部
9a〜9b アクセスログ
10 アクセスログ
11 アクセス部
12 データ移動部
13 上位ストレージ
14a〜14b 下位ストレージ
15a〜15b 受信部
16 配置管理部
20 マッピング算出部
21 マッピングデータベース(DB)
22 配置変更計画部
23 配置ポリシーDB
30 アクセス部
31 送信部
32 記憶部
41a〜41b 受信部
S10〜S15、S20〜S21、S30〜S45、S50〜S54、S60〜S69、S100〜S106 ステップ

Claims (63)

  1. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムであって、
    前記正常系サイトにて処理に用いられるデータを格納し、処理に提供しており、前記データが更新されると更新情報を前記待機系サイトに送信する複数のマスターストレージと、
    前記待機系サイトにて、複数の前記マスターストレージの複製データを上位ストレージおよび下位ストレージからなる階層型ストレージに格納しており、第1のモードでは、前記マスターストレージからの前記更新情報を受信して前記複製データを更新し、第2のモードでは、いずれかの正常系サイトのマスターストレージを選択し、選択した該マスターストレージに対応する複製データを前記上位ストレージにて処理に提供するレプリカストレージとを有するレプリケーションシステム。
  2. 前記レプリカストレージは、前記上位ストレージおよび前記下位ストレージへのデータの配置を、予め設定された配置ポリシーの設定に従って決定する、請求項1記載のレプリケーションシステム。
  3. 前記第1のモードにおいて、複数の前記マスターストレージの複製データを前記下位ストレージに配置する配置ポリシーと、前記第2のモードにおいて、前記レプリカストレージで処理に提供する複製データを前記上位ストレージに配置する配置ポリシーとが設定される、請求項2記載のレプリケーションシステム。
  4. 前記第2のモードの配置ポリシーは、選択された前記マスターストレージ毎に異なるポリシーである、請求項2記載のレプリケーションシステム。
  5. 前記第2のモードに遷移するときに用いる配置ポリシーがさらに設定される、請求項3または4に記載のレプリケーションシステム。
  6. 前記第2のモードに遷移するときに用いる配置ポリシーは、前記マスターストレージにおいて業務を開始したときのアクセスパターンに基づいて作成されている、請求項5記載のレプリケーションシステム。
  7. 前記第2のモードに遷移するときに用いる配置ポリシーは、過去に前記第2のモードに遷移したときのアクセスパターンに基づいて作成されている、請求項5記載のレプリケーションシステム。
  8. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、選択された該マスターストレージに対応する複製データを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供する、請求項1〜7のいずれか1項に記載のレプリケーションシステム。
  9. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、予め定められた最大同時選択数のいずれのマスターストレージが選択されても、選択された複数の該マスターストレージに対応する複製データを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供する、請求項1〜7のいずれか1項に記載のレプリケーションシステム。
  10. 前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
    前記上位ストレージは、選択された前記マスターストレージの前記再開対象業務に関する前記複製データを格納可能な容量であり、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する部分を前記上位ストレージに配置して処理に提供する、請求項8または9に記載のレプリケーションシステム。
  11. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、該マスターストレージに対応するアクティブデータを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち前記アクティブデータの部分を前記上位ストレージに配置して処理に提供する、請求項1〜7のいずれか1項に記載のレプリケーションシステム。
  12. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、予め定められた最大同時選択数のいずれのマスターストレージが選択されても、選択された複数の該マスターストレージに対応するアクティブデータを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち前記アクティブデータの部分を前記上位ストレージに配置して処理に提供する、請求項1〜7のいずれか1項に記載のレプリケーションシステム。
  13. 前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
    前記上位ストレージは、選択された前記マスターストレージの前記再開対象業務に関する前記アクティブデータを格納可能な容量であり、
    前記レプリカストレージは、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する前記アクティブデータの部分を前記上位ストレージに配置して処理に提供する、請求項11または12に記載のレプリケーションシステム。
  14. 前記上位ストレージおよび前記下位ストレージへのデータ配置のポリシーを設定する配置ポリシー設定手段をさらに有する、請求項1〜13のいずれか1項に記載のレプリケーションシステム。
  15. 前記マスターストレージの被災を前記レプリカストレージに通知する被災通知手段をさらに有し、
    前記レプリカストレージは、平時には前記第1のモードで動作しており、前記被災通知手段から前記マスターストレージの被災の通知を受けると、被災した前記マスターストレージを選択して前記第2のモードに遷移する、請求項1〜14のいずれか1項に記載のレプリケーションシステム。
  16. 前記レプリカストレージの前記下位ストレージにおいて前記マスターストレージ毎の領域が静的に定められる、請求項1〜15のいずれか1項に記載のレプリケーションシステム。
  17. 前記レプリカストレージは、前記第1のモードにおいて、該第1のモードに特化して前記複製データの更新の性能を向上させるためのアクセス動作を行う、請求項1〜16のいずれか1項に記載のレプリケーションシステム。
  18. 前記レプリカストレージは、前記第2のモードへの遷移時、選択した前記マスターストレージに対応する前記複製データを前記下位ストレージから前記上位ストレージに移動する、請求項1〜17のいずれか1項に記載のレプリケーションシステム。
  19. 前記レプリカストレージは、前記第2のモードへの遷移時、前記下位ストレージから前記上位ストレージへのデータの移動に特化して性能を向上させるためのアクセス動作を行う、請求項18に記載のレプリケーションシステム。
  20. 前記レプリカストレージは、複製データを処理に提供するために利用可能な前記上位ストレージの資源量を設定可能である、請求項1〜19のいずれか1項に記載のレプリケーションシステム。
  21. 前記レプリカストレージは、複製データの処理に提供するために利用可能な前記上位ストレージの資源量を前記マスターストレージ毎に設定可能である、請求項20記載のレプリケーションシステム。
  22. 前記レプリカストレージは、前記上位ストレージの資源量として該上位ストレージへのアクセス帯域を設定する、請求項20または21に記載のレプリケーションシステム。
  23. 前記レプリカストレージは、前記上位ストレージの資源量として、該上位ストレージに蓄積するデータ量、または該上位ストレージの占有率を設定する、請求項20または21に記載のレプリケーションシステム。
  24. 前記レプリカストレージは、前記上位ストレージに蓄積するデータ量または該上位ストレージの占有率を配置ポリシーにて設定する、請求項23記載のレプリケーションシステム。
  25. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムであって、
    前記正常系サイトにて処理に用いられるデータを格納し、処理に提供しており、前記データが更新されると更新情報を前記待機系サイトに送信するマスターストレージと、
    前記待機系サイトにて、前記マスターストレージの複製データを、予め設定された配置ポリシーの設定に従って、上位ストレージおよび下位ストレージからなる階層型ストレージに格納しており、第1のモードでは、前記マスターストレージからの前記更新情報を受信して前記複製データを更新し、第2のモードでは、前記マスターストレージに対応する複製データを前記上位ストレージにて処理に提供するレプリカストレージとを有するレプリケーションシステム。
  26. 前記第1のモードで用いる配置ポリシーおよび前記第2のモードで用いる配置ポリシーの他に、前記第2のモードに遷移するときに用いる配置ポリシーがさらに設定される、請求項25に記載のレプリケーションシステム。
  27. 前記第2のモードに遷移するときに用いる配置ポリシーは、前記マスターストレージにおいて業務を開始したときのアクセスパターンに基づいて作成されている、請求項26記載のレプリケーションシステム。
  28. 前記第2のモードに遷移するときに用いる配置ポリシーは、過去に前記第2のモードに遷移したときのアクセスパターンに基づいて作成されている、請求項26記載のレプリケーションシステム。
  29. 前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
    前記下位ストレージは、前記マスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記マスターストレージの前記再開対象業務に関する前記データを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する部分を前記上位ストレージに配置して処理に提供する、請求項25〜28のいずれか1項に記載のレプリケーションシステム。
  30. 前記下位ストレージは、前記マスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、前記マスターストレージに対応するアクティブデータを格納可能な容量を有し、
    前記レプリカストレージは、前記第2のモードにおいて、前記マスターストレージに対応する前記複製データのうち前記アクティブデータの部分を前記上位ストレージに配置して処理に提供する、請求項25〜28のいずれか1項に記載のレプリケーションシステム。
  31. 前記マスターストレージがデータを処理に提供している業務のうちの一部を、前記レプリカストレージによる前記第2のモードにおける再開対象業務とし、
    前記上位ストレージは、選択された前記マスターストレージの前記再開対象業務に関する前記アクティブデータを格納可能な容量であり、
    前記レプリカストレージは、前記第2のモードにおいて、前記マスターストレージに対応する前記複製データのうち、前記再開対象業務に関する前記アクティブデータの部分を前記上位ストレージに配置して処理に提供する、請求項30に記載のレプリケーションシステム。
  32. 前記マスターストレージの被災を前記レプリカストレージに通知する被災通知手段をさらに有し、
    前記レプリカストレージは、平時には前記第1のモードで動作しており、前記被災通知手段から前記マスターストレージの被災の通知を受けると前記第2のモードに遷移する、請求項25〜31のいずれか1項に記載のレプリケーションシステム。
  33. 前記レプリカストレージは、前記第1のモードにおいて、該第1のモードに特化して前記複製データの更新の性能を向上させるためのアクセス動作を行う、請求項25〜32のいずれか1項に記載のレプリケーションシステム。
  34. 前記レプリカストレージは、前記第2のモードへの遷移時、前記マスターストレージに対応する前記複製データを前記下位ストレージから前記上位ストレージに移動する、請求項25〜33のいずれか1項に記載のレプリケーションシステム。
  35. 前記レプリカストレージは、前記第2のモードへの遷移時、前記下位ストレージから前記上位ストレージへのデータの移動に特化して性能を向上させるためのアクセス動作を行う、請求項34に記載のレプリケーションシステム。
  36. 前記レプリカストレージは、複製データを処理に提供するために利用可能な前記上位ストレージの資源量を設定可能である、請求項25〜35のいずれか1項に記載のレプリケーションシステム。
  37. 前記レプリカストレージは、前記上位ストレージの資源量として該上位ストレージへのアクセス帯域を設定する、請求項36記載のレプリケーションシステム。
  38. 前記レプリカストレージは、前記上位ストレージの資源量として、該上位ストレージに蓄積するデータ量、または該上位ストレージの占有率を設定する、請求項36記載のレプリケーションシステム。
  39. 前記レプリカストレージは、前記上位ストレージに蓄積するデータ量または該上位ストレージの占有率を配置ポリシーにて設定する、請求項38記載のレプリケーションシステム。
  40. 前記下位ストレージは前記上位ストレージよりも容量単価の安いストレージである、請求項1〜39のいずれか1項に記載のレプリケーションシステム。
  41. 前記上位ストレージが所定の処理能力を備えたストレージであり、
    前記下位ストレージが前記上位ストレージより処理能力の劣るストレージである、請求項1〜40のいずれか1項に記載のレプリケーションシステム。
  42. 前記上位ストレージが所定の可用性を備えたストレージであり、
    前記下位ストレージが上位ストレージより可用性の劣るストレージである、請求項1〜41のいずれか1項に記載のレプリケーションシステム。
  43. 前記レプリカストレージは、前記マスターストレージから受信した前記更新情報を前記下位ストレージに直接適用する、請求項1〜42のいずれか1項に記載のレプリケーションシステム。
  44. 前記レプリカストレージは、前記第1のモードにおいて、前記下位ストレージの複製データの一部を前記上位ストレージに保持する、請求項43に記載のレプリケーションシステム。
  45. 前記レプリカストレージは、前記第1のモードにおいて、前記マスターストレージにおいて業務を開始したときのアクセスパターンに基づき作成された配置ポリシーに従って、前記下位ストレージの複製データの一部を前記上位ストレージに保持する、請求項44に記載のレプリケーションシステム。
  46. 前記レプリカストレージは、前記第1のモードにおいて、過去に前記第2のモードに遷移したときのアクセスパターンに基づき作成された配置ポリシーに従って、前記下位ストレージの複製データの一部を前記上位ストレージに保持する、請求項44に記載のレプリケーションシステム。
  47. 前記レプリカストレージは、前記上位ストレージの利用状況に応じた課金ログを記録する、請求項1〜46のいずれか1項に記載のレプリケーションシステム。
  48. 前記上位ストレージの利用状況は、ホストからのアクセス量に応じて定められる、請求項47記載のレプリケーションシステム。
  49. 前記上位ストレージの利用状況は、該上位ストレージに複製データを蓄積したデータ量と蓄積期間に応じて定められる、請求項47記載のレプリケーションシステム。
  50. 前記レプリカストレージは、前記第2のモードにおける前記上位ストレージの利用状況に応じた課金ログを記録する、請求項47〜49のいずれか1項に記載のレプリケーションシステム。
  51. 前記マスターストレージと前記レプリカストレージは同時に被災しない位置に設置されている、請求項1〜50のいずれか1項に記載のレプリケーションシステム。
  52. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおけるレプリケーション方法であって、
    前記正常系サイトの複数のマスターストレージにて、処理に用いられるデータを格納し、処理に提供しており、前記データが更新されると更新情報を前記待機系サイトに送信するステップと、
    複数の前記マスターストレージの複製データを上位ストレージおよび下位ストレージからなる階層型ストレージに格納する前記待機系サイトのレプリカストレージにて、第1のモードとして、前記マスターストレージからの前記更新情報を受信して前記複製データを更新するステップと、
    前記レプリカストレージにて、第2のモードとして、いずれかの正常系サイトのマスターストレージを選択し、選択した該マスターストレージに対応する複製データを前記上位ストレージにて処理に提供するステップとを有するレプリケーション方法。
  53. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、選択された該マスターストレージに対応する複製データを格納可能な容量を有し、
    前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供する、請求項52記載のレプリケーション方法。
  54. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおけるレプリケーション方法であって、
    前記正常系サイトのマスターストレージにて、処理に用いられるデータを格納し、処理に提供しており、前記データが更新されると更新情報を前記待機系サイトに送信するステップと、
    前記マスターストレージの複製データを、予め設定された配置ポリシーの設定に従って、上位ストレージおよび下位ストレージからなる階層型ストレージに格納する前記待機系サイトのレプリカストレージにて、第1のモードとして、前記マスターストレージからの前記更新情報を受信して前記複製データを更新するステップと、
    前記レプリカストレージにて、第2のモードとして、前記マスターストレージに対応する複製データを前記上位ストレージにて処理に提供するステップとを有するレプリケーション方法。
  55. 前記上位ストレージの利用状況に応じた課金ログを記録するステップをさらに有する、請求項52〜54のいずれか1項に記載のレプリケーション方法。
  56. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおいて、前記正常系サイトにある複数のマスターストレージのデータを前記待機系サイトにて複製するレプリカストレージであって、
    上位ストレージおよび下位ストレージからなり複数の前記マスターストレージの複製データを格納する階層型ストレージと、
    前記マスターストレージからデータが更新された旨の更新情報を受信する受信手段と、
    第1のモードにおいて、前記受信手段にて前記更新情報が受信されると、該更新情報に従って前記階層型ストレージの前記複製データを更新し、第2のモードにおいて、いずれかのマスターストレージを選択し、選択した該マスターストレージに対応する複製データを前記上位ストレージにて処理に提供する配置管理手段とを有するレプリカストレージ。
  57. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、選択された該マスターストレージに対応する複製データを格納可能な容量を有し、
    前記配置管理手段は、前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供する、請求項56記載のレプリカストレージ。
  58. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおいて、前記正常系サイトにあるマスターストレージのデータを前記待機系サイトにて複製するレプリカストレージであって、
    上位ストレージおよび下位ストレージからなり前記マスターストレージの複製データを格納する階層型ストレージと、
    前記マスターストレージからデータが更新された旨の更新情報を受信する受信手段と、
    予め設定された配置ポリシーの設定に従って動作し、第1のモードにおいて、前記受信手段にて前記更新情報が受信されると、該更新情報に従って前記階層型ストレージの前記複製データを更新し、第2のモードにおいて、前記マスターストレージに対応する複製データを前記上位ストレージにて処理に提供する配置管理手段とを有するレプリカストレージ。
  59. 前記配置管理手段は、前記上位ストレージの利用状況に応じた課金ログを記録するステップをさらに有する、請求項56〜58のいずれか1項に記載のレプリカストレージ。
  60. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおいて、前記正常系サイトにある複数のマスターストレージのデータを前記待機系サイトにて複製するレプリカストレージとしてコンピュータを機能させるためのプログラムであって、
    上位ストレージおよび下位ストレージからなり複数の前記マスターストレージの複製データを格納する階層型ストレージを予め構成しておく手順と、
    第1のモードにおいて、前記マスターストレージからデータが更新された旨の更新情報を受信すると、該更新情報に従って前記階層型ストレージの前記複製データを更新する手順と、
    第2のモードにおいて、いずれかのマスターストレージを選択し、選択した該マスターストレージに対応する複製データを前記上位ストレージにて処理に提供する手順とをコンピュータに実行させるためのプログラム。
  61. 前記下位ストレージは、全てのマスターストレージのデータを格納可能な容量を有し、
    前記上位ストレージは、前記第2のモードにて、いずれのマスターストレージが選択されても、選択された該マスターストレージに対応する複製データを格納可能な容量を有し、
    前記第2のモードにおいて、選択された前記マスターストレージに対応する前記複製データを前記上位ストレージに配置して処理に提供する、請求項60記載のプログラム。
  62. 正常系サイトに格納されているデータを、通信回線で接続された待機系サイトに複製するレプリケーションシステムにおいて、前記正常系サイトにあるマスターストレージのデータを前記待機系サイトにて複製するレプリカストレージとしてコンピュータを機能させるためのプログラムであって、
    上位ストレージおよび下位ストレージからなり前記マスターストレージの複製データを格納する階層型ストレージを予め構成しておく手順と、
    予め設定された配置ポリシーの設定に従って、第1のモードにおいて、前記マスターストレージからデータが更新された旨の更新情報を受信すると、該更新情報に従って前記階層型ストレージの前記複製データを更新する手順と、
    予め設定された配置ポリシーの設定に従って、第2のモードにおいて、前記マスターストレージに対応する複製データを前記上位ストレージにて処理に提供する手順とをコンピュータに実行させるためのプログラム。
  63. 前記上位ストレージの利用状況に応じた課金ログを記録する手順をさらにコンピュータに実行させる、請求項60〜62のいずれか1項に記載のプログラム。



JP2004337319A 2004-11-22 2004-11-22 レプリケーションシステム、方法、レプリカストレージ、およびプログラム Withdrawn JP2006146661A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004337319A JP2006146661A (ja) 2004-11-22 2004-11-22 レプリケーションシステム、方法、レプリカストレージ、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004337319A JP2006146661A (ja) 2004-11-22 2004-11-22 レプリケーションシステム、方法、レプリカストレージ、およびプログラム

Publications (1)

Publication Number Publication Date
JP2006146661A true JP2006146661A (ja) 2006-06-08

Family

ID=36626257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004337319A Withdrawn JP2006146661A (ja) 2004-11-22 2004-11-22 レプリケーションシステム、方法、レプリカストレージ、およびプログラム

Country Status (1)

Country Link
JP (1) JP2006146661A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217688A (ja) * 2008-03-12 2009-09-24 Nec Corp 情報処理システム、情報処理装置およびデータ管理方法
JP2010086420A (ja) * 2008-10-01 2010-04-15 Nec Corp ストレージ装置、領域割り当て方法、及びプログラム
JP2012103847A (ja) * 2010-11-09 2012-05-31 Nec Corp データベース移行管理装置及びその方法
JP2014500542A (ja) * 2010-10-27 2014-01-09 エンモータス・インコーポレイテッド データ管理を有する階層データ記憶システムおよびその操作方法
JP2014194666A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd ストレージ装置、コピー制御プログラムおよびコピー制御方法
JPWO2013094047A1 (ja) * 2011-12-21 2015-04-27 富士通株式会社 管理装置、管理プログラムおよび管理方法
JP2016095553A (ja) * 2014-11-12 2016-05-26 日本電気株式会社 ストレージシステム、ストレージ装置、及びステージング方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217688A (ja) * 2008-03-12 2009-09-24 Nec Corp 情報処理システム、情報処理装置およびデータ管理方法
JP2010086420A (ja) * 2008-10-01 2010-04-15 Nec Corp ストレージ装置、領域割り当て方法、及びプログラム
JP2014500542A (ja) * 2010-10-27 2014-01-09 エンモータス・インコーポレイテッド データ管理を有する階層データ記憶システムおよびその操作方法
JP2012103847A (ja) * 2010-11-09 2012-05-31 Nec Corp データベース移行管理装置及びその方法
JPWO2013094047A1 (ja) * 2011-12-21 2015-04-27 富士通株式会社 管理装置、管理プログラムおよび管理方法
JP2014194666A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd ストレージ装置、コピー制御プログラムおよびコピー制御方法
JP2016095553A (ja) * 2014-11-12 2016-05-26 日本電気株式会社 ストレージシステム、ストレージ装置、及びステージング方法

Similar Documents

Publication Publication Date Title
JP6791834B2 (ja) 記憶システム及び制御ソフトウェア配置方法
US10853139B2 (en) Dynamic workload management based on predictive modeling and recommendation engine for storage systems
JP6056453B2 (ja) プログラム、データ管理方法および情報処理装置
JP4818812B2 (ja) フラッシュメモリストレージシステム
US8832380B2 (en) Storage system having cache partition size set based on drive type
JP4824374B2 (ja) ディスクの回転を制御するシステム
US6912669B2 (en) Method and apparatus for maintaining cache coherency in a storage system
EP2411918B1 (en) Virtualized data storage system architecture
US6895483B2 (en) Method and apparatus for data relocation between storage subsystems
JP5944587B2 (ja) 計算機システム及び制御方法
CN105657066A (zh) 用于存储系统的负载再均衡方法及装置
US20160224257A1 (en) Method for managing storage system using flash memory, and computer
JP4229626B2 (ja) ファイル管理システム
JP2006048358A (ja) 記憶システム及びデータ処理システム
JP2008040645A (ja) Nasマイグレーションによる負荷分散方法、並びに、その方法を用いた計算機システム及びnasサーバ
US9792941B2 (en) Method and system for data replication
WO2014162586A1 (ja) ストレージシステムおよびストレージシステム制御方法
JP4911198B2 (ja) ストレージ制御装置、ストレージシステムおよびストレージ制御方法
JP4261532B2 (ja) 論理ディスク管理方法及び仮想化装置
JP2020047215A (ja) ストレージシステム及びストレージ制御方法
JP2018197933A (ja) ストレージ制御装置、情報処理システムおよびプログラム
JP2006146661A (ja) レプリケーションシステム、方法、レプリカストレージ、およびプログラム
JP2021124796A (ja) 分散コンピューティングシステム及びリソース割当方法
JP7057408B2 (ja) 記憶システム及びその制御方法
JP4537724B2 (ja) ソフトウェア更新方法及びソフトウェア更新プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071010

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100405