JP2009075643A - 記憶システム及びデータ再配置方法 - Google Patents
記憶システム及びデータ再配置方法 Download PDFInfo
- Publication number
- JP2009075643A JP2009075643A JP2007241280A JP2007241280A JP2009075643A JP 2009075643 A JP2009075643 A JP 2009075643A JP 2007241280 A JP2007241280 A JP 2007241280A JP 2007241280 A JP2007241280 A JP 2007241280A JP 2009075643 A JP2009075643 A JP 2009075643A
- Authority
- JP
- Japan
- Prior art keywords
- storage system
- data
- volume
- transmitted
- response performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0662—Virtualisation aspects
- G06F3/0665—Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
- G06F11/1451—Management of the data involved in backup or backup restore by selection of backup contents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/0644—Management of space entities, e.g. partitions, extents, pools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Abstract
【課題】本発明は、システム全体の性能を向上させ得る記憶システムを提案する。
【解決手段】第1のストレージシステムは、ボリューム内のデータの再配置を実施する場合に、書込み対象のデータの送信を切り替えるデータ送信切り替え要求をホスト装置に送信する送信部と、ボリューム内のデータを再配置する再配置部とを備え、ホスト装置は、送信部から送信されたデータ送信切り替え要求を受信した場合に、第1のストレージシステムの仮想ボリュームに送信する書込み対象のデータを、第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えるデータ送信切り替え部を備え、再配置部は、データ送信切り替え部により書込み対象のデータの送信を第1のストレージシステムの仮想ボリュームから第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えた後に、ボリューム内のデータを再配置する。
【選択図】図3
【解決手段】第1のストレージシステムは、ボリューム内のデータの再配置を実施する場合に、書込み対象のデータの送信を切り替えるデータ送信切り替え要求をホスト装置に送信する送信部と、ボリューム内のデータを再配置する再配置部とを備え、ホスト装置は、送信部から送信されたデータ送信切り替え要求を受信した場合に、第1のストレージシステムの仮想ボリュームに送信する書込み対象のデータを、第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えるデータ送信切り替え部を備え、再配置部は、データ送信切り替え部により書込み対象のデータの送信を第1のストレージシステムの仮想ボリュームから第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えた後に、ボリューム内のデータを再配置する。
【選択図】図3
Description
本発明は、記憶システム及びデータ再配置方法に関し、例えば、ストレージシステム間でデータをバックアップする記憶システムに適用して好適なものである。
従来、ストレージ装置を用いてデータを格納するストレージシステムにおいては、複数のハードディスクをRAID(Redundant Array of Independent /Inexpensive Disks)方式で管理する方法がある。そして、多数のハードディスクが提供する物理的な記憶領域上には、少なくとも1つ以上の論理的なボリューム(以下、これを論理ボリュームという)が形成される。
さらに近年では、ハードディスクの記憶領域から固定容量の論理ボリュームを作成せず、複数の論理ボリュームによってホスト装置に仮想的なボリューム(以下、これを仮想ボリュームという)を提供し、ホスト装置からの要求に応じて、仮想ボリュームに論理ボリュームの記憶領域を動的に割り当てる記憶領域動的割当て技術が提案されている(例えば、特許文献1参照)。
特開2003−015915号公報
しかしながら、この記憶領域動的割当て技術により、仮想ボリュームに論理ボリュームの記憶領域を新たに追加した場合には、仮想ボリュームが使用している論理ボリュームに格納されているデータ量に偏りが生ずることがあり、この結果、特定の論理ボリュームに対するアクセスが多くなり、全体としてホスト装置からの要求に対するレスポンス性能が低下するおそれがある。
そこで、例えば、仮想ボリュームが使用している論理ボリュームに格納されているデータ量を平均化して、論理ボリュームに格納されているデータを再配置することにより、ホスト装置からの要求に対するレスポンス性能を向上させるデータ再配置技術が提案されているが、このデータ再配置技術を実施するときには、ホスト装置からの要求を一旦停止した後にデータの再配置を実施するため、データの再配置の実施中にホスト装置からの要求を受けることができず、レスポンス性能が低下するという問題がある。
本発明は以上の点を考慮してなされたもので、システム全体の性能を向上させ得る記憶システム及びデータ再配置方法を提案するものである。
かかる課題を解決するために本発明においては、各種の要求を送信し、書込み対象のデータを送信するホスト装置と、ホスト装置に対して提供する、動的に拡張可能な仮想ボリューム及び仮想ボリュームに割り当てられ、ホスト装置から送信されるデータが書き込まれるボリュームを有する第1のストレージシステムと、仮想ボリュームのデータをバックアップする第2の仮想ボリューム及び第2の仮想ボリュームに割り当てられ、第1のストレージシステムから送信されるデータが書き込まれる第2のボリュームを有する第2のストレージシステムとを備え、第1のストレージシステムは、ボリューム内のデータの再配置を実施する場合に、書込み対象のデータの送信を切り替えるデータ送信切り替え要求をホスト装置に送信する送信部と、ボリューム内のデータを再配置する再配置部とを備え、ホスト装置は、送信部から送信されたデータ送信切り替え要求を受信した場合に、第1のストレージシステムの仮想ボリュームに送信する書込み対象のデータを、第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えるデータ送信切り替え部を備え、再配置部は、データ送信切り替え部により書込み対象のデータの送信を第1のストレージシステムの仮想ボリュームから第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えた後に、ボリューム内のデータを再配置する。
従って、ホスト装置からのデータ送信と、データの再配置が別のストレージシステムで行われるため、ホスト装置から書込み対象のデータを送信するときのデータ再配置実施の影響がなくなると共に、ホスト装置からのデータ送信を一旦停止することなく、データの再配置を実施することができる。かくするにつき、データの再配置の実施中にホスト装置からのデータ送信を受けることができず、レスポンス性能が低下するのを未然かつ有効に防止することができる。
また、本発明においては、記憶システムのデータ再配置方法であって、各種の要求を送信し、書込み対象のデータを送信するホスト装置と、ホスト装置に対して提供する、動的に拡張可能な仮想ボリューム及び仮想ボリュームに割り当てられ、ホスト装置から送信されるデータが書き込まれるボリュームを有する第1のストレージシステムと、仮想ボリュームのデータをバックアップする第2の仮想ボリューム及び第2の仮想ボリュームに割り当てられ、第1のストレージシステムから送信されるデータが書き込まれる第2のボリュームを有する第2のストレージシステムとを備え、ボリューム内のデータの再配置を実施する場合に、書込み対象のデータの送信を切り替えるデータ送信切り替え要求をホスト装置に送信する第1のステップと、第1のステップにおいて送信したデータ送信切り替え要求をホスト装置が受信した場合に、第1のストレージシステムの仮想ボリュームに送信する書込み対象のデータを、第2のストレージシステムの第2の仮想ボリュームに送信するように切り替える第2のステップと、第2のステップにおいて書込み対象のデータの送信を第1のストレージシステムの仮想ボリュームから第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えた後に、ボリューム内のデータを再配置する第3のステップとを備える。
従って、ホスト装置からのデータ送信と、データの再配置が別のストレージシステムで行われるため、ホスト装置から書込み対象のデータを送信するときのデータ再配置実施の影響がなくなると共に、ホスト装置からのデータ送信を一旦停止することなく、データの再配置を実施することができる。かくするにつき、データの再配置の実施中にホスト装置からのデータ送信を受けることができず、レスポンス性能が低下するのを未然かつ有効に防止することができる。
本発明によれば、システム全体の性能を向上させ得る記憶システム及びデータ再配置方法を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による記憶システム1のハードウェア構成
図1は、本実施の形態による記憶システム1のハードウェア構成を示している。この記憶システム1は、業務サーバ(ホスト装置)2、第1のストレージシステム3及び第2のストレージシステム4がFC(Fibre Channel)スイッチ5を介して接続されて構成されている。また、記憶システム1は、業務サーバ2、第1のストレージシステム3、第2のストレージシステム4及び管理サーバ6がLAN(Local Area Network)等のネットワーク7を介して接続されて構成されている。
図1は、本実施の形態による記憶システム1のハードウェア構成を示している。この記憶システム1は、業務サーバ(ホスト装置)2、第1のストレージシステム3及び第2のストレージシステム4がFC(Fibre Channel)スイッチ5を介して接続されて構成されている。また、記憶システム1は、業務サーバ2、第1のストレージシステム3、第2のストレージシステム4及び管理サーバ6がLAN(Local Area Network)等のネットワーク7を介して接続されて構成されている。
業務サーバ2は、CPU(Central Processing Unit)、メモリ等の情報処理資源(図示せず)を備えたコンピュータ装置であり、例えばパーソナルコンピュータや、ワークステーション、メインフレームなどから構成される。また、業務サーバ2は、FCスイッチ5と接続するためのファイバチャネルホストバスアダプタ(FC HBA)(図示せず)を備えて構成される。さらに、業務サーバ2は、キーボード、スイッチやポインティングデバイス、マイクロフォン等の情報入力装置(図示せず)と、モニタディスプレイやスピーカ等の情報出力装置(図示せず)とを備えて構成される。
FCスイッチ5は、業務サーバ2が提供する記憶資源におけるデータの管理単位であるブロックを単位として、ファイバチャネルホストバスアダプタを介して業務サーバ2との間で、コマンドやデータ等の授受を行う。この場合、業務サーバ2と第1のストレージシステム3及び第2のストレージシステム4との間で行われる通信プロトコルは、ファイバチャネルプロトコルである。
なお、業務サーバ2と第1のストレージシステム3及び第2のストレージシステム4との間は、必ずしもFCスイッチ5からなるSAN(Storage Area Network)を介して接続する必要はなく、LAN等を介して接続するようにしてもよい。例えば、LANを介して接続する場合には、例えばTCP/IP(Transmission Control Protocol /Internet Protocol)に従ってコマンドやデータ等の授受を行う。ここで、LANを介して接続する場合には、ホストバスアダプタ3に代えて、例えばLAN対応のネットワークカード等を適用することができる。またなお、本発明では、業務サーバ2、第1のストレージシステム3及び第2のストレージシステム4がFCスイッチ5を介さず直接接続されていても良い。
第1のストレージシステム3は、データを記憶する複数のディスクデバイス12Aからなる記憶デバイス部11Aと、記憶デバイス部11Aに対するデータの入出力を制御するコントロール部21Aとを備えて構成される。
このうち、記憶デバイス部11Aのディスクデバイス12Aとしては、例えばSCSI(Small Computer System Interface)ディスク等の高価なディスク、又はSATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクが適用される。
記憶デバイス部11Aの各ディスクデバイス12Aは、コントロール部12AによりRAID方式で運用される。1又は複数のディスクデバイス12Aにより提供される物理的な記憶領域上に、1又は複数の論理的なボリューム(以下、これを論理ボリュームと呼ぶ)が設定される。そしてデータは、この論理ボリューム内に所定の大きさのブロック(以下、これを論理ブロックと呼ぶ)単位で記憶される。
各論理ボリュームには、それぞれ固有の識別子(以下、これをLU(Logical Unit number)と呼ぶ)が付与される。本実施の形態の場合、データの入出力は、このLUと、各論理ブロックにそれぞれ付与されるその論理ブロックに固有の番号(LBA:Logical Block Address)とを組み合わせたものをアドレスとして、当該アドレスを指定して行われる。
コントロール部21Aは、複数のチャネルアダプタ22A、接続部23A、共有メモリ24A、キャッシュメモリ25A、複数のディスクアダプタ26A及び管理端末27Aを備えて構成される。
各チャネルアダプタ22Aは、それぞれマイクロプロセッサ、メモリ及び通信インタフェース等を備えたマイクロコンピュータシステムとして構成されており、それぞれFCスイッチ5や第2のストレージシステム4に接続するためのポートを備える。チャネルアダプタ22Aは、業務サーバ2からFCスイッチ5を介して送信される各種コマンドを解釈して対応する処理を実行する。各チャネルアダプタ22Aのポートには、それぞれを識別するためのネットワークアドレス(例えば、IPアドレスやWWN)が割り当てられており、これにより各チャネルアダプタ22Aがそれぞれ個別にNAS(Network Attached Storage)として振る舞うことができるようになされている。
接続部23Aは、チャネルアダプタ22A、共有メモリ24A、キャッシュメモリ25A及びディスクアダプタ26Aと接続されている。チャネルアダプタ22A、共有メモリ24A、キャッシュメモリ25A及びディスクアダプタ26A間でのデータやコマンドの授受は、この接続部23Aを介して行われる。接続部23Aは、例えば高速スイッチングによりデータ伝送を行う超高速クロスバススイッチなどのスイッチ又はバス等で構成される。
共有メモリ24A及びキャッシュメモリ25Aは、チャネルアダプタ22A及びディスクアダプタ26Aにより共有される記憶メモリである。共有メモリ24Aは、主に第1のストレージシステム3全体の構成に関するシステム構成情報やコマンド等を記憶するために利用される。なお、共有メモリ24Aに格納されている各種プログラムや各種テーブルについては、後述する。
また、キャッシュメモリ25Aは、主に第1のストレージシステム3に入出力されるデータを一時的に記憶するために利用される。
各ディスクアダプタ26Aは、マイクロプロセッサやメモリ等を備えたマイクロコンピュータシステムとして構成され、記憶デバイス部11A内のディスクデバイス12Aとの通信時におけるプロトコル制御を行うインタフェースとして機能する。これらディスクアダプタ26Aは、例えばファイバーチャネルケーブルを介して記憶デバイス部11A内の対応するディスクデバイス12Aと接続されており、ファイバチャネルプロトコルに従ってこれらディスクデバイス12Aとの間のデータの授受を行う。
管理端末27Aは、第1のストレージシステム3全体の動作を制御する端末装置であり、例えばノート型のパーソナルコンピュータから構成される。管理端末27Aは、LAN28Aを介して各チャネルアダプタ22Aとそれぞれ接続され、LAN29Aを介して各ディスクアダプタ26Aとそれぞれ接続されている。管理端末27Aは、例えば、第1のストレージシステム3内の障害の有無を監視し、障害が発生したときにこれを自己のディスプレイに表示したり、オペレータ操作に応じて記憶デバイス部11A内の対応するディスクデバイス12Aの閉塞処理を行う。オペレータは、管理端末27Aを用いてシステム構成情報を定義することができ、またこの定義したシステム構成情報を、チャネルアダプタ22A又はディスクアダプタ26Aと接続部23Aとを経由して、共有メモリ24Aに格納することができる。
第2のストレージシステム4は、第1のストレージシステム3と同様に構成されている。図1では、第2のストレージシステム4の各構成要素について、第1のストレージシステム3の構成要素と同一部分に、同一符号の添え字「A」に代えて添え字「B」を付している。第2のストレージシステム4は、1つのチャネルアダプタ22Bがファイバーチャネルケーブル又はLANケーブル等の信号線30を介して第1のストレージシステム3のいずれかのチャネルアダプタ22Aと接続されており、この信号線30を通じて必要なコマンドやデータを第1のストレージシステム3との間で送受し得るようになされている。
また、第2のストレージシステム4の管理端末27Bは、ネットワーク7を介して第1のストレージシステム3の管理端末27Aと接続されており、このネットワーク7を通じてこれら第2のストレージシステム4の管理端末27B及び第1のストレージシステム3の管理端末22A同士が必要な情報を送受し得るようになされている。
管理サーバ6は、CPU、メモリ等の情報処理資源(図示せず)を備えたコンピュータ装置であり、例えばパーソナルコンピュータや、ワークステーションなどから構成される。また、管理サーバ6は、キーボード、スイッチやポインティングデバイス、マイクロフォン等の情報入力装置(図示せず)と、モニタディスプレイやスピーカ等の情報出力装置(図示せず)とを備える。管理サーバ6は、この記憶システム1全体の動作を制御する端末装置であり、例えば、業務サーバ2や、第1のストレージシステム3、第2のストレージシステム4を監視し、又は業務サーバ2や、第1のストレージシステム3、第2のストレージシステム4を制御するための種々の要求を送信する。
(2)記憶システム1のソフトウェア構成及びディスクデバイス12の論理的な構成
図2は、記憶システム1のソフトウェア構成及びディスクデバイス12の論理的な構成を示している。
図2は、記憶システム1のソフトウェア構成及びディスクデバイス12の論理的な構成を示している。
まず、記憶システム1のソフトウェア構成について説明する。
業務サーバ2のメモリには、当該業務サーバ2と他の装置との通信を制御する業務サーバ通信プログラム31、ホストI/O切り替えプログラム32及び第1のストレージシステム3又は第2のストレージシステム4との要求やデータの授受を制御するホストI/O処理プログラム33が格納されている。業務サーバ2のCPUは、上述のプログラムを実行することにより、種々の処理を行う。ホストI/O切り替えプログラム32に基づく具体的処理については、後述する。
管理サーバ6のメモリには、当該管理サーバ6と他の装置との通信を制御する管理サーバ通信プログラム41及びデータ再配置制御プログラム42が格納されている。管理サーバ6のCPUは、上述のプログラムを実行することにより、種々の処理を行う。データ再配置制御プログラム42に基づく具体的処理については、後述する。
第1のストレージシステム3の共有メモリ24Aには、データ同期プログラム51A、ホストI/O処理プログラム52A、ホストI/O切り替えプログラム53A、データ再配置プログラム54A、再配置効果確認プログラム55A、データ同期・I/O切り替え要求プログラム56A、データ再配置要求プログラム57A、ボリューム情報管理テーブル58A、差分管理テーブル59A及びホストI/O管理テーブル60Aが格納されている。
第1のストレージシステム3のディスクアダプタ26Aは、上述のテーブルを参照して上述のプログラムを実行することにより、種々の処理を行う。データ同期プログラム51A、ホストI/O処理プログラム52A、ホストI/O切り替えプログラム53A、データ再配置プログラム54A、再配置効果確認プログラム55A、データ同期・I/O切り替え要求プログラム56A及びデータ再配置要求プログラム57Aに基づく具体的処理については、後述する。また、ボリューム情報管理テーブル58A、差分管理テーブル59A及びホストI/O管理テーブル60Aの具体的な構成については、後述する。
第2のストレージシステム4の共有メモリ24Bには、第1のストレージシステム3の共有メモリ24Aと同様のプログラム及びテーブルが格納されている。図2では、第2のストレージシステム4の共有メモリ24Bに格納されているプログラム及びテーブルについて、第1のストレージシステム3に格納されているプログラム及びテーブルと同一部分に、同一符号の添え字「A」に代えて添え字「B」を付している。
次に、記憶システム1における第1のストレージシステム3のディスクデバイス12Aの論理的な構成について説明する。
この第1のストレージシステム3では、論理ボリュームの属性として、ホスト装置2がアクセスする論理ボリュームである仮想ボリューム61Aと、当該仮想ボリューム60Aとのマッピングに使用される実ボリュームの論理ボリュームであるプールボリューム61Aと、当該仮想ボリューム60Aとの差分データを格納するために使用される実ボリュームの論理ボリュームである差分管理ボリューム63Aとに大別されている。そして、この第1のストレージシステム3では、複数のプールボリューム62Aによりプール領域64Aが形成されており、複数の差分管理ボリューム63Aにより差分管理用領域65Aが形成されている。
仮想ボリューム61Aは、プール領域63Aのプールボリューム62Aが割当てられることにより、当該プールボリューム62Aにおけるディスクデバイス12Aの記憶領域が動的に割当てられ、記憶領域が提供される。
第2のストレージシステム4のディスクデバイス12Bの論理的な構成については、第1のストレージシステム3のディスクデバイス12Aの論理的な構成と同様であるため、第2のストレージシステム4の各論理ボリュームについて、第1のストレージシステム3の各論理ボリュームと同一部分に、同一符号の添え字「A」に代えて添え字「B」を付している。
この記憶システム1では、第1のストレージシステム3が業務サーバ2からデータを受信した場合には、非同期で当該データを第2のストレージシステム4に送信し、第2のストレージシステム4が業務サーバ2からデータを受信した場合には、非同期で当該データを第1のストレージシステム3に送信することにより、第1のストレージシステム3及び第2のストレージシステム4間で互いのデータをバックアップするようになされている。
すなわち、第1のストレージシステム3は、業務サーバ2から受信したデータを、チャネルアダプタ22A、接続部23A、キャッシュメモリ25A及びディスクアダプタ26Aを介して、仮想ボリューム61Aが使用するプールボリューム62Aのディスクデバイス12Aの記憶領域に書き込む。
続いて、第1のストレージシステム3は、ディスクデバイス12Aに書き込まれたデータを、非同期で、ディスクアダプタ26A、キャッシュメモリ25A、接続部23A、チャネルアダプタ22A及び信号線30を介して第2のストレージシステム4に送信する。
そして、第2のストレージシステム4は、第1のストレージシステム3から受信したデータを、チャネルアダプタ22B、接続部23B、キャッシュメモリ25B及びディスクアダプタ26Bを介して、仮想ボリューム61Aに対応する仮想ボリューム61Bが使用するプールボリューム62Bのディスクデバイス12Bの記憶領域に書き込む。
一方、第1のストレージシステム3は、業務サーバ2から受信したデータを、上述と同様に、仮想ボリューム61Bが使用するプールボリューム62Bのディスクデバイス12Bの記憶領域に書き込んだ後、非同期で、仮想ボリューム61Bに対応する仮想ボリューム61Aが使用するプールボリューム62Aのディスクデバイス12Aの記憶領域に書き込む。
(3)記憶システム1のデータ再配置処理の概要
図3は、この記憶システム1のデータ再配置処理についての概要を表した具体的な一例を示している。この一例では、仮想ボリューム61A及び仮想ボリューム61Bには、同一のデータが格納されている。すなわち、仮想ボリューム61A及び仮想ボリューム61Bには、図3に示すように、同一容量で同一数量のプールボリューム62A及びプールボリューム62Bが使用されており、プールボリューム62A及びプールボリューム62Bには、同一のデータが格納されていることを前提とする。
図3は、この記憶システム1のデータ再配置処理についての概要を表した具体的な一例を示している。この一例では、仮想ボリューム61A及び仮想ボリューム61Bには、同一のデータが格納されている。すなわち、仮想ボリューム61A及び仮想ボリューム61Bには、図3に示すように、同一容量で同一数量のプールボリューム62A及びプールボリューム62Bが使用されており、プールボリューム62A及びプールボリューム62Bには、同一のデータが格納されていることを前提とする。
なお、以下についてはあくまで一例であり、本願発明は、同一容量で同一数量のプールボリューム62A及びプールボリューム62Bが使用されており、プールボリューム62A及びプールボリューム62Bには、同一のデータが格納されていることを前提とするものではなく、第1のストレージシステム3及び第2のストレージシステム4に同一のデータが格納されている場合に適用することができる。
また、この一例では、業務サーバ2及び第1のストレージシステム3が、ホストI/O処理を実施することにより、業務サーバ2及び第1のストレージシステム3間における要求やデータの授受(以下、I/Oアクセスと呼ぶ)を行っている。なお、本実施の形態では、業務サーバ2及び第2のストレージシステム5間における要求やデータの授受についても、I/Oアクセスと呼ぶこととする。
この場合、第1のストレージシステム3は、ホストI/O処理を実施することにより、データ書込みを行う場合には、業務サーバ2から送信されたデータ書込み要求に基づいて、業務サーバ2から送信されたデータを仮想ボリューム61Aが使用しているプールボリューム62Aの記憶領域に書き込むと共に(AC1)、業務サーバ2から送信されたデータの差分データを差分管理ボリューム63Aの記憶領域に書き込む(AC2)。
ここで、第1のストレージシステム3は、管理端末27Aの要求に基づいて、プール領域64Aにプールボリューム62Aを追加して(AC3)、追加したプールボリューム62Aを仮想ボリューム61Aが使用するプールボリューム62Aとして割り当て、管理サーバ6からデータ再配置要求を受信した場合には、データ同期処理を実施することにより、仮想ボリューム61Aが使用しているプールボリューム62A及び仮想ボリューム61Bが使用しているプールボリューム62Bのデータが同一となるようにデータの同期をとる(AC4)。
すなわち、第1のストレージシステム3は、差分管理ボリューム64Aに格納されている差分データを、第2のストレージシステム4に送信する。そして、第2のストレージシステム4は、第1のストレージシステム3から送信された差分データを、仮想ボリューム61Aに対応する仮想ボリューム61Bが使用している、プールボリューム62Bの記憶領域に書き込む(AC5)。
続いて、第1のストレージシステム3は、ホストI/O切り替え処理を実施することにより、ホストI/O切り替え要求を業務サーバ2に送信する。業務サーバ2は、第1のストレージシステム3からホストI/O切り替え要求を受信した場合には、ホストI/O切り替え処理を実施することにより、第1のストレージシステム3と行っているI/Oアクセスを、第2のストレージシステム4とI/Oアクセスを行うように切り替える。そして、業務サーバ2及び第2のストレージシステム4は、ホストI/O処理を実施することにより、I/Oアクセスを行う。
この場合、第2のストレージシステム4は、ホストI/O処理を実施することにより、データ書込みを行う場合には、業務サーバ2から送信されたデータ書込み要求に基づいて、業務サーバ2から送信されたデータを仮想ボリューム61Bが使用しているプールボリューム62Bの記憶領域に書き込むと共に(AC6)、業務サーバ2から送信されたデータの差分データを差分管理ボリューム63Bの記憶領域に書き込む(AC7)。
続いて、第1のストレージシステム3は、ホストI/O切り替え処理が終了した場合には、データ再配置実施処理を実施することにより、例えば、プールボリューム62Aに格納されている差分データを、追加したプールボリューム62Aに移動して、仮想ボリューム61Aが使用しているプールボリューム62Aに格納されているデータの再配置を実施する(AC8)。
続いて、第1のストレージシステム3は、データ再配置実施処理が終了した場合には、再配置効果確認処理を実施することにより、例えば、業務サーバ2と所定の回数I/Oアクセスを行って、データの再配置の実施後におけるI/Oアクセスの性能値を算出する性能見積もりを実施する(AC9)。
続いて、第1のストレージシステム3は、再配置効果確認要求を第2のストレージシステム4に送信する。第2のストレージシステム4は、第1のストレージシステム3から再配置効果確認要求を受信した場合には、例えば、業務サーバ2と所定の回数I/Oアクセスを行って、現在のI/Oアクセスの性能値を算出する性能見積もりを実施し(AC10)、当該実施結果である現在のI/Oアクセスの性能値を第1のストレージシステム3に送信する。
続いて、第1のストレージシステム3は、算出した第1のストレージシステム3のI/Oアクセスの性能値と、送信された第2のストレージシステム4のI/Oアクセスの性能値とを比較し、第2のストレージシステム4と行っているI/Oアクセスを、第1のストレージシステム3とI/Oアクセスを行うように切り替えるか否かを判定する(AC11)。
続いて、第1のストレージシステム3は、第2のストレージシステム4から第1のストレージシステム3にI/Oアクセスを切り替えると判定した場合には、データ同期・I/O切り替え要求処理を実施することにより、データ同期・I/O切り替え要求を第2のストレージシステム2に送信する(AC12)。第2のストレージシステム4は、第1のストレージシステム3からデータ同期・I/O切り替え要求を受信した場合には、データ同期処理を実施することにより、仮想ボリューム61Bが使用しているプールボリューム62B及び仮想ボリューム61Aが使用しているプールボリューム62Aのデータが同一となるようにデータの同期をとる(AC13)。
すなわち、第2のストレージシステム4は、差分管理ボリューム64Bに格納されている差分データを、第1のストレージシステム3に送信する。そして、第1のストレージシステム3は、第2のストレージシステム4から送信された差分データを、仮想ボリューム61Bに対応する仮想ボリューム61Aが使用している、プールボリューム62Aの記憶領域に書き込む(AC14)。
続いて、第2のストレージシステム4は、ホストI/O切り替え処理を実施することにより、ホストI/O切り替え要求を業務サーバ2に送信する。業務サーバ2は、第2のストレージシステム4からホストI/O切り替え要求を受信した場合には、ホストI/O切り替え処理を実施することにより、第2のストレージシステム4と行っているI/Oアクセスを、第1のストレージシステム3とI/Oアクセスを行うように切り替える。そして、業務サーバ2及び第1のストレージシステム3は、ホストI/O処理を実施することにより、I/Oアクセスを行う。
この場合、第1のストレージシステム3は、ホストI/O処理を実施することにより、データ書込みを行う場合には、業務サーバ2から送信されたデータ書込み要求に基づいて、業務サーバ2から送信されたデータを仮想ボリューム61Aが使用しているプールボリューム62Aの記憶領域に書き込むと共に(AC15)、業務サーバ2から送信されたデータの差分データを差分管理ボリューム63Aの記憶領域に書き込む(AC16)。
続いて、第2のストレージシステム4は、ホストI/O切り替え処理が終了した場合には、データ再配置実施処理を実施することにより、例えば、プールボリューム62Bに格納されている差分データを、プールボリューム62Bに移動して、仮想ボリューム61Bが使用しているプールボリューム62Bに格納されているデータの再配置を実施する(AC17)。
以下、第2のストレージシステム4は、必要であれば、上述の第1のストレージシステム3における再配置効果確認処理及びデータ同期・I/O切り替え要求処理を実施するようになされている。
なお、業務サーバ2及び第2のストレージシステム5が、ホストI/O処理を実施することにより、I/Oアクセスと呼ぶ)を行っており、第2のストレージシステム5が上述の第1のストレージシステム3と同様の処理を実施することもできる。
(4)各種テーブルの構成
図5は、ボリューム情報管理テーブル58Aの構成を示している。ボリューム情報管理テーブル58Aは、I/Oアクセスの性能値を算出するために必要な情報が格納されている。
図5は、ボリューム情報管理テーブル58Aの構成を示している。ボリューム情報管理テーブル58Aは、I/Oアクセスの性能値を算出するために必要な情報が格納されている。
ボリューム情報管理テーブル58Aは、当該ボリューム情報管理テーブル58Aが格納されているストレージシステムの、ストレージシステムを一意に識別するストレージシステムIDを管理するストレージシステムID欄71A、プールボリューム62Aを一意に識別するプールボリュームIDを管理するプールボリュームID欄72A、プールボリューム62AのRAIDレベルを管理するRAIDレベル欄73A、プールボリューム62Aが使用しているディスクデバイス12Aのドライブ種別を管理するドライブ種別管理欄74A、プールボリューム62Aが使用しているディスクデバイス12Aのドライブ回転数を管理するドライブ回転数欄75A、プールボリューム62Aの使用容量を管理する使用容量欄76A及びプールボリューム62Aの使用状態を管理する使用状態欄77Aを備えて構成される。
例えば、ストレージシステムID「00100A」のボリューム情報管理テーブル58Aに格納されている「LU001」のプールボリュームIDのプールボリューム62Aについては、RAIDレベルが「3D+1P」であり、プールボリューム62Aが使用しているディスクデバイス12Aのドライブ種別が「HDDxxxx」であり、当該ディスクデバイス12Aのドライブ回転数が「15000rpm」であり、使用容量が「100GB」であり、使用状態が「正常」であることを示している。なお、本発明では、ストレージシステムID「00100A」は、第1のストレージシステム3のストレージシステムIDを示しており、後述するストレージシステムID「00100B」は、第2のストレージシステム4のストレージシステムIDを示している。
図6は、差分管理テーブル59Aの構成を示している。差分管理テーブル59Aは、差分管理ボリュームに格納されている差分データを管理するために必要な情報が格納されている。
差分管理テーブル59Aは、当該差分管理テーブル59Aが格納されているストレージシステムのストレージシステムIDを管理するストレージシステムID欄81A、差分データを一意に識別する差分データIDを管理する差分データID欄82A、仮想ボリューム61Aのデータが更新され、差分データが差分管理ボリューム63Aに格納された時間を管理する更新時間欄83A、差分データのデータサイズを管理するデータサイズ欄84A、格納された差分データの開始LBAを管理する開始LBA欄85A及び格納された差分データの終了LBAを管理する終了LBA欄86Aを備えて構成される。
例えば、ストレージシステムID「00100A」の差分管理テーブル59Aに格納されている「001」の差分データIDの差分データについては、格納された時間が「8:11:36:38」であり、データサイズが「32.1414」であり、開始LBAが「784A5D」であり、終了LBAが「864AAE」であることを示している。
図7は、ホストI/O管理テーブル60Aの構成を示している。ホストI/O管理テーブル60Aは、業務サーバ2とI/Oアクセスを行っているストレージシステムを管理するために必要な情報が格納されている。
ホストI/O管理テーブル60Aは、当該ホストI/O管理テーブル60Aが格納されているストレージシステムのストレージシステムIDを管理するストレージシステムID欄91A、業務サーバ2と接続されているストレージシステムのストレージシステムIDを管理する接続ストレージシステムID欄92A、業務サーバ2とI/Oアクセスを行っているか否かを管理するI/Oアクセス欄93A及びストレージシステムにおけるI/Oアクセスの性能値を管理する性能値を管理する性能値欄94Aを備えて構成される。
この場合、I/Oアクセス欄93Aには、「ON(オン)」又は「OFF(オフ)」が格納される。I/Oアクセス欄93Aに「ON」が格納されている場合には、業務サーバ2とI/Oアクセスを行っていることを示しており、I/Oアクセス欄93Aに「OFF」が格納されている場合には、業務サーバ2とI/Oアクセスを行っていないことを示している。
例えば、ストレージシステムID「00100A」のホストI/O管理テーブル60Aに格納されている「00100A」のストレージシステムIDのストレージシステムについては、
業務サーバとI/Oアクセスを行っており、性能値が「38392」であることを示している
業務サーバとI/Oアクセスを行っており、性能値が「38392」であることを示している
ボリューム情報管理テーブル58B、差分管理テーブル59B及びホストI/O管理テーブル60Bには、ボリューム情報管理テーブル58A、差分管理テーブル59A及びホストI/O管理テーブル60Aと同様の管理欄を備えて構成される。従って、ボリューム情報管理テーブル58B、差分管理テーブル59B及びホストI/O管理テーブル60Bでは、図5〜図7のボリューム情報管理テーブル58A、差分管理テーブル59A及びホストI/O管理テーブル60Aの各管理欄と同一部分に、同一符号の添え字「A」に代えて添え字「B」が付される。
(5)各種プログラムによる処理
(5−1)データ再配置処理
次に、本実施の形態における記憶システム1のデータ再配置プログラム54Aによるデータ再配置処理について説明する。
(5−1)データ再配置処理
次に、本実施の形態における記憶システム1のデータ再配置プログラム54Aによるデータ再配置処理について説明する。
図8及び図9は、この記憶システム1における第1のストレージシステム3のデータ再配置処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、例えば、プール領域64Aにプールボリューム62Aが追加されたタイミングで、又は管理サーバ6の管理者による操作により、データ再配置制御プログラム42を実行して、第1のストレージシステム3に所定の仮想ボリューム61Aのデータ再配置要求を送信し、当該データ再配置要求を受信すると、データ再配置プログラム54Aを実行することにより、図8及び図9に示すデータ再配置処理手順RT1に従って、第1のストレージシステム3及び第2のストレージシステム4間で、データの同期がされているか否かをチェックする(SP1)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、差分管理テーブル59Aを参照することにより、差分データIDが管理されている場合には、データの同期がされていないと判断し、差分データIDが管理されていない場合には、データの同期がされていないと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、データの同期がされている場合(SP1:YES)には、ステップSP2に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、データの同期がされていない場合(SP1:NO)には、データ同期プログラム51Aを実行することにより、データ同期処理を実施する(RT2)(後述)。
やがて、第1のストレージシステム3のディスクアダプタ26Aは、ホストI/O処理プログラム52Aが実行されており、再配置を実施しようとしているストレージシステムに対してI/Oアクセスが行われているか否かをチェックする(SP2)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、ホストI/O管理テーブル60Aを参照することにより、ストレージシステムID「00100A」のI/Oアクセス欄93Aに「ON」が格納されている場合には、ホストI/O処理プログラム52Aが実行されており、I/Oアクセスが行われていると判断し、ストレージシステムID「00100A」のI/Oアクセス欄93Aに「OFF」が格納されている場合には、I/Oアクセスが行われていないと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、I/Oアクセスが行われていない場合(SP2:NO)には、ステップSP3に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、I/Oアクセスが行われている場合(SP1:YES)には、ホストI/O切り替えプログラム53Aを実行することにより、ホストI/O切り替え処理を実施する(RT3)(後述)。
やがて、第1のストレージシステム3のディスクアダプタ26Aは、データ再配置プログラム54Aのうち、データ再配置実施プログラムを実行することにより、例えば、仮想ボリューム61Aが使用しているプールボリューム62Aに格納されているデータ量を平均化して、当該プールボリューム62Aに格納されているデータを再配置することにより、第1のストレージシステム3のデータの再配置を実施する(SP3)。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、再配置効果確認プログラム55Aを実行することにより、再配置効果確認処理を実施する(RT4)(後述)。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と行っているI/Oアクセスを、第1のストレージシステム3とI/Oアクセスを行うように切り替えるか否かをチェックする(SP4)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第1のストレージシステム3とI/Oアクセスを行うように切り替えない場合(SP4:NO)、すなわち、引き続き、第2のストレージシステム4とI/Oアクセスを行う場合には、ステップSP6に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第1のストレージシステム3とI/Oアクセスを行うように切り替える場合(SP4:YES)には、データ同期・I/O切り替え要求プログラム56Aを実行することにより、データ同期・I/O切り替え要求処理を実施する(RT5)(後述)。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、管理サーバ6から受信したデータ再配置要求に基づいて、第2のストレージシステムのデータの再配置を実施するか否かをチェックする(SP5)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステムのデータの再配置を実施する場合(SP5:NO)には、ステップSP6に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステムのデータの再配置を実施する場合(SP5:YES)には、データ再配置要求プログラム57Aを実行することにより、データ再配置要求処理を実施する(RT6)(後述)。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、この一連のデータの再配置処理が正常に終了したことを示すデータ再配置処理終了報告を管理サーバ6に送信し(SP6)、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
(5−2)データ同期処理
次に、本実施の形態における記憶システム1のデータ同期プログラム51Aによるデータ同期処理について説明する。
次に、本実施の形態における記憶システム1のデータ同期プログラム51Aによるデータ同期処理について説明する。
図10は、この記憶システム1における第1のストレージシステム3のデータ同期処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、データの同期がされていない場合(SP1:NO)には、データ同期プログラム51Aを実行することにより、図10に示すデータ同期処理手順RT2に従って、例えば、接続部23A、チャネルアダプタ22A及び信号線30を介して第2のストレージシステム4に応答要求を送信し、応答があるか否かにより、第2のストレージシステム4と接続が確立しているか否かをチェックする(SP11)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立していない場合(SP11:NO)には、ステップSP14に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立している場合(SP11:YES)には、差分管理テーブル59Aを参照することにより、所定の差分データIDを選択し、当該差分データIDに対応する差分データを、ディスクアダプタ26A、接続部23A、チャネルアダプタ22A及び信号線30を介して第2のストレージシステム4に送信する(SP12)。
この場合、第2のストレージシステム4のディスクアダプタ26Bは、チャネルアダプタ22B及び接続部23Bを介して差分データを受信すると、当該差分データを、対応する仮想ボリューム61Bが使用しているプールボリューム62Bのディスクデバイス12Bに格納し、データ送信終了報告を、接続部23B、チャネルアダプタ22B及び信号線30を介して第1のストレージシステム3に送信するようになされている。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から、チャネルアダプタ22A及び接続部23Aを介してデータ送信終了報告を受信したか否かをチェックする(SP13)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、第2のストレージシステム4からデータ送信終了報告が受信するのを所定の時間待ち受け、当該所定時間内にデータ送信終了報告を受信していない場合には、第2のストレージシステム4からデータ送信終了報告を受信していないと判断し、当該所定時間内にデータ送信終了報告を受信した場合には、第2のストレージシステム4からデータ送信終了報告を受信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ送信終了報告を受信していない場合(SP13:NO)には、エラーメッセージを管理サーバ6に送信し(SP14)、この後、データ同期プログラム51Aを終了することにより、この図10に示すデータ同期処理手順RT2を終了する(SP17)。そして、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ送信終了報告を受信した場合(SP13:YES)には、差分管理テーブル59Aから、送信した差分データIDを削除する(SP15)。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、すべての差分データを第2のストレージシステム4に送信したか否かをチェックする(SP16)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、差分管理テーブル59Aを参照することにより、差分データIDが管理されている場合には、すべての差分データを送信していないと判断し、差分データIDが管理されていない場合には、すべての差分データを送信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、すべての差分データを送信していない場合(SP16:NO)には、ステップSP11に戻り、再び、第2のストレージシステム4と接続が確立しているか否かをチェックし(SP11)、この後、上述の場合と同様の処理を繰り返す(SP11〜SP16)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、すべての差分データを送信した場合(SP16:YES)には、この後、データ同期プログラム51Aを終了することにより、この図10に示すデータ同期処理手順RT2を終了する(SP17)。
(5−3)ホストI/O切り替え処理
次に、本実施の形態における記憶システム1のホストI/O切り替えプログラム53AによるホストI/O切り替え処理について説明する。
次に、本実施の形態における記憶システム1のホストI/O切り替えプログラム53AによるホストI/O切り替え処理について説明する。
図11は、この記憶システム1における第1のストレージシステム3のホストI/O切り替え処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、I/Oアクセスが行われている場合(SP1:YES)には、ホストI/O切り替えプログラム53Aを実行することにより、図11に示すホストI/O切り替え処理手順RT3に従って、第2のストレージシステム4と接続が確立しているか否かをチェックする(SP21)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立していない場合(SP21:NO)には、ステップSP24に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立している場合(SP21:YES)には、第1のストレージシステム3から第2のストレージシステム4へのホストI/O切り替え要求を、接続部23A、チャネルアダプタ22A及びFCスイッチ5を介して業務サーバ2に送信する(SP22)。なお、本発明では、ストレージシステムが2つより多い場合には、第1のストレージシステム3から他のストレージシステムに切り替えるように要求すれば良い。
この場合、業務サーバ2のCPUは、ホストI/O切り替え要求を受信すると、ホストI/O切り替えプログラム32を実行することにより、第1のストレージシステム3と行っているI/Oアクセスを、第2のストレージシステム4とI/Oアクセスを行うように切り替え、ホストI/O切り替え終了報告を、FCスイッチ5を介して第1のストレージシステム3に送信するようになされている。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、業務サーバ2から、チャネルアダプタ22A及び接続部23Aを介してホストI/O切り替え終了報告を受信したか否かをチェックする(SP23)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、業務サーバ2からホストI/O切り替え終了報告が受信するのを所定の時間待ち受け、当該所定時間内にホストI/O切り替え終了報告を受信しない場合には、業務サーバ2からホストI/O切り替え終了報告を受信していないと判断し、当該所定時間内にホストI/O切り替え終了報告を受信した場合には、業務サーバ2からホストI/O切り替え終了報告を受信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、業務サーバ2からホストI/O切り替え終了報告を受信していない場合(SP23:NO)には、エラーメッセージを管理サーバ6に送信し(SP24)、この後、データ同期プログラム51Aを終了することにより、この図11に示すホストI/O切り替え処理手順RT3を終了する(SP26)。そして、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、業務サーバ2からホストI/O切り替え終了報告を受信した場合(SP23:YES)には、ホストI/O管理テーブル60Aを更新する(SP26)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、ホストI/O管理テーブル60Aを参照して、ストレージシステムID「00100A」のI/Oアクセス欄93Aを「ON」から「OFF」に変更し、ストレージシステムID「00100B」のI/Oアクセス欄93Aを「OFF」から「ON」に変更する。
やがて、第1のストレージシステム3のディスクアダプタ26Aは、この後、ホストI/O切り替えプログラム53Aを終了することにより、この図10に示すデータ同期処理手順RT2を終了する(SP26)。
(5−4)再配置効果確認処理
次に、本実施の形態における記憶システム1の再配置効果確認プログラム54Aによる再配置効果確認処理について説明する。
次に、本実施の形態における記憶システム1の再配置効果確認プログラム54Aによる再配置効果確認処理について説明する。
図12は、この記憶システム1における第1のストレージシステム3の再配置効果確認処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、第1のストレージシステム3のデータの再配置を実施すると、再配置効果確認プログラム54Aを実行することにより、図12に示す再配置効果確認処理手順RT4に従って、再配置を実施したストレージシステムの、業務サーバ2とのデータ応答の性能を示す性能値を算出し、ホストI/O管理テーブル60Aを更新する(SP31)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、ボリューム情報管理テーブル58Aを参照することにより、各プールボリューム62AのRAIDレベル、ディスクデバイス12Aのドライブ種別及びドライブ回転数並びに使用容量及び使用状態等に基づいて、第1のストレージシステム3のI/Oアクセスの性能値を算出し、当該性能値を、ホストI/O管理テーブル60AのストレージシステムID「00100A」に対応する性能値欄94Aに格納する。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、業務サーバ2とのI/Oアクセスがされているストレージシステムに性能値算出要求を送信する(SP32)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、ホストI/O切り替え処理が終了し、現在、業務サーバ2とのI/Oアクセスがされている第2のストレージシステム4に、接続部23A、チャネルアダプタ22A及び信号線30を介して、性能値算出要求を送信する。
この場合、第2のストレージシステム4のディスクアダプタ26Bは、チャネルアダプタ22B及び接続部23Bを介して性能値算出要求を受信すると、再配置効果確認プログラム54Aを実行することにより、例えば、ボリューム情報管理テーブル58Bを参照し、各プールボリューム62BのRAIDレベル、ディスクデバイス12Bのドライブ種別及びドライブ回転数並びに使用容量及び使用状態等に基づいて、第2のストレージシステム4のI/Oアクセスの性能値を算出して、当該性能値を、接続部23B、チャネルアダプタ22B及び信号線30を介して第1のストレージシステム3に送信するようになされている。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から、チャネルアダプタ22A及び接続部23Aを介して第2のストレージシステム4の性能値を受信したか否かをチェックする(SP33)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、第2のストレージシステム4から性能値が受信するのを所定の時間待ち受け、当該所定時間内に性能値を受信しない場合には、第2のストレージシステム4から性能値を受信していないと判断し、当該所定時間内に性能値を受信した場合には、第2のストレージシステム4から性能値を受信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から性能値を受信していない場合(SP33:NO)には、エラーメッセージを管理サーバ6に送信し(SP34)、この後、再配置効果確認プログラム54Aを終了することにより、この図12に示す再配置効果確認処理手順RT4を終了する(SP36)。そして、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から性能値を受信した場合(SP33:YES)には、ホストI/O管理テーブル60Aを更新し、2つの性能値を比較する(SP35)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、送信された第2のストレージシステム4の性能値を、ホストI/O管理テーブル60AのストレージシステムID「00100B」に対応する性能値欄94Aに格納する。そして、第1のストレージシステム3のディスクアダプタ26Aは、ホストI/O管理テーブル60Aを参照することにより、算出した第1のストレージシステム3の性能値と、送信された第2のストレージシステム4の性能値とを比較して、第1のストレージシステム3の性能値に比して第2のストレージシステム4の性能値が高い場合には、第1のストレージシステム3とI/Oアクセスを行うように切り替えないと判断し、第2のストレージシステム4の性能値に比して第1のストレージシステム3の性能値が高い場合には、第1のストレージシステム3とI/Oアクセスを行うように切り替えると判断する。
やがて、第1のストレージシステム3のディスクアダプタ26Aは、この後、再配置効果確認プログラム54Aを終了することにより、この図12に示す再配置効果確認処理手順RT4を終了する(SP36)。
(5−5)データ同期・ホストI/O切り替え要求処理
次に、本実施の形態における記憶システム1のデータ同期・ホストI/O切り替え要求プログラム56Aによるデータ同期・ホストI/O切り替え要求処理について説明する。
次に、本実施の形態における記憶システム1のデータ同期・ホストI/O切り替え要求プログラム56Aによるデータ同期・ホストI/O切り替え要求処理について説明する。
図13は、この記憶システム1における第1のストレージシステム3のデータ同期・ホストI/O切り替え要求処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、第1のストレージシステム3とI/Oアクセスを行うように切り替える場合(SP4:YES)には、データ同期・ホストI/O切り替え要求プログラム56Aを実行することにより、図13に示すデータ同期・ホストI/O切り替え要求処理手順RT5に従って、第2のストレージシステム4と接続が確立しているか否かをチェックする(SP41)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立していない場合(SP41:NO)には、ステップSP44に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立している場合(SP41:YES)には、データ同期・ホストI/O切り替え要求を、接続部23A、チャネルアダプタ22A及びFCスイッチ5を介して第2のストレージシステム4に送信する(SP42)。
この場合、第2のストレージシステム4のディスクアダプタ26Bは、チャネルアダプタ22B及び接続部23Bを介してデータ同期・ホストI/O切り替え要求を受信すると、データ同期プログラム51Bを実行することにより、上述の図10に示すデータ同期処理手順RT2と同様の処理を実施する。続いて、第2のストレージシステム4のディスクアダプタ26Bは、ホストI/O切り替えプログラム53Bを実行することにより、上述の図11に示すホストI/O切り替え処理手順RT3と同様の処理を実施する。
そして、第2のストレージシステム4のディスクアダプタ26Bは、データ同期処理手順RT2及びホストI/O切り替え処理手順RT3と同様の処理が正常に終了した場合には、データ同期・ホストI/O切り替え終了報告を、接続部23B、チャネルアダプタ22B及び信号線30を介して第1のストレージシステム3に送信するようになされている。なお、上述のデータ同期処理手順RT2及びホストI/O切り替え処理手順RT3と同様の処理では、第1のストレージシステム3の構成要素を第2のストレージシステム4の構成要素に読み替え、第2のストレージシステム4の構成要素を第1のストレージシステム3の構成要素に読み替える。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から、チャネルアダプタ22A及び接続部23Aを介してデータ同期・ホストI/O切り替え終了報告を受信したか否かをチェックする(SP43)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告が受信するのを所定の時間待ち受け、当該所定時間内にデータ同期・ホストI/O切り替え終了報告を受信していない合には、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告を受信していないと判断し、当該所定時間内にデータ同期・ホストI/O切り替え終了報告を受信した場合には、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告を受信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告を受信していない場合(SP43:NO)には、エラーメッセージを管理サーバ6に送信し(SP44)、この後、データ同期・ホストI/O切り替え要求プログラム56Aを終了することにより、この図13に示すデータ同期・ホストI/O切り替え要求処理手順RT5を終了する(SP46)。そして、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告を受信した場合(SP43:YES)には、ホストI/O管理テーブル60Aを更新する(SP45)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、ホストI/O管理テーブル60Aを参照して、ストレージシステムID「00100B」のI/Oアクセス欄93Aを「ON」から「OFF」に変更し、ストレージシステムID「00100A」のI/Oアクセス欄93Aを「OFF」から「ON」に変更する。
やがて、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ同期・ホストI/O切り替え要求プログラム56Aを終了することにより、この図13に示すデータ同期・ホストI/O切り替え要求処理手順RT5を終了する(SP46)。
(5−6)データ再配置要求処理
次に、本実施の形態における記憶システム1のデータ再配置要求プログラム57Aによるデータ再配置要求処理について説明する。
次に、本実施の形態における記憶システム1のデータ再配置要求プログラム57Aによるデータ再配置要求処理について説明する。
図14は、この記憶システム1における第1のストレージシステム3のデータ再配置要求処理に関する、第1のストレージシステム3のディスクアダプタ26Aの具体的な処理手順を示したフローチャートの一例である。
第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステムのデータの再配置を実施する場合(SP5:YES)には、データ再配置要求プログラム57Aを実行することにより、図14に示すデータ再配置要求処理手順RT6に従って、第2のストレージシステム4と接続が確立しているか否かをチェックする(SP51)。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立していない場合(SP51:NO)には、ステップSP54に進む。これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4と接続が確立している場合(SP51:YES)には、データ再配置要求を、接続部23A、チャネルアダプタ22A及びFCスイッチ5を介して第2のストレージシステム4に送信する(SP52)。
この場合、第2のストレージシステム4のディスクアダプタ26Bは、チャネルアダプタ22B及び接続部23Bを介してデータ再配置要求を受信すると、データ再配置プログラム54Bのうち、データ再配置実施プログラムを実行することにより、上述の図8に示すステップSP3と同様の処理を実施する。
そして、第2のストレージシステム4のディスクアダプタ26Bは、ステップSP3と同様の処理が正常に終了した場合には、データ再配置終了報告を、接続部23B、チャネルアダプタ22B及び信号線30を介して第1のストレージシステム3に送信するようになされている。なお、上述のステップSP3と同様の処理では、第1のストレージシステム3の構成要素を第2のストレージシステム4の構成要素に読み替え、第2のストレージシステム4の構成要素を第1のストレージシステム3の構成要素に読み替える。
続いて、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4から、チャネルアダプタ22A及び接続部23Aを介してデータ再配置終了報告を受信したか否かをチェックする(SP53)。
具体的に、第1のストレージシステム3のディスクアダプタ26Aは、例えば、第2のストレージシステム4からデータ再配置終了報告が受信するのを所定の時間待ち受け、当該所定時間内にデータ再配置終了報告を受信していない合には、第2のストレージシステム4からデータ再配置終了報告を受信していないと判断し、当該所定時間内にデータ再配置終了報告を受信した場合には、第2のストレージシステム4からデータ再配置終了報告を受信したと判断する。
そして、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ再配置終了報告を受信していない場合(SP53:NO)には、エラーメッセージを管理サーバ6に送信し(SP54)、この後、データ再配置要求プログラム57Aを終了することにより、この図14に示すデータ再配置要求処理手順RT6を終了する(SP55)。そして、第1のストレージシステム3のディスクアダプタ26Aは、この後、データ再配置プログラム54Aを終了することにより、この図8及び図9に示すデータ再配置処理手順RT1を終了する(SP7)。
これに対して、第1のストレージシステム3のディスクアダプタ26Aは、第2のストレージシステム4からデータ同期・ホストI/O切り替え終了報告を受信した場合(SP43:YES)には、この後、データ再配置要求プログラム57Aを終了することにより、この図14に示すデータ再配置要求処理手順RT6を終了する(SP55)。
なお、第2のストレージシステム4のディスクアダプタ26Bは、必要であれば、この後、再配置効果確認プログラム55Bを実行することにより、上述の図12に示す再配置効果確認処理手順RT4と同様の処理を実施し、データ同期・ホストI/O切り替え要求プログラム56Bを実行することにより、上述の図13に示すデータ同期・ホストI/O切り替え要求処理手順RT5と同様の処理を実施することもできる。この場合、上述の再配置効果確認処理手順RT4及びデータ同期・ホストI/O切り替え要求処理手順RT5と同様の処理では、第1のストレージシステム3の構成要素を第2のストレージシステム4の構成要素に読み替え、第2のストレージシステム4の構成要素を第1のストレージシステム3の構成要素に読み替える。
このようにして、記憶システム1では、ディスクアダプタ26Aが、プールボリューム62A内のデータの再配置を実施する場合に、ホストI/O切り替え要求を業務サーバ2に送信する。また、記憶システム1では、業務サーバ2が、ホストI/O切り替え要求を受信した場合に、第1のストレージシステム3の仮想ボリューム61Aに送信する書込み対象のデータを、第2のストレージシステム4の仮想ボリューム61Bに送信するように切り替える。そして、記憶システム1では、書込み対象のデータの送信を第1のストレージシステムの仮想ボリュームから第2のストレージシステムの第2の仮想ボリュームに送信するように切り替えた後に、ディスクアダプタ26Aが、プールボリューム62A内のデータを再配置する。
従って、業務サーバ2からの要求の受付と、データの再配置が別のストレージシステムで行われるため、I/Oアクセスに対するデータ再配置実施の影響がなくなると共に、業務サーバ2からの要求を一旦停止することなく、データの再配置を実施することができる。かくするにつき、データの再配置の実施中に業務サーバ2からの要求を受けることができず、レスポンス性能が低下するのを未然かつ有効に防止することができる。
また、記憶システム1では、ディスクアダプタ26Aが、プールボリューム62A内のデータの再配置を実施した後に、第1のストレージシステム3のデータ応答性能の性能値を算出し、第2のストレージシステム4のデータ応答性能の性能値と比較する。そして、記憶システム1では、業務サーバ2が、第2のストレージシステム4のデータ応答性能の性能値に比して第1のストレージシステム3のデータ応答性能の性能値が高い場合に、第2のストレージシステム4の仮想ボリューム61Bに送信する書込み対象のデータを、第1のストレージシステム3の仮想ボリューム61Aに送信するように切り替える。
従って、再配置の結果により性能の高いストレージシステムを使用することができるため、システム全体の性能を一段と向上させることができる。
さらに、記憶システム1では、ディスクアダプタ26A、16Bが、プール領域64A、64Bのプールボリューム62A、62B内のデータを再配置することにより、プール領域64A、64Bの空きリソースを有効に活用することができる。
本発明は、ストレージシステム間でデータをバックアップする記憶システムに広く適用することができる。
1……記憶システム、2……業務サーバ、3……第1のストレージシステム、4……第2のストレージシステム、6……管理サーバ、11A、11B……記憶デバイス部、12A、12B……ディスクデバイス、21A、21B……コントロール部、22A、22B……チャネルアダプタ、24A、24B……共有メモリ、26A、26B……ディスクアダプタ、32、53A、53B……ホストI/O切り替えプログラム、33、52A、52B……ホストI/O処理プログラム、42……データ再配置制御プログラム、51A、51B……データ同期プログラム、54A、54B……データ再配置プログラム、55A、55B……再配置効果確認プログラム、56A、56B……データ同期・I/O切り替え要求プログラム、57A、57B……データ再配置要求プログラム、58A、58B……ボリューム情報管理テーブル、59A、59B……差分管理テーブル、60A、60B……ホストI/O管理テーブル、61A、61B……仮想ボリューム、62A、62B……プールボリューム、63A、63B……差分管理ボリューム、64A、64B……プール領域、65A、65B……差分管理用領域
Claims (14)
- 各種の要求を送信し、書込み対象のデータを送信するホスト装置と、
前記ホスト装置に対して提供する、動的に拡張可能な仮想ボリューム及び前記仮想ボリュームに割り当てられ、前記ホスト装置から送信されるデータが書き込まれるボリュームを有する第1のストレージシステムと、
前記仮想ボリュームのデータをバックアップする第2の仮想ボリューム及び前記第2の仮想ボリュームに割り当てられ、前記第1のストレージシステムから送信されるデータが書き込まれる第2のボリュームを有する第2のストレージシステムと
を備え、
前記第1のストレージシステムは、
前記ボリューム内のデータの再配置を実施する場合に、前記書込み対象のデータの送信を切り替えるデータ送信切り替え要求を前記ホスト装置に送信する送信部と、
前記ボリューム内のデータを再配置する再配置部と
を備え、
前記ホスト装置は、
前記送信部から送信されたデータ送信切り替え要求を受信した場合に、前記第1のストレージシステムの前記仮想ボリュームに送信する前記書込み対象のデータを、前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替えるデータ送信切り替え部
を備え、
前記再配置部は、
前記データ送信切り替え部により前記書込み対象のデータの送信を前記第1のストレージシステムの前記仮想ボリュームから前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替えた後に、前記ボリューム内のデータを再配置する
ことを特徴とする記憶システム。 - 前記第1のストレージシステムは、
前記ボリュームに書き込まれた前記書込み対象のデータの差分データが書き込まれる差分管理ボリュームを有し、
前記送信部は、
前記ボリューム内のデータの再配置を実施する場合に、前記差分管理ボリュームに書き込まれた前記差分データを前記第2のストレージシステムの前記第2の仮想ボリュームに送信した後に、前記データ送信切り替え要求を前記ホスト装置に送信する
ことを特徴とする請求項1に記載の記憶システム。 - 前記第1のストレージシステムは、
前記再配置部により前記ボリューム内のデータの再配置を実施した後に、前記第1のストレージシステムのデータ応答性能を算出し、前記第2のストレージシステムのデータ応答性能と比較する応答性能比較部
を備え、
前記データ送信切り替え部は、
前記第2のストレージシステムのデータ応答性能に比して前記前記第1のストレージシステムのデータ応答性能が高い場合に、前記第2のストレージシステムの前記第2の仮想ボリュームに送信する前記書込み対象のデータを、前記第1のストレージシステムの前記仮想ボリュームに送信するように切り替える
ことを特徴とする請求項2に記載の記憶システム。 - 前記送信部は、
前記再配置部により前記ボリューム内のデータの再配置を実施した後に、データ応答性能算出要求を前記第2のストレージシステムに送信し、
前記第2のストレージシステムは、
前記第2のストレージシステムのデータ応答性能を算出する第2の応答性能比較部と、
前記第2の応答性能算出部により算出された前記第2のストレージシステムのデータ応答性能を第1のストレージシステムに送信する第2の送信部と
を備えることを特徴とする請求項3に記載の記憶システム。 - 前記送信部は、
前記前記第1のストレージシステムのデータ応答性能が高い場合に、前記データ送信切り替え要求を前記第2のストレージシステムに送信し、
前記第2のストレージシステムは、
前記第2のボリュームに書き込まれた前記書込み対象のデータの差分データが書き込まれる第2の差分管理ボリュームを有し、
前記第2の送信部は、
前記第2の差分管理ボリュームに書き込まれた前記差分データを前記第1のストレージシステムの前記第1の仮想ボリュームに送信した後に、前記データ送信切り替え要求を前記ホスト装置に送信し、
前記データ送信切り替え部は、
前記第2の送信部から送信されたデータ送信切り替え要求を受信した場合に、前記第2のストレージシステムの前記第2の仮想ボリュームに送信する前記書込み対象のデータを、前記第1のストレージシステムの前記仮想ボリュームに送信するように切り替える
ことを特徴とする請求項4に記載の記憶システム。 - 前記第2のストレージシステムは、
前記第2のボリューム内のデータの再配置を実施する場合に、前記第2のボリューム内のデータを再配置する第2の再配置部
を備え、
前記第2の応答性能比較部は、
前記第2の再配置部により前記第2のボリューム内のデータの再配置を実施した後に、前記第2のストレージシステムのデータ応答性能を算出し、前記第1のストレージシステムのデータ応答性能と比較し、
前記データ送信切り替え部は、
前記第1のストレージシステムのデータ応答性能に比して前記前記第2のストレージシステムのデータ応答性能が高い場合に、前記第1のストレージシステムの前記第1の仮想ボリュームに送信する前記書込み対象のデータを、前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替える
ことを特徴とする請求項5に記載の記憶システム。 - 前記第2の送信部は、
前記第2の再配置部により前記第2のボリューム内のデータの再配置を実施した後に、データ応答性能算出要求を前記第1のストレージシステムに送信し、
前記応答性能比較部は、
前記第1のストレージシステムのデータ応答性能を算出し、
前記応答性能算出部により算出された前記第1のストレージシステムのデータ応答性能を第2のストレージシステムに送信する
ことを特徴とする請求項6に記載の記憶システム。 - 記憶システムのデータ再配置方法であって、
各種の要求を送信し、書込み対象のデータを送信するホスト装置と、
前記ホスト装置に対して提供する、動的に拡張可能な仮想ボリューム及び前記仮想ボリュームに割り当てられ、前記ホスト装置から送信されるデータが書き込まれるボリュームを有する第1のストレージシステムと、
前記仮想ボリュームのデータをバックアップする第2の仮想ボリューム及び前記第2の仮想ボリュームに割り当てられ、前記第1のストレージシステムから送信されるデータが書き込まれる第2のボリュームを有する第2のストレージシステムと
を備え、
前記ボリューム内のデータの再配置を実施する場合に、前記書込み対象のデータの送信を切り替えるデータ送信切り替え要求を前記ホスト装置に送信する第1のステップと、
前記第1のステップにおいて送信したデータ送信切り替え要求を前記ホスト装置が受信した場合に、前記第1のストレージシステムの前記仮想ボリュームに送信する前記書込み対象のデータを、前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替える第2のステップと、
前記第2のステップにおいて前記書込み対象のデータの送信を前記第1のストレージシステムの前記仮想ボリュームから前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替えた後に、前記ボリューム内のデータを再配置する第3のステップと
を備えることを特徴とするデータ再配置方法。 - 前記第1のストレージシステムは、
前記ボリュームに書き込まれた前記書込み対象のデータの差分データが書き込まれる差分管理ボリュームを有し、
前記第1のステップでは、
前記ボリューム内のデータの再配置を実施する場合に、前記差分管理ボリュームに書き込まれた前記差分データを前記第2のストレージシステムの前記第2の仮想ボリュームに送信した後に、前記データ送信切り替え要求を前記ホスト装置に送信する
ことを特徴とする請求項8に記載のデータ再配置方法。 - 前記第3のステップにおいて前記ボリューム内のデータの再配置を実施した後に、前記第1のストレージシステムのデータ応答性能を算出し、前記第2のストレージシステムのデータ応答性能と比較する第4のステップと、
前記第2のストレージシステムのデータ応答性能に比して前記前記第1のストレージシステムのデータ応答性能が高い場合に、前記第2のストレージシステムの前記第2の仮想ボリュームに送信する前記書込み対象のデータを、前記第1のストレージシステムの前記仮想ボリュームに送信するように切り替える第5のステップと
を備えることを特徴とする請求項9に記載のデータ再配置方法。 - 前記第4のステップでは、
前記第3のステップにおいて前記ボリューム内のデータの再配置を実施した後に、データ応答性能算出要求を前記第2のストレージシステムに送信し、前記第2のストレージシステムのデータ応答性能を算出して、前記第2のストレージシステムのデータ応答性能を第1のストレージシステムに送信する
ことを特徴とする請求項10に記載のデータ再配置方法。 - 前記第2のストレージシステムは、
前記第2のボリュームに書き込まれた前記書込み対象のデータの差分データが書き込まれる第2の差分管理ボリュームを有し、
前記前記第1のストレージシステムのデータ応答性能が高い場合に、前記データ送信切り替え要求を前記第2のストレージシステムに送信する第6のステップと、
前記第2の差分管理ボリュームに書き込まれた前記差分データを前記第1のストレージシステムの前記第1の仮想ボリュームに送信した後に、前記データ送信切り替え要求を前記ホスト装置に送信する第7のステップと、
前記第7のステップにおいて送信したデータ送信切り替え要求を受信した場合に、前記第2のストレージシステムの前記第2の仮想ボリュームに送信する前記書込み対象のデータを、前記第1のストレージシステムの前記仮想ボリュームに送信するように切り替える第8のステップと
を備えることを特徴とする請求項11に記載のデータ再配置方法。 - 前記第2のボリューム内のデータの再配置を実施する場合に、前記第2のボリューム内のデータを再配置する第9のステップと、
前記第9のステップにおいて前記第2のボリューム内のデータの再配置を実施した後に、前記第2のストレージシステムのデータ応答性能を算出し、前記第1のストレージシステムのデータ応答性能と比較する第10のステップと、
前記第1のストレージシステムのデータ応答性能に比して前記前記第2のストレージシステムのデータ応答性能が高い場合に、前記第1のストレージシステムの前記第1の仮想ボリュームに送信する前記書込み対象のデータを、前記第2のストレージシステムの前記第2の仮想ボリュームに送信するように切り替える第11のステップと
を備えることを特徴とする請求項12に記載のデータ再配置方法。 - 前記第10のステップでは、
前記第9のステップにおいて前記第2のボリューム内のデータの再配置を実施した後に、データ応答性能算出要求を前記第1のストレージシステムに送信し、前記第1のストレージシステムのデータ応答性能を算出して、前記第1のストレージシステムのデータ応答性能を第2のストレージシステムに送信する
ことを特徴とする請求項13に記載のデータ再配置方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007241280A JP2009075643A (ja) | 2007-09-18 | 2007-09-18 | 記憶システム及びデータ再配置方法 |
US12/007,848 US7975118B2 (en) | 2007-09-18 | 2008-01-16 | Storage system and data rearrangement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007241280A JP2009075643A (ja) | 2007-09-18 | 2007-09-18 | 記憶システム及びデータ再配置方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009075643A true JP2009075643A (ja) | 2009-04-09 |
Family
ID=40455817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007241280A Pending JP2009075643A (ja) | 2007-09-18 | 2007-09-18 | 記憶システム及びデータ再配置方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7975118B2 (ja) |
JP (1) | JP2009075643A (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100250830A1 (en) * | 2009-03-27 | 2010-09-30 | Ross John Stenfort | System, method, and computer program product for hardening data stored on a solid state disk |
US8090905B2 (en) * | 2009-03-27 | 2012-01-03 | Sandforce, Inc. | System, method, and computer program product for converting logical block address de-allocation information in a first format to a second format |
US8671258B2 (en) | 2009-03-27 | 2014-03-11 | Lsi Corporation | Storage system logical block address de-allocation management |
WO2010111694A2 (en) | 2009-03-27 | 2010-09-30 | Sandforce Inc. | Storage system logical block address de-allocation management and data hardening |
US9792074B2 (en) * | 2009-07-06 | 2017-10-17 | Seagate Technology Llc | System, method, and computer program product for interfacing one or more storage devices with a plurality of bridge chips |
WO2011161725A1 (en) * | 2010-06-24 | 2011-12-29 | Hitachi, Ltd. | Storage apparatus and storage management method |
JP2013114624A (ja) * | 2011-11-30 | 2013-06-10 | Hitachi Ltd | ストレージシステム及びプール容量縮小の制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304980B1 (en) * | 1996-03-13 | 2001-10-16 | International Business Machines Corporation | Peer-to-peer backup system with failure-triggered device switching honoring reservation of primary device |
JP4175788B2 (ja) | 2001-07-05 | 2008-11-05 | 株式会社日立製作所 | ボリューム制御装置 |
JP4325843B2 (ja) * | 2002-12-20 | 2009-09-02 | 株式会社日立製作所 | 論理ボリュームコピー先性能調整方法及び装置 |
JP2005234834A (ja) * | 2004-02-19 | 2005-09-02 | Hitachi Ltd | 論理ボリュームの再配置方法 |
JP4376750B2 (ja) * | 2004-10-14 | 2009-12-02 | 株式会社日立製作所 | 計算機システム |
JP4699808B2 (ja) * | 2005-06-02 | 2011-06-15 | 株式会社日立製作所 | ストレージシステム及び構成変更方法 |
JP4700459B2 (ja) * | 2005-09-27 | 2011-06-15 | 株式会社日立製作所 | データ処理システム及びデータ管理方法並びにストレージシステム |
JP2007133807A (ja) * | 2005-11-14 | 2007-05-31 | Hitachi Ltd | データ処理システム、ストレージ装置及び管理装置 |
-
2007
- 2007-09-18 JP JP2007241280A patent/JP2009075643A/ja active Pending
-
2008
- 2008-01-16 US US12/007,848 patent/US7975118B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20090077315A1 (en) | 2009-03-19 |
US7975118B2 (en) | 2011-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101799743B (zh) | 用于逻辑卷管理的方法和装置 | |
US7945748B2 (en) | Data migration and copying in a storage system with dynamically expansible volumes | |
JP5159421B2 (ja) | ストレージシステム及び管理装置を用いたストレージシステムの管理方法 | |
JP5379956B2 (ja) | ストレージ装置及び記憶領域配置方法 | |
JP5603941B2 (ja) | 計算機システム及びデータ移行方法 | |
US8312246B2 (en) | Storage apparatus and storage area allocation method | |
US20060004876A1 (en) | Data migration in storage system | |
US7594083B2 (en) | Storage system and storage control device | |
JP2009075643A (ja) | 記憶システム及びデータ再配置方法 | |
US20060236054A1 (en) | Highly available external storage system | |
JP2008033911A (ja) | 記憶ボリューム間でデータを移行する方法および装置 | |
JP2005202495A (ja) | データ移行方法 | |
JP2008529167A (ja) | 協調的共用ストレージアーキテクチャ | |
JP2001331355A (ja) | 計算機システム | |
JP2007102439A (ja) | ストレージシステム及びライセンス管理方法 | |
US7689786B1 (en) | Techniques for overriding device reservations | |
EP1837765A2 (en) | Backup apparatus and backup method | |
JP4738438B2 (ja) | 外部接続ストレージシステムのパス管理及び障害箇所検出方法 | |
JP2007286806A (ja) | 記憶システム及びデータ保存方法 | |
JP2008084094A (ja) | 記憶システム及びその管理方法並びに記憶制御装置 | |
WO2013098888A1 (en) | Storage apparatus and method for controlling same | |
CN1713161A (zh) | 数据存储系统和用于管理数据存储系统中逻辑路径的方法 | |
JP4837495B2 (ja) | 記憶システム及びデータ管理移行方法 | |
JP2009181265A (ja) | ストレージ装置及びライトデータ書込み方法 | |
US9098212B2 (en) | Computer system with storage apparatuses including physical and virtual logical storage areas and control method of the computer system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090223 |