JP2016118821A - ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム - Google Patents

ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム Download PDF

Info

Publication number
JP2016118821A
JP2016118821A JP2014256525A JP2014256525A JP2016118821A JP 2016118821 A JP2016118821 A JP 2016118821A JP 2014256525 A JP2014256525 A JP 2014256525A JP 2014256525 A JP2014256525 A JP 2014256525A JP 2016118821 A JP2016118821 A JP 2016118821A
Authority
JP
Japan
Prior art keywords
storage
storage device
data
access
subpool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014256525A
Other languages
English (en)
Other versions
JP6511795B2 (ja
Inventor
樹森 梅
Shusen Mei
樹森 梅
純一 水野
Junichi Mizuno
純一 水野
智明 阿部
Tomoaki Abe
智明 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014256525A priority Critical patent/JP6511795B2/ja
Priority to US14/929,694 priority patent/US9971527B2/en
Publication of JP2016118821A publication Critical patent/JP2016118821A/ja
Application granted granted Critical
Publication of JP6511795B2 publication Critical patent/JP6511795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays

Abstract

【課題】運用を切り替えても、アクセス処理速度が下がることを防止すること。【解決手段】ストレージ管理装置1は、取得部1aと制御部1bを有する。取得部1aは、ストレージ装置2が運用状態、ストレージ装置3が待機状態の場合、ストレージ装置2に記憶された複数のデータにそれぞれ対応する複数のバックアップデータがストレージ装置3にバックアップされている状態において、複数のデータのそれぞれに対するホスト装置4からのアクセス頻度を示す頻度情報5をストレージ装置2から取得する。制御部1bは、頻度情報5に基づいて、複数のバックアップデータのそれぞれを、ストレージ装置3が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、複数のバックアップデータのそれぞれが複数の記憶領域のうち決定処理で決定された記憶領域に配置されるように指示する指示情報6をストレージ装置3に送信する。【選択図】図1

Description

本発明はストレージ管理装置、ストレージ管理方法およびストレージ管理プログラムに関する。
ストレージ装置内の記憶装置をアクセスに対する応答性能に応じて階層化し、階層間でデータを再配置する技術が知られている。例えば、アクセス頻度の高いデータは高性能な記憶装置に配置され、アクセス頻度の低いデータは低性能な記憶装置に配置される。このようにデータを配置することで、迅速なアクセス処理を実現できる。
記憶装置の階層化の技術としては、次のような技術が提案されている。例えば、主系と待機系のストレージシステムのボリュームを形成する記憶領域がそれぞれ階層化される。そして、フェイルオーバの際、待機系のストレージシステムのボリュームが、主系のストレージシステムのボリュームの階層に対応する待機系のストレージシステムの階層にマイグレーションされる。
また、同じデータ内容である正ページと副ページがSSD(Solid State Drive)に格納されており、ペアサスペンドのコマンドを受けたときには、副ページをSSDよりも低コストのSATA(Serial ATA)ディスクに移動する技術が提案されている。
さらに、リモートコピーする際、コピー先のストレージ装置が、コピー先のストレージ装置が備えるコピー元の記憶階層に対応する記憶装置にデータをコピーする技術が提案されている。
特開2007−328468号公報 国際公開第2011/111093号 特開2007−265403号公報
ところで、ストレージ装置が冗長化されたストレージシステムでは、運用状態(アクティブ状態)のストレージ装置に格納されているデータを待機状態(スタンバイ状態)のストレージ装置にバックアップさせる場合がある。また、このようなバックアップ機能に加えて、それぞれのストレージ装置において、上記のように記憶装置が階層化され、階層間でデータを再配置することが可能である場合を考える。
この場合、運用状態のストレージ装置では、ホスト装置からのアクセス頻度に応じてデータが再配置される。一方、待機状態のストレージ装置では、ホスト装置からのアクセスを受けないため、運用状態のストレージ装置からバックアップのために送信されたデータはホスト装置からのアクセス頻度に関係なく、いずれかの階層に配置される。このような状況下でフェイルオーバが行われ、待機状態から運用状態に遷移したストレージ装置がホスト装置からのアクセスを受けたとき、記憶領域の階層化によるアクセス処理速度の向上効果が得られないという問題があった。
1つの側面では、本発明は、運用状態のストレージ装置を切り替えたときのアクセス処理速度を向上させることが可能なストレージ管理装置、ストレージ管理方法およびストレージ管理プログラムを提供することを目的とする。
1つの態様では、ストレージ管理装置が提供される。このストレージ管理装置は、取得部と制御部とを有する。取得部は、ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、第1のストレージ装置が運用状態であり、第2のストレージ装置が待機状態であり、第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが第2のストレージ装置にバックアップされている状態において、複数のデータのそれぞれに対するホスト装置からのアクセス頻度を示す頻度情報を第1のストレージ装置から取得する。制御部は、頻度情報に基づいて、複数のバックアップデータのそれぞれを、第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、複数のバックアップデータのそれぞれが複数の記憶領域のうち決定処理で決定された記憶領域に配置されるように指示する指示情報を第2のストレージ装置に送信する。
また、1つの態様では、ストレージ管理方法が提供される。このストレージ管理方法は、ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、第1のストレージ装置が運用状態であり、第2のストレージ装置が待機状態であり、第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが第2のストレージ装置にバックアップされている状態において、複数のデータのそれぞれに対するホスト装置からのアクセス頻度を示す頻度情報を第1のストレージ装置から取得し、頻度情報に基づいて、複数のバックアップデータのそれぞれを、第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、複数のバックアップデータのそれぞれが複数の記憶領域のうち決定処理で決定された記憶領域に配置されるように指示する指示情報を第2のストレージ装置に送信する。
また、1つの態様では、ストレージ管理プログラムが提供される。このストレージ管理プログラムは、コンピュータに、ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、第1のストレージ装置が運用状態であり、第2のストレージ装置が待機状態であり、第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが第2のストレージ装置にバックアップされている状態において、複数のデータのそれぞれに対するホスト装置からのアクセス頻度を示す頻度情報を第1のストレージ装置から取得し、頻度情報に基づいて、複数のバックアップデータのそれぞれを、第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、複数のバックアップデータのそれぞれが複数の記憶領域のうち決定処理で決定された記憶領域に配置されるように指示する指示情報を第2のストレージ装置に送信する、処理を実行させる。
1つの側面では、運用を切り替えても、アクセス処理速度が下がることを防止することができる。
第1の実施の形態のストレージシステムを示す図である。 第2の実施の形態のストレージシステムを示す図である。 管理サーバのハードウェア例を示す図である。 ストレージ装置のハードウェア例を示す図である。 記憶領域の階層制御を説明するための図である。 再配置処理の比較例を説明するための図である。 第2の実施の形態での再配置処理の例を示す図である。 ストレージシステムの機能例を示す図である。 グループ管理テーブルの例を示す図である。 割り当て管理テーブルの例を示す図である。 プライマリのストレージ装置に記憶される情報の例を示す図である。 セカンダリのストレージ装置に記憶される情報の例を示す図である。 再配置処理の例を示すフローチャートである。 第3の実施の形態のストレージシステムの構成例を示す図である。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態のストレージシステムを示す図である。ストレージシステムは、ストレージ管理装置1、ストレージ装置2,3およびホスト装置4を有する。ストレージ管理装置1、ストレージ装置2,3およびホスト装置4は、ネットワークを介して接続されている。
ストレージ装置2,3は、データを記憶する複数の記憶装置を有し、それぞれが有する複数の記憶装置に記憶されたデータに対するホスト装置4からのアクセスを受け付けることが可能な装置である。ストレージ装置2,3のうち、一方のストレージ装置が運用状態のとき、他方のストレージ装置は待機状態となり、運用状態のストレージ装置に記憶されたデータが待機状態のストレージ装置にバックアップされる。例えば、ホスト装置4からの書き込み要求に応じて運用状態のストレージ装置に記憶されたデータが更新されると、その更新内容が即座に待機状態のストレージ装置に記憶されたデータにも反映される。また、運用状態のストレージ装置の動作が障害の発生などによって停止したとき、フェイルオーバが行われ、待機状態であった他方のストレージ装置が運用状態に遷移して、ホスト装置4からのアクセスの受け付け動作を引き継ぐ。
ホスト装置4は、ストレージ装置2,3のうち、運用状態のストレージ装置に記憶されたデータにアクセスする。
ストレージ管理装置1は、ストレージ装置2,3のうち、少なくとも待機状態のストレージ装置に記憶された各データについての記憶領域への配置を管理する。
以下、ストレージ装置2が運用状態であり、ストレージ装置3が待機状態であるものとして説明する。また、ストレージ装置2にはデータD1〜D4が記憶されており、これらのデータD1〜D4はストレージ装置3にもバックアップされているものとする。
待機状態のストレージ装置3は、アクセス性能の異なる複数の記憶領域を提供する。本実施の形態では、このような記憶領域の例として、第1階層の記憶領域3aと第2階層の記憶領域3bとが存在するものとする。第1階層の記憶領域3aのアクセス速度は、第2階層の記憶領域3bのアクセス速度よりも高いものとする。すなわち、第1階層の記憶領域3aを実現する1以上の記憶装置のアクセス速度は、第2階層の記憶領域3bを実現する1以上の記憶装置のアクセス速度よりも高い。
ストレージ装置3にバックアップされたデータD1〜D4は、第1階層の記憶領域3aと第2階層の記憶領域3bのいずれかに配置される。また、ストレージ装置3は、ストレージ管理装置1からの指示に基づいて、データD1〜D4の配置先の記憶領域を変更する「再配置」を実行することができる。
ストレージ管理装置1は、取得部1aと制御部1bとを有する。取得部1aと制御部1bの処理は、例えば、ストレージ管理装置1が有するプロセッサが所定のプログラムを実行することによって実現される。
取得部1aは、ストレージ装置2に記憶されたデータD1〜D4のそれぞれに対するホスト装置4からのアクセス頻度を示す頻度情報5を、ストレージ装置2から取得する。頻度情報5は、ストレージ装置2によって計測される。
制御部1bは、取得された頻度情報5に基づいて、ストレージ装置3にバックアップされたデータD1〜D4を第1階層の記憶領域3aと第2階層の記憶領域3bのうちのどれに配置するかを決定する決定処理を実行する。この決定処理では、ストレージ装置2におけるアクセス頻度が高いデータほど、アクセス速度が高い階層の記憶領域に配置するように決定される。制御部1bは、データD1〜D4のそれぞれが、第1階層の記憶領域3aと第2階層の記憶領域3bのうち、上記の決定処理で決定された記憶領域に配置されるように指示する指示情報6を、ストレージ装置3に送信する。
例えば、指示情報6が送信される前の時点では、ストレージ装置3では、データD2,D3が第1階層の記憶領域3aに配置され、データD1,D4が第2階層の記憶領域3bに配置されているとする。データをどの記憶領域に配置するかが、アクセス頻度と所定の閾値との比較結果に基づいて決定されるものとする。そして、頻度情報5においては、データD1,D2についてのアクセス頻度が閾値以上であり、データD3,D4についてのアクセス頻度がその閾値未満であるとする。
この場合、制御部1bは、データD1,D2を第1階層の記憶領域3aに配置し、データD3,D4を第2階層の記憶領域3bに配置すると決定する。そして、制御部1bは、例えば、データD1の配置先を第1階層の記憶領域3aに変更し、データD3の配置先を第2階層の記憶領域3bに変更するように指示する指示情報6を、ストレージ装置3に送信する。なお、指示情報6には、ストレージ装置3にバックアップされたすべてのデータについて、その配置先の記憶領域を示す情報が対応付けられていてもよい。
ストレージ装置3は、受信した指示情報6に基づいて、データD1を第2階層の記憶領域3bから第1階層の記憶領域3aに移動させ、データD3を第1階層の記憶領域3aから第2階層の記憶領域3bに移動させる。
ここで、スタンバイ状態のストレージ装置3はホスト装置4からのアクセスを受けない。このため、ストレージ管理装置1は、ストレージ装置3から取得した情報に基づいて、バックアップされたデータD1〜D4をホスト装置4からのアクセス頻度に応じた適切な記憶領域に再配置することはできない。従って、データD1〜D4はアクセス頻度に関係なく、第1階層の記憶領域3aと第2階層の記憶領域3bのいずれかに配置されたままになる。
これに対して、ストレージ管理装置1の上記処理により、スタンバイ状態のストレージ装置3にバックアップされたデータD1〜D4が、アクティブ状態のストレージ装置2でのホスト装置4からのアクセス頻度に応じた適切な記憶領域に配置される。従って、フェイルオーバが行われ、スタンバイ状態からアクティブ状態に遷移したストレージ装置3がホスト装置4からのアクセスを受けたとき、アクセスに対する応答速度が向上する。
また、例えば、ストレージ装置2においても、第1階層の記憶領域3aと同等のアクセス性能を有する第1階層の記憶領域2aと、第2階層の記憶領域3bと同等のアクセス性能を有する第2階層の記憶領域2bとが提供されてもよい。そして、制御部1bは、ストレージ装置3内のデータD1〜D4と同様に、ストレージ装置2内のデータD1〜D4についても、頻度情報5に基づいて適切な記憶領域に再配置するようにストレージ装置2に指示してもよい。
この場合、ストレージ装置2におけるホスト装置4からのアクセスに対する応答性能が向上する。そして、フェイルオーバが行われ、スタンバイ状態からアクティブ状態に遷移したストレージ装置3がホスト装置4からのアクセスを受けたとき、アクセスに対する応答速度がフェイルオーバの前より低下する可能性を抑制できる。
[第2の実施の形態]
図2は、第2の実施の形態のストレージシステムを示す図である。ストレージシステムは、管理サーバ100、ストレージ装置200,300、業務サーバ400および端末装置500を有する。管理サーバ100、ストレージ装置200,300、業務サーバ400および端末装置500は、ネットワーク900を介して接続されている。ネットワーク900は、LAN(Local Area Network)でもよいし、WAN(Wide Area Network)やインターネットなどの広域ネットワークでもよい。但し、ストレージ装置200,300と業務サーバ400との間は、SAN(Storage Area Network)を通じて通信が行われる。
なお、管理サーバ100は、図1のストレージ管理装置1の一例であり、ストレージ装置200は、図1のストレージ装置2の一例であり、ストレージ装置300は、図1のストレージ装置3の一例である。
管理サーバ100は、ストレージ装置200,300の運用を管理するサーバコンピュータである。例えば、管理サーバ100は、ストレージ装置200,300における階層制御を行う。階層制御とは、ストレージ装置に記憶されるデータが、それぞれ異なるアクセス性能を有する記憶装置によって実現される複数の記憶領域のうち、そのデータに対するアクセス頻度に応じた記憶領域に配置されるように制御する処理である。
ストレージ装置200は、その内部に定義された論理ボリュームに対する業務サーバ400からのアクセスを制御する。ストレージ装置300も同様に、その内部に定義された論理ボリュームに対する業務サーバ400からのアクセスを制御する。
ストレージ装置200,300のうち、一方がアクティブ状態のとき、他方はスタンバイ状態となり、アクティブ状態のストレージ装置が業務サーバ400からのアクセスを受け付ける。また、アクティブ状態のストレージ装置は、自装置内の論理ボリュームに格納されているデータをスタンバイ状態のストレージ装置にバックアップする。そして、フェイルオーバの発生によりスタンバイ状態のストレージ装置がアクティブ状態に遷移すると、アクティブ状態に遷移したストレージ装置は、バックアップデータが記憶された論理ボリュームに対する業務サーバ400からのアクセスを受け付ける。これにより、一方のストレージ装置が障害の発生などによって動作を停止しても、他方のストレージ装置を用いて業務サーバ400での業務処理を継続可能になる。
なお、本実施の形態では、ストレージ装置200をプライマリとし、ストレージ装置300をセカンダリとして、運用開始時の状態では、ストレージ装置200がアクティブ状態となり、ストレージ装置300がスタンバイ状態になるものとする。
業務サーバ400は、各種の業務に関する処理を行うサーバコンピュータである。業務サーバ400は、ストレージ装置200,300のうちアクティブ状態のストレージ装置に定義された論理ボリュームにアクセスする。
端末装置500は、ストレージシステムの管理者が利用するクライアントコンピュータである。例えば、端末装置500は、管理者の操作により、管理サーバ100が行うストレージ装置200,300における階層制御を定期的に行う旨の設定を行う。
図3は、管理サーバのハードウェア例を示す図である。管理サーバ100は、プロセッサ101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、読み取り装置106および通信インタフェース107を有する。
プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASICまたはFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組み合わせであってもよい。
RAM102は、管理サーバ100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。
HDD103は、管理サーバ100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。管理サーバ100は、フラッシュメモリやSSDなどの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。
画像信号処理部104は、プロセッサ101からの命令に従って、管理サーバ100に接続されたディスプレイ11に画像を出力する。ディスプレイ11としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。
入力信号処理部105は、管理サーバ100に接続された入力デバイス12から入力信号を取得し、プロセッサ101に出力する。入力デバイス12としては、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。
読み取り装置106は、記録媒体13に記録されたプログラムやデータを読み取る装置である。記録媒体13として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。また、記録媒体13として、例えば、フラッシュメモリカードなどの不揮発性の半導体メモリを使用することもできる。読み取り装置106は、例えば、プロセッサ101からの命令に従って、記録媒体13から読み取ったプログラムやデータをRAM102またはHDD103に格納する。更に、プロセッサ101は、記録媒体13から読み取ったプログラムやデータを、管理サーバ100のRAM102やHDD103に格納するよう管理サーバ100に指示することもできる。
通信インタフェース107は、ネットワーク900を介して、ストレージ装置200,300および端末装置500と通信を行う。
なお、業務サーバ400および端末装置500も管理サーバ100と同様のハードウェアにより実現できる。
図4は、ストレージ装置のハードウェア例を示す図である。ストレージ装置200は、CM(Controller Module)201およびDE(Drive Enclosure)202を有する。なお、ストレージ装置200は、複数のCMを有していてもよいし、2台以上のDEを有していてもよい。
DE202は、業務サーバ400からのアクセス対象のデータを記憶する複数の記憶装置を有する。DE202には、アクセス性能の異なる記憶装置が搭載される。例えば、アクセス性能の高い順に、SSD、オンラインディスクと呼ばれるHDD、ニアラインディスクと呼ばれるHDDなどがDE202に搭載される。DE202には、それぞれの種類の記憶装置が1台以上搭載される。
CM201は、業務サーバ400からのアクセス要求に応じてDE202内の記憶装置にアクセスする。また、CM201は、管理サーバ100からの指示に応じて動作することもできる。例えば、CM201は、管理サーバ100からの指示に応じて、論理ボリュームに含まれるデータをDE202内の記憶装置から別の記憶装置に再配置する。
CM201は、プロセッサ203、RAM204、SSD205、ドライブインタフェース206および通信インタフェース207を有する。各ユニットがバスに接続されている。
プロセッサ203は、CM201の情報処理を制御する。プロセッサ203は、例えばCPU、DSP、ASIC、FPGAなどである。プロセッサ203は、マルチプロセッサであってもよい。プロセッサ203は、CPU、DSP、ASIC、FPGAなどの2以上の要素の組合せであってもよい。
RAM204は、CM201の主記憶装置である。RAM204は、プロセッサ203に実行させるOSのプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM204は、プロセッサ203による処理に用いる各種データを記憶する。
SSD205は、CM201の補助記憶装置である。SSD205には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、CM201は、補助記憶装置として、SSD205の代わりにHDDを備えていてもよい。
ドライブインタフェース206は、DE202内の記憶装置と通信するためのインタフェースである。通信インタフェース207は、ネットワーク900を介して管理サーバ100、ストレージ装置300および業務サーバ400と通信する通信インタフェースである。なお、実際には、管理サーバ100とLANなどを介して接続する通信インタフェースと、業務サーバ400とSANなどを介して接続する通信インタフェースとが、個別に設けられている。
なお、ストレージ装置300もストレージ装置200と同様のハードウェアにより実現できる。すなわち、ストレージ装置300は、CMとDEとを有し、ストレージ装置300のDEは、複数の記憶装置を有する。そして、ストレージ装置300のDEには、アクセス性能の異なる記憶装置が、アクセス性能ごとにそれぞれ1台ずつ搭載される。
また、以下の説明において、ストレージ装置200がアクティブ状態またはスタンバイ状態であるとは、ストレージ装置200内のCM201がアクティブ状態またはスタンバイ状態であることと同義である。同様に、ストレージ装置300がアクティブ状態またはスタンバイ状態であるとは、ストレージ装置300内のCMがアクティブ状態またはスタンバイ状態であることと同義である。
図5は、記憶領域の階層制御を説明するための図である。ストレージ装置200には、ストレージプール208が設定される。ストレージプール208は、ストレージ装置200に定義された論理ボリュームに対する物理領域として割り当てられる記憶領域であり、DE202の記憶装置によって実現される。
ストレージプール208は、第1のサブプール208aと第2のサブプール208bと第3のサブプール208cとに分割されている。第1のサブプール208aは、アクセス性能が同じ1つ以上の記憶装置によって実現される。第2のサブプール208bは、第1のサブプール208aを実現する記憶装置よりもアクセス性能が低く、かつ互いに同一のアクセス性能を有する1つ以上の記憶装置によって実現される。第3のサブプール208cは、第2のサブプール208bを実現する記憶装置よりもアクセス性能が低く、かつ互いに同一のアクセス性能を有する1つ以上の記憶装置によって実現される。このようにして、ストレージプール208は、アクセス性能に応じた3つの記憶領域に階層化される。
なお、例えば、1つのサブプールは、同じアクセス性能の記憶装置によって構成される1つ以上のRAID(Redundant Arrays of Inexpensive Disks)グループとして定義される。
また、ストレージ装置200には、業務サーバ400からのアクセス対象となる論理ボリュームの1つとして、仮想ボリューム209が設定される。後述するように、仮想ボリューム209は、ストレージ装置300内の仮想ボリュームと対応付けられ、一方の仮想ボリュームのデータが他方の仮想ボリュームにバックアップされる。
仮想ボリューム209は、一定サイズ(例えば、21Mバイト)の分割領域を単位として管理され、各分割領域に対応する物理領域が分割領域ごとにストレージプール208内のどこかの領域に割り当てられる。また、本実施の形態では、仮想ボリューム209の分割領域のうちデータが格納されている分割領域のみが、ストレージプール208に割り当てられる。これにより、DE202内の記憶装置による記憶領域が効率的に利用される。
ここで、仮想ボリューム209の各分割領域は、第1のサブプール208a、第2のサブプール208b、第3のサブプール208cのいずれかに割り当てられる。管理サーバ100は、仮想ボリューム209の分割領域が、当該分割領域に対する業務サーバ400からのアクセス頻度が高いほど、アクセス性能が高い記憶装置によって実現されるサブプールに割り当てられるように制御する。例えば、管理サーバ100は、ある分割領域のアクセス頻度が低下した場合に、当該分割領域の割り当て先を、アクセス性能がより低い記憶装置によって実現されるサブプールに変更する。この場合、ストレージ装置200は、管理サーバ100からの指示に応じて、当該分割領域に格納されたデータを、割り当て変更前のサブプールに対応する記憶装置から割り当て変更後のサブプールに対応する記憶装置へ再配置する。
このような階層制御により、業務サーバ400からのアクセス頻度が高いデータほど、業務サーバ400からのアクセス要求に対する応答速度が高くなる。その結果、全体として業務サーバ400からのアクセス要求に対する応答性能が向上する。
なお、以上のようなストレージ装置200における階層制御は、ストレージ装置200がアクティブ状態であるときに実行される。また、図5ではストレージ装置200における階層制御について説明したが、ストレージ装置300がアクティブ状態のときは、ストレージ装置300においても同様な階層制御が行われる。
図6は、再配置処理の比較例を説明するための図である。なお、図6では、ストレージ装置200,300において比較例に示す処理が実行されたものと仮定して説明する。
図5の例と同様に、ストレージ装置200には、第1のサブプール208a、第2のサブプール208bおよび第3のサブプール208cが設定されている。そして、ストレージ装置200には仮想ボリューム209が定義され、仮想ボリューム209の分割領域のうちデータが格納された分割領域は、第1のサブプール208a、第2のサブプール208b、第3のサブプール208cのいずれかに割り当てられる。
また、ストレージ装置200が運用状態であるとすると、管理サーバ100による制御の下で、仮想ボリューム209の分割領域は、当該分割領域に対する業務サーバ400からのアクセス頻度に応じて適切なサブプールに割り当てられる。例えば、管理サーバ100は、仮想ボリューム209の各分割領域のデータに対する業務サーバ400のアクセス頻度をストレージ装置200から取得する。管理サーバ100は、取得したアクセス頻度に基づいて、各分割領域を割り当てるべき適切なサブプールを判定する。管理サーバ100は、割り当て先の変更が必要な分割領域がある場合には、当該分割領域の新たな割り当て先のサブプールをストレージ装置200に通知して、当該分割領域のデータを新たな割り当て先のサブプールに再配置するように指示する。
図6の例では、仮想ボリューム209には、それぞれ個別の分割領域に格納されるデータD11〜D19が含まれる。そして、データD11,D12は第1のサブプール208aに配置され、データD13〜D15は第2のサブプール208bに配置され、データD16〜D19は第3のサブプール208cに配置されている。この場合、データD11,D12はアクセス頻度が高レベルのデータであり、データD13〜D15はアクセス頻度が中レベルのデータであり、データD16〜D19はアクセス頻度が低レベルのデータである。
一方、スタンバイ状態のストレージ装置300には、仮想ボリューム209と同じサイズの仮想ボリューム309が定義され、仮想ボリューム209のデータが仮想ボリューム309にバックアップされる。業務サーバ400からの書き込み要求によって仮想ボリューム209のデータが更新されると、更新後のデータがストレージ装置200からストレージ装置300にも送信され、その更新内容が即座に仮想ボリューム309にも反映される。これにより、仮想ボリューム209と仮想ボリューム309とが同期する。
また、ストレージ装置300にも、第1のサブプール308a、第2のサブプール308bおよび第3のサブプール308cが設定される。第1のサブプール308aは、第1のサブプール208aと同じアクセス性能の記憶装置によって実現される。第2のサブプール308bは、第2のサブプール208bと同じアクセス性能の記憶装置によって実現される。第3のサブプール308cは、第3のサブプール208cと同じアクセス性能の記憶装置によって実現される。そして、仮想ボリューム309の分割領域のうちデータが格納された分割領域は、第1のサブプール308a、第2のサブプール308b、第3のサブプール308cのいずれかに割り当てられる。
ところが、スタンバイ状態のストレージ装置300は業務サーバ400からのアクセスを受けないことから、管理サーバ100は、スタンバイ状態のストレージ装置300については、業務サーバ400からのアクセス頻度に応じた階層制御を行うことができない。このため、仮想ボリューム209からバックアップのために仮想ボリューム309に送信されたデータは、ストレージ装置300において、アクセス頻度に関係なく、いずれかのサブプールに配置される。例えば、仮想ボリューム309の各分割領域のデータは、対応する分割領域に対してあらかじめ決められたサブプールに配置される。その結果、図6の例のように、ストレージ装置200とストレージ装置300との間で、同じデータが異なる階層のサブプールに配置されるという状態が発生し得る。
このような状態で、ストレージ装置200に障害などが発生したことによりフェイルオーバが発生したとする。この場合、ストレージ装置300はアクティブ状態に遷移し、業務サーバ400からの仮想ボリューム309に対するアクセスを受け付ける。しかし、上記のように、仮想ボリューム309内のデータは業務サーバ400からのアクセス頻度に関係なくいずれかのサブプールに配置されている。このため、業務サーバ400から仮想ボリューム309へのアクセス要求に対する応答速度は、仮想ボリューム209へのアクセス要求に対する応答速度より低下する可能性がある。
このような問題に対して、第2の実施の形態では、管理サーバ100は次の図7に示すような制御を行う。
図7は、第2の実施の形態での再配置処理の例を示す図である。
図6と同様に、ストレージ装置200には第1のサブプール208a、第2のサブプール208bおよび第3のサブプール208cが設定されている。そして、ストレージ装置200には仮想ボリューム209が定義され、仮想ボリューム209の分割領域のうちデータが格納された分割領域は、第1のサブプール208a、第2のサブプール208b、第3のサブプール208cのいずれかに割り当てられる。また、図6と同様に、ストレージ装置300には、第1のサブプール308a、第2のサブプール308bおよび第3のサブプール308cが設定されている。そして、ストレージ装置300には仮想ボリューム309が定義され、仮想ボリューム309の分割領域のうちデータが格納された分割領域は、第1のサブプール308a、第2のサブプール308b、第3のサブプール308cのいずれかに割り当てられる。
以下、ストレージ装置200がアクティブ状態である場合を起点として説明する。この状態では、ストレージ装置200が業務サーバ400からの仮想ボリューム209へのアクセスを受け付ける。また、仮想ボリューム209のデータは仮想ボリューム309にバックアップされる。
本実施の形態では、管理サーバ100は、アクティブ状態のストレージ装置200から、仮想ボリューム209の各分割領域に対する業務サーバ400からのアクセス頻度を取得する。そして、管理サーバ100は、取得したアクセス頻度に基づいて、アクティブ状態のストレージ装置200におけるデータの適切な再配置先を指示するだけでなく、スタンバイ状態のストレージ装置300におけるデータの適切な再配置先も指示する。これにより、ストレージ装置200,300では、同じデータが同じ階層のサブプールに配置されるようになる。その結果、フェイルオーバが行われてストレージ装置300がアクティブ状態に遷移したときに、業務サーバ400からのアクセス要求に対する応答性能が低下することを防止できる。
なお、仮想ボリューム209は、業務サーバ400からのアクセス対象となる複数の論理ボリュームを含み、仮想ボリューム309も、仮想ボリューム209と同数の論理ボリュームを含んでもよい。この場合、仮想ボリューム209内の論理ボリュームと仮想ボリューム309内の論理ボリュームとで、同期が行われるペアが構成される。そして、ペアを構成する論理ボリュームのうち、アクティブ状態のストレージ装置に定義された論理ボリュームのデータが、他方の論理ボリュームにバックアップされる。また、このように仮想ボリュームに複数の論理ボリュームが含まれる場合には、仮想ボリュームに含まれる複数の論理ボリュームを単位として階層制御を行うことができる。
次に、ストレージシステムの処理の詳細について説明する。なお、以下の説明では、説明を明確にするために、仮想ボリューム内のアドレスを「論理アドレス」と記載し、サブプール内のアドレスを「物理アドレス」と記載する。また、以下の説明では、仮想ボリュームの分割領域のデータに対する業務サーバ400からのアクセス頻度を示す情報として、IOPS(Input Output Per Second)が使用されるものとする。IOPSは、アクティブ状態のストレージ装置において分割領域ごとに計測され、管理サーバ100に通知される。
図8は、ストレージシステムの機能例を示す図である。管理サーバ100は、記憶部110、情報取得部120および再配置制御部130を有する。記憶部110は、例えば、RAM102またはHDD103に確保した記憶領域として実装される。情報取得部120および再配置制御部130は、例えば、プロセッサ101が実行するプログラムのモジュールとして実装される。
記憶部110は、グループ管理テーブルおよび割り当て管理テーブルを記憶する。グループ管理テーブルは、プライマリのストレージ装置とセカンダリのストレージ装置とが同じグループに属することを示す情報である。例えば、グループ管理テーブルを用いることにより、アクティブ状態の一方のストレージ装置が故障した場合、どのストレージ装置がアクティブ状態になるかを判断することができる。また、グループ管理テーブル111には、各ストレージ装置に設定され、ストレージ装置間で同期される仮想ボリュームの情報なども記憶する。
割り当て管理テーブルは、仮想ボリュームごとに作成される。割り当て管理テーブルは、仮想ボリュームの各分割領域とサブプールとの対応関係を記憶する。また、割り当て管理テーブルは、各分割領域のIOPS情報も記憶する。
情報取得部120は、ストレージ装置200,300のうちのアクティブ状態のストレージ装置から、仮想ボリュームの各分割領域についてのIOPS情報を取得する。IOPS情報は、例えば、各分割領域について計測されたIOPSのリストとして取得される。
再配置制御部130は、情報取得部120によって取得されたIOPS情報と割り当て管理テーブルとに基づいて、各ストレージ装置200,300において仮想ボリュームの分割領域のデータを再配置する必要があるかを判定する。再配置制御部130は、再配置する必要があると判定した場合、どの分割領域をどの階層のサブプールに割り当てし直すかを示す再配置リストを作成する。再配置制御部130は、作成した再配置リストを対応するストレージ装置に送信して、対応するデータの再配置を行うように指示する。
ストレージ装置200のCM201は、記憶部210、アクセス制御部220、同期処理部230および再配置処理部240を有する。記憶部210は、例えば、RAM204またはSSD205に確保した記憶領域として実装される。アクセス制御部220、同期処理部230および再配置処理部240は、例えば、プロセッサ203が実行するプログラムのモジュールとして実装される。
記憶部210は、サブプール管理テーブルおよびボリューム管理テーブルを記憶する。サブプール管理テーブルには、サブプールの未使用領域と使用済み領域を管理するための情報が登録される。ボリューム管理テーブルは、仮想ボリュームの各分割領域と、割り当て先のサブプールの領域との対応関係を示す情報が登録される。また、記憶部210は、IOPS情報を有する。
アクセス制御部220は、業務サーバ400からの仮想ボリュームに対するアクセス要求に応じたアクセス制御を実行する。例えば、アクセス制御部220は、仮想ボリューム内のいずれかの分割領域に格納されたデータに対するアクセス要求を受信すると、ボリューム管理テーブルを参照して、そのデータが格納されているサブプールの記憶領域を特定する。そして、アクセス制御部220は、特定した記憶領域に格納されているデータにアクセスする。
また、アクセス制御部220は、業務サーバ400から分割領域へのアクセス要求を受信する度に、その分割領域に対応するIOPS情報を更新する。
同期処理部230は、ストレージ装置200がアクティブ状態である場合、ストレージ装置200内の仮想ボリュームにおけるアクセス制御部220による更新データをストレージ装置300に送信して、バックアップを要求する。これにより、ストレージ装置200内の仮想ボリュームと、ストレージ装置300内の対応する仮想ボリュームとが同期する。また、同期処理部230は、ストレージ装置200がスタンバイ状態である場合、ストレージ装置300から送信された更新データを、ストレージ装置200内の対応する仮想ボリュームに書き込む。
再配置処理部240は、管理サーバ100の再配置制御部130からの指示に従い、仮想ボリュームの分割領域に対するサブプールの割り当て先を変更し、データを再配置する。データの再配置では、割り当て先変更前のサブプールに格納されているデータが、割り当て先変更後のサブプール内の空き領域に移動される。
ストレージ装置300のCM301は、記憶部310、アクセス制御部320、同期処理部330および再配置処理部340を有する。記憶部310は、例えば、CM301のRAMまたはフラッシュメモリに確保した記憶領域として実装される。アクセス制御部320、同期処理部330および再配置処理部340は、例えば、CM301のプロセッサが実行するプログラムのモジュールとして実装される。
記憶部310は、記憶部210に記憶されるサブプール管理テーブルおよびボリューム管理テーブルと同様の構成のテーブルを記憶する。アクセス制御部320、同期処理部330および再配置処理部340は、ストレージ装置200のアクセス制御部220、同期処理部230および再配置処理部240と同様の処理を実行する。
図9は、グループ管理テーブルの例を示す図である。グループ管理テーブル111は、管理サーバ100の記憶部110に格納される。グループ管理テーブル111は、グループID(identifier)、プライマリのストレージID、プライマリのボリュームID、セカンダリのストレージID、セカンダリのボリュームIDおよびアクティブストレージIDの項目を含む。
グループIDの項目には、グループを識別する情報が登録される。プライマリのストレージIDの項目には、冗長化されたストレージ装置のうち、プライマリのストレージ装置200の識別情報が登録される。プライマリのボリュームIDの項目には、プライマリのストレージ装置200に定義された仮想ボリューム209の識別情報が登録される。
セカンダリのストレージIDの項目には、冗長化されたストレージ装置のうち、セカンダリのストレージ装置300の識別情報が登録される。セカンダリのボリュームIDの項目には、セカンダリのストレージ装置300に定義された仮想ボリューム309の識別情報が登録される。アクティブストレージIDの項目には、プライマリのストレージ装置200とセカンダリのストレージ装置300のうち、アクティブ状態になっているストレージ装置の識別情報が登録される。
グループ管理テーブル111にプライマリおよびセカンダリの各ストレージ装置の識別情報が登録されることで、管理サーバ100は、冗長化されたストレージ装置のそれぞれを識別することができる。また、グループ管理テーブル111にアクティブストレージIDが登録されることで、管理サーバ100は、アクティブ状態またはスタンバイ状態のストレージ装置を判別して、どちらかのストレージ装置にアクセスすることができる。さらに、グループ管理テーブル111にプライマリのボリュームIDとセカンダリのボリュームIDが登録されることで、管理サーバ100は、互いに同期される仮想ボリュームのペアを判別することができる。
図10は、割り当て管理テーブルの例を示す図である。図10に示すように、管理サーバ100の記憶部110には、プライマリのストレージ装置200用の割り当て管理テーブル112aとセカンダリのストレージ装置300用の割り当て管理テーブル112bとが記憶される。
割り当て管理テーブル112aには、プライマリのストレージ装置200に定義された仮想ボリューム209の分割領域のうち、データが格納された分割領域ごとにレコードが作成される。各レコードは、論理アドレス、サブプールID、IOPS情報の項目を有する。論理アドレスの項目には、仮想ボリューム209における分割領域の先頭論理アドレスが登録される。サブプールIDの項目には、分割領域に割り当てられたサブプールを識別する情報が登録される。IOPS情報の項目には、分割領域に格納されたデータについてのIOPSの値が登録される。
割り当て管理テーブル112bも、割り当て管理テーブル112aと同様のデータ構成を有する。すなわち、割り当て管理テーブル112bには、セカンダリのストレージ装置300に定義された仮想ボリューム309の分割領域のうち、データが格納された分割領域ごとにレコードが作成される。各レコードは、論理アドレス、サブプールID、IOPS情報の項目を有する。論理アドレスの項目には、仮想ボリューム309における分割領域の先頭論理アドレスが登録される。サブプールIDの項目には、分割領域に割り当てられたサブプールを識別する情報が登録される。IOPS情報の項目には、分割領域に格納されたデータについてのIOPSの値が登録される。
情報取得部120は、ストレージ装置200,300のうち、アクティブ状態のストレージ装置から、各分割領域に格納されたデータについて計測されたIOPSを取得し、当該ストレージ装置に対応する割り当て管理テーブルのIOPS情報の項目に登録する。再配置制御部130は、アクティブ状態のストレージ装置に対応する割り当て管理テーブルのIOPS情報に基づいて、当該ストレージ装置に定義された仮想ボリュームについてデータの再配置が必要かを判定する。
また、情報取得部120は、スタンバイ状態のストレージ装置に対応する割り当て管理テーブルのIOPS情報の項目にも、アクティブ状態のストレージ装置から取得したIOPSを登録する。すなわち、情報取得部120は、スタンバイ状態のストレージ装置に対応する割り当て管理テーブルに登録されるIOPSを、アクティブ状態のストレージ装置において計測されたIOPSに置き換える。
再配置制御部130は、スタンバイ状態のストレージ装置に対応する割り当て管理テーブルのIOPS情報に基づいて、当該ストレージ装置に定義された仮想ボリュームについてデータの再配置が必要かを判定する。これにより、上記手順によって置き換えられたIOPSに基づいて、スタンバイ状態のストレージ装置におけるデータの再配置が行われることになる。よって、スタンバイ状態のストレージ装置内の仮想ボリュームのデータが、アクティブ状態のストレージ装置内の仮想ボリュームのデータと同様に、業務サーバ400からのアクセス頻度に応じた適切なサブプールに配置されるようになる。ストレージ装置200,300における同じ階層のサブプールの容量が同じであれば、仮想ボリュームに格納された同一のデータは、ストレージ装置200,300において同一の階層のサブプールに配置される。
なお、図10の例では、仮想ボリュームの各分割領域のIOPSを割り当て管理テーブルで管理するものとしたが、例えば、各分割領域のIOPSは割り当て管理テーブルとは別の情報によって管理されてもよい。
また、割り当て管理テーブル112a,112bのレコードは、例えば、次のような手順によって作成される。
アクティブ状態のストレージ装置に対応する割り当て管理テーブルのレコードは、例えば、当該ストレージ装置から取得されたIOPSの情報に基づいて作成される。例えば、管理サーバ100によるIOPSリストの取得時には、アクティブ状態のストレージ装置から管理サーバ100に対して、当該ストレージ装置内の仮想ボリュームの分割領域の各識別情報に対するIOPSが対応付けられたIOPSリストが送信される。このIOPSリストには、データが格納されている分割領域に対してのみIOPSが登録される。
このため、例えば、仮想ボリューム内のデータ未格納の分割領域に新規データが書き込まれた場合、情報取得部120は、IOPSリストにおいて新規データが書き込まれた分割領域に新たにIOPSが登録されていることを認識することで、当該分割領域に新規データが書き込まれたことを判別できる。このとき、情報取得部120は、新規データが書き込まれた分割領域に対応するレコードを対応する割り当て管理テーブルに作成し、作成したレコードに当該分割領域の先頭論理アドレスとIOPSとを登録する。また、作成されたレコードのサブプールIDの項目には、例えば「NULL」が登録される。このサブプールIDの項目には、その後に再配置制御部130によって割り当て先のサブプールが決定されたときに、そのサブプールの識別情報が登録される。
一方、スタンバイ状態のストレージ装置に対応する割り当て管理テーブルに対しては、例えば、アクティブ状態のストレージ装置に対応する割り当て管理テーブルにおいてレコードが追加されたときに、このレコードと同じ内容のレコードが追加されればよい。あるいは、情報取得部120は、スタンバイ状態のストレージ装置からもIOPS情報を取得してもよい。このIOPS情報には、データが格納されている分割領域に対してのみ、何らかの数値(例えば、あらかじめ決められた値)が対応付けられるようにしておく。これにより、情報取得部120は、アクティブ状態のストレージ装置に対応する割り当て管理テーブルと同様の処理手順により、スタンバイ状態のストレージ装置に対応する割り当て管理テーブルにもレコードを追加することができる。
図11は、プライマリのストレージ装置に記憶される情報の例を示す図である。プライマリのストレージ装置200の記憶部210には、サブプール管理テーブル211とボリューム管理テーブル212とが記憶される。
サブプール管理テーブル211は、サブプールごとのレコードを有する。各レコードは、サブプールIDおよび未使用領域アドレスの項目を含む。サブプールIDの項目には、ストレージ装置200に設定されたサブプールを識別するための情報が登録される。未使用領域アドレスの項目には、対応するサブプールの領域のうち、仮想ボリュームの分割領域に割り当てられていない領域の物理アドレスを示す情報が登録される。
ボリューム管理テーブル212は、ストレージ装置200に定義された仮想ボリューム209の分割領域ごとのレコードを有する。各レコードは、論理アドレス、サブプールID、物理アドレスおよびIOPS情報の項目を含む。論理アドレスの項目には、仮想ボリューム209における分割領域の先頭論理アドレスが登録される。サブプールIDの項目には、分割領域に割り当てられているサブプールの識別情報が登録される。物理アドレスの項目には、分割領域に割り当てられている、サブプール内の位置情報を示す物理アドレスが登録される。IOPS情報の項目には、分割領域に格納されたデータについて計測されたIOPSの値が登録される。
ストレージ装置200のアクセス制御部220は、業務サーバ400から仮想ボリューム209に対するアクセス要求を受信したとき、ボリューム管理テーブル212を参照する。例えば、仮想ボリューム209におけるデータ格納済みの分割領域に対するアクセスを受信した場合、アクセス制御部220は、ボリューム管理テーブル212から、アクセス先の分割領域の論理アドレスが登録されたレコードを特定する。アクセス制御部220は、特定したレコードに登録されたサブプールIDおよび物理アドレスを用いて、データにアクセスする。
一方、仮想ボリューム209におけるデータ未格納の分割領域に対するデータの書き込み要求を受信した場合、アクセス制御部220は、ボリューム管理テーブル212から、書き込み先の分割領域の論理アドレスが登録されたレコードを特定する。アクセス制御部220は、特定したレコードにサブプールIDおよび物理アドレスが登録されていないと判定すると、サブプール管理テーブル211内の1つのレコードを参照する。参照先のレコードは、例えば、あらかじめ決められたサブプールに対応するレコードであってもよいし、あるいは、未使用領域が最も大きいサブプールに対応するレコードであってもよい。
アクセス制御部220は、参照先のレコードの未使用領域アドレスの登録内容に基づいて、対応するサブプールから未使用の領域を選択する。アクセス制御部220は、サブプールから選択した領域の位置情報を、ボリューム管理テーブル212から特定したレコードのサブプールIDおよび物理アドレスの各項目に登録するとともに、未使用領域アドレスの登録内容を選択した領域が除外されるように更新する。そして、アクセス制御部220は、サブプールから選択した領域に、業務サーバ400から受信した書き込みデータを格納する。
なお、IOPS情報の項目には、サブプールIDおよび物理アドレスの各項目に情報が登録された後の所定のタイミングで、対応する分割領域についてのIOPSがアクセス制御部220によって計測されたときに、その計測値が登録される。それ以後、分割領域についてのIOPSはアクセス制御部220によって一定間隔で計測され、その都度、最新の計測値によってIOPS情報の項目の登録値が更新される。
図12は、セカンダリのストレージ装置に記憶される情報の例を示す図である。セカンダリのストレージ装置300の記憶部310には、サブプール管理テーブル311とボリューム管理テーブル312とが記憶される。
サブプール管理テーブル311は、ストレージ装置300に設定された各サブプールの未使用領域を管理するためのテーブルであり、そのデータ構成は図11のサブプール管理テーブル211と同様である。ボリューム管理テーブル312は、ストレージ装置300に定義された仮想ボリューム309の各分割領域に対するサブプールの領域の割り当てを管理するためのテーブルであり、そのデータ構成は図11のボリューム管理テーブル212と同様である。
次に、アクセス頻度に応じたデータの再配置処理についてフローチャートを用いて説明する。
図13は、再配置処理の例を示すフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。なお、以下の説明では、例として、ストレージ装置200がアクティブ状態であり、ストレージ装置300がスタンバイ状態であるとする。
(S11)管理サーバ100の情報取得部120は、IOPSリストの送信要求をアクティブ状態のストレージ装置200に送信する。なお、ステップS11は、所定の時間間隔で情報取得部120により実行される。例えば、所定の時間間隔とは、30分間隔である。
(S12)ストレージ装置200のアクセス制御部220は、ボリューム管理テーブル212に登録された分割領域ごとのIOPS情報をリスト化してIOPSリストを作成し、作成したIOPSリストを管理サーバ100に送信する。IOPSリストでは、データが格納されている分割領域の先頭論理アドレスとIOPS値とが対応付けられている。
(S13)管理サーバ100の情報取得部120は、受信したIOPSリストに登録された、分割領域ごとのIOPS値を、アクティブ状態のストレージ装置200用の割り当て管理テーブル112aの対応するIOPS情報の項目に上書きする。また、情報取得部120は、受信したIOPSリストに登録された、分割領域ごとのIOPS値を、スタンバイ状態のストレージ装置300用の割り当て管理テーブル112bの対応するIOPS情報の項目にも上書きする。
(S14)管理サーバ100の再配置制御部130は、アクティブ状態のストレージ装置200内の仮想ボリューム209について、再配置対象の分割領域(データを再配置すべき分割領域)を特定する。そして、再配置制御部130は、特定した分割領域と、新たな割り当て先のサブプールとを対応付けた、ストレージ装置200用の再配置リストを作成する。
例えば、再配置制御部130は、割り当て管理テーブル112aに基づいて、IOPS値が大きい順に仮想ボリューム209の分割領域をソートする。次に、再配置制御部130は、ソートした分割領域を、IOPS値が閾値Th1以上の分割領域と、IOPS値が閾値Th2以上で閾値Th1未満の分割領域と、IOPS値が閾値Th2未満の分割領域とに分類する(ただし、Th1>Th2)。
次に、再配置制御部130は、IOPS値が閾値Th1以上の分割領域の中から、現在第2のサブプール208bまたは第3のサブプール208cに割り当てられている分割領域を特定する。再配置制御部130は、特定した分割領域の先頭論理アドレスと第1のサブプール208aの識別情報とを対応付けて、ストレージ装置200用の再配置リストに登録する。
また、再配置制御部130は、IOPS値が閾値Th2以上閾値Th1未満の分割領域の中から、現在第1のサブプール208aまたは第3のサブプール208cに割り当てられている分割領域を特定する。再配置制御部130は、特定した分割領域の先頭論理アドレスと第2のサブプール208bの識別情報とを対応付けて、ストレージ装置200用の再配置リストに登録する。
さらに、再配置制御部130は、IOPS値が閾値Th2未満の分割領域の中から、現在第1のサブプール208aまたは第2のサブプール208bに割り当てられている分割領域を特定する。そして、再配置制御部130は、特定した分割領域の先頭論理アドレスと第3のサブプール208cの識別情報とを対応付けて、ストレージ装置200用の再配置リストに登録する。以上の手順により、ストレージ装置200用の再配置リストが作成される。
なお、閾値Th1,Th2が設定されていない場合には、例えば、次のようにして再配置リストが作成される。再配置制御部130は、割り当て管理テーブル112aに基づいて、IOPS値が大きい順に仮想ボリューム209の分割領域をソートする。次に、再配置制御部130は、第1のサブプール208aの空き容量を取得し、第1のサブプール208aに割り当て可能な分割領域の数を判定する。再配置制御部130は、ソートした分割領域の上位から、判定した数だけの分割領域を、第1のサブプール208aに割り当てる分割領域として特定する。再配置制御部130は、特定した分割領域のうち、第1のサブプール208a以外のサブプールに割り当てられている分割領域の先頭論理アドレスを、第1のサブプール208aの識別情報に対応付けて再配置リストに登録する。また、再配置制御部130は、第2のサブプール208b,第3のサブプール208cについても同様に、各サブプールの空き容量に基づいて、残りの分割領域の中から再配置対象の分割領域を特定して、再配置リストに登録する。
(S15)再配置制御部130は、ステップS14で作成した再配置リストをストレージ装置200に送信して、再配置の実行を指示する。
(S16)ストレージ装置200の再配置処理部240は、受信した再配置リストに基づいて再配置を実行する。
例えば、現在第2のサブプール208bに割り当てられている分割領域を第1のサブプール208aに割り当てるように指示された場合、再配置処理部240は、サブプール管理テーブル211における第1のサブプール208aに対応するレコードを参照する。再配置処理部240は、参照したレコードの未使用領域アドレスに基づいて、第1のサブプール208aから未使用領域を選択するとともに、参照したレコードの未使用領域アドレスの内容を、選択した未使用領域が除外されるように更新する。再配置処理部240は、再配置が指示された分割領域のデータを第2のサブプール208bから読み出し、第1のサブプール208aから選択した未使用領域に格納する。また、再配置処理部240は、ボリューム管理テーブル212のレコードのうち、再配置が指示された分割領域に対応するレコードのサブプールIDを、第1のサブプール208aを示すIDに書き替える。
再配置処理部240は、受信した再配置リストに登録されたすべての分割領域についてのデータの再配置が完了すると、管理サーバ100に対して再配置完了を通知する。管理サーバ100の再配置制御部130は、再配置完了の通知を受信すると、割り当て管理テーブル112aのレコードのうち、再配置リストに登録された分割領域に対応するレコードのサブプールIDを、再配置リストに登録された割り当て変更後のサブプールのIDに書き替える。
なお、ステップS14において、再配置リストに分割領域が1つも登録されなかった場合には、ステップS15,S16の処理はスキップされる。
(S17)再配置制御部130は、スタンバイ状態のストレージ装置300内の仮想ボリューム309について、再配置対象の分割領域を特定する。そして、再配置制御部130は、特定した分割領域と、新たな割り当て先のサブプールとを対応付けた、ストレージ装置300用の再配置リストを作成する。このステップS17では、割り当て管理テーブル112bに基づいて、ステップS14と同様の処理が実行される。なお、割り当て先のサブプールを判定するための閾値としては、上記の閾値Th1,Th2を用いることができる。
(S18)再配置制御部130は、ステップS17で作成した再配置リストをストレージ装置300に送信して、再配置の実行を指示する。
(S19)ストレージ装置300の再配置処理部340は、受信した再配置リストに基づいて再配置を実行する。このステップS19では、サブプール管理テーブル311およびボリューム管理テーブル312に基づいて、ステップS16と同様の処理が実行される。
再配置処理部340は、受信した再配置リストに登録されたすべての分割領域についてのデータの再配置が完了すると、管理サーバ100に対して再配置完了を通知する。管理サーバ100の再配置制御部130は、再配置完了の通知を受信すると、割り当て管理テーブル112bのレコードのうち、再配置リストに登録された分割領域に対応するレコードのサブプールIDを、再配置リストに登録された割り当て変更後のサブプールのIDに書き替える。そして、処理を終了する。
なお、ステップS17において、再配置リストに分割領域が1つも登録されなかった場合には、ステップS18,S19の処理はスキップされる。
また、図13の処理では、閾値Th1,Th2が設定されている場合、ステップS17の処理がスキップされるとともに、ステップS18では、ステップS14で作成された再配置リストがストレージ装置300に送信されてもよい。
図13の処理では、ストレージ装置200に再配置の実行をさせた後に、ストレージ装置300に再配置の実行をさせているが、ストレージ装置300に再配置の実行をされた後に、ストレージ装置200に再配置の実行をさせてもよい。
以上の図13の処理によれば、アクティブ状態のストレージ装置200において計測されたIOPS値に基づいて、ストレージ装置200の仮想ボリューム209についてのデータの再配置が行われる。これに加えて、同じIOPS値に基づいて、スタンバイ状態のストレージ装置300の仮想ボリューム309についてもデータの再配置が実行される。これにより、仮想ボリューム309に含まれるデータは、仮想ボリューム209における対応するデータのアクセス頻度に応じて、適切な階層のサブプールに配置される。従って、フェイルオーバが発生し、ストレージ装置300のアクセス制御部320が業務サーバ400から仮想ボリューム309へのアクセス要求を受ける状態になったときに、アクセス要求に対する応答速度がフェイルオーバの前よりも低下することを防止できる。
[第3の実施の形態]
図14は、第3の実施の形態のストレージシステムの構成例を示す図である。図14では、第2の実施の形態と同じ構成要素には同じ符号を付して示し、その説明を省略する。
第2の実施の形態のストレージシステムでは、管理サーバ100が1つである。そのため、管理サーバ100が故障すると、ストレージ装置200,300においてデータの再配置処理が行われなくなる。そこで、第3の実施の形態では、管理サーバ100の処理を仮想マシンに実行させるとともに、この仮想マシンを冗長化して、アクティブ状態の仮想マシンが停止したときにフェイルオーバできるようにする。
図14に示すように、第3の実施の形態のストレージシステムは、管理サーバ100の代わりにサーバ600a,600bを有する。サーバ600a,600bは、図示しないネットワーク900(例えば、LAN)を介してストレージ装置200,300に接続されている。
サーバ600aでは、管理サーバ100と同様の処理を行う管理サーバ100aが、仮想マシンとして動作する。また、サーバ600bでは、管理サーバ100と同様の処理を行う管理サーバ100bが、仮想マシンとして動作する。管理サーバ100a,100bは、冗長化された仮想マシンとしてグループ化(クラスタリング)される。これにより、管理サーバ100a,100bのうちの一方がアクティブ状態のとき、他方はスタンバイ状態となる。管理サーバ100aがアクティブ状態のとき、管理サーバ100aにおいて、情報取得部120および再配置制御部130の処理が実行される。また、管理サーバ100bがアクティブ状態のとき、管理サーバ100bにおいて、情報取得部120および再配置制御部130の処理が実行される。そして、アクティブ状態の管理サーバの動作が停止したとき、スタンバイ状態の管理サーバがアクティブ状態に遷移して、情報取得部120および再配置制御部130の処理を引き継ぐ。
また、管理サーバ100aが備える仮想ディスクの実記憶領域は、ストレージ装置200によって実現される。ストレージ装置200には、管理サーバ100aが備える仮想ディスクに対応する仮想ボリューム209aが設定される。仮想ボリューム209aには、例えば、グループ管理テーブル111および割り当て管理テーブル112a,112bが記憶され、各テーブルが管理サーバ100aによって参照される。
一方、管理サーバ100bが備える仮想ディスクの実記憶領域は、ストレージ装置300によって実現される。ストレージ装置300には、管理サーバ100bが備える仮想ディスクに対応する仮想ボリューム309aが設定される。仮想ボリューム309aには、例えば、グループ管理テーブル111および割り当て管理テーブル112a,112bが記憶され、各テーブルが管理サーバ100bによって参照される。
仮想ボリューム209aと仮想ボリューム309aは、同期される。また、仮想ボリューム209a,309aは、仮想ボリューム209,309と同様に、管理サーバ100a,100bのうちアクティブ状態の管理サーバによる記憶領域の階層制御の対象となる。
例えば、管理サーバ100aがアクティブ状態であるとすると、ストレージ装置200は、仮想ボリューム209aが更新されると、その更新内容を即座に仮想ボリューム309aにも反映させる。これにより、仮想ボリューム209aと仮想ボリューム309aには、登録内容が同一のグループ管理テーブル111および割り当て管理テーブル112a,112bが記憶される。
また、管理サーバ100aの情報取得部120は、管理サーバ100aからの仮想ボリューム209aの各分割領域に対するIOPSの計測値を、ストレージ装置200から取得する。管理サーバ100aの再配置制御部130は、取得したIOPS値に基づいて、仮想ボリューム209aの各分割領域の割り当て先のサブプールを最適化する。これとともに、管理サーバ100aの再配置制御部130は、取得したIOPS値に基づいて、仮想ボリューム209bの各分割領域の割り当て先のサブプールも最適化する。
ここで、フェイルオーバが発生して管理サーバ100bがアクティブ状態に遷移すると、管理サーバ100bは、仮想ボリューム309a内のグループ管理テーブル111および割り当て管理テーブル112bを参照しながら処理を継続する。上記のように、仮想ボリューム309aの各分割領域の割り当て先のサブプールは、IOPSに応じて最適化されている。このため、管理サーバ100bから仮想ボリューム309aへのアクセス要求に対する応答速度は、フェイルオーバの発生前における、管理サーバ100aから仮想ボリューム209aへのアクセス要求に対する応答速度と同等に維持される。従って、フェイルオーバ後の管理サーバ100bの処理速度も、フェイルオーバ前の管理サーバ100aの処理速度と同等に維持される。
また、管理サーバ100bがアクティブ状態に遷移したとき、仮想ボリューム209a内の対応するテーブルと同期化された、仮想ボリューム309a内のグループ管理テーブル111および割り当て管理テーブル112bが、管理サーバ100bから参照される。これにより、管理サーバ100bは、フェイルオーバ前の管理サーバ100aの処理を、上記各テーブルへのアクセス性能を低下させることなく引き継ぐことができる。
なお、上記の各実施の形態に示した装置(例えば、ストレージ管理装置1、管理サーバ100、CM201,301、業務サーバ400、サーバ600a,600b)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM(Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MOなどがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
なお、各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
1 ストレージ管理装置
1a 取得部
1b 制御部
2,3 ストレージ装置
2a,3a 第1階層の記憶領域
2b,3b 第2階層の記憶領域
4 ホスト装置
5 頻度情報
6 指示情報

Claims (4)

  1. ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、前記第1のストレージ装置が運用状態であり、前記第2のストレージ装置が待機状態であり、前記第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが前記第2のストレージ装置にバックアップされている状態において、前記複数のデータのそれぞれに対する前記ホスト装置からのアクセス頻度を示す頻度情報を前記第1のストレージ装置から取得する取得部と、
    前記頻度情報に基づいて、前記複数のバックアップデータのそれぞれを、前記第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、前記複数のバックアップデータのそれぞれが前記複数の記憶領域のうち前記決定処理で決定された記憶領域に配置されるように指示する指示情報を前記第2のストレージ装置に送信する制御部と、
    を有するストレージ管理装置。
  2. 前記制御部は、前記指示情報を前記第2のストレージ装置に送信するとともに、前記頻度情報に基づいて、前記複数のデータのそれぞれを、前記第1のストレージ装置が有するアクセス性能が異なる複数の運用側記憶領域のうちのどこに配置するかを決定する運用側決定処理を実行し、前記複数のデータのそれぞれが前記複数の運用側記憶領域のうち前記運用側決定処理で決定された運用側記憶領域に配置されるように指示する運用側指示情報を前記第1のストレージ装置に送信する、
    請求項1記載のストレージ管理装置。
  3. ストレージ管理装置が、
    ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、前記第1のストレージ装置が運用状態であり、前記第2のストレージ装置が待機状態であり、前記第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが前記第2のストレージ装置にバックアップされている状態において、前記複数のデータのそれぞれに対する前記ホスト装置からのアクセス頻度を示す頻度情報を前記第1のストレージ装置から取得し、
    前記頻度情報に基づいて、前記複数のバックアップデータのそれぞれを、前記第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、前記複数のバックアップデータのそれぞれが前記複数の記憶領域のうち前記決定処理で決定された記憶領域に配置されるように指示する指示情報を前記第2のストレージ装置に送信する、
    ストレージ管理方法。
  4. コンピュータに、
    ホスト装置からのアクセスを受け付けることが可能な第1のストレージ装置と第2のストレージ装置のうち、前記第1のストレージ装置が運用状態であり、前記第2のストレージ装置が待機状態であり、前記第1のストレージ装置に記憶された複数のデータにそれぞれ対応する複数のバックアップデータが前記第2のストレージ装置にバックアップされている状態において、前記複数のデータのそれぞれに対する前記ホスト装置からのアクセス頻度を示す頻度情報を前記第1のストレージ装置から取得し、
    前記頻度情報に基づいて、前記複数のバックアップデータのそれぞれを、前記第2のストレージ装置が提供するアクセス性能が異なる複数の記憶領域のうちのどれに配置するかを決定する決定処理を実行し、前記複数のバックアップデータのそれぞれが前記複数の記憶領域のうち前記決定処理で決定された記憶領域に配置されるように指示する指示情報を前記第2のストレージ装置に送信する、
    処理を実行させるストレージ管理プログラム。
JP2014256525A 2014-12-18 2014-12-18 ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム Active JP6511795B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014256525A JP6511795B2 (ja) 2014-12-18 2014-12-18 ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム
US14/929,694 US9971527B2 (en) 2014-12-18 2015-11-02 Apparatus and method for managing storage for placing backup data into data blocks based on frequency information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014256525A JP6511795B2 (ja) 2014-12-18 2014-12-18 ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム

Publications (2)

Publication Number Publication Date
JP2016118821A true JP2016118821A (ja) 2016-06-30
JP6511795B2 JP6511795B2 (ja) 2019-05-15

Family

ID=56129414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014256525A Active JP6511795B2 (ja) 2014-12-18 2014-12-18 ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム

Country Status (2)

Country Link
US (1) US9971527B2 (ja)
JP (1) JP6511795B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018271A (ja) * 2016-07-27 2018-02-01 富士通株式会社 ストレージ制御装置、ストレージシステムおよびストレージ制御プログラム
JP2018169772A (ja) * 2017-03-29 2018-11-01 日本電気株式会社 ディザスタリカバリシステム、ディザスタリカバリ方法及びプログラム
JP2022072408A (ja) * 2020-10-29 2022-05-17 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル再配置方法
JP2023003824A (ja) * 2021-06-24 2023-01-17 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル配置方法
JP7442523B2 (ja) 2019-01-08 2024-03-04 インターナショナル・ビジネス・マシーンズ・コーポレーション ワークロードの特性を使用したストレージ層間のデータ転送によるデータ性能の向上

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708948B2 (ja) * 2016-01-21 2020-06-10 日本電気株式会社 ブロックストレージ
US10942907B2 (en) 2016-11-04 2021-03-09 Oracle International Corporation Safe release of database sessions for planned maintenance operations
US11556500B2 (en) * 2017-09-29 2023-01-17 Oracle International Corporation Session templates
US10620868B1 (en) * 2019-03-22 2020-04-14 Hitachi, Ltd. Storage system and data transfer method
JP6898393B2 (ja) 2019-03-22 2021-07-07 株式会社日立製作所 ストレージシステム及びデータ転送方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164714A (ja) * 2011-02-03 2012-08-30 Rohm Co Ltd 半導体装置の製造方法および半導体装置
JP2014516442A (ja) * 2011-08-01 2014-07-10 株式会社日立製作所 計算機システム及びデータ管理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248605A (ja) 2002-02-26 2003-09-05 Hitachi Ltd ストレージシステム、主記憶システム、副記憶システム、及びそのデータ複写方法
JP4404246B2 (ja) * 2003-09-12 2010-01-27 株式会社日立製作所 データ特性に基づくバックアップシステム及び方法
US20070239803A1 (en) 2006-03-28 2007-10-11 Yasuyuki Mimatsu Remote mirroring method between tiered storage systems
JP2007328468A (ja) 2006-06-06 2007-12-20 Hitachi Ltd ストレージシステム及びストレージシステムのボリューム管理方法
US7870128B2 (en) * 2006-07-28 2011-01-11 Diskeeper Corporation Assigning data for storage based on speed with which data may be retrieved
WO2011111093A1 (ja) 2010-03-09 2011-09-15 株式会社日立製作所 ボリューム管理装置及びストレージシステム
US8984027B1 (en) * 2011-07-28 2015-03-17 Symantec Corporation Systems and methods for migrating files to tiered storage systems
US8935568B2 (en) * 2012-07-27 2015-01-13 Dell Products, Lp System and method of replicating virtual machines for live migration between data centers
WO2014174653A1 (ja) * 2013-04-26 2014-10-30 株式会社日立製作所 ストレージシステム
US20140351515A1 (en) * 2013-05-21 2014-11-27 International Business Machines Corporation Providing data attributes to a storage manager to use to select a storage tier to use for a data set management operation
US9459809B1 (en) * 2014-06-30 2016-10-04 Emc Corporation Optimizing data location in data storage arrays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164714A (ja) * 2011-02-03 2012-08-30 Rohm Co Ltd 半導体装置の製造方法および半導体装置
JP2014516442A (ja) * 2011-08-01 2014-07-10 株式会社日立製作所 計算機システム及びデータ管理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018271A (ja) * 2016-07-27 2018-02-01 富士通株式会社 ストレージ制御装置、ストレージシステムおよびストレージ制御プログラム
US10747432B2 (en) 2016-07-27 2020-08-18 Fujitsu Limiited Storage device, storage system, and storage control method
JP2018169772A (ja) * 2017-03-29 2018-11-01 日本電気株式会社 ディザスタリカバリシステム、ディザスタリカバリ方法及びプログラム
JP7442523B2 (ja) 2019-01-08 2024-03-04 インターナショナル・ビジネス・マシーンズ・コーポレーション ワークロードの特性を使用したストレージ層間のデータ転送によるデータ性能の向上
JP2022072408A (ja) * 2020-10-29 2022-05-17 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル再配置方法
JP7219746B2 (ja) 2020-10-29 2023-02-08 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル再配置方法
JP2023003824A (ja) * 2021-06-24 2023-01-17 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル配置方法
JP7319326B2 (ja) 2021-06-24 2023-08-01 株式会社日立製作所 ストレージシステム及びストレージシステムのファイル配置方法
US11748000B2 (en) 2021-06-24 2023-09-05 Hitachi, Ltd. Storage system and file arrangement method of storage system

Also Published As

Publication number Publication date
US20160179420A1 (en) 2016-06-23
JP6511795B2 (ja) 2019-05-15
US9971527B2 (en) 2018-05-15

Similar Documents

Publication Publication Date Title
JP6511795B2 (ja) ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム
US9747036B2 (en) Tiered storage device providing for migration of prioritized application specific data responsive to frequently referenced data
US7966470B2 (en) Apparatus and method for managing logical volume in distributed storage systems
US8566550B2 (en) Application and tier configuration management in dynamic page reallocation storage system
US8103826B2 (en) Volume management for network-type storage devices
JP5685676B2 (ja) 計算機システム及びデータ管理方法
US8122213B2 (en) System and method for migration of data
US7395370B2 (en) Computer system, data management method, and program for determining a migration method based on prediction of a migration influence
US8578121B2 (en) Computer system and control method of the same
JP4235220B2 (ja) 計算機システムおよびデータ移行方法
US8386707B2 (en) Virtual disk management program, storage device management program, multinode storage system, and virtual disk managing method
US10789007B2 (en) Information processing system, management device, and control method
US9582214B2 (en) Data access method and data access apparatus for managing initialization of storage areas
JP5104855B2 (ja) 負荷分散プログラム、負荷分散方法、及びストレージ管理装置
JPWO2011117925A1 (ja) ストレージ装置及びその制御方法
US10884622B2 (en) Storage area network having fabric-attached storage drives, SAN agent-executing client devices, and SAN manager that manages logical volume without handling data transfer between client computing device and storage drive that provides drive volume of the logical volume
US20180341423A1 (en) Storage control device and information processing system
US8949559B2 (en) Storage system and performance management method of storage system
US6341317B1 (en) Method and apparatus for managing a log of information in a computer system including an intelligent storage system
US20130159656A1 (en) Controller, computer-readable recording medium, and apparatus
JP6974706B2 (ja) 情報処理装置、ストレージシステムおよびプログラム
JP2017130130A (ja) ストレージ装置、仮想ボリューム制御システムおよび仮想ボリューム制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R150 Certificate of patent or registration of utility model

Ref document number: 6511795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150