JP2013125437A - 制御装置、プログラムおよびストレージ装置 - Google Patents

制御装置、プログラムおよびストレージ装置 Download PDF

Info

Publication number
JP2013125437A
JP2013125437A JP2011274305A JP2011274305A JP2013125437A JP 2013125437 A JP2013125437 A JP 2013125437A JP 2011274305 A JP2011274305 A JP 2011274305A JP 2011274305 A JP2011274305 A JP 2011274305A JP 2013125437 A JP2013125437 A JP 2013125437A
Authority
JP
Japan
Prior art keywords
data
storage
disk
control unit
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011274305A
Other languages
English (en)
Inventor
Hiroshi Koarashi
弘 小嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011274305A priority Critical patent/JP2013125437A/ja
Priority to US13/609,630 priority patent/US20130159656A1/en
Publication of JP2013125437A publication Critical patent/JP2013125437A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データ移行処理中のデータ移行先の記憶装置の減少に対応できること。
【解決手段】記憶部2aは、書き込まれるデータブロック6間に移行用データ記録領域を形成するよう設定されたデータブロック6の書き込み位置を示す制御テーブル2a1を複数の物理記憶装置5a、5b、5c毎に記憶する。書き込み制御部2bは、第1の記憶領域3a1に記憶されているデータブロック6を、記憶部2aに記憶されている制御テーブル2a1に従って第2の記憶領域3b1に書き込み、物理記憶装置5bを第2の記憶領域3b1から開放する開放要求をデータ移行時に受け付けると、物理記憶装置5bに記憶されているデータブロック6を、第2の記憶領域3b1を割り当てている物理記憶装置5aに形成された移行用データ記録領域に移行する。開放部2cは、物理記憶装置5bに記憶されているデータブロック6の移行が完了すると、開放対象の物理記憶装置5bを開放する。
【選択図】図1

Description

本発明は制御装置、プログラムおよびストレージ装置に関する。
RAID(Redundant Arrays of Inexpensive Disks)を構成し、一定のパターンの冗長ディスク格納を提供する技術が知られている。
また、RAIDを構成するディスクの故障に備えてホットスペアディスクを作成する技術が知られている。活動状態の格納デバイスが故障したときには、故障した格納デバイスはホットスペアディスクと論理的に置き換えられ、データはホットスペアディスクの上に移動するかまたは再作成される。
さらにホットスペアディスクを複数の格納デバイスにおける未使用の格納容量から、仮想ホットスペアを作成する技術が知られている。
特表2008−519359号公報
ところで、仮想ホットスペアを用いてRAID構成を変更する場合を考える。仮想ホットスペアを構成するホットスペアディスクの数を多くすれば、データ読み出しを並列に実行できることから多くのホットスペアディスクを仮想ホットスペアに割り当てることで、データ移行時間を短縮することができる。反面、RAIDを構成するディスクが故障した際等に発生するホットスペア要求への備えは薄くなる。
データ移行処理中にディスクに異常が発生し、仮想ホットスペアを構成するホットスペアディスクをリカバリに割り当てる場合、データ移行処理をキャンセルすることになる。データ移行処理をキャンセルすると、キャンセル前までに処理していたデータ移行処理が無駄になってしまう。再度最初からデータ移行処理を実行すると、データ移行時間が長くなるという問題がある。
1つの側面では、本発明は、データ移行処理中のデータ移行先の記憶装置の減少に対応できることを目的とする。
上記目的を達成するために、開示の制御装置が提供される。この制御装置は、少なくとも1つの記憶装置に割り当てられたデータ移行元の第1の記憶領域から複数の記憶装置に割り当てられたデータ移行先の第2の記憶領域にデータを移行する装置であり、記憶部と、書き込み制御部と、開放部とを有している。
記憶部は、ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を複数の記憶装置毎に記憶する。
書き込み制御部は、第1の記憶領域に記憶されているデータを、記憶部に記憶されている位置情報に従って第2の記憶領域に書き込み、第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行する。
開放部は、開放対象の記憶装置に記憶されているデータの移行が完了すると、開放対象の記憶装置を開放する。
1態様では、データ移行処理中のデータ移行先の記憶装置の減少に対応することができる。
第1の実施の形態のストレージ装置を示す図である。 第1の実施の形態の開放処理を説明する図である。 第2の実施の形態のストレージシステムを示すブロック図である。 第2の実施の形態のストレージシステムの機能を示すブロック図である。 ビットマップテーブルの一例を示す図である。 ビットマップテーブルの追加を説明する図である。 ビットマップテーブルの追加を説明する図である。 制御テーブルの一例を示す図である。 RAID構成変更処理を示すフローチャートである。 RAID構成変更処理の具体例を説明する図である。 RAID構成変更処理の具体例を説明する図である。 RAID構成変更処理の具体例を説明する図である。 RAID構成変更処理の具体例を説明する図である。 データ書き込み時の処理を示すフローチャートである。 データ書き込み時の処理の具体例を説明する図である。 ディスク開放処理を示すフローチャートである。 ディスク開放処理の具体例を説明する図である。 ディスク追加処理を示すフローチャートである。 ディスク追加処理の具体例を説明する図である。 データ集約処理を示すフローチャートである。
以下、実施の形態のストレージ装置を、図面を参照して詳細に説明する。
<第1の実施の形態>
図1は、第1の実施の形態のストレージ装置を示す図である。
第1の実施の形態のストレージ装置1は、制御装置2と、記憶装置群3とを有している。記憶装置群3は複数の物理記憶装置で構成されている。物理記憶装置としては、HDD(Hard Disk Drive)や、SSD(State Solid Drive)等が挙げられる。図1に示す論理記憶装置3aは、記憶装置群3を構成する物理記憶装置のうち、少なくとも1つの物理記憶装置の記憶領域を用いて作成された論理的な記憶装置である。論理記憶装置3aは、制御装置2とネットワークを介して接続されたサーバ装置4が利用する記憶装置である。この論理記憶装置3aとしては、RAIDが構成された装置を例示することができる。
仮想記憶装置3bは、論理記憶装置3aの記憶領域の拡張に伴い記憶装置群3内に一時的に作成される記憶装置である。仮想記憶装置3bは、複数の物理記憶装置5a、5b、5cそれぞれの少なくとも一部の記憶領域が割り当てられている。論理記憶装置3aの記憶領域を拡張する際には、制御装置2は、論理記憶装置3aに記憶されているデータの少なくとも一部を、仮想記憶装置3bの少なくとも一部が割り当てられている第2の記憶領域3b1に書き込む。本実施の形態では、制御装置2は、所定の記憶容量(以下、データブロックという)単位で第1の記憶領域3a1に記憶されているデータを第2の記憶領域3b1に書き込む。データブロック6内の数字は、説明を分かり易くするために付加しているものであり第2の記憶領域3b1に書き込まれたデータブロック6は、物理記憶装置5a、5b、5cのいずれかに集約され、集約された物理記憶装置が論理記憶装置3aに追加されることで、論理記憶装置3aの記憶領域が拡張される。
制御装置2は、論理記憶装置3aのデータ移行元の第1の記憶領域3a1からデータ移行先の第2の記憶領域3b1にデータブロック6を移行する機能を有している。
制御装置2は、記憶部2aと、書き込み制御部2bと、開放部2cとを有している。
記憶部2aは、仮想記憶装置3bを割り当てている物理記憶装置5a、5b、5c毎に設定されたデータブロック6の書き込み方法に関する制御テーブル2a1を記憶する。なお、記憶部2aは、制御装置2が有するRAM(Random Access Memory)等が備えるデータ記憶領域により実現することができる。また、書き込み制御部2bおよび開放部2cは、制御装置2が有するCPU(Central Processing Unit)により実現することができる。
制御テーブル2a1には、左側から右側に向かって、書き込みを開始するデータブロック番号「1」、仮想記憶装置3bを割り当てている物理記憶装置5a、5b、5cの数(以下、装置数という)「3」、第1の記憶領域3a1から第2の記憶領域3b1に書き込んだデータブロックの数(以下、総書き込み回数という)「6」、物理記憶装置5a、5b、5cの書き込み情報が設定されている。書き込み情報は、データブロック6間に移行用データ記録領域を形成して書き込むよう設定されたデータブロック6の書き込み位置を示す位置情報が設定されている。例えば物理記憶装置5aの書き込み情報には、物理記憶装置5aを識別する装置名「disk1」、物理記憶装置5aの第2の記憶領域3b1における書き込み先頭位置「0」、一度に書き込むデータブロック6の数(以下、データブロック数という)「1」、および物理記憶装置5aに書き込んだデータブロック6の数(以下、書き込み回数という)「2」が設定されている。
書き込み制御部2bは、論理記憶装置3aから仮想記憶装置3bへのデータ移行時に、第1の記憶領域3a1に記憶されているデータを、制御テーブル2a1の物理記憶装置5a、5b、5cに関する書き込み情報に従って仮想記憶装置3bの第2の記憶領域3b1に書き込む。以下、書き込み方法を説明する。書き込み開始時の制御テーブル2a1の第1の記憶領域3a1から第2の記憶領域3b1に書き込んだデータブロック6の数は「0」、物理記憶装置5a、5b、5cに書き込んだデータブロック6の数は、それぞれ「0」である。
書き込み制御部2bは、まず、物理記憶装置5aの書き込み位置を算出する。書き込み位置は、「書き込み先頭位置」+「データブロック数」×「装置数」×「物理記憶装置5aの書き込み回数」=0+1×3×0=0となる。同様に、物理記憶装置5bの書き込み位置は、1+1×3×0=1となる。物理記憶装置5cの書き込み位置は、2+1×3×0=2となる。図1の物理記憶装置5a、5bとの間、また物理記憶装置5b、5cとの間には、書き込み位置を示す数字を示している。
次に、書き込み制御部2bは、物理記憶装置5a、5b、5cの算出した書き込み位置からデータブロック数分のデータブロックを書き込む。書き込みが完了すると、書き込み制御部2bは、制御テーブル2a1の物理記憶装置5a、5b、5cそれぞれの書き込み回数をそれぞれ1つ増やす。これにより、物理記憶装置5a、5b、5cの書き込み回数は、0から1になる。書き込み制御部2bは、物理記憶装置5a、5b、5cへの書き込みが完了したら、制御テーブル2a1の総書き込み回数を装置数「3」だけ増やす。これにより、総書き込み回数は0から3になる。
次に、書き込み制御部2bは、再び物理記憶装置5aの書き込み位置を算出する。「書き込み先頭位置」+「データブロック数」×「装置数」×「書き込み回数」=0+1×3×1=3となる。同様に、物理記憶装置5bの書き込み位置は、1+1×3×1=4となる。物理記憶装置5cの書き込み位置は、2+1×3×1=5となる。
図1は、書き込み位置に書き込んだデータブロック6を示している。本実施の形態の書き込み方法では、物理記憶装置5a、5b、5cへの書き込み位置をずらして書き込むことにより、第2の記憶領域3b1において、物理記憶装置5a、5b、5c内で書き込み位置が重ならないようになっている。これにより、物理記憶装置5a、5b、5cそれぞれに記憶されるデータブロック6間に移行用データ記録領域が形成され、次に述べるデータの退避が容易になる。
ところで、書き込み制御部2bは、仮想記憶装置3bを割り当てている物理記憶装置5a、5b、5cのうち、物理記憶装置5bを第2の記憶領域3b1から開放する開放要求をデータ移行時に受け付けると、開放処理を実行する。
図2は、第1の実施の形態の開放処理を説明する図である。
開放処理では、開放対象の物理記憶装置5bに記憶されているデータブロックを、仮想記憶装置3bを割り当てている残りの物理記憶装置5aに形成された移行用データ記録領域に移行(退避)する。
具体的には、書き込み制御部2bは、物理記憶装置5bの書き込み位置「1」に書き込まれたデータブロック6を読み出す。そして、書き込み制御部2bは、読み出したデータブロック6を物理記憶装置5aの書き込み位置「1」に書き込む。また、書き込み制御部2bは、物理記憶装置5bの書き込み位置「4」に書き込まれたデータブロック6を読み出す。そして、書き込み制御部2bは、読み出したデータブロック6を物理記憶装置5aの書き込み位置「4」に書き込む。そして、物理記憶装置5bに書き込まれている全てのデータブロック6を物理記憶装置5aに移行すると、書き込み制御部2bは、制御テーブル2a1の物理記憶装置5bに関する情報を削除する。そして、制御テーブル2a1の物理記憶装置5aのデータブロック数を1つ増やして2に設定する。そして、装置数の欄の値を1つ減らして2に設定する。図2に示す制御テーブル2a1は、ディスク開放処理が完了したときの状態を示している。
次に、開放部2cは、物理記憶装置5bを開放する。その後、書き込み制御部2bは、図2に示す制御テーブル2a1を用いてデータ移行処理を継続して実行する。
本実施の形態のストレージ装置1によれば、データ移行処理中においても仮想記憶装置3bを割り当てている物理記憶装置5aの減少に対応して仮想記憶装置3bの割り当てを変更することができる。従って、例えばホットスペアディスクを物理記憶装置5a〜5cに割り当ててデータ移行処理を実行している場合に、ホットスペアディスクを別途使用する要求に応じてもホットスペアディスクを開放してデータ移行処理を継続できる。これにより、データ移行時間を短縮することができる。
以下、第2の実施の形態において、開示のストレージ装置をより具体的に説明する。
<第2の実施の形態>
図3は、第2の実施の形態のストレージシステムを示すブロック図である。
ストレージシステム1000は、サーバ装置30と、サーバ装置30にファイバチャネル(FC:Fibre Channel)スイッチ40およびネットワークスイッチ50を介して接続されたストレージ装置100とを有している。
ストレージ装置100は、NAS(Network Attached Storage)であり、複数のHDD20を備えるドライブエンクロージャ(DE:Drive Enclosure)20aと、このドライブエンクロージャ20aの物理記憶領域をRAIDによって管理する制御モジュール10を有している。制御モジュール10は、制御装置の一例である。なお、本実施の形態では、ドライブエンクロージャ20aが備える記憶媒体としては、HDD20を例示したが、HDD20に限らず、SSD等、他の記憶媒体を用いてもよい。以下、ドライブエンクロージャ20aが備える複数のHDD20を区別しない場合は、「HDD20群」という。
なお、ストレージ装置100が備える制御モジュールの数は、1つに限定されず、2つ以上の制御モジュールによりHDD20群の制御の冗長性が確保されていてもよい。また、本実施の形態では、NASのストレージ装置100を説明するが、制御モジュール10が備える機能は、SAN(Storage Area Network)等、他のストレージ装置にも適用することができる。
制御モジュール10は、内部バスを介してFCポート11およびNICポート12に接続されている。
FCポート11は、FCスイッチ40に接続され、FCスイッチ40を介してサーバ装置30に接続される。FCポート11は、サーバ装置30と制御モジュール10との間でデータを送受信するインタフェース機能をFCする。
NICポート12は、ネットワークスイッチ50に接続され、ネットワークスイッチ50を介してサーバ装置30に接続されている。NICポート12は、サーバ装置30と制御モジュール10との間でNFS(Network File System)、CIFS(Common Internet File System)、HTTP(HyperText Transfer Protocol)等のプロトコルを用いてファイルを送受信する。
制御モジュール10は、CPU101と、RAM102と、フラッシュROM(Read Only Memory)103と、キャッシュメモリ104と、デバイスインタフェース(DI:Device Interface)105とを備えている。
CPU101は、フラッシュROM103等に記憶されたプログラムを実行することにより、制御モジュール10全体を統括的に制御する。
RAM102は、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部や、プログラムによる処理に必要な各種データを一時的に記憶する。RAM102は、記憶部の一例である。
フラッシュROM103は、不揮発性のメモリであり、CPU101により実行されるOSのプログラム、アプリケーションプログラムや、プログラムの実行に必要な各種のデータ等を記憶する。また、フラッシュROM103は、ストレージ装置100の停電時等にキャッシュメモリ104に記憶されているデータの退避先となる。
キャッシュメモリ104は、HDD20群に書き込まれているファイルやHDD20群から読み出したファイルを一時的に記憶する。
そして、制御モジュール10は、例えばサーバ装置30からのファイル読み出し命令を受けたときに、読み出し対象のファイルがキャッシュメモリ104に記憶されているか否かを判断する。読み出し対象のファイルがキャッシュメモリ104に記憶されていれば、制御モジュール10は、キャッシュメモリ104に記憶されている読み出し対象のファイルをサーバ装置30に送る。読み出し対象のファイルをHDD20群から読み出す場合に比べ、ファイルを迅速にサーバ装置30に送ることができる。
また、キャッシュメモリ104には、CPU101による処理に必要なファイルが一時的に記憶されてもよい。このキャッシュメモリ104としては、例えば、SRAM(Static RAM)等の揮発性の半導体装置が挙げられる。また、キャッシュメモリ104の記憶容量は、特に限定されないが、一例として2〜64GB程度である。
デバイスインタフェース105は、ドライブエンクロージャ20aに接続されている。このデバイスインタフェース105は、ドライブエンクロージャ20aが備えるHDD20群とキャッシュメモリ104との間でファイルを送受信するインタフェース機能を提供する。制御モジュール10は、デバイスインタフェース105を介してドライブエンクロージャ20aが備えるHDD20群との間でファイルの送受信を行う。
ドライブI/F制御部106は、LAN等の通信回線で磁気テープ装置60に接続されている。ドライブI/F制御部106は、磁気テープ装置60との間でデータをやりとりする。磁気テープ装置60は、磁気テープ61に記憶されたデータの再生機能と、磁気テープ61にデータを記憶する記憶機能とを有する。
制御モジュール10は、磁気テープ61に書き込まれた1つのブロックを1つの物理ブロックIDで管理する。なお、磁気テープ61の種別は、例えばLTO(Liner Tape Open)規格のテープ等が挙げられる。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
図3に示すようなハードウェア構成のストレージ装置100内には、以下のような機能が設けられる。
図4は、第2の実施の形態のストレージシステムの機能を示すブロック図である。
図4に示すストレージプールA0は、ドライブエンクロージャ20a内の物理ディスクによって実現される物理記憶領域である。
ストレージプールA0には、ドライブエンクロージャ20aが備える複数のHDD20のうち、1つ、または複数のHDD20により構成されたRAIDグループ21が形成されている。このRAIDグループ21は、「論理ボリューム」、「RLU(RAID Logical Unit)」等と呼ばれる場合もある。なお、RAIDグループ21を構成するHDD20は、他のHDD20と区別するために、異なる符号(HDD21a、21b、P1)を付している。RAIDグループ21を構成するHDD21a、21b、P1には、HDD21a、21b、P1それぞれの記憶領域の一部で構成される論理ブロック(ストライプ)が設定されている。サーバ装置30と制御モジュール10との間のアクセスは、論理ブロック単位で行われる。RAIDグループ21は、論理ブロック単位で分割されたデータを記憶する2つのHDD21a、21bと、パリティデータを記憶するHDD(パリティディスク)P1で構成されており、RAID4(2+1)で運用されている。
なお、RAIDグループ21のRAID構成は、一例であり、図示のRAID構成に限定されない。例えば、RAIDグループ21は、任意の個数のHDD20を有することができる。また、RAIDグループ21は、RAID6等、任意のRAID方式で構成することができる。
また、ストレージプールA0内には、RAIDグループ21以外のHDD20で構成されるスペアディスクプールA1が構成されている。制御モジュール10は、スペアディスクプールA1からRAIDグループ21に動的にHDDを割り当てることができる。以下、スペアディスクプールA1内のHDDを「スペアディスク」という。
サーバ装置30は、ファイルシステム31と、通信制御部32とを有している。
サーバ装置30は、サーバ装置30側からRAIDグループのLUN(Local Unit Number)をサーバ装置30が使用する記憶領域として認識する。そして必要に応じてパーティション分けをして、サーバ装置30のOSのファイルシステム31を適用する。サーバ装置30から制御モジュール10に対してI/O要求を送信することで、RAIDグループ21に対するデータの読み書きを行うことができる。
ファイルシステム31は、ビットマップ形式でファイルシステム31の記憶領域を管理する。
図5は、ビットマップテーブルの一例を示す図である。
ビットマップテーブルB1、B2の1つのビットは、1つの論理ブロックに対応している。ビットマップテーブルB1には、論理ブロックアドレス0〜mの使用状況(データの有無)が記憶されている。ビットマップテーブルB2には、論理ブロックアドレスm+1〜nの使用状況が記憶されている。データアクセスがあった論理ブロックのビットの値は「1」であることを示す。
ビットマップテーブルB1、B2内の何ビット目かが分かると、ファイルシステム31の先頭から何番目の論理ブロックかが決まり、その使用/未使用を把握することができる。
通信制御部32は、ストレージ装置100との連携動作を制御する。この通信制御部32は、ファイルシステム31を定期的に監視する。通信制御部32は、例えばファイルシステム31のビットマップテーブルB1、B2が一杯になると、制御モジュール10に後述するRAID構成変更処理の実行を指示する。通信制御部32は、指示に伴い、ファイルシステム31からファイルシステム31上の空き領域の位置とサイズの情報(ファイルシステムの論理ブロック番号とサイズ)を大きい順に数十個程度入手して制御モジュール10に伝える。また、ファイルシステム31は、ファイルシステム31の領域を拡張する場合は、ビットマップテーブルを新たに作成して追加した領域に対する管理を行う。
図6および図7は、ビットマップテーブルの追加を説明する図である。
図6は、RAID構成変更処理前のファイルシステム31の管理領域311、RAIDグループ21の管理領域211、およびビットマップテーブルB1、B2を示している。
RAID構成変更処理の実行に際し、ファイルシステム31は、論理ブロックアドレス0〜mを移動対象区画に決定する。
RAID制御部120は、サーバ装置30の指示に従い、移動対象区画に記憶されているデータを記憶する論理ブロックアドレスn+1〜n+mの移動先区画を用意する。
図7に示すように、RAID制御部120がRAID構成変更処理を実行すると、ファイルシステム31の移動対象区画に記憶されているデータが、用意された移動先区画に書き込まれる。そして、RAID制御部120が、移動先区画にデータが書き込まれた結果、空白となったRAIDグループ21の空白領域の管理をファイルシステム31に依頼する。ファイルシステム31は、RAIDグループ21の空白領域を、ファイルシステム31の論理ブロックアドレスn+1〜n+mに割り当てる。ファイルシステム31は、割り当てられた論理ブロックアドレスn+1〜n+mを管理するビットマップテーブルB3を作成し、この空白領域を管理する。
再び図4に戻って説明する。
制御モジュール10は、FCP/NAS制御部110と、RAID制御部120と、テープ制御部130とを有している。RAID制御部120は、書き込み制御部と開放部の一例である。
FCP/NAS制御部110は、RAID制御部120との間でサーバ装置30が特定したLUNに対するFCP/NASのI/O制御を行う。
RAID制御部120は、RAIDグループ21を構成するHDDを制御する。具体的には、RAID制御部120は、FCP/NAS制御部110から、RAIDグループ21に対するI/O要求を受け付けると、RAIDに関する設定情報に基づいて、データが冗長化されるように書き込み処理を行う。
また、RAID制御部120は、FCP/NAS制御部110から、RAIDグループ21からのデータの読み出し要求を受けると、読み出し領域を示すアドレスを判別する。RAID制御部120は、読み出し領域を示すアドレスから読み出されたデータをサーバ装置30に送信する。
また、RAID制御部120は、スペアディスクプールA1に存在するHDD20を管理する。
また、RAID制御部120は、サーバ装置30の指示に応じてRAIDグループ21のRAID構成を変更する処理(以下、「RAID構成変更処理」という)を実行する。RAID制御部120は、RAID構成変更処理を実行する場合、スペアディスクプールA1内の1つまたは複数のスペアディスクからRAIDグループ21のデータの移行先となる仮想ディスクを作成する。RAID制御部120は、RAID構成変更処理において、制御テーブル121を用いてRAIDグループ21に記憶されている一部のデータを、作成した仮想ディスクに移行する。なお、制御テーブル121は、RAID制御部120が作成する。その後、RAID制御部120は、仮想ディスクを構成するスペアディスクのうち1つのスペアディスクにデータを集約する。そして、RAID制御部120は、データを集約したスペアディスクをRAIDグループ21に組み込む。
図8は、制御テーブルの一例を示す図である。
制御テーブル121には、エントリID、ブロック番号、構成ディスク数、総書き込み回数、およびディスク情報の欄が設けられている。
エントリIDの欄には、当該エントリ(レコード)を管理するIDが設定される。
ブロック番号の欄には、当該エントリによって仮想ディスクに書き込みを開始する論理ブロック番号が設定される。
構成ディスク数の欄には、仮想ディスクを構成するスペアディスクの数が設定される。
総書き込み回数の欄には、仮想ディスクに論理ブロック単位で書き込んだデータの数が設定される。以下、仮想ディスクを構成するスペアディスクを「構成ディスク」という。
ディスク情報の欄には、RAIDグループ21から論理ブロック単位で読み出したデータを書き込む構成ディスクに関する情報が設定される。具体的には、ディスク情報の欄には、さらに構成ディスクID、構成ディスク名、書き込み先頭位置、書き込みサイズおよび書き込み回数の欄が設けられている。
構成ディスクIDの欄には、構成ディスクを識別するIDが設定される。
構成ディスク名の欄には、論理ブロック単位で読み出したデータの書き込み先の構成ディスクのディスク名が設定される。
書き込み先頭位置の欄には、当該ディスクにデータの書き込みを開始する先頭の位置が設定される。
書き込みサイズの欄には、論理ブロック単位のデータを一度に書き込む数が設定される。
書き込み回数の欄には、読み出した論理ブロック単位のデータを構成ディスクに書き込んだ回数が設定される。ディスク情報の各書き込み回数の欄に設定される値の合計が、総書き込み回数の欄の値に一致する。
再び図4に戻って説明する。
テープ制御部130は、LTFS(Linear Tape File System)等で磁気テープを制御する。具体的には、テープ制御部130は、サーバ装置30の指示に従い磁気テープ装置60にデータを書き込んだり読み取ったりする指示を与える。磁気テープ装置60は、指令に基づいて、マウント(搭載)されている磁気テープ61へのデータの書き込みおよび磁気テープからのデータの読み出しをブロック単位で行う。1ブロックは、例えば32kBである。
次に、RAID構成変更処理時の制御モジュール10の処理を説明する。
図9は、RAID構成変更処理を示すフローチャートである。
[ステップS1] RAID制御部120は、設計者が指定した最終的に作成するRAID構成を用いてRAIDグループ21を構成する構成ディスクのデータの移動箇所を計算により求める。具体的には、RAID制御部120は、通信制御部32から受け取ったファイルシステム31の空き領域の情報を用いてファイルシステム31の領域がRAIDグループ21のどの領域に該当するかを確認する。その後、ステップS2に遷移する。
[ステップS2] RAID制御部120は、仮想ディスクを利用するか否かを通信制御部32を介してサーバ装置30に問い合わせる。サーバ装置30は、ファイルシステム31を参照し、仮想ディスクを利用するか否かを判断する。そして、判断結果をRAID制御部120に返す。RAID制御部120は、サーバ装置30の判断結果に基づき仮想ディスクを利用するか否かを判断する。仮想ディスクを利用する場合(ステップS2のYes)、ステップS3に遷移する。仮想ディスクを利用しない場合(ステップS2のNo)、ステップS9に遷移する。
[ステップS3] RAID制御部120は、判断結果を用いてスペアディスクプールA1内のスペアディスクの数を確認する。その後、ステップS4に遷移する。
[ステップS4] RAID制御部120は、スペアディスクがスペアディスクプールA1内に存在するか否かを判断する。スペアディスクがスペアディスクプールA1内に存在する場合(ステップS4のYes)、ステップS5に遷移する。スペアディスクがスペアディスクプールA1内に存在しない場合(ステップS4のNo)、ステップS6に遷移する。
[ステップS5] RAID制御部120は、スペアディスクプールA1内に存在するスペアディスクのうち、予め指定された個数のスペアディスクを集める。そして、RAID制御部120は、集めたスペアディスクから全てのデータ記憶領域が0で初期化された1つの仮想ディスクを作成する。そして、RAID制御部120は、作成した仮想ディスクをRAIDグループ21に組み込む。また、RAID制御部120は、組み込んだ仮想ディスクに関する情報をサーバ装置30に通知する。その後、ステップS9に遷移する。サーバ装置30は、通知された仮想ディスクに関する情報をファイルシステム31に更新する。
[ステップS6] RAID制御部120は、磁気テープ61が利用可能か否かをテープ制御部130に問い合わせる。RAID制御部120は、問い合わせた結果を参照し、磁気テープ61が利用可能である場合(ステップS6のYes)、ステップS7に遷移する。磁気テープ61が利用可能ではない場合(ステップS6のNo)、ステップS8に遷移する。
[ステップS7] RAID制御部120は、磁気テープ61の記憶領域を仮想ディスクに割り当てる。その後、ステップS9に遷移する。
[ステップS8] RAID制御部120は、エラーをサーバ装置30に通知する。その後、RAID構成変更処理を終了する。
[ステップS9] RAID制御部120は、構成変更後のRAIDグループ21を構成する各ディスクの空き容量を均等にするデータ移行処理を実行する。仮想ディスクを利用したデータ移行処理では、RAID制御部120は、ステップS1にて求めたデータの移動箇所に記憶されているデータを仮想ディスクに移行する。なお、仮想ディスクを利用したデータ移行処理については、後に詳述する。データ移行処理が終了すると、ステップS10に遷移する。
[ステップS10] RAID制御部120は、データ移行処理によってデータが移動され、空白となった移動箇所を、通信制御部32を介してサーバ装置30に通知する。その後、ステップS11に遷移する。通知を受けたサーバ装置30は、ファイルシステム31を更新する。
[ステップS11] RAID制御部120は、仮想ディスクを利用したか否かを判断する。仮想ディスクを利用した場合(ステップS11のYes)、ステップS12に遷移する。仮想ディスクを利用しなかった場合(ステップS11のNo)、RAID構成変更処理を終了する。
[ステップS12] RAID制御部120は、仮想ディスクに記憶されているデータを、仮想ディスクを構成するスペアディスクのうちの1つのスペアディスクに集約する。そして、RAID制御部120は、データを集約したスペアディスクをRAIDグループ21に組み込む。その後、ステップS13に遷移する。
[ステップS13] RAID制御部120は、仮想ディスクに割り当てたスペアディスクのうち、RAIDグループ21に組み込んだスペアディスク以外のスペアディスクを開放する。また、仮想ディスクに磁気テープ61を組み込んでいる場合には、磁気テープ61を開放する。その後、RAID構成変更処理を終了する。
次に、RAID構成変更処理の具体例を説明する。
図10〜図13は、RAID構成変更処理の具体例を説明する図である。
RAID制御部120は、設計者が指定した最終的に作成するRAID構成を用いて、データを移動するHDD21a、21bのデータの移動箇所を計算により求める。本具体例では、RAIDグループ21に1つのHDD21cを追加したRAID4(3+1)を、再構成後のRAID構成とする。なお、図10ではHDDP1の図示を省略している。本具体例では、HDD21a、21b、21cの各記憶容量を100GBとする。また、HDD21aの使用領域の記憶容量を70GB、HDD21aの使用領域の記憶容量を80GBとする。ここで、再構成後のHDD21a、21b、21cの各空き領域が均等になるように、HDD21a、21b、21cの空き容量を計算すると、空き容量は、(30+20+100)/3=50GBとなる。従って、HDD21aのデータ移動量は、再構成後の各HDD21a、21b、21cの空き容量−現在の空き容量=50−30=20GBとなる。HDD21bのデータ移動量は、50−20=30GBとなる。HDD21cに書き込まれるデータ量は、20+30=50GBとなる。
次にRAID制御部120は、スペアディスクプールA1内のスペアディスクの数を確認する。本具体例では、「4」とする。
次に、RAID制御部120は、図11に示すように、予め与えられたスペアディスクの数「3」から、3つのスペアディスクSP1、SP2、SP3で構成される1つの仮想ディスクV1を作成する。RAID制御部120は、仮想ディスクV1を初期化してRAIDグループ21に組み込む。そして、RAID制御部120は、仮想ディスクV1をRAIDグループ21に組み込んだ旨を、RAIDグループ21を利用しているサーバ装置30に通知する。通知を受けたサーバ装置30は、図7にて説明したように、ファイルシステム31に管理されているビットマップテーブルを、空き領域(移動先となる領域を除く部分)が拡張された状態に更新する。ファイルシステム31は、空き領域をデータ移行処理時のデータ移動先とは区別して管理する。なお、仮想ディスクV1をRAIDグループ21に組み込んだ旨をサーバ装置30へ通知する処理は、データ移行処理完了後とすることもできる。
次に、RAID制御部120は、データ移行処理を実行し、HDD21a、21bの移動箇所に記憶されているデータを、仮想ディスクV1を構成するスペアディスクSP1、SP2、SP3の移動先の記憶領域Va1に分散して移動する。記憶領域Va1は、第2の記憶領域の一例である。記憶領域Va1の記憶容量は、HDD21cに書き込まれるデータ量に対応する50GBである。データの移動は、論理ブロック単位で行う。
ところで、RAID制御部120は、図12(a)に示すように、移動箇所内に存在するデータd1を仮想ディスクV1に移動した後でも移動しないデータd2から移動したデータd1を参照できるように移動元論理ブロックアドレスと移動先論理ブロックアドレスの関係をマップテーブルM1で管理する。なお、図12では、HDD21bの図示を省略している。マップテーブルM1は、ファイルシステムを再作成するときに削除する。
図12(b)に示すように、データ移行処理が完了すると、RAID制御部120は、HDD21a、21bの求めた移動箇所の領域を、空き領域に管理変更する旨をサーバ装置30に通知する。図7にて説明したように、通知を受けたサーバ装置30は、ビットマップテーブルの移動箇所の領域に対応するビットの値を、0(空き領域が拡張された状態)に変更する。
次に、RAID制御部120は、図13に示すように、仮想ディスクV1に書き込まれたデータを、仮想ディスクV1を構成するスペアディスクSP1、SP2、SP3のうち、1つのスペアディスク(図13ではスペアディスクSP1)に集約する。このスペアディスクSP1が、前述したHDD21cとなる。データの集約後、RAID制御部120は、データを集約したスペアディスクSP1を仮想ディスクV1の代わりにRAIDグループ21に組み込む。これにより、RAID制御部120は、HDD21a、21b、スペアディスクSP1(HDD21c)およびHDDP1を用いたRAID4を構成する。
次にRAID制御部120は、使用していたスペアディスクSP1、SP2、SP3のうち、RAIDグループ21に組み込まなかったスペアディスクSP2、SP3をスペアディスクプールA1に戻す。なお、本具体例では、磁気テープ61を仮想ディスクの記憶領域に割り当てていないが、磁気テープ61を仮想ディスクに割り当てている場合には、磁気テープ61の専有状態を開放する。
次に、図9のステップS9のデータ移行処理を詳しく説明する。データ移行処理では、基本的にはRAID制御部120が、図14に示すデータ書き込み時の処理を実行する。そして、RAID制御部120がデータ書き込み時の処理中にファイルシステム31の仮想ディスクの一部の構成ディスクの開放要求を受け付けると、RAID制御部120はディスク開放処理を実行する。また、RAID制御部120がデータ書き込み時の処理中にファイルシステム31の仮想ディスクにスペアディスクの追加要求を受け付けると、ディスク追加処理を実行する。以下順番に説明する。
図14は、データ書き込み時の処理を示すフローチャートである。
[ステップS21] RAID制御部120は、制御テーブル121の処理対象エントリから、仮想ディスクの構成情報を取得する。ここで、エントリが複数存在する場合はエントリIDの最も大きいエントリが処理対象エントリとなる。その後、ステップS22に遷移する。
[ステップS22] RAID制御部120は、移動箇所に記憶されているデータの総数を、バッファに読み出す。バッファは、例えばキャッシュメモリ104の一領域である。そして、RAID制御部120は、制御テーブル121を参照し、バッファに記憶されているデータの総数を、各構成ディスクの「書き込みサイズ」の和で除算した区分数α個を計算する。例えば、移動箇所に記憶されているデータの総数が90個であり、各構成ディスクの「書き込みサイズ」の和が3である場合、区分数α=90/3=30となる。その後、ステップS23に遷移する。
[ステップS23] RAID制御部120は、各構成ディスクの書き込み位置=「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」を計算する。その後、ステップS24に遷移する。
[ステップS24] RAID制御部120は、構成ディスク数で区分したデータを構成ディスク毎に分けて、それぞれをステップS23にて算出した各構成ディスクの書き込み位置へ書き込む。その後、ステップS25に遷移する。
[ステップS25] RAID制御部120は、ステップS24の各構成ディスクへの書き込みが完了したら、制御テーブル121の各構成ディスクの書き込み回数の欄の値をそれぞれ1つ増やす。その後、ステップS26に遷移する。
[ステップS26] RAID制御部120は、全ての構成ディスクへの書き込みが完了したら、制御テーブル121の総書き込み回数の欄に記憶されている値を構成ディスク数の欄に設定されている数だけ増やす。その後、ステップS27に遷移する。
[ステップS27] RAID制御部120は、区分数αを1つ減らす。その後、ステップS28に遷移する。
[ステップS28] RAID制御部120は、区分数α=0か否かを判断する。区分数αが0である場合(ステップS28のYes)、図14の処理を終了する。区分数αが0ではない場合(ステップS28のNo)、ステップS29に遷移する。
[ステップS29] RAID制御部120は、書き込むデータのバッファのアドレスを各構成ディスクの「書き込みサイズ」の和だけ増加させる。その後、ステップS23に遷移し、ステップS23以降の処理を再び実行する。以上で図14の処理の説明を終了する。
次に、データ書き込み時の処理の具体例を説明する。以下に示す具体例では、移動箇所に記憶されている論理ブロック単位のデータの総数が90個であるものとする。
図15は、データ書き込み時の処理の具体例を説明する図である。
RAID制御部120は、移動箇所に記憶されている論理ブロック単位のデータの総数を、バッファに読み出す。図15には、バッファに読み出された仮想ディスクV1の論理イメージI1を示している。論理イメージI1には、データDが論理ブロック単位で並んでいる。また、データD内の数字は、説明を分かり易くするために付加している。
RAID制御部120は、仮想ディスクV1を構成するスペアディスクSP1、SP2、SP3へのデータ書き込みに関する制御テーブル121を用意する。図15の上側の制御テーブル121は、用意した制御テーブルを示している。以下、スペアディスクSP1のディスク名はSPD1、スペアディスクSP2のディスク名はSPD2、スペアディスクSP3のディスク名はSPD3であるものとする。
RAID制御部120は、各構成ディスクの書き込み先頭位置を1つずつずらして設定する。そして、RAID制御部120は、移動箇所に記憶されているデータの総数が90個であり、各構成ディスクの「書き込みサイズ」の和が3であるため、区分数α=90/3=30を計算する。
次に、RAID制御部120は、スペアディスクSP1の書き込み位置を算出する。「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=0+1×3×0=0となる。同様に、スペアディスクSP2の書き込み位置は、「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=1+1×3×0=1となる。スペアディスクSP3の書き込み位置は、「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=2+1×3×0=2となる。
次に、RAID制御部120は、構成ディスク数「3」で区分したデータを「書き込みサイズ」毎にスペアディスクSP1、SP2、SP3に分けて、それぞれを算出したスペアディスクSP1、SP2、SP3の書き込み位置へ書き込む。書き込みが完了すると、RAID制御部120は、制御テーブル121のスペアディスクSP1、SP2、SP3の書き込み回数の欄の値をそれぞれ1つ増やす。これにより、スペアディスクSP1、SP2、SP3の書き込み回数の欄の値は、0から1になる。RAID制御部120は、全ての構成ディスクへの書き込みが完了したら、制御テーブル121の総書き込み回数の欄に記憶されている値を構成ディスク数の欄に設定されている3だけ増やす。これにより、総書き込み回数の欄の値は0から3になる。
次に、RAID制御部120は、区分数αの値を1つ減らして29とする。αの値は0ではないので、書き込むデータのバッファのアドレスを各構成ディスクの「書き込みサイズ」の和=3だけ増やす。
次に、RAID制御部120は、スペアディスクSP1の書き込み位置を算出する。「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=0+1×3×1=3となる。同様に、スペアディスクSP2の書き込み位置は、「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=1+1×3×1=4となる。スペアディスクSP3の書き込み位置は、「書き込み先頭位置」+「書き込みサイズ」×「構成ディスク数」×「書き込み回数」=2+1×3×1=5となる。以下、RAID制御部120は、αが0になるまでデータ移行処理を実行する。
図15の下側の制御テーブル121は、データDのブロック番号1から9までの処理を行ったときの状態を示している。
RAID制御部120は、データ移行処理を実行することにより、各構成ディスクの書き込み位置をずらして書き込む。これにより、ステップS12のデータの集約が容易になる。また、次に述べるディスク開放処理時にもデータの退避が容易になる。
次に、ディスク開放処理を説明する。
図16は、ディスク開放処理を示すフローチャートである。
[ステップS31] RAID制御部120は、制御テーブル121の処理対象エントリから、仮想ディスクの構成情報を取得する。その後、ステップS32に遷移する。以下、RAID制御部120は、ステップS32〜S35の処理を実行することで、構成ディスクの中から開放対象のディスクを選択する。
[ステップS32] RAID制御部120は、制御テーブル121のエントリIDの欄を参照し、エントリが2つ以上存在するか否かを判断する。エントリが2つ以上存在する場合(ステップS32のYes)、ステップS33に遷移する。エントリが2つ以上存在しない場合、すなわち、エントリが1つである場合(ステップS32のNo)、ステップS35に遷移する。
[ステップS33] RAID制御部120は、処理対象エントリに新たに追加された構成ディスクが存在するか否かを判断する。具体的には、RAID制御部120は、処理対象エントリの構成ディスク数の欄の値と処理対象エントリのエントリIDの1つ前のエントリIDのエントリに含まれる構成ディスク数の欄の値を比較する。そして、RAID制御部120は、処理対象エントリの構成ディスク数の欄の値と処理対象エントリのエントリIDの1つ前のエントリIDのエントリに含まれる構成ディスク数の欄の値が異なる場合、処理対象エントリに新たに追加された構成ディスクが存在すると判断する。処理対象エントリに新たに追加された構成ディスクが存在する場合(ステップS33のYes)、ステップS34に遷移する。処理対象エントリに新たに追加された構成ディスクが存在しない場合(ステップS33のNo)、ステップS35に遷移する。当該ステップS33の処理によって、最もデータ記憶量が少ない構成ディスクを開放対象のディスクとして選択することができる。これにより、後のデータ移動量を減らすことができる。
[ステップS34] RAID制御部120は、新たに追加された構成ディスクを開放対象のディスクに選択する。その後、ステップS36に遷移する。
[ステップS35] RAID制御部120は、処理対象エントリの構成ディスクID=2の構成ディスクを開放対象のディスクに選択する。その後、ステップS36に遷移する。
[ステップS36] RAID制御部120は、制御テーブル121を参照し、ステップS34またはステップS35にて選択した開放対象のディスクのアクセス用情報を取得する。その後、ステップS37に遷移する。
[ステップS37] RAID制御部120は、開放対象のディスクの構成ディスクIDが1つ少ない構成ディスクをデータ退避先のディスクに決定する。例えば、RAID制御部120は、構成ディスクID=2の構成ディスクを開放対象のディスクに選択した場合、構成ディスクID=1の構成ディスクをデータ退避先のディスクに決定する。以下、決定したディスクを「データ退避先ディスク」という。そして、RAID制御部120は、データ退避先ディスクへのアクセス用情報を取得する。その後、ステップS38に遷移する。
[ステップS38] RAID制御部120は、開放対象のディスクからデータ退避先のディスクへのデータの読み出し回数を示すパラメータKを用意し、K=0に設定する。その後、ステップS39に遷移する。
[ステップS39] RAID制御部120は、開放対象のディスクの「書き込み先頭位置」+K×「構成ディスク数」を計算することで、開放対象のディスクから既に書き込んだデータを読み出す。その後、ステップS40に遷移する。
[ステップS40] RAID制御部120は、ステップS39にて読み出したデータをデータ退避先ディスクの「書き込み先頭位置」+1+K×「構成ディスク数」により特定される領域に書き込む。その後、ステップS41に遷移する。
[ステップS41] RAID制御部120は、Kを1つインクリメントする。その後、ステップS42に遷移する。
[ステップS42] RAID制御部120は、Kの値が、制御テーブル121の開放対象のディスクの書き込み回数の欄に設定されている値に一致するか否かを判断する。Kの値が、制御テーブル121の開放対象のディスクの書き込み回数の欄に設定されている値に一致する場合(ステップS42のYes)、ステップS43に遷移する。Kの値が、制御テーブル121の開放対象のディスクの書き込み回数の欄に設定されている値に一致しない場合(ステップS42のNo)、ステップS39に遷移し、ステップS39以降の処理を引き続き実行する。
[ステップS43] RAID制御部120は、処理対象エントリの情報を更新する。具体的には、RAID制御部120は、制御テーブル121の開放対象のディスクに関するレコードを削除する。また、RAID制御部120は、制御テーブル121のデータ退避先ディスクの書き込みサイズの欄に設定されている値を1つ増やす。また、RAID制御部120は、制御テーブル121の構成ディスク数の欄の値を1つ減らす。その後、ステップS44に遷移する。
[ステップS44] RAID制御部120は、開放対象のディスクをスペアディスクプールA1に返却する。その後、図16の処理を終了する。
次に、ディスク開放処理の具体例を説明する。
図17は、ディスク開放処理の具体例を説明する図である。
本具体例では、図17の上側に示す制御テーブル121における状態、すなわち、データDのブロック番号1から9まで仮想ディスクV1へのデータの書き込みが完了した時点で1つのスペアディスクの開放要求を受け取った場合の処理を説明する。
RAID制御部120は、制御テーブル121のエントリIDの欄を参照し、エントリが2つ以上存在するか否かを判断する。本具体例では、エントリは1つしか存在しないため、構成ディスクID=2で特定されるスペアディスクSP2を開放対象のディスクに選択する。
次に、RAID制御部120は、開放対象のディスクの構成ディスクIDが1つ少ない構成ディスクID=1で特定されるスペアディスクSP1をデータ退避先ディスクに決定する。
次に、RAID制御部120は、パラメータK=0に設定し、スペアディスクSP2の「書き込み先頭位置」+K×「構成ディスク数」=1+0×3=1を計算することで、スペアディスクSP2から書き込みサイズ1つ分のデータを読み出す。そして、RAID制御部120は、読み出したデータをスペアディスクSP1の「書き込み先頭位置」+1+K×「構成ディスク数」=0+1+0×3=1により特定される領域に書き込む。その後、RAID制御部120は、K=1とする。Kの値が、制御テーブル121のスペアディスクSP2の書き込み回数の欄の値「3」に一致しないので、RAID制御部120は、スペアディスクSP2の「書き込み先頭位置」+K×「構成ディスク数」=1+1×3=4を計算することで、スペアディスクSP2から書き込みサイズ1つ分のデータを読み出す。以下、RAID制御部120は、Kが3になるまでデータの移動を繰り返す。そして、K=3になると、制御テーブル121のエントリID=1の構成ディスクID=2のレコードを削除する。そして、構成ディスクID=1の書き込みサイズの欄の値を1つ増やして2に設定する。そして、構成ディスク数の欄の値を1つ減らして2に設定する。図17の下側に示す制御テーブル121は、ディスク開放処理が完了したときの状態を示している。
次に、RAID制御部120は、スペアディスクSP2をスペアディスクプールA1に返却する。その後、RAID制御部120は、図17の下側に示す制御テーブル121を用いてデータ移行処理を継続して実行する。
次に、ディスク追加処理を説明する。
図18は、ディスク追加処理を示すフローチャートである。
[ステップS51] RAID制御部120は、処理対象エントリから、仮想ディスクの構成情報を取得する。その後、ステップS52に遷移する。
[ステップS52] RAID制御部120は、追加する新しいエントリのブロック番号、構成ディスク数および総書き込み回数を設定する。具体的には、RAID制御部120は、新しいエントリのブロック番号β=処理対象エントリの「ブロック番号」+「総書き込み回数」とする。また、新しいエントリの構成ディスク数=処理対象エントリの「構成ディスク数」+1とする。また、新しいエントリの総書き込み回数=0とする。その後、ステップS53に遷移する。
[ステップS53] RAID制御部120は、新しいエントリのディスク情報を作成する。具体的には、RAID制御部120は、処理対象エントリのディスク情報を新しいエントリに複写する。そして、追加するディスク情報の構成ディスクIDおよび構成ディスク名を新しいエントリに追加する。その後、RAID制御部120は、各ディスクの情報を設定する。具体的には、RAID制御部120は、各ディスク情報の書き込みサイズ=1、書き込み回数=0に設定する。また、RAID制御部120は、各構成ディスクの書き込み先頭位置を決定する。具体的には、RAID制御部120は、追加するディスクの書き込み先頭位置については、「書き込み先頭位置」=「構成ディスクID」−1とする。また、既存の構成ディスクの書き込み先頭位置については、「書き込み先頭位置」=α+「構成ディスクID」−1とする。その後、ステップS54に遷移する。
[ステップS54] RAID制御部120は、作成した新しいエントリを制御テーブル121に追加する。その後、ステップS55に遷移する。
[ステップS55] RAID制御部120は、処理対象エントリのエントリIDの数を1つ増やす。この処理により、追加したエントリが処理対象のエントリとなる。その後、図18の処理を終了する。
次に、ディスク追加処理の具体例を説明する。
図19は、ディスク追加処理の具体例を説明する図である。
本具体例では、図19の上側に示す制御テーブル121における状態まで仮想ディスクV1へのデータの書き込みが完了した時点で1つのスペアディスクの追加要求を受け取った場合の処理を説明する。
RAID制御部120は、エントリID=1のエントリから構成情報を取得する。そして、RAID制御部120は、新しいエントリのブロック番号β=処理対象エントリのブロック番号+総書き込み回数=1+9=10とする。また、新しいエントリの構成ディスク数=処理対象エントリの「構成ディスク数」+1=2+1=3とする。また、新しいエントリの「総書き込み回数」=0とする。
次に、RAID制御部120は、エントリID=1のエントリのディスク情報を、作成したエントリのディスク情報に複写する。そして、RAID制御部120は、各ディスク情報の「書き込みサイズ」=1、「書き込み回数」=0に設定する。
次に、RAID制御部120は、追加するスペアディスクSP4の「書き込み先頭位置」=「構成ディスクID」−1=2−1=1に設定する。また、スペアディスクSP1の「書き込み先頭位置」=β+「構成ディスクID」−1=10+1−1=10に設定する。また、スペアディスクSP3の「書き込み先頭位置」=β+「構成ディスクID」−1=10+3−1=12に設定する。
次に、RAID制御部120は、新しいエントリのエントリID=2に設定し、処理対象エントリをエントリID=2のエントリとする。
次に、図9のステップS12およびステップS13の処理(データ集約処理)を詳しく説明する。
図20は、データ集約処理を示すフローチャートである。
[ステップS61] RAID制御部120は、処理対象エントリから、構成情報を取得する。その後、ステップS62に遷移する。
[ステップS62] RAID制御部120は、構成ディスクIDが最も小さい構成ディスクの構成情報を取得する。この構成ディスクをデータ集約先ディスクに決定する。そして、データ集約先ディスク以外の構成ディスクを開放対象のディスクに決定する。その後、ステップS63に遷移する。
[ステップS63] RAID制御部120は、2番目以降の各構成ディスクの構成情報を取得する。その後、ステップS64に遷移する。
[ステップS64] RAID制御部120は、各構成ディスクからデータ集約先ディスクへのデータの読み出し回数を示すパラメータN=0に設定する。その後、ステップS65に遷移する。
[ステップS65] RAID制御部120は、データ集約先ディスク以外の各構成ディスクに対して書き込み先頭位置+N×構成ディスク数を計算し、データの読み出し位置を決定する。そしてRAID制御部120は、決定した読み出し位置から書き込みサイズの数だけデータを読み出す。その後、ステップS66に遷移する。
[ステップS66] RAID制御部120は、データ集約先ディスクの「書き込み先頭位置」+1+N×「構成ディスク数」の位置へ、ステップS65にて読み出した「構成ディスク数」−1個分のデータをまとめて書き込む。その後、ステップS67に遷移する。
[ステップS67] RAID制御部120は、N=N+1とする。その後、ステップS68に遷移する。
[ステップS68] RAID制御部120は、Nがデータ集約先ディスクの書き込み回数の欄の値に一致するか否かを判断する。Nが書き込み回数の欄の値に一致する場合(ステップS68のYes)、ステップS69に遷移する。Nが書き込み回数の欄の値に一致しない場合(ステップS68のNo)、ステップS65に遷移し、ステップS65以降の処理を引き続き実行する。
[ステップS69] RAID制御部120は、処理対象エントリの情報を更新する。具体的には、RAID制御部120は、処理対象エントリのデータ集約先ディスクの書き込みサイズの欄の値を構成ディスク数の欄の値とする。そして、構成ディスク数の欄の値を1に設定する。そして、エントリから開放対象のディスクのディスク情報を削除する。その後、ステップS70に遷移する。
[ステップS70] RAID制御部120は、処理対象エントリのエントリIDが2以上であるか否かを判断する。処理中対象エントリのエントリIDが2以上である場合(ステップS70のYes)、ステップS71に遷移する。処理対象エントリのエントリIDが1である場合(ステップS70のNo)、ステップS72に遷移する。
[ステップS71] RAID制御部120は、処理対象エントリの1つ前のエントリに構成ディスクID=1以外の構成ディスクIDを備えるディスク情報が存在するか否かを判断する。処理対象エントリの1つ前のエントリに構成ディスクID=1以外の構成ディスクIDを備えるディスク情報が存在する場合(ステップS71のYes)、ステップS73に遷移する。処理対象エントリの1つ前のエントリに構成ディスクID=1以外の構成ディスクIDを備えるディスク情報が存在しない場合(ステップS71のNo)、ステップS72に遷移する。
[ステップS72] RAID制御部120は、構成ディスクID=1以外の構成ディスクを開放し、スペアディスクプールA1に返却する。その後、ステップS73に遷移する。
[ステップS73] RAID制御部120は、処理対象エントリのエントリIDの番号を−1する。その後、ステップS74に遷移する。
[ステップS74] RAID制御部120は、処理対象エントリのエントリIDの番号が0か否かを判断する。処理対象エントリのエントリIDの番号が0である場合(ステップS74のYes)、図20の処理を終了する。処理対象エントリのエントリIDの番号が0ではない場合(ステップS74のNo)、ステップS61に遷移し、ステップS61以降の処理を引き続き実行する。以上でデータ集約処理の説明を終了する。
以上述べたように、ストレージ装置100によれば、仮想ディスクV1を構成するスペアディスクの開放要求に対応しつつ、データ移行処理を継続することができる。従ってデータ移行時間を短縮することができる。また、スペアディスクSP1、SP2、SP3にデータをずらして書き込むようにしたので、データ移行処理を中断せずにディスク開放処理や、ディスク追加処理を迅速に実行することができる。
なお、制御モジュール10が行った処理が、複数の制御モジュールによって分散処理されるようにしてもよい。
以上、本発明の制御装置、プログラムおよびストレージ装置を、図示の実施の形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や工程が付加されていてもよい。
また、本発明は、前述した各実施の形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、制御装置2および制御モジュール10が有する機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等が挙げられる。磁気記憶装置には、ハードディスクドライブ、フレキシブルディスク(FD)、磁気テープ等が挙げられる。光ディスクには、DVD、DVD−RAM、CD−ROM/RW等が挙げられる。光磁気記録媒体には、MO(Magneto-Optical disk)等が挙げられる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現することもできる。
以上の第1〜第2の実施の形態に関し、さらに以下の付記を開示する。
(付記1) 少なくとも1つの記憶装置に割り当てられたデータ移行元の第1の記憶領域から複数の記憶装置に割り当てられたデータ移行先の第2の記憶領域にデータを移行する制御装置において、
ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部と、
前記第1の記憶領域に記憶されているデータを、前記記憶部に記憶されている前記位置情報に従って前記第2の記憶領域に書き込み、前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行する書き込み制御部と、
前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する開放部と、
を有することを特徴とする制御装置。
(付記2) 前記移行用データ記録領域は、前記第2の記憶領域を割り当てている記憶装置の数に応じて設定されることを特徴とする付記1記載の制御装置。
(付記3) 前記移行用データ記録領域の位置が、前記第2の記憶領域を割り当てている記憶装置毎に異なることを特徴とする付記1記載の制御装置。
(付記4) 前記書き込み制御部は、前記開放要求の受け付けに応じて前記記憶部に記憶されている位置情報を残りの記憶装置の数に応じて書き換えることを特徴とする付記1記載の制御装置。
(付記5) 前記書き込み制御部は、前記第2の記憶領域を割り当てている記憶装置を追加する要求をデータ移行時に受け付けると、前記記憶部に記憶されている位置情報を、追加後の記憶装置の数に応じて書き換えることを特徴とする付記1記載の制御装置。
(付記6) 前記書き込み制御部は、記憶装置の開放要求を受け付けると、前記第2の記憶領域を割り当てている記憶装置のうち、追加された記憶装置を開放対象の記憶装置に決定することを特徴とする付記5記載の制御装置。
(付記7) 前記書き込み制御部は、前記第2の記憶領域へのデータの移行が完了すると、移行が完了したデータを、前記第2の記憶領域を割り当てている複数の記憶装置のうち1つの記憶装置に集約することを特徴とする付記1記載の制御装置。
(付記8) 前記第2の記憶領域を割り当てている記憶装置の数に応じた前記位置情報を作成する位置情報作成部をさらに有することを特徴とする付記1記載の制御装置。
(付記9) テープ記憶装置を管理する管理部をさらに有し、
前記管理部は、前記テープ記憶装置を含む第2の記憶領域を割り当てることを特徴とする付記1記載の制御装置。
(付記10) 少なくとも1つの記憶装置に割り当てられたデータ移行元の第1の記憶領域から複数の記憶装置に割り当てられたデータ移行先の第2の記憶領域にデータを移行するプログラムにおいて、
コンピュータに、
ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部に記憶されている前記位置情報に従って前記第1の記憶領域に記憶されているデータを、前記第2の記憶領域に書き込み、
前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行し、
前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する、
処理を実行させることを特徴とするプログラム。
(付記11) データ移行元の第1の記憶領域に割り当てられた少なくとも1つの記憶装置と、
データ移行先の第2の記憶領域に割り当てられた複数の記憶装置と、
ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部と、
前記第1の記憶領域に記憶されているデータを、前記記憶部に記憶されている前記位置情報に従って前記第2の記憶領域に書き込み、前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行する書き込み制御部と、
前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する開放部と、
を有することを特徴とするストレージ装置。
1、100 ストレージ装置
2 制御装置
2a 記憶部
2a1、121 制御テーブル
2b 書き込み制御部
2c 開放部
3 記憶装置群
3a 論理記憶装置
3a1 第1の記憶領域
3b 仮想記憶装置
3b1 第1の記憶領域
4、30 サーバ装置
5a、5b、5c 物理記憶装置
6 データブロック
10 制御モジュール
20、21a、21b、21c、P1 HDD
20a ドライブエンクロージャ
21 RAIDグループ
31 ファイルシステム
32 通信制御部
60 磁気テープ装置
110 FCP/NAS制御部
120 RAID制御部
130 テープ制御部
A0 ストレージプール
A1 スペアディスクプール
B1、B2、B3 ビットマップテーブル

Claims (9)

  1. 少なくとも1つの記憶装置に割り当てられたデータ移行元の第1の記憶領域から複数の記憶装置に割り当てられたデータ移行先の第2の記憶領域にデータを移行する制御装置において、
    ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部と、
    前記第1の記憶領域に記憶されているデータを、前記記憶部に記憶されている前記位置情報に従って前記第2の記憶領域に書き込み、前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行する書き込み制御部と、
    前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する開放部と、
    を有することを特徴とする制御装置。
  2. 前記移行用データ記録領域は、前記第2の記憶領域を割り当てている記憶装置の数に応じて設定されることを特徴とする請求項1記載の制御装置。
  3. 前記移行用データ記録領域の位置が、前記第2の記憶領域を割り当てている記憶装置毎に異なることを特徴とする請求項1記載の制御装置。
  4. 前記書き込み制御部は、前記開放要求の受け付けに応じて前記記憶部に記憶されている位置情報を残りの記憶装置の数に応じて書き換えることを特徴とする請求項1記載の制御装置。
  5. 前記書き込み制御部は、前記第2の記憶領域を割り当てている記憶装置を追加する要求をデータ移行時に受け付けると、前記記憶部に記憶されている位置情報を、追加後の記憶装置の数に応じて書き換えることを特徴とする請求項1記載の制御装置。
  6. 前記書き込み制御部は、記憶装置の開放要求を受け付けると、前記第2の記憶領域を割り当てている記憶装置のうち、追加された記憶装置を開放対象の記憶装置に決定することを特徴とする請求項5記載の制御装置。
  7. 前記書き込み制御部は、前記第2の記憶領域へのデータの移行が完了すると、移行が完了したデータを、前記第2の記憶領域を割り当てている複数の記憶装置のうち1つの記憶装置に集約することを特徴とする請求項1記載の制御装置。
  8. 少なくとも1つの記憶装置に割り当てられたデータ移行元の第1の記憶領域から複数の記憶装置に割り当てられたデータ移行先の第2の記憶領域にデータを移行するプログラムにおいて、
    コンピュータに、
    ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部に記憶されている前記位置情報に従って前記第1の記憶領域に記憶されているデータを、前記第2の記憶領域に書き込み、
    前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行し、
    前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する、
    処理を実行させることを特徴とするプログラム。
  9. データ移行元の第1の記憶領域に割り当てられた少なくとも1つの記憶装置と、
    データ移行先の第2の記憶領域に割り当てられた複数の記憶装置と、
    ブロック単位のデータを書き込む記録領域間に移行用のデータを書き込む移行用データ記録領域を形成するよう設定されたデータの書き込み位置を示す位置情報を前記複数の記憶装置毎に記憶する記憶部と、
    前記第1の記憶領域に記憶されているデータを、前記記憶部に記憶されている前記位置情報に従って前記第2の記憶領域に書き込み、前記第2の記憶領域を割り当てている記憶装置のうち、少なくとも1つの記憶装置を前記第2の記憶領域から開放する開放要求をデータ移行時に受け付けると、開放対象の記憶装置に記憶されているデータを、前記第2の記憶領域を割り当てている残りの記憶装置に形成された移行用データ記録領域に移行する書き込み制御部と、
    前記開放対象の記憶装置に記憶されているデータの移行が完了すると、前記開放対象の記憶装置を開放する開放部と、
    を有することを特徴とするストレージ装置。
JP2011274305A 2011-12-15 2011-12-15 制御装置、プログラムおよびストレージ装置 Pending JP2013125437A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011274305A JP2013125437A (ja) 2011-12-15 2011-12-15 制御装置、プログラムおよびストレージ装置
US13/609,630 US20130159656A1 (en) 2011-12-15 2012-09-11 Controller, computer-readable recording medium, and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011274305A JP2013125437A (ja) 2011-12-15 2011-12-15 制御装置、プログラムおよびストレージ装置

Publications (1)

Publication Number Publication Date
JP2013125437A true JP2013125437A (ja) 2013-06-24

Family

ID=48611435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011274305A Pending JP2013125437A (ja) 2011-12-15 2011-12-15 制御装置、プログラムおよびストレージ装置

Country Status (2)

Country Link
US (1) US20130159656A1 (ja)
JP (1) JP2013125437A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8886606B2 (en) * 2012-04-30 2014-11-11 Roderick B. Wideman File system based exchange between disk-based network attached storage and tape
US9720627B2 (en) * 2013-01-17 2017-08-01 Western Digital Technologies, Inc. Data management for a data storage device
US20180113616A1 (en) * 2016-10-21 2018-04-26 Nec Corporation Disk array control device, disk array device, disk array control method, and recording medium
US11249644B2 (en) * 2019-09-18 2022-02-15 International Business Machines Corporation Magnetic tape integration with distributed disk file systems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040687A (ja) * 2006-08-03 2008-02-21 Fujitsu Ltd データ復元制御装置
JP2011086214A (ja) * 2009-10-19 2011-04-28 Fujitsu Ltd ディスクアレイ装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100968B2 (ja) * 2002-06-06 2008-06-11 株式会社日立製作所 データマッピング管理装置
JP4896500B2 (ja) * 2005-11-14 2012-03-14 株式会社日立製作所 機器停止を伴う仮想ボリューム制御方法
US8341459B2 (en) * 2007-08-01 2012-12-25 Brocade Communications Systems, Inc. Data migration without interrupting host access and with data lock for write access requests such that held write access requests do not expire
US8055864B2 (en) * 2007-08-06 2011-11-08 International Business Machines Corporation Efficient hierarchical storage management of a file system with snapshots
US8516215B2 (en) * 2009-04-23 2013-08-20 Hitachi, Ltd. Computing system having a controller for controlling allocation of a storage area of a logical volume in a pool to a virtual volume and controlling methods for the same
WO2012011158A1 (en) * 2010-07-23 2012-01-26 Hitachi, Ltd. Storage system and method of controlling same
EP2583162A1 (en) * 2010-12-22 2013-04-24 Hitachi, Ltd. Storage system comprising multiple storage apparatuses with both storage virtualization function and capacity virtualization function

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040687A (ja) * 2006-08-03 2008-02-21 Fujitsu Ltd データ復元制御装置
JP2011086214A (ja) * 2009-10-19 2011-04-28 Fujitsu Ltd ディスクアレイ装置

Also Published As

Publication number Publication date
US20130159656A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
JP5427630B2 (ja) 動的ページ再割当てストレージシステムにおけるアプリケーション及び階層構成の管理
JP5685676B2 (ja) 計算機システム及びデータ管理方法
JP5124551B2 (ja) ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
WO2012049711A1 (en) Data migration system and data migration method
JP6222227B2 (ja) ストレージノード、ストレージノード管理装置、ストレージノード論理容量設定方法、プログラム、記録媒体および分散データストレージシステム
JP5583227B1 (ja) 物理ブロック間でデータをコピーするディスクアレイ装置、ディスクアレイコントローラ及び方法
JP5218284B2 (ja) 仮想ディスク管理プログラム、ストレージ装置管理プログラム、マルチノードストレージシステム、および仮想ディスク管理方法
US20150347047A1 (en) Multilayered data storage methods and apparatus
JP5973089B2 (ja) ストレージシステムの移行方式および移行方法
JP2006331158A (ja) ストレージシステム
WO2014162586A1 (ja) ストレージシステムおよびストレージシステム制御方法
JP2006285808A (ja) ストレージシステム
EP2206045A2 (en) Thin provisioning migration and scrubbing
US9361033B2 (en) Compound storage system and storage control method
JP2016118821A (ja) ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム
JP2020004186A (ja) 情報処理システム、管理装置および制御方法
WO2017145375A1 (ja) ストレージシステム
JP2013125437A (ja) 制御装置、プログラムおよびストレージ装置
US11740823B2 (en) Storage system and storage control method
US11201788B2 (en) Distributed computing system and resource allocation method
US11797338B2 (en) Information processing device for reading object from primary device specified by identification, information processing system for reading object from primary device specified by identification, and access control method for reading object from primary device specified by identification
JP2013089225A (ja) 階層変更方法及び装置
JP2013122691A (ja) 割り当て装置およびストレージ装置
US11544005B2 (en) Storage system and processing method
JP5729173B2 (ja) 制御装置、制御方法およびストレージ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151020