JP6244974B2 - ストレージ装置、及びストレージ装置の制御方法 - Google Patents

ストレージ装置、及びストレージ装置の制御方法 Download PDF

Info

Publication number
JP6244974B2
JP6244974B2 JP2014032665A JP2014032665A JP6244974B2 JP 6244974 B2 JP6244974 B2 JP 6244974B2 JP 2014032665 A JP2014032665 A JP 2014032665A JP 2014032665 A JP2014032665 A JP 2014032665A JP 6244974 B2 JP6244974 B2 JP 6244974B2
Authority
JP
Japan
Prior art keywords
data
storage
volume
priority
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014032665A
Other languages
English (en)
Other versions
JP2015158768A (ja
Inventor
清人 南浦
清人 南浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014032665A priority Critical patent/JP6244974B2/ja
Priority to US14/608,392 priority patent/US9858147B2/en
Publication of JP2015158768A publication Critical patent/JP2015158768A/ja
Application granted granted Critical
Publication of JP6244974B2 publication Critical patent/JP6244974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1088Reconstruction on already foreseen single or plurality of spare disks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space

Description

本発明は、ストレージ装置、及びストレージ装置の制御方法に関する。
容量の大きなデータを扱うシステムにおいては、高い信頼性及び高い読み書き性能を実現することが可能なRAID(Redundant Arrays of Inexpensive Disks)装置が利用される。RAID装置は、HDD(Hard Disk Drive)などの記憶装置(以下、ディスク)を複数接続して冗長化した装置である。上記のようなシステムでは、ネットワークを介して複数の端末装置からアクセスできる仕組みを設け、データを集中管理できるようにしたNAS(Network Attached Storage)装置なども利用される。
RAID装置には、一部のディスクが故障しても、故障したディスクに格納されていたデータを残りのディスクに格納されているデータから復元できる仕組みが設けられている。例えば、RAID装置にはパリティデータが格納されており、パリティデータに基づく演算処理(以下、パリティ演算)を実行することで故障したディスクに格納されていたデータを復元することができる。復元されたデータは、RAID装置内に用意された交換用のディスク(以下、スペアディスク)に格納される。スペアディスクにデータが格納されると、RAID装置は、スペアディスクを利用して正常に動作を継続することができる。
上記のように、RAID装置を利用すれば、一部のディスクに故障が発生しても正常動作を継続することができる。但し、復元するデータの量が多い場合、パリティ演算によりデータが復元されるまでに長い時間がかかる。つまり、データ量や使用状況によっては、ディスクの故障により失ったデータを復元させる処理(以下、復元処理)にかかる時間(以下、データ再構築時間)が長くなることがある。
上記のような事情に鑑み、データ再構築時間を短縮する手法が提案されている。例えば、稼働しているディスクのデータを予めスペアディスクに格納しておき、スペアディスクに格納したデータを復元処理に利用する方法が提案されている。また、各ディスクの未使用領域に他のディスクに格納されるデータをコピーしておき、コピーしたデータを復元処理に利用する方法が提案されている。また、各ディスクに予め用意した記憶領域(以下、スペア領域)にコピーしたデータを復元処理に利用する方法が提案されている。
特開2003−108316号公報 特開2009−205571号公報 特開2000−200157号公報
上記の提案に係る技術(以下、提案技術)を適用すれば、スペアディスク、未使用領域、又はスペア領域(以下、単にスペア領域と称する。)に予め格納しておいたデータを復元処理に利用できるため、パリティ演算を実行する場合に比べてデータ再構築時間を短縮することができる。但し、上記の提案技術は、各ディスクに格納される全てのデータをスペア領域へとコピーすることを前提としている。
各ディスクに格納される全てのデータを格納可能なディスクスペースをスペア領域として用意することはRAID装置のコストを増大させる。一方、スペア領域の容量が十分でないと一部のデータがコピーされない可能性が生じる。コピーされていない一部のデータは復元処理の中でパリティ演算により復元されるため、その復元に長い時間がかかる。
上記の提案技術は、全てのデータをスペア領域へとコピーすることを前提としており、コピーするデータの種類について考慮していない。そのため、上記の提案技術を適用すると、データのコピー及び復元の処理に際し、短時間で復元したいデータと他のデータとが同じように扱われる。つまり、各ディスクの全データを格納可能なスペア領域が用意されていない場合、復元に長い時間がかかる可能性はデータの種類によらず同程度となる。
そこで、1つの側面によれば、本発明の目的は、障害発生時に優先度の高いデータが早く復元される可能性を高めることができるストレージ装置、及びストレージ装置の制御方法を提供することにある。
本開示の1つの側面によれば、データが格納される第1の記憶領域及び第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置と、管理単位毎に設定された優先度に基づき、複数の記憶装置が有する第2の記憶領域について管理単位毎の使用割合を設定する制御部と、を有する、ストレージ装置が提供される。
また、本開示の他の1つの側面によれば、データが格納される第1の記憶領域及び第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置を有するストレージ装置が、管理単位毎に設定された優先度に基づき、複数の記憶装置が有する第2の記憶領域について管理単位毎の使用割合を設定するストレージ装置の制御方法が提供される。
本発明によれば、障害発生時に優先度の高いデータが早く復元される可能性を高めることができる。
第1実施形態に係るストレージ装置の一例を示した図である。 第2実施形態に係るシステムの一例を示した図である。 第2実施形態に係るストレージ装置の一例を示した図である。 第2実施形態に係るスペア領域の設定について説明するための図である。 第2実施形態に係るスペア領域の利用について説明するための第1の図である。 第2実施形態に係るスペア領域の利用について説明するための第2の図である。 第2実施形態に係るスペア領域の管理について説明するための第1の図である。 第2実施形態に係るスペア領域の管理について説明するための第2の図である。 第2実施形態に係るストレージ装置が実行する処理のうち、運用開始前の設定に関する処理の流れを示したフロー図である。 第2実施形態に係るストレージ装置が実行する処理のうち、運用開始後の処理の流れを示したフロー図である。 第2実施形態に係るストレージ装置が実行する処理のうち、障害発生時に実行する処理の流れを示したフロー図である。 第2実施形態の一変形例(変形例#1)に係る管理テーブルの一例を示した図である。 第2実施形態の一変形例(変形例#2)に係る管理テーブルの一例を示した図である。 第2実施形態の一変形例(変形例#2)に係るディスク管理情報の一例を示した図である。
以下に添付図面を参照しながら、本発明の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。
<1.第1実施形態>
図1を参照しながら、第1実施形態について説明する。なお、図1は、第1実施形態に係るストレージ装置の一例を示した図である。図1に示したストレージ装置10は、第1実施形態に係るストレージ装置の一例である。
図1に示すように、ストレージ装置10は、複数の記憶装置11a、11b、11c、11dと、制御部12とを有する。
なお、記憶装置11a、11b、11c、11dとしては、HDDなどの磁気記憶デバイスが用いられる。また、記憶装置11a、11b、11c、11dとして、SSD(Solid State Drive)やRAM(Random Access Memory)ディスクなどの半導体記憶デバイスなどを用いることもできる。記憶装置11a、11b、11c、11dは、例えば、RAID装置などの冗長性を有する記憶装置である。また、ストレージ装置10は、例えば、NAS装置などとして利用することができる。
制御部12は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。但し、制御部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路であってもよい。制御部12は、例えば、ストレージ装置10に内蔵されたメモリや、ストレージ装置10に接続された外部メモリ又は可搬性記録媒体に格納されたプログラムを実行することができる。
図1の例において、記憶装置11a、11b、11c、11dは、それぞれ第1の記憶領域R11、R12、R13、R14及び第2の記憶領域R21、R22、R23、R24を有する。第1の記憶領域R11、R12、R13、R14には、データA1、A2、A3、B1、B2、B3が格納されている。また、第2の記憶領域R21、R22、R23、R24には、第1の記憶領域R11、R12、R13、R14に格納された一部のデータA1、A2、A3、B1と同じデータが格納されている。
記憶装置11a、11b、11c、11dには、データの管理単位V1、V2が設定されている。記憶装置11a、11b、11c、11dには、同じ管理単位に属する複数のデータが分散して格納される。図1の例では、管理単位V1に属するデータA1、A2、A3が記憶装置11a、11b、11cに分散して格納されている。また、管理単位V2に属するデータB1、B2、B3が記憶装置11a、11b、11dに分散して格納されている。
制御部12は、管理単位V1、V2毎に設定された優先度Pに基づき、複数の記憶装置11a、11b、11c、11dが有する第2の記憶領域R21、R22、R23、R24について管理単位V1、V2毎の使用割合を設定する。図1の例では、管理単位V1に対して優先度「High」が設定され、管理単位V2に対して優先度「Low」が設定されている。つまり、管理単位V1の優先度Pは、管理単位V2の優先度Pより高い。なお、優先度Pは、例えば、予め設定した複数のレベルを用いて表現してもよいし、数値の大きさを用いて表現してもよい。
制御部12は、例えば、優先度Pが高いほど使用割合を大きく設定する。図1の例では、優先度Pが高い管理単位V1の使用割合が3、優先度Pが低い管理単位V2の使用割合が1に設定されている。利用する第2の記憶領域をR23、R24とした場合、例えば、管理単位V1に属する3つのデータA1、A2、A3が第2の記憶領域に格納可能となり、管理単位V2に属する1つのデータB1が第2の記憶領域に格納可能となる。
なお、説明の都合上、図1の例では、データA1、A2、A3、B1、B2、B3のデータサイズが同じであるとし、第2の記憶領域R21、R22、R23、R24の容量がデータ2つ分であるとしている。もちろん、第1実施形態に係る技術の適用範囲はこれに限定されず、任意のデータサイズ及び任意の容量に対して適用可能である。
上記のように、データの管理単位毎に設定された優先度に基づいて第2の記憶領域の利用割合を設定することで、優先度の高いデータを優先度の低いデータより多く第2の記憶領域に格納しておくことが可能になる。
また、第2の記憶領域には第1の記憶領域に格納されたデータの一部と同じデータが格納されているため、第2の記憶領域に格納されたデータを利用できれば、第1の記憶領域に格納されたデータの復旧処理が高速になる。また、第1実施形態の技術を適用すると優先度の高いデータが第2の記憶領域に多く格納されるため、優先度の高いデータについて復旧処理の更なる高速化が期待できる。
以上、第1実施形態について説明した。
<2.第2実施形態>
次に、第2実施形態について説明する。
[2−1.システム]
図2を参照しながら、第2実施形態に係るシステムについて説明する。図2は、第2実施形態に係るシステムの一例を示した図である。
図2に示すように、上記のシステムは、端末装置51a、51b、51c、及びストレージ装置100を含む。
端末装置51a、51b、51cとストレージ装置100とは、ネットワークNWを介して接続されている。ネットワークNWは、例えば、有線又は無線の通信回線で複数の装置を接続する通信ネットワーク、或いは、有線及び無線の通信回線を組み合わせて複数の装置を接続する通信ネットワークである。有線LAN(Local Area Network)、無線LAN、携帯通信網、光通信網などはネットワークNWの一例である。
端末装置51a、51b、51cは、ストレージ装置100に格納されたデータを使用する装置の一例である。端末装置51a、51b、51cとしては、例えば、パーソナルコンピュータやタブレット端末などの情報処理装置、或いは、携帯電話やスマートフォンなどの通信装置などがある。なお、図2には3台の端末装置51a、51b、51cを一例として記載しているが、ストレージ装置100のデータを利用する端末装置の数は2台以下又は4台以上にすることも可能である。
ストレージ装置100は、複数のディスク101a、101b、101c、101dを有する。ディスク101a、101b、101c、101dは、HDDなどの磁気記憶デバイスである。但し、ディスク101a、101b、101c、101dとして、例えば、SSDやRAMディスクなどの半導体記憶デバイスを用いることもできる。また、ディスク101a、101b、101c、101dはRAID装置として機能する。また、ストレージ装置100はNAS装置として機能する。
ディスク101a、101b、101c、101dには、一部のディスクが故障しても、故障したディスクに格納されていたデータを残りのディスクに格納されているデータから復元できる仕組みが設けられている。例えば、ディスク101a、101b、101c、101dにはパリティデータが格納されており、パリティ演算を実行することで故障したディスクに格納されていたデータを復元することができる。復元されたデータは、スペアディスクに格納される。スペアディスクにデータが格納されると、スペアディスクを利用してストレージ装置100における処理が継続される。
データ(以下、パリティデータを含む。)が格納されるディスク101a、101b、101c、101dの領域(以下、データ領域)には、RAIDボリューム(以下、単にボリュームと称する。)が設定される。1つのボリュームは、端末装置51a、51b、51cから1つの連続した記憶領域として扱われる。例えば、ボリュームは、端末装置51a、51b、51cのオペレーティングシステムによりフォーマットされ、物理的なディスクと同様にデータの書き込み処理や読み出し処理の対象とされる。
端末装置51a、51b、51cは、ネットワークNWを介してストレージ装置100にアクセスする。そして、端末装置51a、51b、51cは、ディスク101a、101b、101c、101dに設定されたボリュームに対するデータの書き込み処理や読み出し処理を実行する。
以上、第2実施形態に係るシステムについて説明した。
[2−2.ストレージ装置]
次に、図3を参照しながら、ストレージ装置100について説明する。図3は、第2実施形態に係るストレージ装置の一例を示した図である。なお、図3に例示したストレージ装置100は、第2実施形態に係るストレージ装置の一例である。また、説明の中で、適宜、図4〜図8を参照する。
図3に示すように、ストレージ装置100は、ディスク101a、101b、101c、101d、CPU102、外部インターフェース103、及びバス104を有する。さらに、ストレージ装置100は、メモリ105、バッテリ106、ROM(Read Only Memory)107、及びディスク制御部108を有する。
ディスク101a、101b、101c、101dは、磁気記憶デバイスである。CPU102は、ストレージ装置100の動作を制御するデバイスの一例である。外部インターフェース103は、ネットワークNWと接続する通信インターフェース及び通信インターフェースを制御するデバイスの一例である。バス104は、CPU102、外部インターフェース103、メモリ105、ROM107、ディスク制御部108を接続する内部バスである。
メモリ105には、例えば、外部インターフェース103を介して入力されたデータが一時的に格納される。また、メモリ105には、ディスク制御部108がディスク101a、101b、101c、101dに関する情報を管理する管理テーブルが格納される。例えば、管理テーブルには、ディスク101a、101b、101c、101dに設定された各ボリュームに対するアクセス頻度などの情報が含まれる。なお、管理テーブルについては後述する。バッテリ106は、メモリ105に電力を供給する電源である。
ROM107は、CPU102の動作を規定するプログラムを格納するメモリである。ディスク制御部108は、ディスク101a、101b、101c、101dを制御するコントローラである。また、ディスク制御部108は、バス104を介してCPU102、外部インターフェース103、メモリ105との間でデータをやり取りする。
なお、ディスク制御部108は、ストレージ装置100に接続された記録媒体52に格納されているプログラムを読み出し、読み出したプログラムに従って動作する仕組みとしてもよい。記録媒体52は、例えば、光ディスク、磁気ディスク、半導体メモリなどのストレージ装置100により読み取り可能な可搬記録媒体である。
以下、ディスク101a、101b、101c、101dに設けられるスペア領域の設定、利用、及び管理について説明する。なお、スペア領域は、ディスク101a、101b、101c、101dの一部に障害が発生した際、障害により利用不能となったデータの復元データが格納される記憶領域である。
(スペア領域の設定について)
まず、図4を参照しながら、ディスク101a、101b、101c、101dに設定されるスペア領域について説明する。図4は、第2実施形態に係るスペア領域の設定について説明するための図である。
図4に示すように、ディスク101a、101b、101c、101dには、それぞれデータ領域Dd1、Dd2、Dd3、Dd4と、スペア領域Sp1、Sp2、Sp3、Sp4とが設定される。データ領域Dd1、Dd2、Dd3、Dd4は、端末装置51a、51b、51cが読み書きするデータが格納される記憶領域である。
スペア領域Sp1、Sp2、Sp3、Sp4は、データ領域Dd1、Dd2、Dd3、Dd4に格納されたデータの一部(コピー)が格納される記憶領域である。なお、スペア領域Sp1、Sp2、Sp3、Sp4の合計容量は、例えば、ディスク1つ分と同じ容量以上に設定される。スペア領域が複数のディスクに分散配置されることでスペア領域に対するデータの書き込み時に各ディスクにかかる負担が分散される。
(スペア領域の利用について)
次に、図5及び図6を参照しながら、スペア領域の利用について説明する。図5は、第2実施形態に係るスペア領域の利用について説明するための第1の図である。また、図6は、第2実施形態に係るスペア領域の利用について説明するための第2の図である。
図5の例では、データ領域Dd1、Dd2、Dd3、Dd4には、4つのボリュームV1、V2、V3、V4が設定されている。また、ボリュームV1には、データA1、A2、A3が含まれる。ボリュームV2には、データB1、B2、B3が含まれる。ボリュームV3には、データC1、C2、C3が含まれる。ボリュームV4には、データD1、D2、D3が含まれる。
スペア領域には、ディスク101a、101b、101c、101dの一部に障害が発生した際、復旧処理に利用するデータのコピーが格納される。そのため、スペア領域Sp1には、スペア領域Sp1と同じディスク101aに設定されたデータ領域Dd1とは異なるデータ領域Dd2、Dd3、Dd4から選択されたデータ(図5の例ではデータD1)が格納される。同様に、図5の例では、スペア領域Sp2にデータC1、スペア領域Sp3にデータB1、スペア領域Sp4にデータA1が格納されている。
例えば、ディスク制御部108は、ボリュームV1に対するデータA1の書き込み要求を受け、データ領域Dd1にデータA1を書き込んだ後、スペア領域Sp4にデータA1を書き込む。ディスク101a、101b、101c、101dに障害が発生しておらず、正常動作が可能な通常状態においては、上記の方法によりデータ領域Dd1、Dd2、Dd3、Dd4、及びスペア領域Sp1、Sp2、Sp3、Sp4にデータが書き込まれる。
ディスク101a、101b、101c、101dに障害が発生した場合には、スペア領域Sp1、Sp2、Sp3、Sp4のデータを利用して復旧処理が実行される。例えば、図6に示すように、ディスク101bが故障した場合、データ領域Dd2に格納されていたデータA2、B3、D1が利用不能な状態になる。
ディスク101a、101b、101c、101dはRAID装置としての冗長性を有している。そのため、ディスク制御部108は、データ領域Dd1、Dd3、Dd4に格納されたデータ(パリティデータ)を利用してデータA2、B3、D1を復元できる。但し、スペア領域Sp1にはデータD1が格納されている。そのため、ディスク制御部108は、スペア領域Sp1に格納されているデータD1をそのまま利用する。
この場合、ディスク制御部108は、図6に示すように、パリティデータを利用してデータA2、B3を復元し、復元したデータA2をスペア領域Sp4に格納し、復元したデータB3をスペア領域Sp3に格納する。その結果、スペア領域Sp1に格納されているデータD1、スペア領域Sp3に格納されたデータB3、及びスペア領域Sp4に格納されたデータA2を利用してストレージ装置100の動作を継続することができる。
上記のように、スペア領域に予め格納されているデータ(図6の例ではデータD1)をそのまま利用することでパリティ演算の回数を低減することができる。図6の例では、パリティ演算の回数が2/3に低減されている。また、復旧時に実行するスペア領域へのデータの書き込み回数(図6の例では、スペア領域Sp3、Sp4に対する2回の書き込み)も2/3に低減されている。その結果、障害が発生してからストレージ装置100が正常動作を開始するまでにかかる時間が短縮される。
(スペア領域の管理について)
ここで、図7及び図8を参照しながら、スペア領域の管理について説明する。図7は、第2実施形態に係るスペア領域の管理について説明するための第1の図である。また、図8は、第2実施形態に係るスペア領域の管理について説明するための第2の図である。
図5の例では、ボリュームV1、V2、V3、V4にそれぞれ含まれるデータが同じ割合でスペア領域Sp1、Sp2、Sp3、Sp4に格納されていた。ここでは、図7に示すように、ボリューム毎に設定された優先度に応じてスペア領域に格納されるデータの割合を変える仕組みについて説明する。
図7の例では、ボリュームV1の優先度が高く設定され、ボリュームV2の優先度が低く設定されている。この場合、ボリュームV1に含まれるデータ(A1、及びA2の一部)がスペア領域(Sp3、Sp4)に格納される割合は、ボリュームV2に含まれるデータ(B1の一部)がスペア領域(Sp3)に格納される割合よりも大きく設定される。割合の決定処理は、図8に例示した管理テーブルに基づいてディスク制御部108の機能により実行される。
ディスク制御部108は、単位時間内のアクセス数(頻度P1)をボリューム毎に計測し、計測した頻度P1を管理テーブルに記録する。なお、ディスク制御部108が管理するRAID装置が複数存在する場合には、図8に示すように、RAID装置を特定するRAID名に対応付けてボリューム毎の頻度P1が管理テーブルに記録される。例えば、RAID_AのボリュームV1に対するデータの書き込み及び読み出しが単位時間当たり計5000回あった場合、頻度P1を示す管理テーブルの欄には5000と記録される。
また、管理テーブルには、優先度P4を算出する際に頻度P1に対して重み付けする値である係数P2がボリューム毎に設定されている。さらに、管理テーブルには、優先度P4を算出する際に、係数P2で重み付けした頻度P1に加算する重み値である基数P3がボリューム毎に設定されている。そして、管理テーブルには、ボリューム毎に割り当てられるスペア領域の利用割合を優先度P4から計算するための閾値を示す粒度P5がRAID装置毎に設定されている。
スペア領域の利用割合を決定する際、ディスク制御部108は、管理テーブルを参照し、頻度P1に係数P2を乗算し、乗算した値に基数P3を加えて優先度P4を計算する。言い換えると、優先度P4は、P4=P1×P2+P3で与えられる。
図8の例では、ボリュームV1について計測された頻度P1は5000、係数P2が1、基数P3が1000であるから、ボリュームV1の優先度P4は6000(=5000×1+1000)となる。また、ボリュームV2について計測された頻度P1は100、係数P2が10、基数P3が1000であるから、優先度P4は2000(=100×10+1000)となる。
ディスク制御部108は、ボリュームV1の優先度P4(6000)とn×粒度P5(5000)とを比較する(n=0,1,2,…)。この場合、ボリュームV1の優先度P4は1×粒度P5より大きく、2×粒度P2より小さい。そのため、ディスク制御部108は、利用割合の決定に用いる指標値を示すランクRを2とする。
ディスク制御部108は、ボリュームV2の優先度P4(2000)とn×粒度P5(5000)とを比較する(n=0,1,2,…)。この場合、ボリュームV2の優先度P4は0×粒度P5より大きく、1×粒度P2より小さい。そのため、ディスク制御部108は、利用割合の決定に用いる指標値を示すランクRを1とする。
上記のように、ディスク制御部108は、優先度P4がn×粒度P5より大きく、(n+1)×粒度P5より小さい場合、ランクRを(n+1)とする。ディスク制御部108は、ボリューム毎に求めたランクRを用いてスペア領域の割合を決定する。図8の例では、ボリュームV1のデータに割り当てられるスペア領域の容量と、ボリュームV2のデータに割り当てられるスペア領域の容量とは2対1(ランクRの比率)に設定される。
なお、ボリュームV1のランクRが2、ボリュームV2のランクRが1、ボリュームV3のランクRが1の場合、容量の配分比率は2対1対1に設定される。
ディスク制御部108は、図7に示すように、ボリューム毎に設定した割合に応じてボリューム毎にスペア領域の容量を割り当てる。なお、ボリュームをスペア領域に割り当てたディスク制御部108は、割り当て設定を示す情報をメモリ105に格納する。また、ディスク制御部108は、ボリュームにデータを書き込む際、そのボリュームに割り当てられたスペア領域に同じデータを格納する。図7の例では、ボリュームV1に含まれるデータの方が、ボリュームV2に含まれるデータよりも多くスペア領域に格納される。
以上、ストレージ装置100について説明した。上記のように、ボリューム毎に設定(計算)された優先度に応じてスペア領域の割り当て比率を変更することにより、障害発生時に優先度の高いデータを早く復旧できる可能性が高まる。
[2−3.処理フロー]
次に、ストレージ装置100が実行する処理の流れについて説明する。
(運用開始前の設定に関する処理について)
図9を参照しながら、ストレージ装置100が実行する処理のうち、運用開始前の設定に関する処理の流れについて説明する。
なお、図9は、第2実施形態に係るストレージ装置が実行する処理のうち、運用開始前の設定に関する処理の流れを示したフロー図である。また、図9に示した処理は、主にディスク制御部108により実行される。また、簡単のために、RAID_AのRAID装置上にボリュームV1、V2を設定する場合について説明するが、RAID装置の数やボリュームの数などが異なる場合についても同様である。
図9に示すように、ディスク制御部108は、ディスク101a、101b、101c、101dによりRAID装置を構築し、RAID装置を特定するRAID名をRAID_Aに設定する(S101)。次いで、ディスク制御部108は、RAID_Aの各ディスク(ディスク101a、101b、101c、101d)にスペア領域(スペア領域Sp1、Sp2、Sp3、Sp4)を設定する(S102)。
次いで、ディスク制御部108は、RAID_Aに対する粒度P5を設定する(S103)。また、S103の処理で、ディスク制御部108は、設定した粒度P5を管理テーブルに記録して管理テーブルを更新する。例えば、粒度P5は、ストレージ装置100のユーザ又は管理者により指定され、ディスク制御部108により設定される。次いで、ディスク制御部108は、RAID_A上にボリュームV1を生成する(S104)。
次いで、ディスク制御部108は、ボリュームV1に対する係数P2及び基数P3を設定する(S105)。また、S105の処理で、ディスク制御部108は、設定した係数P2及び基数P3を管理テーブルに記録して管理テーブルを更新する。例えば、係数P2及び基数P3は、ストレージ装置100のユーザ又は管理者により指定され、ディスク制御部108により設定される。次いで、ディスク制御部108は、RAID_A上にボリュームV2を生成する(S106)。
次いで、ディスク制御部108は、ボリュームV2に対する係数P2及び基数P3を設定する(S107)。また、S107の処理で、ディスク制御部108は、設定した係数P2及び基数P3を管理テーブルに記録して管理テーブルを更新する。例えば、係数P2及び基数P3は、ストレージ装置100のユーザ又は管理者により指定され、ディスク制御部108により設定される。S107の処理が完了すると、図9に示した一連の処理は終了する。
以上、運用開始前の設定に関する処理の流れについて説明した。
(運用開始後の処理について)
次に、図10を参照しながら、ストレージ装置100が実行する処理のうち、運用開始後の処理の流れについて説明する。
なお、図10は、第2実施形態に係るストレージ装置が実行する処理のうち、運用開始後の処理の流れを示したフロー図である。また、図10に示した処理は、主にディスク制御部108により実行される。また、簡単のために、図9の処理で生成された管理テーブルを想定して説明を進める。
図10に示すように、ディスク制御部108は、ボリュームに対するアクセスを検知し、単位時間当たりのアクセス回数を示す頻度P1を計算する(S111)。また、S111の処理で、ディスク制御部108は、計算した頻度P1を管理テーブルに記録して管理テーブルを更新する。例えば、ディスク制御部108は、RAID_AのボリュームV1へのアクセス回数を計測し、単位時間当たりのアクセス回数を計算する。そして、ディスク制御部108は、計算結果を頻度P1として管理テーブルに記録する。
次いで、ディスク制御部108は、検知したアクセスが、スペア領域に割り当てられたボリュームへのライト処理(データの書き込み処理)である場合、スペア領域に同じデータを書き込む(S112)。例えば、スペア領域Sp4にボリュームV1が割り当てられている場合(利用割合が0でない場合)、ボリュームV1に対するデータの書き込みがあると、ディスク制御部108は、ボリュームV1に書き込まれたデータと同じデータをスペア領域Sp4に書き込む。
次いで、ディスク制御部108は、運用開始後、予め設定した時間が経過したか否かを判定する(S113)。運用開始後、予め設定した時間が経過している場合、処理はS114へと進む。一方、運用開始後、予め設定した時間が経過していない場合、処理はS111へと進む。
処理がS114へと進んだ場合、ディスク制御部108は、管理テーブルを参照し、頻度P1、係数P2、及び基数P3に基づいて優先度P4を計算する。さらに、ディスク制御部108は、優先度P4及び粒度P5に基づいてランクRを決定する。そして、ディスク制御部108は、決定したランクRに応じた利用割合となるように、スペア領域へのボリュームの割り当てを更新する(S114)。なお、ボリュームの割り当て設定を示す情報は、メモリ105に格納される。
次いで、ディスク制御部108は、更新後の割り当て設定に基づいてスペア領域のデータを更新する(S115)。例えば、スペア領域Sp3に対するボリュームV2の割り当て容量が2/3に減り、残りの容量がボリュームV1に割り当てられた場合、ディスク制御部108は、ボリュームV2のデータを2/3に減らし、残りの容量にボリュームV1のデータを格納する。
次いで、ディスク制御部108は、運用を終了するか否かを判定する(S116)。運用を終了する場合、図10に示した一連の処理は終了する。一方、運用を終了しない場合、処理はS111へと進む。
以上、運用開始後の処理の流れについて説明した。
(障害発生時の処理について)
次に、図11を参照しながら、ストレージ装置100が実行する処理のうち、障害発生時に実行する処理の流れについて説明する。
なお、図11は、第2実施形態に係るストレージ装置が実行する処理のうち、障害発生時に実行する処理の流れを示したフロー図である。また、図11に示した処理は、主にディスク制御部108により実行される。
図11に示すように、ディスク制御部108は、障害の発生を検知する(S121)。この場合、障害の発生により複数のディスクに重複して格納されているデータの量が減少し、冗長性が低下する。例えば、ディスク制御部108は、ディスク101a、101b、101c、101dの1つが故障したことを検知する。障害の発生は、例えば、ディスクに対するデータの書き込み時やデータの読み出し時に発生するエラーログなどを監視することにより検知することができる。
障害の発生を検知したディスク制御部108は、障害が発生したディスクに格納されていたデータのうち、スペア領域に存在しないデータを復元する(S122)。例えば、ディスク制御部108は、障害が発生していないディスクに格納されているパリティデータを利用し、パリティ演算により復元対象のデータを復元する。次いで、ディスク制御部108は、障害が発生していないディスクのスペア領域に復元したデータを格納する(S123)。S123の処理が完了すると、図11に示した一連の処理は終了する。
上記のように、スペア領域に格納されているデータについては、パリティ演算による復元処理が不要になる。さらに、障害が発生したディスクに代えてスペア領域を利用するため、スペア領域に予め格納されているデータを他のスペア領域に書き込む処理も省略される。その結果、スペア領域に格納されているデータは短時間で復旧される。また、優先度の高いデータがスペア領域に格納されている可能性が高いため、優先度の高いデータを短時間で復旧できる可能性が高い。
以上、障害発生時に実行する処理の流れについて説明した。
以上説明したストレージ装置100が実行する処理の流れによれば、ディスクに障害が発生した場合に実行されるデータ復旧処理において、優先度の高いデータが短時間で復旧される可能性を高めることが可能になる。その結果、ストレージ装置100を利用する重要性の高い業務の停止時間を総じて短くすることができる。
[2−4.変形例#1:ユーザ・グループの考慮]
次に、図12を参照しながら、第2実施形態の一変形例(変形例#1)について説明する。図12は、第2実施形態の一変形例(変形例#1)に係る管理テーブルの一例を示した図である。
これまでの説明においては、スペア領域の利用割合をボリューム毎に決める際に参照する頻度P1がボリューム単位で計測されていた。また、頻度P1に対する重みを表す係数P2や、基数P3もボリューム単位で設定されていた。変形例#1では、頻度P1をユーザ毎に計測し、係数P2をユーザ毎に設定し、基数P3をユーザが属するグループ毎に設定する仕組みについて提案する。
例えば、AD(Active Directory)などの機能を利用する場合、ユーザを特定するユーザ名(ユーザID)や、グループを特定するグループ名(グループID)などを利用してユーザやグループに応じた条件設定を行うことができる。また、端末装置51a、51b、51cとストレージ装置100とがCIFS(Common Internet File System)で接続されている場合、アクセスに際してユーザ及びグループの情報が得られる。このような機能を有するシステムでは、変形例#1に基づく運用が可能である。
変形例#1を適用する場合、管理テーブルは、図12のように変形される。図12の例では、頻度P1がユーザ毎に計測され、計測された頻度P1が個々のユーザ名Uに対応付けて管理テーブルに記録される。また、係数P2がユーザ毎に設定され、設定された係数P2が個々のユーザ名Uに対応付けて管理テーブルに記録される。但し、係数P2をグループ単位で設定するように変形することもできる。
また、基数P3は、ユーザが属するグループ毎に設定され、個々のグループ名Gに対応付けて管理テーブルに記録される。但し、基数P3をユーザ単位で設定するように変形することもできる。また、優先度P4は、ボリューム毎に計算され、個々のボリューム名に対応付けて管理テーブルに記録される。また、粒度P5は、RAID装置毎に設定され、個々のRAID名に対応付けて管理テーブルに記録される。そして、ランクRは、ボリューム毎に決定される。
(優先度P4の計算方法、及びランクRの決定方法)
優先度P4は、ユーザ毎に計算された優先度の和である。例えば、ディスク制御部108は、ボリュームV1に関し、グループGroup1に属するユーザUser1について頻度P1を計測し、計測した頻度P1、管理テーブルに設定された係数P2及び基数P3を用いてユーザUser1の優先度を計算する。図12の例において、ユーザUser1の優先度は4000(=3000×1+1000)となる。
また、ディスク制御部108は、グループGroup1に属するユーザUser2について頻度P1を計測し、計測した頻度P1、管理テーブルに設定された係数P2及び基数P3を用いてユーザUser2の優先度を計算する。図12の例において、ユーザUser2の優先度は2000(=500×2+1000)となる。
また、ディスク制御部108は、グループGroup1に属するユーザUser3について頻度P1を計測し、計測した頻度P1、管理テーブルに設定された係数P2及び基数P3を用いてユーザUser3の優先度を計算する。図12の例において、ユーザUser3の優先度は3500(=500×3+2000)となる。そして、ディスク制御部108は、計算したユーザUser1、User2、User3の優先度を合計し、合計値(9500)をボリュームV1の優先度P4として管理テーブルに記録する。
同様に、ディスク制御部108は、ボリュームV2の優先度P4を計算する。図12の例では、ボリュームV2の優先度P4は5670となる。ボリュームV1、V2の優先度P4が得られると、ディスク制御部108は、優先度P4及び粒度P5に基づいてボリュームV1、V2のランクRをそれぞれ決定する。図12の例では、ボリュームV1のランクRが2に決定され、ボリュームV2のランクRが2に決定される。ランクRが決定されると、決定されたランクRに基づいてスペア領域の割合が設定される。
以上、第2実施形態の一変形例(変形例#1)について説明した。
[2−5.変形例#2:無アクセス時間の考慮]
次に、図13及び図14を参照しながら、第2実施形態の一変形例(変形例#2)について説明する。図13は、第2実施形態の一変形例(変形例#2)に係る管理テーブルの一例を示した図である。図14は、第2実施形態の一変形例(変形例#2)に係るディスク管理情報の一例を示した図である。
これまでの説明においては、係数P2及び基数P3を予め設定した値に定めて運用することを前提に説明を進めてきた。変形例#2では、アクセスの無い状態が継続する状況やエラーの発生状況に応じて係数P2や基数P3を調整する仕組みについて提案する。例えば、ディスク制御部108は、アクセスの無い状態が継続するボリュームの基数を減少させ、エラーの発生頻度が高いディスクに属するボリュームの係数や基数を増加させる。
変形例#2に係る管理テーブルは、図13に示すように、無アクセス連続時間T、時間単位t、及び減少幅Wの項目をさらに有する。無アクセス連続時間Tは、ボリュームに対してアクセスがない連続的な時間の長さを表す。また、無アクセス連続時間Tは、ディスク制御部108によりボリューム毎に計測され、ボリューム名に対応付けて管理テーブルに記録される。
時間単位tは、無アクセス連続時間Tを評価する際に用いる時間の単位である。また、時間単位tは、予め設定されて管理テーブルに記録される。減少幅Wは、基数P3を減少させる減少量の単位である。減少幅Wは、予め設定されて管理テーブルに記録される。ディスク制御部108は、無アクセス連続時間Tを時間単位tで割った値に減少幅Wを乗算し、乗算により得られた値だけ基数P3を減少させる。つまり、優先度P4は、「P1×P2+(P3−W×(T/t))」により与えられる。
図13の例では、ボリュームV1の優先度P4が0(=0×1+(1000−500×(20/10)))となる。同様に、ボリュームV2の優先度P4は1500(=500×1+(1000−100×(0/10)))となる。
ボリュームV1、V2の優先度P4が得られると、ディスク制御部108は、優先度P4及び粒度P5に基づいてボリュームV1、V2のランクRをそれぞれ決定する。図13の例では、ボリュームV1のランクRが0に決定され、ボリュームV2のランクRが1に決定される。但し、優先度P4が0の場合、ランクRは0に決定される。ランクRが決定されると、決定されたランクRに基づいてスペア領域の割合が設定される。なお、この例の場合、ボリュームV1はスペア領域に割り当てられない。
上記のように、図13に例示した管理テーブルを利用すれば、アクセスの無い状態が一定時間継続するボリュームの基数を減少させることができる。
また、ディスク毎に発生したエラーの統計値を考慮して係数P2及び基数P3の少なくとも一方を増加させてもよい。例えば、ディスク制御部108は、ディスク101a、101b、101c、101dへのアクセス時に発生したエラーログを監視し、過去に発生したエラーの総数Eをディスク毎に計算する。また、ディスク制御部108は、計算したエラーの総数Eをディスク管理情報(図14を参照)としてメモリ105に格納する。
図14に示すように、ディスク管理情報には、エラー総数E、評価単位e、増加単位[%]、増加率r、及び所属ボリューム名が含まれる。評価単位e、及び増加単位は、ユーザ又は管理者により予め設定された値である。ディスク制御部108は、エラーの総数Eを評価単位eで割った値を増加単位に乗算して増加率rを決定する。図14の例では、ディスク名DISK_Aの評価値が2(=100/50)であるため、増加率rは20%となる。
ディスク制御部108は、管理テーブルに基づいて優先度を計算する際、ディスク管理情報に含まれる増加率rに基づいて管理テーブルに記載された係数P2及び基数P3を調整する。例えば、ボリュームV1がDISK_A、DISK_Bに属する場合、ディスク制御部108は、DISK_Aの増加率r(20%)とDISK_Bの増加率r(16%)との平均値(18%)を計算する。そして、ディスク制御部108は、計算した増加率rの平均値(18%)だけボリュームV1の係数P2及び基数P3を増加させる。
上記のように、図14に例示したディスク管理情報を利用すれば、ディスクのエラー発生状況に応じて係数P2及び基数P3が増加させるため、障害の発生確率が高いディスクのボリュームほどスペア領域の利用割合が多く設定されるようになる。なお、上記の例では、増加率rを利用する方法を示したが、割合ではなく増加幅を計算して係数P2及び基数P3を増加させる仕組みとすることもできる。また、係数P2又は基数P3の一方だけを増加させる仕組みとすることもできる。このような変形についても第2実施形態の技術的範囲に属する。
以上、第2実施形態の一変形例(変形例#2)について説明した。
以上、第2実施形態について説明した。
<3.付記>
以上説明した実施形態に関し、さらに以下の付記を開示する。
(付記1) データが格納される第1の記憶領域及び前記第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置と、
前記管理単位毎に設定された優先度に基づき、前記複数の記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する制御部と、
を有する、ストレージ装置。
(付記2) 前記制御部は、前記優先度が高いほど前記使用割合を大きく設定する
付記1に記載のストレージ装置。
(付記3) 前記管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
前記優先度は、前記管理単位毎に計測されたデータの更新頻度に基づいて設定される
付記1又は2に記載のストレージ装置。
(付記4) 前記優先度は、前記管理単位毎に設定された重み値を用いて前記更新頻度に重み付けした値に設定される
付記3に記載のストレージ装置。
(付記5) 前記管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
前記優先度は、前記単位ボリュームに割り当てられた個々のユーザによるデータの更新頻度に基づいて設定される
付記1又は2に記載のストレージ装置。
(付記6) 前記優先度は、前記ユーザ毎に設定された第1の重み値、及び前記ユーザが属するグループ毎に設定された第2の重み値を用いて前記更新頻度に重み付けした値に設定される
付記5に記載のストレージ装置。
(付記7) 前記制御部は、データの更新がない時間の長さを前記管理単位毎に計測し、当該計測の結果に応じて前記優先度を低減させる
付記1〜6のいずれかに記載のストレージ装置。
(付記8) 前記制御部は、
前記第2の記憶領域に前記使用割合を設定した前記管理単位に属するデータを前記第1の記憶領域に格納する際に当該データを前記第2の記憶領域に格納し、
障害が発生した前記記憶装置が有する前記第1の記憶領域のデータを復旧する場合、障害が発生していない前記記憶装置が有する前記第2の記憶領域に格納されている復旧対象のデータを用いて復旧処理を実行する
付記1〜7のいずれかに記載のストレージ装置。
(付記9) データが格納される第1の記憶領域及び前記第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置を有するストレージ装置が、
前記管理単位毎に設定された優先度に基づき、前記複数の記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する
ストレージ装置の制御方法。
(付記10) データが格納される第1の記憶領域及び前記第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置を有するストレージ装置を制御するコンピュータに、
前記管理単位毎に設定された優先度に基づき、前記複数の記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する
処理を実行させる、プログラム。
(付記11) データが格納される第1の記憶領域及び前記第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置を有するストレージ装置を制御するコンピュータに、
前記管理単位毎に設定された優先度に基づき、前記複数の記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する
処理を実行させる、プログラムが記録された、前記コンピュータにより読み取り可能な記録媒体。
(付記12) 前記優先度が高いほど前記使用割合が大きく設定される
付記9に記載のストレージ装置の制御方法。
(付記13) 前記管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
前記優先度は、前記管理単位毎に計測されたデータの更新頻度に基づいて設定される
付記9又は12に記載のストレージ装置の制御方法。
(付記14) 前記優先度は、前記管理単位毎に設定された重み値を用いて前記更新頻度に重み付けした値に設定される
付記13に記載のストレージ装置の制御方法。
(付記15) 前記管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
前記優先度は、前記単位ボリュームに割り当てられた個々のユーザによるデータの更新頻度に基づいて設定される
付記9又は12に記載のストレージ装置の制御方法。
(付記16) 前記優先度は、前記ユーザ毎に設定された第1の重み値、及び前記ユーザが属するグループ毎に設定された第2の重み値を用いて前記更新頻度に重み付けした値に設定される
付記15に記載のストレージ装置の制御方法。
(付記17) データの更新がない時間の長さが前記管理単位毎に計測され、当該計測の結果に応じて前記優先度が低減される
付記9、12〜16のいずれかに記載のストレージ装置の制御方法。
(付記18) 前記第2の記憶領域に前記使用割合を設定した前記管理単位に属するデータが前記第1の記憶領域に格納する際に、当該データが前記第2の記憶領域に格納され、
障害が発生した前記記憶装置が有する前記第1の記憶領域のデータが復旧される場合、障害が発生していない前記記憶装置が有する前記第2の記憶領域に格納されている復旧対象のデータを用いて復旧処理が実行される
付記9、12〜17のいずれかに記載のストレージ装置の制御方法。
(付記19) 前記制御部は、一の前記記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する場合、一の前記記憶装置に格納されるデータが属する前記管理単位以外の前記管理単位について前記優先度に基づく前記使用割合を設定する
付記1〜8のいずれかに記載のストレージ装置。
(付記20) 前記記憶装置と、前記管理単位と、前記優先度と、前記使用割合とを対応付ける管理テーブルを記憶する記憶部をさらに有し、
前記制御部は、前記管理テーブルを参照して前記管理単位毎の使用割合を設定する
付記1〜8、19のいずれかに記載のストレージ装置。
(付記21) データが格納される第1の記憶領域及び前記第1の記憶領域に格納された一部のデータと同じデータが格納される第2の記憶領域をそれぞれが有し、同じ管理単位に属する複数のデータが分散して格納される複数の記憶装置を管理するストレージ制御装置であって、
前記管理単位毎に設定された優先度に基づき、前記複数の記憶装置が有する前記第2の記憶領域について前記管理単位毎の使用割合を設定する制御部を有する
ストレージ制御装置。
10 ストレージ装置
11a、11b、11c、11d 記憶装置
12 制御部
A1、A2、A3、B1、B2、B3 データ
P 優先度
R11、R12、R13、R14 第1の記憶領域
R21、R22、R23、R24 第2の記憶領域
V1、V2 管理単位

Claims (9)

  1. 数の記憶装置を有するストレージ装置であって、
    前記複数の記憶装置のそれぞれは第1及び第2の物理領域を有し、
    前記複数の記憶装置のうち一の記憶装置の第2の物理領域には、他の記憶装置の第1の物理領域にあるデータの少なくとも一部と同じデータが格納され、
    前記第2の物理領域に対して優先度が高いボリュームのデータが多く格納され、前記優先度が低いボリュームのデータが少なく格納されるようにボリューム毎に前記第2の物理領域の使用割合を制御する制御
    を有する、ストレージ装置。
  2. 前記制御部は、前記優先度が高いほど前記使用割合を大きく設定する
    請求項1に記載のストレージ装置。
  3. 管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
    前記優先度は、前記管理単位毎に計測されたデータの更新頻度に基づいて設定される
    請求項1又は2に記載のストレージ装置。
  4. 前記優先度は、前記管理単位毎に設定された重み値を用いて前記更新頻度に重み付けした値に設定される
    請求項3に記載のストレージ装置。
  5. 管理単位は、前記複数の記憶装置に設定された単位ボリュームであり、
    前記優先度は、前記単位ボリュームに割り当てられた個々のユーザによるデータの更新頻度に基づいて設定される
    請求項1又は2に記載のストレージ装置。
  6. 前記優先度は、前記ユーザ毎に設定された第1の重み値、及び前記ユーザが属するグループ毎に設定された第2の重み値を用いて前記更新頻度に重み付けした値に設定される
    請求項5に記載のストレージ装置。
  7. 前記制御部は、データの更新がない時間の長さを前記ボリューム毎に計測し、当該計測の結果に応じて前記優先度を低減させる
    請求項1〜6のいずれか1項に記載のストレージ装置。
  8. 前記制御部は、
    前記第1の物理領域にデータを格納するタイミングで前記第2の物理領域への前記データの格納を行い、前記他の記憶装置に障害が発生した場には前記一の記憶装置の前記第2の物理領域あるデータを用いて前記他の記憶装置に格納されていたデータの復旧処理を行う
    請求項1〜7のいずれか1項に記載のストレージ装置。
  9. 複数の記憶装置を有するストレージ装置の制御方法であって、
    前記複数の記憶装置のそれぞれは第1及び第2の物理領域を有し、
    前記複数の記憶装置のうち一の記憶装置の第2の物理領域には、他の記憶装置の第1の物理領域にあるデータの少なくとも一部と同じデータが格納され、
    前記ストレージ装置が、前記第2の物理領域に対して優先度が高いボリュームのデータが多く格納され、前記優先度が低いボリュームのデータが少なく格納されるようにボリューム毎に前記第2の物理領域の使用割合を制御する
    ストレージ装置の制御方法。
JP2014032665A 2014-02-24 2014-02-24 ストレージ装置、及びストレージ装置の制御方法 Active JP6244974B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014032665A JP6244974B2 (ja) 2014-02-24 2014-02-24 ストレージ装置、及びストレージ装置の制御方法
US14/608,392 US9858147B2 (en) 2014-02-24 2015-01-29 Storage apparatus and method of controlling storage apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032665A JP6244974B2 (ja) 2014-02-24 2014-02-24 ストレージ装置、及びストレージ装置の制御方法

Publications (2)

Publication Number Publication Date
JP2015158768A JP2015158768A (ja) 2015-09-03
JP6244974B2 true JP6244974B2 (ja) 2017-12-13

Family

ID=53882244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032665A Active JP6244974B2 (ja) 2014-02-24 2014-02-24 ストレージ装置、及びストレージ装置の制御方法

Country Status (2)

Country Link
US (1) US9858147B2 (ja)
JP (1) JP6244974B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110413208B (zh) * 2018-04-28 2023-05-30 伊姆西Ip控股有限责任公司 用于管理存储系统的方法、设备和计算机程序产品
US10877844B2 (en) * 2018-07-11 2020-12-29 Seagate Technology Llc Using deletable user data storage space to recover from drive array failure
JP2021099624A (ja) 2019-12-20 2021-07-01 株式会社日立製作所 ストレージシステム及びストレージシステムのリビルド処理方法
CN114721585A (zh) * 2021-01-06 2022-07-08 伊姆西Ip控股有限责任公司 存储管理方法、设备和计算机程序产品

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666512A (en) * 1995-02-10 1997-09-09 Hewlett-Packard Company Disk array having hot spare resources and methods for using hot spare resources to store user data
US6530035B1 (en) * 1998-10-23 2003-03-04 Oracle Corporation Method and system for managing storage systems containing redundancy data
JP2000200157A (ja) 1999-01-08 2000-07-18 Nec Corp ディスクアレイ装置およびディスクアレイ装置におけるデ―タ復旧方法
US6275898B1 (en) * 1999-05-13 2001-08-14 Lsi Logic Corporation Methods and structure for RAID level migration within a logical unit
JP2003108316A (ja) 2001-09-26 2003-04-11 Toshiba Corp ディスクアレイ装置およびホットスペア制御方法
US7076606B2 (en) * 2002-09-20 2006-07-11 Quantum Corporation Accelerated RAID with rewind capability
JP2005166016A (ja) * 2003-11-11 2005-06-23 Nec Corp ディスクアレイ装置
JP2006053601A (ja) * 2004-08-09 2006-02-23 Hitachi Ltd ストレージ装置
US9043639B2 (en) * 2004-11-05 2015-05-26 Drobo, Inc. Dynamically expandable and contractible fault-tolerant storage system with virtual hot spare
JP4690783B2 (ja) * 2005-06-08 2011-06-01 株式会社日立製作所 ボリューム管理システムおよびその方法
JP4757825B2 (ja) * 2007-03-23 2011-08-24 中部日本電気ソフトウェア株式会社 ファイル管理装置、プログラム、コンピュータ読み取り可能な記録媒体
JP5186808B2 (ja) * 2007-05-29 2013-04-24 富士ゼロックス株式会社 情報処理装置及びプログラム
JP4831093B2 (ja) 2008-02-29 2011-12-07 日本電気株式会社 ディスクアレイシステム、ディスクアレイ制御方法およびディスクアレイ制御プログラム
US8285952B2 (en) 2009-09-17 2012-10-09 Hitachi, Ltd. Method and apparatus to utilize large capacity disk drives
US8566520B1 (en) * 2009-10-05 2013-10-22 Marvell International Ltd. Storage space allocation for logical disk creation
US9335928B2 (en) * 2011-10-01 2016-05-10 International Business Machines Corporation Using unused portion of the storage space of physical storage devices configured as a RAID
JP6015755B2 (ja) 2012-06-20 2016-10-26 富士通株式会社 仮想ディスクのマイグレーションに関する情報処理方法及び装置
US9411523B2 (en) * 2013-07-03 2016-08-09 Globalfoundries Inc. Redundant array of independent disks (RAID) system backup management

Also Published As

Publication number Publication date
US20150242145A1 (en) 2015-08-27
JP2015158768A (ja) 2015-09-03
US9858147B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
US9733844B2 (en) Data migration method, data migration apparatus, and storage device
US9811277B2 (en) Information processing system
US10558383B2 (en) Storage system
US9104790B2 (en) Arranging data handling in a computer-implemented system in accordance with reliability ratings based on reverse predictive failure analysis in response to changes
KR101912596B1 (ko) 리던던트 어레이들을 통한 비휘발성 메모리 프로그램 실패 복구
US7334156B2 (en) Method and apparatus for RAID conversion
US9104328B2 (en) Storage apparatus and method for controlling storage apparatus
US11288119B2 (en) Key value SSD
US20060236149A1 (en) System and method for rebuilding a storage disk
US8868864B2 (en) Storage apparatus and storage apparatus control method
JP2006318246A (ja) 記憶制御方法、プログラム及び装置
US20150286531A1 (en) Raid storage processing
JP2014507717A (ja) より高いレベルの冗長な情報の計算
US8935304B2 (en) Efficient garbage collection in a compressed journal file
JP6244974B2 (ja) ストレージ装置、及びストレージ装置の制御方法
US11493984B1 (en) Data storage performance scaling based on external energy
US10452315B2 (en) Block priority information
WO2015097751A1 (ja) 不揮発性キャッシュメモリにデータをバックアップするストレージシステム
US20170077960A1 (en) Adaptively strengthening ecc for solid state cache
US20170017557A1 (en) Storage controlling device, storage controlling method, and non-transitory computer-readable recording medium
WO2019056948A1 (zh) 存储介质的管理方法、装置及可读存储介质
US8433949B2 (en) Disk array apparatus and physical disk restoration method
KR102545698B1 (ko) 데이터 저장 시스템
US10365836B1 (en) Electronic system with declustered data protection by parity based on reliability and method of operation thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150