JP5056747B2 - 記憶領域管理装置、記憶領域管理方法 - Google Patents

記憶領域管理装置、記憶領域管理方法 Download PDF

Info

Publication number
JP5056747B2
JP5056747B2 JP2008330700A JP2008330700A JP5056747B2 JP 5056747 B2 JP5056747 B2 JP 5056747B2 JP 2008330700 A JP2008330700 A JP 2008330700A JP 2008330700 A JP2008330700 A JP 2008330700A JP 5056747 B2 JP5056747 B2 JP 5056747B2
Authority
JP
Japan
Prior art keywords
volume
storage
logical
storage drive
logical volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008330700A
Other languages
English (en)
Other versions
JP2010152688A (ja
Inventor
敦史 正木
賢一 藤田
宏太郎 捧
晃 佐藤
浩志 潮見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008330700A priority Critical patent/JP5056747B2/ja
Priority to US12/640,391 priority patent/US8700948B2/en
Publication of JP2010152688A publication Critical patent/JP2010152688A/ja
Application granted granted Critical
Publication of JP5056747B2 publication Critical patent/JP5056747B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1092Rebuilding, e.g. when physically replacing a failing disk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明はストレージ装置における論理ボリュームを管理する技術に関するものである。
複数のストレージ装置を含めたシステムにおいて、これらのストレージ装置のストレージボリュームを仮想的なストレージボリュームとして一元管理する技術としてストレージ仮想化が知られている。このストレージ仮想化によれば、ストレージ装置の複数のボリュームから切り出された任意の領域が、仮想ボリュームとして定義される。この仮想ボリュームは、ストレージリソースを必要とするホスト装置などに対して、必要な容量を必要なときに提供することを可能とする。
以下、この仮想ボリュームについて図面を用いて説明する。図15は、ホスト装置に対して仮想ボリュームを提供する従来のシステムを示す図である。
図15に示すシステムは、複数のストレージ装置、ホスト装置、及びこれらの装置間に接続された仮想化装置により構成される。このようなシステム(以下、仮想化システム)において、仮想化スイッチは、複数のストレージ装置のストレージボリュームをLUN(Logical Unit Number)として登録する。さらに、仮想化スイッチは、これらのLUNをそれぞれのホスト装置に対して、必要とする容量を持つ1つの仮想的なボリューム(仮想ボリューム、図15におけるVLUN:Virtual Logical Unit Number)として提供する。つまり、複数のLUNからなるストレージボリュームを、ホスト装置に対して1つのボリュームとして認識させる。この仮想ボリュームに対して書き込まれたデータは、実質的には、仮想ボリュームを構成するストレージ装置のストレージボリュームに書き込まれる。
このようなシステムによれば、例えば複数のストレージ装置の容量がそれぞれ1Tバイトであり、あるホスト装置が必要とする容量が1.5Tバイトである場合、このホスト装置に2つのストレージ装置を割り当てる必要がない。このような場合、仮想化スイッチは、このホスト装置に対して、登録されたLUNのうち、例えば0.5TバイトのLUNを3つ組み合わせ、1.5Tバイトの1つのボリュームとして提供する。
なお、本発明の関連ある従来技術として、複数設けられた第1の記憶領域の一部領域に障害が発生した場合に、一部領域に格納された前記データを移行するためのスペアの第2の記憶領域が存在しなかったときに、複数の第1の記憶領域の他の一部領域を第2の記憶領域として動的に確保するデータ処理システム及びその方法並びにストレージ装置が知られている(例えば、特許文献1参照)。
特開2008−009767号公報
しかしながら、図15に示したような仮想化システムにおいて、ストレージ装置の縮退に対応するためには、各ストレージ装置に対してホットスペア用のストレージ装置を用意し、冗長性を維持する必要がある。つまり、仮想化システムの規模が大きくなる場合、ストレージ装置の数が増大し、このストレージ装置の数に比例して、必要となるホットスペア用のストレージ装置の数も増大するという問題がある。また、このホットスペア用のストレージ装置は、対応するストレージ装置それぞれの容量以上の容量が必要である。このため、仮想化システムにおける各ストレージ装置の容量の大きさに比例して、有効に利用できないストレージリソースが増大することになる。
本発明は、上述した問題点を解決するためになされたものであり、システムにおけるホットスペア領域の割り当てにおいて、ストレージリソースを有効に利用する記憶領域管理装置、記憶領域管理方法を提供することを目的としている。
上述した課題を解決するため、記憶領域管理装置は、互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを管理する装置であって、前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理部と、前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理部により管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームの少なくとも一部を選択ボリュームとして選択する選択部と、前記選択部により選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送部とを備える。
また、記憶領域管理方法は、互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを管理する方法であって、前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理ステップと、前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理ステップにより管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームの少なくとも一部を選択ボリュームとして選択する選択ステップと、前記選択ステップにより選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送ステップとを備える。
本発明によれば、システムにおけるホットスペア領域の割り当てにおいて、ストレージリソースを有効に利用することができるという効果を奏する。
以下、本発明の実施の形態について図を用いて説明する。まず、本実施の形態に係る仮想化システムと、システムを構成する装置のハードウェア構成について説明する。図1は、本実施の形態に係る仮想化システムを示す図である。
図1に示すように、本実施の形態に係る仮想化システムは、仮想化スイッチ10、複数のストレージ装置20(ストレージ装置20A及び20B)、ホスト装置30により構成されるものである。
仮想化スイッチ(記憶領域管理装置)10は、ハードウェアとして、CPU101、メモリ102、port103a、port103b、port103cを備えるものである。port103aは、ストレージ装置20Aに対する入出力インターフェイスである。また、port103bは、ストレージ装置20Bに対する入出力インターフェイスである。また、port103cは、ホスト装置30に対する入出力インターフェイスである。
また、ストレージ装置20A及び20Bは、ハードウェアとして、CPU201、メモリ202を備える。また、ストレージ装置20Aは、仮想化スイッチ10に対する入出力インターフェイスであるport203a、複数のディスクドライブ(記憶ドライブ)からなるRAIDグループ(記憶ドライブグループ)としてA−0、A−1、A−2を備える。また、ストレージ装置20Bは、仮想化スイッチ10に対する入出力インターフェイスである仮想化port203b、複数のストレージ装置からなるRAIDグループとしてB−0、B−1を備える。なお、RAIDグループにおける複数のディスクドライブは互いに冗長性を持つ。また、本実施の形態において、RAIDグループのRAIDレベルは5とするが、複数のディスクドライブが互いに冗長性を持つような構成(例えばRAID1)であれば、如何なる構成であっても良い。
また、ホスト装置(上位装置)30は、ハードウェアとして、CPU301、メモリ302、仮想化スイッチ10に対する入出力インターフェイスであるホストバスアダプタ303を備えるものである。
次に、本実施の形態に係る仮想化システムにおける各装置の機能構成について説明する。図2は、本実施の形態に係る仮想化システムの機能構成を示す図である。
図2に示すように、本実施の形態に係る仮想化システムにおいて、仮想化スイッチ10は、仮想ターゲット105、仮想化制御部(管理部、選択部、第1転送部、第2転送部、要求部)106、仮想化プール107、bitmapテーブル108を機能として備えるものである。また、複数のストレージ装置20は、それぞれRAID制御部204を機能として備えるものである。なお、仮想化スイッチ10及び複数のストレージ装置20における各機能は実質的にはそれぞれに備えられたCPUにより実現されるものである。また、複数のストレージ装置20において、そのディスクボリュームは、論理的なボリュームであるLUNとして扱われている。ストレージ装置20Aにおいては、RAIDグループA−0のボリュームとしてLUN0及びLUN1、RAIDグループA−1のボリュームとしてLUN0、LUN1及びLUN2、RAIDグループA−2のボリュームとしてLUN0、LUN1及びLUN2が存在する。また、ストレージ装置20Bにおいては、RAIDグループB−0のボリュームとしてLUN0、LUN1、LUN2及びLUN3、RAIDグループB−1のボリュームとしてLUN0、LUN1及びLUN2が存在する。
仮想化スイッチ10における仮想ターゲット105は、後述する仮想ボリュームをホスト装置30へ認識させるための仮想的なインターフェイスアダプタである。また、仮想化プール107は、仮想化スイッチ10に接続されているストレージ装置20のLUNを取り込むための仮想的な領域である。また、bitmapテーブル108は、後述する仮想ボリュームのコピーにおいて、コピーする仮想ボリュームの領域を細分化し、細分化した領域に対して、コピー済みか否かを記録するものである。また、仮想化制御部106は、仮想ターゲット105、仮想化プール107によりLUNを管理、制御し、また、bitmapテーブル108を用いて、仮想ボリュームにおけるデータのコピーの進捗状況を管理するものである。また、複数のストレージ装置20におけるRAID制御部204は、装置内の複数のディスクドライブを、冗長性を持たせたRAIDグループとして管理するものであり、RAIDグループから、任意の容量の論理的なボリュームをLUNとして構成するものである。
次に、本実施の形態に係る仮想化システムの動作の概要について説明する。図3は、本実施の形態に係る仮想化システムの動作の概要を示す図である。
図3に示すように、例えば、ストレージ装置20Aにおいて、あるRAIDグループが、属するディスクドライブの障害等により縮退した場合、RAID制御部204は、仮想化スイッチ10に対してホットスペア領域を要求する。この要求に対して、仮想化スイッチ10は、縮退したRAIDグループ以外のRAIDグループに属するLUNからホットスペア領域を選出して確保する。さらに仮想化スイッチ10は、確保したホットスペア領域を、ストレージ装置20AのRAID制御部204の要求に対する応答として返す。ホットスペア領域(実質的にはホットスペア領域を構成するLUNのアドレス)を受け取ったRAID制御部204は、仮想化スイッチ10に対してRebuildデータ(復旧データ)を転送する。このRebuildデータは、縮退したディスクドライブが属するRAIDグループ内の他の正常なディスクドライブに書き込まれたデータとそのパリティ部分により再構築されたデータである。このRebuildデータにより、縮退したRAIDグループが復旧される。また、仮想化スイッチ10は、Rebuildデータを受け取ると、ホットスペア領域としたLUNへRebuildデータを転送する。また、ホットスペア領域へ転送され、書き込まれたRebuildデータは、縮退したディスクドライブが復旧した場合、Copyback処理により復旧したディスクドライブに書き戻される。なお、このような処理を、以降の説明において、Rebuildと呼称する。このように、仮想的なホットスペア領域にRebuildデータが書き込まれることによって、縮退したディスクドライブが属するRAIDグループのRAID冗長性が維持される。
次に、仮想化システムにおける仮想化スイッチの動作の概要について説明する。図4は、仮想化スイッチの動作の概要を示す図である。また、図5は、bitmapテーブルを示す図である。なお、図4においては、複数のLUNを区別するため、例えばLUN0(A−0)というように、LUNにRAIDボリューム名が付加されることにより、それぞれのLUNが区別されている。
図4に示すように、仮想化スイッチ10の仮想化制御部106は、接続されている複数のストレージ装置20の全てのLUNを仮想プール107に登録する。なお、仮想プール107に登録する際、それぞれのLUNに対して、ホットスペア属性(第1属性情報)が付与される。このホットスペア属性は、“2”、“1”、“0”により示される。“2”はホットスペア領域専用として用いられることを示す。また、“1”はホットスペア領域として使用可能であることを示す。また、“0”はホットスペア領域として使用不可能であることを示す。
また、仮想化制御部106は、これらの登録されているLUNを組み合わせて1つの仮想ボリュームとして定義する。また、仮想化制御部106は、1つのLUNを分割し、複数の仮想ボリュームとして定義することもできる。また、定義された仮想ボリュームのうち、ホストに割り当てられた仮想ボリューム0は、仮想ターゲット105を介してホスト装置30に認識される。なお、この仮想ターゲット105は、仮想化スイッチ10の物理的なport103の数の制約を受けずに、複数作成可能である仮想的なportである。また、仮想化制御部106は、ホスト装置30から認識される仮想ボリューム0の内容を、仮想ボリューム0のコピー先として設定された異なる仮想ボリューム1にミラーリングするレプリケーション機能を有する。なお、仮想ボリュームのコピー先として設定される仮想ボリュームには、属性情報として、“コピー先優先フラグ”または“Rebuild優先フラグ”のいずれかのフラグ(第2属性情報)が設定される。“コピー先優先フラグ”が設定されている場合、コピー先である仮想ボリュームはホットスペア領域として設定されない。一方、“Rebuild優先フラグ”が設定されている場合、コピー先である仮想ボリュームはホットスペア領域として設定され得る。さらに、仮想化制御部106は、仮想ボリューム内のデータを、仮想ボリュームとして定義されたストレージ装置20のLUNから、他のストレージ装置20のLUNへデータを複製する機能を有する。
なお、上述した機能による仮想ボリューム間のデータコピー処理において、仮想化スイッチ10は、bitmapテーブル108を用いる。このbitmapテーブル108は、上述したように、コピー元としての仮想ボリューム0の細分化領域のそれぞれに対して、コピー先の仮想ボリューム1へコピー済みか否かを記録するテーブルである。コピー済みか否かは、図5に示すように、細分化された領域のそれぞれに対応する場所に未コピーを示す“1”、またはコピー済みを示す“0”が書き込まれることにより示される。この“1”と“0”によるフラグによって、仮想化制御部104が対応する領域のコピーの進捗状況を確認する。
次に、本実施の形態に係る仮想化システムにおける全体動作について説明する。図6及び7は、本実施の形態に係る仮想化システムにおける全体動作を示すフローチャートである。
まず、ストレージ装置20Aまたはストレージ装置20BのRAID制御部204は、装置内のディスクドライブにおいて、RAID縮退が起きたかどうかを判断する(S101)。
装置内においてRAID縮退が起きた場合(S101,YES)、RAID制御部204は、装置内にRebuild領域(Rebuildに必要な領域)があるかどうかを判断する(S102,選択ステップ)。実質的には、縮退したディスクドライブのRebuildを行うために十分な容量があるかどうかが判断される。
装置内にRebuild領域がない場合(S102,NO)、RAID制御部204は、Rebuildに必要な領域としてホットスペア領域を仮想化スイッチ10の仮想化制御部106へ要求する(S103)。
この要求に対して、仮想化制御部106は、後述する空き容量確認処理を実行し(S104)、仮想化プール107に登録された全てのLUNに対して、Rebuildに必要な空き容量があるかどうかを判断する(S105,選択ステップ)。
Rebuildに必要な空き容量がある場合(S105,YES)、仮想化制御部106は、後述するホットスペア領域選出処理を実行し(S106,選択ステップ)、ホットスペア領域の候補があるかどうかを判断する(S107,選択ステップ)。
ホットスペア領域の候補がある場合(S107,YES)、仮想化制御部106は、要求に対する応答として、RAID制御部204へ、確定したホットスペア領域をホットスペアボリューム情報として返す(S108)。
応答を受け取ったRAID制御部204は、Rebuildデータを仮想化制御部106へ転送し(S109)、Rebuildデータの転送が完了したかどうかを判断する(S111)。また、RAID制御部204に転送されたRebuildデータは、仮想化制御部106により、ホットスペア領域へ転送され、ホットスペア領域として確定されたLUNへ書き込まれる(S110,選択ステップ)。なお、ホットスペア領域へのデータの書き込みの進捗状況に関しては、仮想ボリューム1を構成するLUNを保持するストレージ装置において管理される。
Rebuildデータの転送が完了した場合(S111,YES)、RAID制御部204は、Rebuildデータの転送完了を仮想化制御部106へ通知し(S112)、障害の起きたディスクドライブが、交換などにより回復したかどうか、つまり、縮退したRAIDグループが復旧したかどうかを判断する(S114)。また、通知を受けた仮想化制御部106は、ホットスペア領域へ書き込まれたRebuildデータを、要求があるまで保持しつづける(S113)。
故障ディスクが復旧した場合(S114,YES)、RAID制御部204は、仮想化制御部106へRebuildデータを要求する(S115)。
Rebuildデータの要求を受けた仮想化制御部106は、ホットスペア領域に保持しているRebuildデータをRAID制御部204へ転送する(S116、要求ステップ、第2転送ステップ)。具体的には、ホットスペア領域として確定したLUNが属するストレージ装置にRebuildデータを要求し、要求したデータを縮退したRAIDグループが属するストレージ装置のRAID制御部204へ転送する。
Rebuildデータを転送されたRAID制御部204は、復旧したディスクに対して、RebuildデータをCopybackする(S117)。具体的には、Rebuildデータを書き戻すことによりデータを復旧する。次に、RAID制御部204は、Copybackが完了したかどうかを判断する(S118)。
Copybackが完了した場合(S118,YES)、RAID制御部204は、Copybackが完了した旨を仮想化制御部106に通知する(S119)。
通知を受けた仮想化制御部106は、ホットスペア領域を開放する(S120)。
また、ステップS118の判断において、Copybackが完了していない場合(S118,NO)、RAID制御部204は、復旧したディスクに対して、RebuildデータをCopybackし続ける(S117)。
また、ステップS114の判断において、故障ディスクが復旧していない場合(S114,NO)、RAID制御部204は、再度、故障ディスクが復旧したかどうかを判断する(S114)。
また、ステップS111の判断において、Rebuildデータの転送が完了していない場合(S111,NO)、RAID制御部204は、再度、Rebuildデータを仮想化制御部106へ転送する(S109)。
また、ステップS107の判断において、ホットスペア領域の候補がない場合(S107,NO)、仮想化制御部106は、処理を終了する。
また、ステップS105の判断において、Rebuildに必要な空き容量がない場合(S105,NO)、仮想化制御部106は、処理を終了する。
また、ステップS102の判断において、装置内にRebuild領域がある場合(S102,YES)、RAID制御部204は、装置内で再構築処理を実行し(S121)、再構築処理が完了した旨を仮想化制御部106へ通知する(S122)。なお、この再構築処理は、ホットスペア領域を用いずに、装置内の正常なディスクドライブからデータを再構築し、装置内に設定されたRebuild領域に格納し、格納したデータをディスクドライブに書き戻す処理である。
装置内においてRAID縮退が起きていない場合(S101,NO)、RAID制御部204は、再度、装置内のディスクドライブにおいて、RAID縮退が起きたかどうかを判断する(S101)。
次に、空き容量確認処理について説明する。図8は、空き容量確認処理の動作を示すフローチャートである。
まず、仮想化制御部106は、仮想プール107に登録されているLUNのうち、未使用である(仮想ボリューム化されていない)LUNの総容量を確認し(S201)、この未使用であるLUNの容量がRebuildに必要な容量以上であるかどうかを判断する(S202)。
未使用であるLUNの総容量がRebuildに必要な容量未満である場合(S202,NO)、仮想化制御部106は、未使用である(ホスト装置30に割り当てられておらず、且つコピー先でもない)仮想ボリュームが存在するかどうかを判断する(S203)。
未使用である仮想ボリュームが存在する場合(S203,YES)、仮想化制御部106は、未使用である仮想ボリュームの総容量がRebuildに必要な容量以上であるかどうかを判断する(S204)。
未使用である仮想ボリュームの総容量がRebuildに必要な容量未満である場合(S204,NO)、仮想化制御部106は、未使用のLUNの総容量に未使用の仮想ボリュームの総容量を加えた容量(合計容量)がRebuildに必要な容量以上であるかどうかを判断する(S205)。
合計容量がRebuildに必要な容量未満である場合(S205,NO)、仮想化制御部106は、Rebuild優先フラグが設定されているコピー先としての仮想ボリューム(コピー先ボリューム)が存在するかどうかを判断する(S206)。
Rebuild優先フラグが設定されているコピー先ボリュームが存在する場合(S206,YES)、仮想化制御部106は、Rebuild優先フラグが設定されているコピー先ボリュームの総容量がRebuildに必要な容量以上であるかどうかを判断する(S207)。
Rebuild優先フラグが設定されているコピー先ボリュームの総容量がRebuildに必要な容量未満である場合(S207,NO)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量なしと判断する(S208)。
一方、Rebuild優先フラグが設定されているコピー先ボリュームの総容量がRebuildに必要な容量以上である場合(S207,YES)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量ありと判断する(S209)。
また、ステップS206の判断において、Rebuild優先フラグが設定されているコピー先ボリュームが存在しない場合(S206,NO)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量なしと判断する(S208)。
また、ステップS205の判断において、合計容量がRebuildに必要な容量以上である場合(S205,YES)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量ありと判断する(S209)。
また、ステップS204の判断において、未使用である仮想ボリュームの総容量がRebuildに必要な容量以上である場合(S204,YES)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量ありと判断する(S209)。
また、ステップS203の判断において、未使用である仮想ボリュームが存在しない場合(S203,NO)、仮想化制御部106は、Rebuild優先フラグが設定されているコピー先としての仮想ボリューム(コピー先ボリューム)が存在するかどうかを判断する(S206)。
また、ステップS202において、未使用であるLUNの総容量がRebuildに必要な容量以上である場合(S202,YES)、仮想化制御部106は、RAID制御部204の要求に対して、空き容量ありと判断する(S209)。
上述したように、縮退したRAIDグループに対して、他のRAIDグループのLUNがホットスペア領域として動的に割り当てられる。これにより、仮想化システムを構成する複数のストレージ装置20のそれぞれに対して、ホットスペア領域用のストレージ装置を用意する必要がなく、結果として既存のリソースを効率良く利用することができる。
次に、ホットスペア領域候補選出処理について説明する。図9及び10は、ホットスペア領域候補選出処理の動作を示すフローチャートである。
まず、仮想化制御部106は、対象LUNのホットスペア属性を参照する(S301)。なお、ここで対象LUNとは、ホットスペア領域の選出対象を示す。また、対象LUNとしては、図4における仮想ボリューム0としてのLUNのように、仮想ターゲット105によりホスト装置30と結び付けられたLUN、及び縮退したRAIDグループに属するLUN以外の全てのLUNが選択されるものとする。また、上述した空き容量確認処理に基づいて対象LUNを決定しても良い。例えば、ステップS204の判断がYESである場合、未使用の仮想ボリュームを対象LUNとしても良い。
次に、仮想化制御部106は、ホットスペア属性が“2”及び“1”である対象LUNの総容量がRebuildに必要な容量以上であるかどうかを判断する(S302)。
ホットスペア属性が“2”及び“1”である対象LUNの総容量がRebuildに必要な容量以上(Rebuildデータの容量以上)である場合(S302,YES)、仮想化制御部106は、ホットスペア属性が“2”である対象LUNの総容量がRebuildに必要な容量以上であるかどうかを判断する(S303)。
ホットスペア属性が“2”である対象LUNの総容量がRebuildに必要な容量以上である場合(S303,YES)、仮想化制御部106は、対象LUNをホットスペア属性が“2”である対象LUNに限定する(S304)。次に、仮想化制御部106は、限定した対象LUNを含むRAIDグループのうち、利用率が最も低いRAIDグループを選択する(S305)。なお、RAIDグループの利用率は、RAIDグループ内において、仮想ボリュームとして割り当てられたLUNを、RAIDグループ内のLUNの総容量により除算することで求められる。さらに、仮想化制御部106は、選択したRAIDグループが複数のストレージ装置20において複数存在するかどうか、即ち、利用率が同様であるRAIDグループが複数のストレージ装置20において存在するかどうかを判断する(S306)。
選択したRAIDグループが複数のストレージ装置20において複数存在する場合(S306,YES)、仮想化制御部106は、選択したRAIDグループが存在する複数のストレージ装置20のうち、利用率が最も低いストレージ装置を選択する(S307)。なお、ストレージ装置の利用率は、装置内において、仮想ボリュームとして割り当てられたLUNを、装置内のLUNの総量により除算することで求められる。次に、仮想化制御部106は、選択したストレージ装置において、利用率が同様であるストレージ装置が複数存在するかどうかを判断する(S308)。
選択したストレージ装置において、利用率が同様であるストレージ装置が複数存在する場合(S308,YES)、仮想化制御部106は、利用率が同様であるストレージ装置のうち、未割当であるLUNの総容量が最大であるストレージ装置を選択する(S309)。次に、仮想化制御部106は、選択したストレージ装置内において、利用率が同様であるRAIDグループが複数存在するかどうかを判断する(S310)。
選択したストレージ装置内において、利用率が同様であるRAIDグループが複数存在する場合(S310,YES)、これらのRAIDグループのうち、未割当であるLUNの総容量が最大のRAIDグループを選択する(S311)。次に、仮想化制御部106は、選択したRAIDグループのうち、容量がRebuildに必要な容量以上のLUNが存在するかどうかを判断する(S312)。
容量がRebuildに必要な容量以上のLUNが存在しない場合(S312,NO)、仮想化制御部106は、選択したRAIDグループ内において、割り振られた番号が最大のLUNを選択する(S313)。次に、仮想化制御部106は、選択したLUNの総容量がRebuildに必要な容量以上かどうかを判断する(S314)。
選択したLUNの総容量がRebuildに必要な容量以上である場合(S314,NO)、仮想化制御部106は、選択したLUNをホットスペア領域として確定する(S315)。
一方、選択したLUNの総容量がRebuildに必要な容量未満である場合(S314,YES)、仮想化制御部106は、選択したRAIDグループ内において、選択したLUNを除く、番号が最大のLUNをさらに選択する(S313)。
また、ステップS312において、容量がRebuildに必要な容量以上のLUNが存在する場合(S312,YES)、容量がRebuildに必要な容量に最も近いLUNを選択する(S316)。これにより、必要最小限の容量のLUNをホットスペア領域に割り当てることができる。
また、ステップS310において、選択したストレージ装置内において、利用率が同様であるRAIDグループが複数存在しない場合(S310,NO)、仮想化制御部106は、ステップS312の処理を実行する。
また、ステップS308において、選択したストレージ装置において、利用率が同様であるストレージ装置が複数存在しない場合(S308,NO)、仮想化制御部106は、ステップS310の処理を実行する。
また、ステップS306において、選択したRAIDグループが複数のストレージ装置20において複数存在しない場合(S306,NO)、仮想化制御部106は、ステップS310の処理を実行する。
また、ステップS303において、ホットスペア属性が“2”である対象LUNの総容量がRebuildに必要な容量未満である場合(S303,NO)、仮想化制御部106は、対象LUNをホットスペア属性が“2”及び“1”である対象LUNとする(S317)。
また、ステップS302において、ホットスペア属性が“2”及び“1”である対象LUNの総容量がRebuildに必要な容量未満である場合(S302,NO)、仮想化制御部106は、ホットスペア領域の候補なしとし(S318)、処理を終了する。
上述したように、仮想化制御部106は、ホットスペア領域とするLUNの選出において、利用率が低いRAIDグループ、利用率が低いストレージ装置におけるLUNを優先させる。これにより、可能な限り通常の動作に影響を及ぼさないように、ホットスペア領域を確定することができる。また、予めそれぞれのLUNに割り振られた属性に基づいて、ホットスペア領域とするLUNを選出する。例えば、ホットスペア領域として用いられることにより不都合が生じるようなLUNをホットスペア領域から除外することができる。
次に、図4に示した仮想ボリューム1のようなコピー先としての仮想ボリュームにおけるLUNがホットスペア領域として設定された場合の処理について説明する。図11は、コピー先としての仮想ボリュームへのコピー処理の動作を示すフローチャートである。また、図12は、ホットスペア領域が設定された仮想ボリュームに対応するbitmapテーブルである。また、図13は、ホットスペア領域としての設定が解除された仮想ボリュームに対応するbitmapテーブルである。なお、図11〜13を用いた以下の説明において、コピー先の仮想ボリュームを、図4に倣って仮想ボリューム1と呼称する。また、同様に、コピー元のボリュームを仮想ボリューム0と呼称する。また、図11において、仮想ボリューム1を構成するLUNのいずれかは、ホットスペア領域として予め設定されているものとする。
図11に示すように、まず、仮想化制御部106は、仮想ボリューム0にデータが書き込まれたかどうかを判断する(S401)。
仮想ボリューム0にデータが書き込まれた場合(S401,YES)、仮想化制御部106は、仮想ボリューム1へのコピーがサスペンド状態かどうかを判断する(S402)。
仮想ボリューム1へのコピーがサスペンド状態ではない場合(S402,NO)、仮想化制御部106は、仮想ボリューム1におけるコピー先がホットスペア領域かどうかを判断する(S403)。具体的には、仮想ボリューム1に対応するbitmapテーブル108において、コピー先とする領域に対応する箇所が参照されることにより、コピー先がホットスペア領域かどうかが判断される。なお、図12に示すように、ホットスペア領域に設定された領域に対応する箇所は、強制的に未コピーを示す“1”に固定される。この“1”に固定された箇所に対応する領域は、ホットスペア領域の設定が解除されるまで、データの書き込み、データのコピーが禁止される。なお、bitmapテーブル108におけるホットスペア領域を定義する方法として、異なるbitmapテーブル108を用意し、未定義の領域を“0”、ホットスペア領域として定義する領域を“1”とする方法が挙げられる。この方法によれば、2つのbitmapテーブル108において対応する箇所のフラグを足し合わせることで、仮想化制御部106がホットスペア領域か否かを判断することが可能である。具体的には、フラグの合計が2である箇所がホットスペア領域であり、フラグの合計が1以下である箇所が未定義の領域である。
仮想ボリューム1におけるコピー先がホットスペア領域ではない場合(S403,NO)、仮想化制御部106は、仮想ボリューム0に書き込まれたデータを、仮想ボリューム1へコピーする(S404)。コピー後、仮想化制御部106は、再度、仮想ボリューム0にデータが書き込まれたかどうかを判断する(S401)。
また、ステップS403の判断において、仮想ボリューム1におけるコピー先がホットスペア領域である場合(S403,YES)、仮想化制御部106は、ホットスペア領域をスキップする(S405)。次に、仮想化制御部106は、再度、仮想ボリューム0にデータが書き込まれたかどうかを判断する(S401)。
また、ステップS402の判断において、仮想ボリューム1へのコピーがサスペンド状態である場合(S402,YES)、仮想ボリューム0にデータが書き込まれた箇所に関してbitmapテーブル108を更新し(S406)、再度、仮想ボリューム0にデータが書き込まれたかどうかを判断する(S401)。
また、ステップS401の判断において、仮想ボリューム0にデータが書き込まれていない場合(S401,NO)、仮想化制御部106は、再度、仮想ボリューム0にデータが書き込まれたかどうかを判断する(S401)。
上述したように、定義がなされていない領域と、ホットスペア領域として定義された領域とは、bitmapテーブル108により管理・区別される。これにより、仮想化制御部106は、コピー先としての仮想ボリュームに対して、コピー元の仮想ボリュームのデータと、Rebuildデータとを書き込むことができる。
次に、コピー元の仮想ボリュームにすでに書き込まれているデータのコピー処理について説明する。この処理は、解放されたホットスペア領域に対応するデータをコピー元の仮想ボリュームからコピー先の仮想ボリュームへのコピーを含む。図14は、コピー元の仮想ボリュームにすでに書き込まれているデータのコピー処理を示す図である。なお、図14の説明において、図11の説明と同様に、コピー先の仮想ボリュームを仮想ボリューム1と呼称し、コピー元のボリュームを仮想ボリューム0と呼称する。
まず、仮想化制御部106は、仮想ボリューム1へのコピーがサスペンド状態かどうかを判断する(S501)。
仮想ボリューム1へのコピーがサスペンド状態ではない場合(S501,NO)、仮想化制御部106は、bitmapテーブル108を参照し、未コピーの箇所があるかどうかを判断する(S502)。なお、ホットスペア領域が解放された場合、bitmapテーブル108における解放されたホットスペア領域に対応する箇所は、フラグが“1”となるため、未コピーの領域として扱われる。つまり、未コピーの箇所には解放されたホットスペア領域も含まれる。
未コピーの箇所がある場合(S502,YES)、仮想化制御部106は、未コピーの箇所に対応するデータを仮想ボリューム0から読み出し(S503)、読み出したデータを仮想ボリューム1へ書き込む(S504)。次に、仮想化制御部106は、再度、仮想ボリューム1へのコピーがサスペンド状態かどうかを判断する(S501)。
一方、未コピーの箇所がない場合(S502,NO)、仮想化制御部106は、再度、仮想ボリューム1へのコピーがサスペンド状態かどうかを判断する(S501)。
また、ステップS501において、仮想ボリューム1へのコピーがサスペンド状態である場合(S501,YES)、仮想化制御部106は、仮想ボリューム0から仮想ボリューム1へデータがコピーされた箇所に関してbitmapテーブル108を更新し(S505)、再度、仮想ボリューム1へのコピーがサスペンド状態かどうかを判断する(S501)。
上述したように、ホットスペア領域が解放された場合、bitmapテーブル108における解放されたホットスペア領域に対応する箇所のフラグが“1”となる。これにより、解放されたホットスペア領域へのデータのコピーが再開される。
本発明は、その要旨または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。更に、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、全て本発明の範囲内のものである。
以上、本実施の形態によれば、以下の付記で示す技術的思想が開示されている。
(付記1) 互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを管理する記憶領域管理装置であって、
前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理部と、
前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理部により管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームの少なくとも一部を選択ボリュームとして選択する選択部と、
前記選択部により選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送部と
を備える記憶領域管理装置。
(付記2) 付記1に記載の記憶領域管理装置において、
前記縮退した記憶ドライブグループが復旧した場合、前記第1転送部により前記復旧データが転送された記憶ドライブグループに前記復旧データを要求する要求部と、
前記要求部による要求に対して転送された前記復旧データを、前記復旧した記憶ドライブグループへ転送する第2転送部とを更に備える記憶領域管理装置。
(付記3) 付記1に記載の記憶領域管理装置において、
前記選択部は、前記第1論理ボリュームのうち、前記上位装置に割り当てられている論理ボリュームの割合が最も低い記憶ドライブグループに属する複数の論理ボリュームである第2論理ボリュームの少なくとも一部を前記選択ボリュームとして選択することを特徴とする記憶領域管理装置。
(付記4) 付記3に記載の記憶領域管理装置において、
前記選択部は、前記第2論理ボリュームにおいて、前記復旧データの容量以上の容量を持つ論理ボリュームが複数存在する場合、前記復旧データの容量以上の容量を持つ論理ボリュームのうち、前記復旧データの容量に最も近い容量を持つ複数の論理ボリュームを前記選択ボリュームとして選択することを特徴とする記憶領域管理装置。
(付記5) 付記1に記載の記憶領域管理装置において、
前記管理部により管理される複数の論理ボリュームのそれぞれには、前記選択ボリュームとして選択可能か否かを示す第1属性情報が付加されており、
前記選択部は、前記第1論理ボリュームのうち、前記選択ボリュームとして選択可能であることを示す第1属性情報が付加された論理ボリュームを、前記選択ボリュームの候補とすることを特徴とする記憶領域管理装置。
(付記6) 付記1に記載の記憶領域管理装置において、
前記管理部により管理される論理ボリュームのうち、少なくとも1つの論理ボリュームにより構成され、前記上位装置に割り当てられている論理ボリュームに格納されているデータのコピー先として設定されているボリュームであるコピー先ボリュームには、該コピー先ボリュームを構成する論理ボリュームを前記選択ボリュームとして選択可能か否かを示す第2属性情報が付加されており、
前記選択部は、前記第1論理ボリュームに前記コピー先ボリュームを構成する論理ボリュームが含まれる場合、前記選択ボリュームとして選択不可能であることを示す第2属性情報が付加されたコピー先ボリュームを構成する論理ボリュームを、前記選択ボリュームとしての選択対象から外すことを特徴とする記憶領域管理装置。
(付記7) 互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを管理する記憶領域管理方法であって、
前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理ステップと、
前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理ステップにより管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームの少なくとも一部を選択ボリュームとして選択する選択ステップと、
前記選択ステップにより選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送ステップと
を備える記憶領域管理方法。
(付記8) 付記7に記載の記憶領域管理方法において、
前記縮退した記憶ドライブグループが復旧した場合、前記第1転送ステップにより前記復旧データが転送された記憶ドライブグループに前記復旧データを要求する要求ステップと、
前記要求ステップによる要求に対して転送された前記復旧データを、前記復旧した記憶ドライブグループへ転送する第2転送ステップとを更に備える記憶領域管理方法。
(付記9) 付記7に記載の記憶領域管理方法において、
前記選択ステップは、前記第1論理ボリュームのうち、前記上位装置に割り当てられている論理ボリュームの割合が最も低い記憶ドライブグループに属する複数の論理ボリュームである第2論理ボリュームの少なくとも一部を前記選択ボリュームとして選択することを特徴とする記憶領域管理方法。
(付記10) 付記9に記載の記憶領域管理方法において、
前記選択ステップは、前記第2論理ボリュームにおいて、前記復旧データの容量以上の容量を持つ論理ボリュームが複数存在する場合、前記復旧データの容量以上の容量を持つ論理ボリュームのうち、前記復旧データの容量に最も近い容量を持つ複数の論理ボリュームを前記選択ボリュームとして選択することを特徴とする記憶領域管理方法。
(付記11) 付記7に記載の記憶領域管理方法において、
前記管理ステップにより管理される複数の論理ボリュームのそれぞれには、前記選択ボリュームとして選択可能か否かを示す第1属性情報が付加されており、
前記選択ステップは、前記第1論理ボリュームのうち、前記選択ボリュームとして選択可能であることを示す第1属性情報が付加された論理ボリュームを、前記選択ボリュームの候補とすることを特徴とする記憶領域管理方法。
(付記12) 付記7に記載の記憶領域管理方法において、
前記管理ステップにより管理される論理ボリュームのうち、少なくとも1つの論理ボリュームにより構成され、前記上位装置に割り当てられている論理ボリュームに格納されているデータのコピー先として設定されているボリュームであるコピー先ボリュームには、該コピー先ボリュームを構成する論理ボリュームを前記選択ボリュームとして選択可能か否かを示す第2属性情報が付加されており、
前記選択ステップは、前記第1論理ボリュームに前記コピー先ボリュームを構成する論理ボリュームが含まれる場合、前記選択ボリュームとして選択不可能であることを示す第2属性情報が付加されたコピー先ボリュームを構成する論理ボリュームを、前記選択ボリュームとしての選択対象から外すことを特徴とする記憶領域管理方法。
本実施の形態に係る仮想化システムを示す図である。 本実施の形態に係る仮想化システムの機能構成を示す図である。 本実施の形態に係る仮想化システムの動作の概要を示す図である。 仮想化スイッチの動作の概要を示す図である。 bitmapテーブルを示す図である。 本実施の形態に係る仮想化システムにおける全体動作を示すフローチャートである。 本実施の形態に係る仮想化システムにおける全体動作を示すフローチャートである。 空き容量確認処理の動作を示すフローチャートである。 ホットスペア領域候補選出処理の動作を示すフローチャートである。 ホットスペア領域候補選出処理の動作を示すフローチャートである。 コピー先としての仮想ボリュームへのコピー処理の動作を示すフローチャートである。 ホットスペア領域が設定された仮想ボリュームに対応するbitmapテーブルである。 ホットスペア領域としての設定が解除された仮想ボリュームに対応するbitmapテーブルである。 コピー元の仮想ボリュームにすでに書き込まれているデータのコピー処理を示す図である。 ホスト装置に対して仮想ボリュームを提供する従来のシステム示す図である。
符号の説明
10 仮想化スイッチ、20A,20B ストレージ装置、30 ホスト装置、105 仮想ターゲット、106 仮想化制御部、107 仮想化プール、108 bitmapテーブル、204 RAID制御部。

Claims (6)

  1. 互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを有する複数のストレージ装置を管理する記憶領域管理装置であって、
    前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理部と、
    前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理部により管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームから選択した選択ボリュームを含む記憶ドライブグループ内において仮想ボリュームとして割り当てられた論理ボリュームの容量と前記記憶ドライブグループ内の論理ボリュームの総量とから得られる利用率が最も低く、前記第1論理ボリュームから選択した前記選択ボリュームを含む記憶ドライブグループを選択する選択部と、
    前記選択部により選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送部と
    を備える記憶領域管理装置。
  2. 請求項1に記載の記憶領域管理装置において、
    前記縮退した記憶ドライブグループが復旧した場合、前記第1転送部により前記復旧データが転送された記憶ドライブグループに前記復旧データを要求する要求部と、
    前記要求部による要求に対して転送された前記復旧データを、前記復旧した記憶ドライブグループへ転送する第2転送部とを更に備える記憶領域管理装置。
  3. 請求項1又は2に記載の記憶領域管理装置において、
    前記選択部は、前記第1論理ボリュームのうち、前記上位装置に割り当てられている論理ボリュームの割合が最も低い記憶ドライブグループに属する複数の論理ボリュームである第2論理ボリュームにおいて、前記復旧データの容量以上の容量を持つ論理ボリュームが複数存在する場合、前記復旧データの容量以上の容量を持つ論理ボリュームのうち、前記復旧データの容量に最も近い容量を持つ論理ボリュームを前記選択ボリュームとして選択することを特徴とする記憶領域管理装置。
  4. 請求項1乃至請求項3のいずれかに記載の記憶領域管理装置において、
    前記管理部により管理される複数の論理ボリュームのそれぞれには、前記選択ボリュームとして選択可能か否かを示す第1属性情報が付加されており、
    前記選択部は、前記第1論理ボリュームのうち、前記選択ボリュームとして選択可能であることを示す第1属性情報が付加された論理ボリュームを、前記選択ボリュームの候補とすることを特徴とする記憶領域管理装置。
  5. 請求項1乃至請求項4のいずれかに記載の記憶領域管理装置において、
    前記管理部により管理される論理ボリュームのうち、少なくとも1つの論理ボリュームにより構成され、前記上位装置に割り当てられている論理ボリュームに格納されているデータのコピー先として設定されているボリュームであるコピー先ボリュームには、該コピー先ボリュームを構成する論理ボリュームを前記選択ボリュームとして選択可能か否かを示す第2属性情報が付加されており、
    前記選択部は、前記第1論理ボリュームに前記コピー先ボリュームを構成する論理ボリュームが含まれる場合、前記選択ボリュームとして選択不可能であることを示す第2属性情報が付加されたコピー先ボリュームを構成する論理ボリュームを、前記選択ボリュームとしての選択対象から外すことを特徴とする記憶領域管理装置。
  6. 互いに冗長性を持つ複数の記憶ドライブにより構成される複数の記憶ドライブグループを有する複数のストレージ装置を管理する記憶領域管理方法であって、
    前記複数の記憶ドライブグループの論理的なボリュームである複数の論理ボリュームを管理する管理ステップと、
    前記複数の記憶ドライブグループのうち、少なくとも1つの記憶ドライブグループが縮退した場合、前記管理ステップにより管理されている複数の論理ボリュームにおいて、前記縮退した記憶ドライブグループの論理ボリュームと、前記複数の記憶ドライブグループに対するホストである上位装置に割り当てられた論理ボリュームとを除く論理ボリュームである第1論理ボリュームから選択した選択ボリュームを含む記憶ドライブグループ内において仮想論理ボリュームとして割り当てられた論理ボリュームの容量と前記記憶ドライブグループ内の論理ボリュームの総量とから得られる利用率が最も低く、前記第1論理ボリュームから選択した前記選択ボリュームを含む記憶ドライブグループを選択する選択ステップと、
    前記選択ステップにより選択ボリュームとして選択された論理ボリュームが属する記憶ドライブグループへ、前記縮退した記憶ドライブグループを復旧するためのデータである復旧データを転送する第1転送ステップと
    を備える記憶領域管理方法。
JP2008330700A 2008-12-25 2008-12-25 記憶領域管理装置、記憶領域管理方法 Expired - Fee Related JP5056747B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008330700A JP5056747B2 (ja) 2008-12-25 2008-12-25 記憶領域管理装置、記憶領域管理方法
US12/640,391 US8700948B2 (en) 2008-12-25 2009-12-17 Storage area managing apparatus and storage area managing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008330700A JP5056747B2 (ja) 2008-12-25 2008-12-25 記憶領域管理装置、記憶領域管理方法

Publications (2)

Publication Number Publication Date
JP2010152688A JP2010152688A (ja) 2010-07-08
JP5056747B2 true JP5056747B2 (ja) 2012-10-24

Family

ID=42286299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008330700A Expired - Fee Related JP5056747B2 (ja) 2008-12-25 2008-12-25 記憶領域管理装置、記憶領域管理方法

Country Status (2)

Country Link
US (1) US8700948B2 (ja)
JP (1) JP5056747B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409583B2 (en) * 2002-10-07 2008-08-05 Hitachi, Ltd. Volume and failure management method on a network having a storage device
US9619353B2 (en) 2010-10-06 2017-04-11 International Business Machines Corporation Redundant array of independent disk (RAID) storage recovery
US9590838B2 (en) * 2010-11-09 2017-03-07 International Business Machines Corporation Transferring data of a dispersed storage network
JP5344258B2 (ja) * 2010-11-19 2013-11-20 日本電気株式会社 ディスクアレイ装置及び領域割当て方法
US20120226935A1 (en) * 2011-03-03 2012-09-06 Nitin Kishore Virtual raid-1 drive as hot spare
US20130227345A1 (en) * 2012-02-28 2013-08-29 International Business Machines Corporation Logically Extended Virtual Disk
US9405815B1 (en) 2012-10-02 2016-08-02 Amazon Technologies, Inc. Data recovery in a distributed computing environment
US8943359B2 (en) 2012-10-05 2015-01-27 Lsi Corporation Common hot spare for multiple RAID groups
GB2513377A (en) * 2013-04-25 2014-10-29 Ibm Controlling data storage in an array of storage devices
US9367253B2 (en) * 2014-03-13 2016-06-14 Vmware, Inc. Catastrophic data loss avoidance
JP6398417B2 (ja) * 2014-07-22 2018-10-03 富士通株式会社 ストレージ装置、ストレージシステム及びストレージ制御プログラム
JP6957845B2 (ja) * 2016-09-13 2021-11-02 富士通株式会社 ストレージ制御装置及びストレージ装置
CN108228086B (zh) * 2016-12-21 2021-07-16 伊姆西Ip控股有限责任公司 Raid重建的方法和设备
JP6734251B2 (ja) * 2017-11-30 2020-08-05 株式会社日立製作所 システム及びその制御方法並びにプログラム
JP6751423B2 (ja) * 2018-07-31 2020-09-02 株式会社日立製作所 ストレージ装置及びその制御方法
CN111124263B (zh) * 2018-10-31 2023-10-27 伊姆西Ip控股有限责任公司 用于管理多个盘的方法、电子设备以及计算机程序产品
CN114253460B (zh) * 2020-09-23 2024-08-23 伊姆西Ip控股有限责任公司 管理存储池的方法、设备和计算机程序产品
JP7294691B2 (ja) * 2021-03-16 2023-06-20 Necプラットフォームズ株式会社 ディスクアレイ装置、情報システム及び記憶領域の構築方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666512A (en) * 1995-02-10 1997-09-09 Hewlett-Packard Company Disk array having hot spare resources and methods for using hot spare resources to store user data
US7216195B1 (en) * 2003-03-29 2007-05-08 Emc Corporation Architecture for managing disk drives
GB0320494D0 (en) * 2003-09-02 2003-10-01 Ibm Methods apparatus and controllers for a raid storage system
JP2006053601A (ja) 2004-08-09 2006-02-23 Hitachi Ltd ストレージ装置
US7490270B2 (en) * 2004-11-09 2009-02-10 Dell Products L.P. Method, system, and software for rebuilding a storage drive
JP2007087039A (ja) * 2005-09-21 2007-04-05 Hitachi Ltd ディスクアレイシステム及びその制御方法
JP2007128183A (ja) * 2005-11-01 2007-05-24 Hitachi Computer Peripherals Co Ltd ストレージシステム
JP2008009767A (ja) 2006-06-29 2008-01-17 Hitachi Ltd データ処理システム及びその方法並びにストレージ装置
US7805633B2 (en) * 2006-09-18 2010-09-28 Lsi Corporation Optimized reconstruction and copyback methodology for a disconnected drive in the presence of a global hot spare disk
JP5069011B2 (ja) * 2007-01-29 2012-11-07 株式会社日立製作所 ストレージモジュール及び容量プール空き容量調整方法
US8099623B1 (en) * 2008-10-08 2012-01-17 Netapp, Inc. Efficient distributed hot sparing scheme in a parity declustered RAID organization

Also Published As

Publication number Publication date
US8700948B2 (en) 2014-04-15
JP2010152688A (ja) 2010-07-08
US20100169575A1 (en) 2010-07-01

Similar Documents

Publication Publication Date Title
JP5056747B2 (ja) 記憶領域管理装置、記憶領域管理方法
US8892840B2 (en) Computer system and data migration method
JP4958739B2 (ja) 障害の発生した記憶装置に記憶されているデータを修復するストレージシステム
US7975115B2 (en) Method and apparatus for separating snapshot preserved and write data
US5588110A (en) Method for transferring data between two devices that insures data recovery in the event of a fault
JP5595530B2 (ja) データ移行システム及びデータ移行方法
JP4961319B2 (ja) 仮想ボリュームにおける仮想領域に動的に実領域を割り当てるストレージシステム
US8725981B2 (en) Storage system and method implementing online volume and snapshot with performance/failure independence and high capacity efficiency
JP4267420B2 (ja) ストレージ装置及びバックアップ取得方法
US10102070B2 (en) Information processing system, storage apparatus and storage device
JP6009095B2 (ja) ストレージシステム及び記憶制御方法
US7558981B2 (en) Method and apparatus for mirroring customer data and metadata in paired controllers
JP5257672B2 (ja) ジャーナルの階層を管理する計算機システム及び方法
JP2009037304A (ja) Raidレベルを変更する機能を有したストレージシステム
JP5228466B2 (ja) バックアップ装置、バックアップ方法およびバックアッププログラム
JP2015515033A (ja) ストレージシステム
JP2010020431A (ja) 上位装置から指定されるデバイスに関する記憶容量を変更するストレージシステム及び方法
JP5635621B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法
JP2009104421A (ja) ストレージアクセス装置
JP2013069096A (ja) 制御装置、制御方法およびストレージ装置
WO2016006108A1 (ja) ストレージおよびその制御方法
JP6163588B2 (ja) ストレージシステム
US20160357479A1 (en) Storage control apparatus
JP7201775B2 (ja) ストレージシステム、データ管理方法、及びデータ管理プログラム
US11544005B2 (en) Storage system and processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees