JP5538362B2 - 記憶制御装置及び仮想ボリュームの制御方法 - Google Patents

記憶制御装置及び仮想ボリュームの制御方法 Download PDF

Info

Publication number
JP5538362B2
JP5538362B2 JP2011504610A JP2011504610A JP5538362B2 JP 5538362 B2 JP5538362 B2 JP 5538362B2 JP 2011504610 A JP2011504610 A JP 2011504610A JP 2011504610 A JP2011504610 A JP 2011504610A JP 5538362 B2 JP5538362 B2 JP 5538362B2
Authority
JP
Japan
Prior art keywords
real storage
storage area
virtual
virtual volume
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011504610A
Other languages
English (en)
Other versions
JPWO2010106574A1 (ja
Inventor
幸治 岩満
良徳 大平
勝広 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2010106574A1 publication Critical patent/JPWO2010106574A1/ja
Application granted granted Critical
Publication of JP5538362B2 publication Critical patent/JP5538362B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1041Resource optimization
    • G06F2212/1044Space efficiency improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、記憶制御装置及び仮想ボリュームの制御方法に関する。
企業等のユーザは、記憶制御装置を用いてデータを管理する。記憶制御装置は、RAID(Redundant Array of Independent Disks)に基づく記憶領域上に、論理ボリュームを形成する。その論理ボリュームは、ホストコンピュータ(以下、ホスト)に提供される。
ユーザの使用するデータ量は日々増大するため、現状に合わせて設定されたボリュームサイズでは、いずれ容量が不足する。これに対し、データ量の増加を見越して、ボリュームサイズを現在必要なサイズよりも過大に設定すると、不要不急のディスクドライブが多くなり、コストが増加する。
そこで、仮想的な論理ボリュームを用意し、実際の使用に応じて、その仮想的な論理ボリュームに実記憶領域を割り当てる技術が提案されている(特許文献1)。
米国特許第6823442号明細書
前記文献(US6,823,442B1)には、ストレージサーバシステムが、仮想ボリューム上のブロックアドレスに関するライト要求を受信した場合に、そのブロックアドレスに対応する仮想ボリュームページアドレスに対して、論理的なデータページを割り当てる。そして、その論理的なデータページにデータが書き込まれる。
前記文献には、複数の物理ディスク上のエリアから得られるチャンクレット(chunklet)という概念のエリアに基づいて、特定のRAIDレベルを有する論理ディスクを構成するための管理方法が記載されている。
しかしながら、その管理方法は、物理ディスクドライブ単位にRAIDグループを構成する、記憶制御装置の物理エリア管理方法と全く異なる。従って、前記文献に記載の管理方法を、物理ディスクドライブ単位にRAIDグループを構成する記憶制御装置に、そのまま適用することはできない。
仮に、前記文献に記載の技術を前記管理方法に適用する場合は、通常の論理ボリュームと仮想的な論理ボリュームとの両方を提供可能な記憶制御装置において、通常の論理ボリュームと仮想的な論理ボリュームとで、それぞれ物理エリアの管理方法が異なってしまい、記憶制御装置の構造が複雑化するという問題を生じる。ここで、通常の論理ボリュームとは、ボリューム生成時に、そのボリュームサイズと同容量の物理エリア(物理的記憶領域)が予め割り当てられる論理ボリュームを意味する。仮想的な論理ボリュームとは、ボリュームサイズが仮想化された論理ボリュームであって、ライト要求に応じて、物理エリアが割り当てられる論理ボリュームを意味する。
つまり、前記文献に記載の技術を、物理ディスクドライブ単位でRAIDグループを構成する記憶制御装置にもしも適用したとすると、異なる複数の管理方法で物理エリアを管理しなければならず、構成が複雑化し、開発コストも増大する。
さらに、前記文献では、ライト要求の受領時に、仮想ボリュームページアドレスに対応するテーブルページが割り当てられていない場合、ストレージサーバシステムは、まず最初にテーブルページを割当て、その次に、論理的なデータページを割り当てる。従って、前記文献に記載の技術では、テーブルページを割り当てた後で、データページを割り当てる必要があり、ライト処理の性能が低下するという問題がある。
さらに、前記文献では、上述のような割当て処理を行うため、データページ専用のプールとテーブルページ専用のプールとをそれぞれ別々に設ける必要があり、システム構造が複雑化する。
そこで、本発明の目的は、RAIDグループの物理的構成を考慮して仮想ボリュームに効率的に記憶領域を対応付けることのできる記憶制御装置及び仮想ボリュームの制御方法を提供することにある。本発明の他の目的は、各RAIDグループを均等に使用して仮想ボリュームを構成することのできる記憶制御装置及び仮想ボリュームの制御方法を提供することにある。本発明のさらに別の目的は、仮想ボリュームに効率的に記憶領域を対応付けることができ、かつ、仮想ボリュームの応答性能を向上できるようにした記憶制御装置及び仮想ボリュームの制御方法を提供することにある。本発明の更なる目的は、後述する実施形態の記載から明らかになるであろう。
上記課題を解決すべく、本発明の第1観点に従う記憶制御装置は、仮想的に形成される仮想ボリュームと、RAIDグループを構成する複数の記憶装置を跨るようにしてストライプ状に形成される第1実記憶領域であって、複数の第2実記憶領域を含む複数の第1実記憶領域を管理するプール部と、仮想ボリュームへのライト要求に応じて、第1実記憶領域に含まれる各第2実記憶領域のうち所定の第2実記憶領域を、ライト要求に対応する仮想ボリューム内の所定領域に対応付ける制御部であって、一つの第1実記憶領域に一つの仮想ボリュームを対応付ける制御部と、を備える。
第2観点では、第1観点において、RAIDグループは複数設けられており、各RAIDグループに含まれる各第1実記憶領域は、フォーマットされる場合に、各RAIDグループから所定の順番に選択されて未割当てキューに接続されており、制御部は、仮想ボリュームを生成する場合に、仮想ボリューム内の各仮想的記憶領域を、別の所定の第2実記憶領域に対応付けることにより、仮想ボリュームを正常に生成できたか否かを確認し、さらに、制御部は、仮想ボリュームに対応付けられた第2実記憶領域を開放させるための開放指示を受領した場合には、開放指示により指定される第2実記憶領域を開放するようになっており、さらに、制御部は、(1)現在使用中の第1実記憶領域が有る場合には、現在使用中の第1実記憶領域に含まれる各第2実記憶領域のうち、前回選択された第2実記憶領域に連続する未使用の第2実記憶領域を選択して、ライト要求に対応する仮想的記憶領域に対応付け、(2)現在使用中の第1実記憶領域内に未使用の第2実記憶領域が無い場合には、現在使用中の第1実記憶領域に含まれる各第2実記憶領域のうち、開放指示により開放された第2実記憶領域を選択して、ライト要求に対応する仮想的記憶領域に対応付け、(3)現在使用中の第1実記憶領域内に開放された第2実記憶領域が存在しない場合には、現在使用中の第1実記憶領域よりも前に使用された使用済の第1実記憶領域に含まれる各第2実記憶領域のうち、開放指示により開放された第2実記憶領域を選択して、ライト要求に対応する仮想的記憶領域に対応付け、(4)使用済の第1実記憶領域内に開放された第2実記憶領域が無い場合には、未割当てキューに接続されている各第1実記憶領域のうち先頭の第1実記憶領域を選択し、その第1実記憶領域内の最初の第2実記憶領域を選択して、ライト要求に対応する仮想的記憶領域に対応付ける。
第3観点では、第1観点において、RAIDグループは複数設けられており、制御部は、各RAIDグループが均等に使用されるように、各RAIDグループに含まれる各第1実記憶領域を所定の順番で仮想ボリュームに対応付ける。
第4観点では、第3観点において、制御部は、(1)各RAIDグループに含まれる各第1実記憶領域をフォーマットする場合に、各RAIDグループに含まれる各第1実記憶領域を、所定の順番で、一つの未割当てキューに接続し、(2)フォーマット済の第1実記憶領域を使用する場合には、未割当てキューに接続されている各第1実記憶領域のうち先頭の第1実記憶領域を選択する。
第5観点では、第3観点において、各RAIDグループ毎に未割当てキューが予め用意されており、制御部は、(1)各RAIDグループに含まれる各第1実記憶領域をフォーマットする場合に、各RAIDグループの各第1実記憶領域を、各RAIDグループに対応する未割当てキューにそれぞれ接続し、(2)フォーマット済の第1実記憶領域を使用する場合には、各未割当てキューに接続されている各第1実記憶領域を、所定の順番で取り出して使用する。
第6観点では、第1観点において、制御部は、仮想ボリュームを生成する場合に、仮想ボリューム内の各仮想的記憶領域を、別の所定の第2実記憶領域に対応付ける。
第7観点では、第6観点において、制御部は、ライト要求を受領した場合に、ライト要求に対応する仮想的記憶領域の対応付け先を、別の所定の第2実記憶領域から所定の第2実記憶領域に切り替える。
第8観点では、第1観点において、制御部は、前回のライト要求に対応して仮想ボリュームに対応付けられた第2実記憶領域に連続する、未使用の第2実記憶領域を、所定の第2実記憶領域として仮想ボリュームに対応付ける。
第9観点では、第8観点において、制御部は、仮想ボリュームに対応付けられた第2実記憶領域を開放させるための開放指示を受領した場合に、開放指示により指定される第2実記憶領域を開放するようになっており、さらに、制御部は、未使用の第2実記憶領域が存在しない場合には、現在使用中の第1実記憶領域に含まれる各第2実記憶領域のうち、開放指示により開放された第2実記憶領域を、所定の第2実記憶領域として仮想ボリュームに対応付ける。
第10観点では、第9観点において、制御部は、現在使用中の第1実記憶領域内に開放された第2実記憶領域が存在しない場合には、現在使用中の第1実記憶領域よりも前に使用された使用済の第1実記憶領域に含まれる各第2実記憶領域のうち、開放指示により開放された第2実記憶領域を選択して、所定の第2実記憶領域として仮想ボリュームに対応付ける。
第11観点では、第10観点において、制御部は、使用済の第1実記憶領域内に開放された第2実記憶領域が無い場合には、未使用の各第1実記憶領域の中からいずれか一つの第1実記憶領域を選択し、その第1実記憶領域内の最初の第2実記憶領域を、所定の第2実記憶領域として仮想ボリュームに対応付ける。
第12観点では、第1観点において、仮想ボリュームは複数存在し、RAIDグループとは別のRAIDグループであって、RAIDグループと連番で管理される別のRAIDグループと、別のRAIDグループに基づいて生成される通常の論理ボリュームであって、各仮想ボリュームと連番で管理される通常の論理ボリュームと、を備え、制御部は、通常の論理ボリュームに関するライト要求を受領した場合には、別のRAIDグループの記憶領域にライトデータを書き込ませる。
第13観点では、第1観点において、仮想ボリュームに記憶されるデータには、所定サイズ毎に保証コードが設定されており、保証コードは、RAIDグループを識別するためのデータと、第1実記憶領域を識別するためのデータと、第1実記憶領域内における第2実記憶領域を識別するためのデータとを含んでいる。
第14観点に従う、仮想ボリュームの制御方法は、仮想的に形成される仮想ボリュームを制御するための方法であって、仮想ボリュームは、複数の仮想的記憶領域を備えており、RAIDグループを構成する複数の記憶装置を跨るようにしてストライプ状に形成される第1実記憶領域であって、仮想的記憶領域に対応する第2実記憶領域を複数ずつ含む複数の第1実記憶領域を管理するためのプール部を作成し、各第1実記憶領域をフォーマットし、各仮想的記憶領域を、フォーマットされた各第1実記憶領域のうち所定の第1実記憶領域の有する初期設定用の第2実記憶領域にそれぞれ対応付けることにより、仮想ボリュームを生成し、仮想ボリュームをホストコンピュータに接続し、ホストコンピュータから仮想ボリュームへのライト要求を受信した場合、一つの第1実記憶領域に複数の仮想ボリュームが対応付けられないようにして、ライト要求に対応する仮想的記憶領域に、フォーマットされた各第1実記憶領域のうち所定の第1実記憶領域の有する所定の第2実記憶領域を対応付け、仮想的記憶領域に対応付けられる所定の第2実記憶領域に、ホストコンピュータから受領したライトデータを記憶させる。
本発明の構成の少なくとも一部は、コンピュータプログラムとして構成できる。このコンピュータプログラムは、記録媒体に固定して配布したり、通信ネットワークを介して配信することができる。
本発明の実施形態の全体概念を示す説明図である。 記憶制御装置を含むシステムの全体構成を示す説明図である。 記憶制御装置のブロック図である。 仮想ボリュームとチャンク及びページの関係を示す模式図である。 仮想ボリュームに割り当てられるチャンク及びページを管理するためのテーブル群を示す説明図である。 仮想ボリュームの生成時におけるテーブル群の接続の様子を示す説明図である。 ライトデータを書き込む場合に、仮想ボリュームに割り当てるページを初期設定用ページから所定のページに切り替える様子を示す説明図である。 記憶制御装置の全体動作の流れを示す説明図である。 プール作成処理を示すフローチャートである。 データに付加される保証コードの構成を示す説明図である。 チャンクの状態遷移を示す説明図である。 チャンクを管理するためのキューを示す説明図である。 フォーマット処理を示すフローチャートである。 フォーマット処理の一部を示すフローチャートである。 仮想ボリュームを生成する処理を示すフローチャートである。 ライト処理を示すフローチャートである。 図16に続くフローチャートである。 チャンクを仮想ボリュームに割り当てる処理を示すフローチャートである。 ページを仮想ボリュームに割り当てる処理を示すフローチャートである。 ページ状態を変更する処理を示すフローチャートである。 リード処理を示すフローチャートである。 図21に続くフローチャートである。 仮想ボリュームに割当済みのページを開放させる処理のフローチャートである。 本発明の効果を示す説明図である。 第2実施例に係る記憶制御装置を含むシステムの全体図である。 仮想ボリューム間で初期コピーを行う処理を示すフローチャートである。 仮想ボリューム間で更新コピーを行う処理を示すフローチャートである。 第3実施例に係る記憶制御装置で使用される、チャンクを管理するためのキューを示す説明図である。
符号の説明
1:記憶制御装置、2:ホスト、3:コントローラ、4:記憶装置、5(1),5(2):仮想ボリューム、5A:仮想的記憶領域、6a,6b:RAIDグループ、7:チャンク、8:ページ、10記憶制御装置、20:ホスト、30:コントローラ、40:記憶装置、50V:仮想ボリューム、50N:通常ボリューム、60:プール部、70:管理サーバ、90:RAIDグループ、91:チャンク、92:ページ。
以下、図面に基づいて、本発明の実施の形態を説明する。最初に、本発明の概要を説明し、次に、実施例について説明する。本発明は、後述のように、仮想ボリューム5への実記憶領域の割当てを、チャンク7単位で行う。チャンク7は、複数のページ8から構成される。一つのチャンク7には、一つの仮想ボリューム5が対応付けられる。つまり、一つのチャンク7が異なる複数の仮想ボリューム5に対応付けられることはない。このため、チャンク7の記憶領域を効率的に使用することができる。
仮想ボリューム5の生成時に、各仮想的記憶領域5Aと初期設定用のページ8とが予め対応付けられる。ホスト2から仮想ボリューム5へのライト要求が発行されると、チャンク7内のページ8が順番に使用されて、ライト要求に関わる仮想的記憶領域5Aに割り当てられる。その割り当てられたページ8にライトデータが書き込まれる。データの書込み時には、ライト要求に係る仮想的記憶領域5Aの接続先が、初期設定用のページ8から、チャンク7内の所定のページ8に切り替えられる。所定のページ8とは、前回のライト処理時に使用されたページに連続するページである。つまり、ライトデータを書き込む際には、仮想的記憶領域5Aに割り当てられるページを、初期設定用のページ8から所定のページ8に切り替えるだけで済むため、仮想ボリューム5の応答性能を向上できる。
さらに、チャンク7内に空きページ8が無くなると、新たなチャンク7が選択されて仮想ボリューム5に割り当てられる。新たなチャンク7は、別のRAIDグループ6b内のチャンク群から選択される。これにより、各RAIDグループ6a,6b間で負荷を分散させることができる。
図1は、本発明の実施形態の概要を示す説明図である。図1に関する以下の記載は、本発明の理解及び実施に必要な程度で本発明の概要を示しており、本発明の範囲は図1に示す構成に限定されない。
図1に示すシステムは、記憶制御装置1と、ホスト2とを備える。ホスト2は、例えば、サーバコンピュータまたはメインフレームコンピュータのようなコンピュータ装置として構成される。ホスト2がホストコンピュータの場合、例えば、FICON(Fibre Connection:登録商標)、ESCON(Enterprise System Connection:登録商標)、ACONARC(Advanced Connection Architecture:登録商標)、FIBARC(Fibre Connection
Architecture:登録商標)等の通信プロトコルに従って、データ通信が行われる。ホスト2がサーバコンピュータ等の場合、例えば、FCP(Fibre Channel Protocol)またはiSCSI(internet Small Computer System Interface)等の通信プロトコルに従って、データ通信が行われる。
記憶制御装置1は、ホスト2に通信ネットワークを介して接続される。記憶制御装置1は、例えば、コントローラ3と、記憶装置4と、仮想ボリューム5(1),5(2)とを備える。特に区別する必要がない場合、仮想ボリューム5と呼ぶ。各RAIDグループ6a,6bは、それぞれ複数ずつの記憶装置4から構成される。
記憶装置4としては、例えば、ハードディスクデバイス、半導体メモリデバイス、光ディスクデバイス、光磁気ディスクデバイス、磁気テープデバイス、フレキシブルディスクデバイス等のデータを読み書き可能な種々のデバイスを利用可能である。
記憶装置4としてハードディスクデバイスを用いる場合、例えば、FC(Fibre Channel)ディスク、SCSI(Small Computer System Interface)ディスク、SATAディスク、ATA(AT Attachment)ディスク、SAS(Serial Attached SCSI)ディスク等を用いることができる。また、例えば、フラッシュメモリ、FeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、相変化メモリ(Ovonic
Unified Memory)、RRAM(Resistance RAM)」等の種々の記憶装置4を用いることもできる。さらに、例えば、フラッシュメモリデバイスとハードディスクドライブのように、種類の異なる記憶装置4を混在させる構成でもよい。
各RAIDグループ6a,6bの有する物理的記憶領域は、ストライプ状の複数のチャンク7に区切られる。各チャンク7は、連続する複数のページ8から構成される。チャンク7は「第1実記憶領域」に該当し、ページ8は「第2実記憶領域」に該当する。理解のために、一方のRAIDグループ6aに属する第1チャンク7に符号”a1”を与え、第1チャンク7(a1)に属する各ページに連番を添える。他方のRAIDグループ6bについても同様である。従って、例えば、”a2−3”は、RAIDグループ6aの第2チャンク内の3番目のページであることを意味し、”b1−1”は、RAIDグループ6bの第1チャンク内の1番目のページであることを意味する。
仮想ボリューム5は、複数の仮想的記憶領域5Aから構成される。仮想的記憶領域5Aとページ8のサイズは同一である。一つの例では、1枚のページ8のサイズはSZ1バイト(例えば、32MB)であり、一つのチャンク7のサイズはSZ2バイト(例えば、1GB)であり、仮想ボリューム5のサイズはSZ3バイト(例えば、10GB)である。この場合、一つの仮想ボリューム5はN1個(例えば、10個)のチャンク7から構成され、一つのチャンク7はN2枚(例えば、32枚)のページ8から構成される。上記括弧内の数値は、理解のための一例に過ぎず、本発明の範囲は上記数値に限定されない。上述のページサイズ、チャンクサイズ、仮想ボリュームサイズ等は、可変に設定できる。
コントローラ3は、記憶制御装置1の動作を制御する。例えば、コントローラ3は、ユーザからの指示に基づいて、RAIDグループ6a,6b及び仮想ボリューム5を生成させる。また、コントローラ3は、ホスト2から発行されるコマンド(リードコマンド、ライトコマンド)に応じて処理を実行し、その処理結果をホスト2に送信する。
さらに、コントローラ3は、ライトコマンドを受領した場合、ライトコマンドにより指定される仮想的記憶領域5Aに、ページ8が割り当てられているか否かを判断する。指定される仮想的記憶領域5Aにページ8が割り当てられていない場合、コントローラ3は、チャンク7内の所定のページ8を、指定される仮想的記憶領域5Aに割り当てる。コントローラ3は、割り当てられた所定ページ8にライトデータを書き込む。
コントローラ3は、一つのチャンク7に一つの仮想ボリューム5だけが対応付けられるように、ページ割当てを制御する。一つのチャンク7に含まれる各ページ8は、一つの仮想ボリューム5にのみ割り当てられる。一つのチャンク7内にそれぞれ異なる複数の仮想ボリューム5に割り当てられるページ8が混在することはない。一つのチャンク7内では、論理アドレスの値を問わずに、連続するページ8が使用される。
一方の仮想ボリューム5(1)を例に挙げて説明すると、最初のライトコマンドについて、チャンク7(a1)内の先頭ページ8(a1−1)が使用され、次のライトコマンドについては、その先頭ページ8(a1−1)に続く次のページ8(a1−2)が使用され、さらに別のライトコマンドについては、次のページ8(a1−3)が使用される。そして、最後のページ8(a1−4)を使用した後で、さらにライトコマンドを受領した場合、新たなチャンク7(b1)が仮想ボリューム5(1)に割り当てられる。
他方の仮想ボリューム5(2)には、RAIDグループ6aの第2チャンク7内の先頭ページ8(a2−1)が割り当てられている。もしも、仮想ボリューム5(2)を対象とする新たなライトコマンドが発行された場合、次のページ8が仮想ボリューム5(2)に割り当てられる。そのページ8には、”a2−2”の符号が添えられるはずであるが、図1では省略する。
このように構成される本実施形態では、複数のページ8を有するチャンク7の単位で、仮想ボリューム5に実記憶領域(物理的記憶領域)を割り当て、かつ、一つのチャンク7を一つの仮想ボリューム5にのみ割り当てる。従って、後述のように、チャンク7内の記憶領域を有効に使用することができる。また、通常の論理ボリュームと同様にして、仮想ボリューム5を管理することができ、制御構造を簡素化することができる。
本実施形態では、複数のRAIDグループ6a,6bを均等に使用するべく、各RAIDグループ6a,6bからそれぞれチャンク7(a1),7(b1)を選択して、仮想ボリューム5(1)に割り当てる。これにより、各RAIDグループ6a,6bの負荷を均一化することができる。以下、本実施形態を詳細に説明する。
図2は、本実施例に係る記憶制御装置10を含む情報処理システムの全体構成を示す説明図である。この情報処理システムは、例えば、少なくとも一つの記憶制御装置10と、一つまたは複数のホスト20と、少なくとも一つの管理サーバ70とを含んで構成することができる。
先に図1で述べた実施形態との対応関係を説明する。記憶制御装置10は記憶制御装置1に、ホスト20はホスト2に、コントローラ30はコントローラ3に、記憶装置40は記憶装置4に、仮想ボリューム50Vは仮想ボリューム5に、RAIDグループ90はRAIDグループ6a,6bに、それぞれ対応する。図1で述べた説明と重複する説明は、できるだけ省略する。
ホスト20と記憶装置10とは、第1通信ネットワーク80を介して接続される。第1通信ネットワーク80は、例えば、FC−SAN(Fibre Channel-Storage Area Network)やIP−SAN(Internet Protocol_SAN)のように構成される。
管理サーバ70は、記憶制御装置10の設定を変更等するための装置である。管理サーバ70は、例えば、LAN(Local Area Network)のような第2通信ネットワーク81を介して、記憶制御装置10に接続されている。なお、ホスト20にストレージ管理機能を設けて、ホスト20側から記憶制御装置10の設定変更等を行うように構成することもできる。
記憶制御装置10の詳細は後述するが、記憶制御装置10は、仮想ボリューム50Vと通常ボリューム50Nとを備える。なお、図中では、論理ボリュームを”LU”と表記している。LUとは、Logical Unitの略である。
仮想ボリューム50Vは、図1で述べたように、仮想的に生成される論理ボリュームであって、ホスト20からのライトコマンドに応じて記憶領域が割り当てられるボリュームである。つまり、仮想ボリューム50Vは、ホスト20に提供されるボリュームサイズと、実際に有する記憶領域のサイズとが一致しない。通常ボリューム50Nは、RAIDグループ90の有する記憶領域に基づいて生成されるボリュームである。
プール部60は、複数のRAIDグループ90の有する記憶領域を管理する。プール部60で管理されている記憶領域は、チャンク91(図4参照)単位で仮想ボリューム50Vに割り当てられる。
コントローラ30は、各ボリューム50V,50Nの論理アドレスをRAIDグループ90の物理アドレスに変換等して、データを記憶装置40に書き込んだり、あるいは、記憶装置40から読み出したデータの物理アドレスを論理アドレスに変換等して、データをホスト20に送信する。
図3は、コントローラ30の構成を示すブロック図である。記憶制御装置10には、複数の増設筐体43を接続することができる。増設筐体43は、複数の記憶装置40を収容している。ユーザは、必要に応じて、増設筐体43を接続することにより、システムの総記憶容量を増大させることができる。
記憶制御装置10は、複数のコントローラ30(#0),30(#1)を備える。いずれか一方のコントローラ30が障害等によって停止した場合でも、他方のコントローラ30により動作を継続することができる。以下、特に区別する必要が無い場合、コントローラ30と称する。
コントローラ30は、例えば、第1通信回路310(図中、FEI/F)と、第2通信回路320(図中、SAS)と、データ転送制御回路330(図中、DCTL)と、キャッシュメモリ340(図中、CM)と、ローカルメモリ350(図中、LM)と、マイクロプロセッサ360(図中、MPU)と、メモリコントローラ370(図中、MC)と、エキスパンダ380(図中、EXP)とを備える。
第1通信回路310は、ホスト20と通信を行うための制御回路である。第2通信回路320は、各記憶装置40と通信を行うための制御回路である。データ転送制御回路330は、記憶制御装置10内のデータの流れを制御するための回路である。各データ転送制御回路330は、互いに接続されている。キャッシュメモリ340は、例えば、ホスト20から受領したライトデータと、記憶装置40から読み出されるデータとを記憶する。さらに、キャッシュメモリ340には、記憶制御装置10の構成または動作を管理するための管理用データ等が記憶される場合もある。
ローカルメモリ350は、例えば、マイクロプロセッサ360により使用される各種データを記憶する。マイクロプロセッサ360は、記憶装置40またはローカルメモリ350からコンピュータプログラムを読み込んで実行することにより、後述のように、記憶制御装置10の動作を制御する。
メモリコントローラ370は、マイクロプロセッサ360をローカルメモリ350及びデータ転送制御回路330に接続させるための制御回路である。エキスパンダ380は、第2通信回路320の通信ポートを拡張するための回路である。
図4は、仮想ボリューム50Vとチャンク91との関係を示す説明図である。仮想ボリューム50Vは、複数の仮想的記憶領域500を有する。チャンク91は、複数のページ92を有する。図4では、便宜上、各ページ92を、ストライプ状のチャンク91を横方向に区切って形成するかのように示すが、実際には、各ページ92は、ストライプ列に沿うようにして形成される。
図4では、最初に、第1のチャンク91(#0)が仮想ボリューム50Vに割り当てられたとする。仮想ボリューム50Vへのライトコマンド(ライト要求)が受領される度に、第1チャンク91(#0)内のページ92が順番に選択されて、ライトコマンドに対応する仮想的記憶領域500に対応付けられる。ライトデータは、仮想的記憶領域500に対応付けられたページ92に書き込まれる。つまり、そのページ92を構成する各記憶装置40の各記憶領域にライトデータが書き込まれる。
第1チャンク91(#0)の最初のページ92(1−0)が使用された後、次のページ92(1−1)が使用され、さらに次のページ92(1−2)が使用される。そして、第1チャンク91(#0)の最終ページ92(1−4)まで使用されたとする。これにより、第1チャンク91(#0)の全ページ92が使用されたことになる。
新たなライトコマンドがホスト20から発行されると、第2のチャンク91(#1)が選択され、第2チャンク91(#1)の先頭ページ92(2−0)が使用される。以下、第1チャンク91(#0)で述べたと同様に、第2チャンク91(#1)内の各ページ92が順番に使用される。
このように、仮想ボリューム50Vには、複数のチャンク91(#0),91(#1)が対応付けられる。それらのチャンク91(#0),91(#1)は、それぞれ別々のRAIDグループ90の中から選択される。つまり、仮想ボリューム50Vには、複数のRAIDグループ90の中から選択される複数のチャンク91が対応付けられる。ホスト20による仮想ボリューム50Vへのデータ書込みに応じて、対応付けられたチャンク91内のページ92が順番に使用される。
後述のように、ホスト20が仮想ボリューム50V内のデータ消去を要求する場合、消去対象のデータの論理アドレスに対応するページ92は開放され、その仮想ボリューム50Vに関する別のライトデータの記憶に使用される。
図5は、仮想ボリューム50Vを管理するためのテーブル群を示す説明図である。図5に示すテーブル群は、キャッシュメモリ340上に設けられ、その後、所定の記憶装置40内の所定の管理領域に格納される。また、それらテーブル群は、ローカルメモリ350にもコピーされて、マイクロプロセッサ360により使用される。
プールインデックス100は、例えば、プール部60で管理されているRAIDグループ90の識別番号等の、プール部60の構成(状態及び属性を含む)に関する情報を管理するための情報である。
仮想ボリュームインデックス101は、仮想ボリューム50Vの構成に関する情報を管理するための情報である。仮想ボリュームインデックス101は、例えば、仮想ボリューム50Vに割り当てられているチャンク91の識別番号、及び、リンクされるインデックス102の情報等を管理する。
仮想アドレスインデックス102は、仮想アドレスブロック103へのポインタを管理するための情報である。仮想アドレスブロック103は、ページアドレス情報104へのポインタを管理するための情報である。
例えば、仮想ボリューム50Vのボリュームサイズを10GBとすると、仮想アドレスインデックス102は、仮想ボリューム50Vの仮想アドレス領域を4GBずつの領域に分けて管理する(最初の2つの領域は4GB、最後の一つの領域は2GBである。)。仮想アドレスブロック103は、それぞれ4GBの範囲をカバー可能である。このように、本実施例では、仮想ボリューム50Vの有する仮想アドレス領域を、仮想アドレスインデックス102と仮想アドレスブロック103との2段階に分けて階層管理する。これにより、範囲を絞り込んで検索することができ、該当ページ92に速やかにアクセスすることができる。なお、上記の数値(4GB、10GB、2GB)は、説明のための一例に過ぎず、本発明はそれらの数値に限定されない。前記各数値は可変に設定できる。
ページアドレス情報104は、仮想ボリューム50Vを構成する各仮想的記憶領域500(つまり、仮想ページ500)の構成情報を管理するための情報である。ページアドレス情報104には、例えば、仮想ページに対応付けられる物理ページ92を示す物理アドレス及びページ状態が含まれる。
プール内RAIDグループインデックス110は、プール部60で管理されている各RAIDグループ90の構成情報を管理するための情報である。プール内RAIDグループインデックス110は、例えば、プール部60内の各RAIDグループ90が有する各チャンク91の情報等を管理する。また、プール内RAIDグループインデックス110は、未割当てチャンクキューの先頭及び末尾をそれぞれ示すためのポインタを含む。
チャンクインデックス120は、各仮想ボリューム50Vにどこまでチャンク91が割り当てられているかを管理するためのポインタを含む。つまり、チャンクインデックス120は、各仮想ボリューム50Vに割り当てられているチャンク数などを管理する。
図6は、図5に示すテーブル群が初期化された状態を示す。仮想ボリューム50Vの生成時に、テーブル群は図6に示すように初期化される。仮想ボリューム50Vに含まれる各仮想的記憶領域500(仮想ページ500)は、特定のチャンク91内の特定のページ92にマッピングされる。
例えば、図6に示すように、RAIDグループ90内の先頭チャンク91の最終ページ92が、初期化用の特定ページとして使用される。先頭チャンク91には、上述のテーブル群などの管理情報が記憶される。先頭チャンク91内の先頭ページ92から所定数のページ92までは、管理情報の退避領域として使用される。設定可能な仮想ボリュームの数等によって異なるが、管理情報の合計サイズはチャンクサイズ(例えば、1GB)未満となる。従って、少なくとも、先頭チャンク91の最終ページ92に管理情報が格納されることはない。つまり、先頭チャンク91の最終ページ92は、管理情報の格納先として使用されることがない。
そこで、先頭チャンク91の最終ページである、初期化用のページ92に、予めゼロデータのみを記憶させる。そして、仮想ボリューム50Vの構成を定義するためのテーブル群を初期化する場合には、仮想ボリューム50V内の全ての仮想的記憶領域500を、初期化用のページ92に対応付けておく。
これにより、仮想ボリューム50Vの定義時(仮想ボリューム50Vの生成時)に、テーブル群のマッピングに異常が生じていないことを予め確認することができる。さらに、図7に太線で示すように、仮想ボリューム50Vにライトコマンドが発行された場合には、そのライトコマンドで指定される論理アドレスに対応する仮想的記憶領域500を、初期設定用のページ92からライトデータを書き込むべき所定のページに接続し直すだけでよい。従って、仮想的記憶領域500の対応付け先を切り替えるだけで、ライトデータを格納させることができ、仮想ボリューム50Vの応答性能を高めることができる。
図8は、記憶制御装置10の全体動作を理解するためのフローチャートである。このフローチャートには、ユーザの手順も含まれている。まず最初に、ユーザは、管理サーバ70を介して記憶制御装置10に所定の指示を与えることにより、プール部60にRAIDグループ90を生成させ、さらに、そのRAIDグループ90をフォーマットさせ、未割当てチャンクキュー等を作成させる(S10)。ここで、プール部60内で管理される、仮想ボリューム50V用のRAIDグループ90と、通常ボリューム50N用のRAIDグループ90とは、連番で管理される。
続いて、ユーザは、管理サーバ70から記憶制御装置10に別の所定の指示を与えることにより、仮想ボリューム50Vを作成させる(S11)。上述の通り、仮想ボリューム50Vの生成時に、各仮想的記憶領域500はそれぞれ初期設定用のページ92に対応付けられる。ここで、仮想ボリューム50Vと通常ボリューム50Nとは、連番で管理される。これにより、仮想ボリューム50Vと通常ボリューム50Nとを共通の管理方式で管理することができ、記憶制御装置10内に仮想ボリューム50Vと通常ボリューム50Nとを混在させることができる。
続いて、ユーザは、ホスト20と仮想ボリューム50Vとを接続させる(S12)。ユーザは、ホスト20に繋がるLUN(Logical Unit Number)に、仮想ボリューム50Vを接続させ、さらに、WWN(Logical Unit Number)の登録等を行わせる。
ホスト20は、仮想ボリューム50Vを認識し(S13)、仮想ボリューム50Vに向けてライトコマンド等のコマンドを発行する。記憶制御装置10は、ホスト20からのコマンドに応じた処理を行い、その結果をホスト20に送信する(S14)。以下、各処理の詳細を図を改めて説明する。
図9は、プール作成処理を示すフローチャートである。以下に述べる各フローチャートは、各処理の概要を示す。いわゆる当業者であれば、図示されたステップの入れ替え、変更、削除、あるいは新たなステップの追加を行うことができるであろう。
図9に示す処理は、プール作成要求が与えられると開始される。以下、動作の主体をコントローラ30とする。コントローラ30は、作成対象のプール部60のプールインデックス100について、そのプール状態を更新し(S20)、RAIDグループ90を作成する(S21)。コントローラ30は、プール内RAIDグループインデックス110の状態を”処理中”に変化させる(S22)。
コントローラ30は、管理情報を退避させるための領域をRAIDグループ90内に設定し(S23)、さらに、チャンクインデックス120を作成する(S24)。プール部60内の全チャンク91について、以下のステップS26〜S28がそれぞれ実行される(S25)。
コントローラ30は、対象チャンクに対応するページアドレス情報104を初期化し(S26)、対象チャンクの状態を”フォーマット待ち”に変更する(S27)。コントローラ30は、管理情報を退避させるための退避要求キューに、管理情報の対比要求をエンキューする(S28)。
各チャンク91についてS26〜S28を実行した後、コントローラ30は、プール内RAIDグループインデックス110の状態を”有効”に変更する(S29)。そして、コントローラ30は、キャッシュメモリ340にヌルデータをステージングさせて(S30)、本処理を終了する。ライトデータの書き込まれていない仮想的記憶領域500からのデータ読み出しが要求された場合に、物理的記憶領域であるページ92にアクセスすることなく、ホスト20にヌルデータを返すためである。
図10は、データ及び保証コードについて説明する図である。図10(a)に示すように、本実施例では、例えば、512バイトのデータD10毎に8バイトの保証コードD11を付加して、記憶装置40に記憶させる。保証コードD11は、論理アドレスを検証するための部分と、ビットエラーを検証するための部分とを含むことができる。以下では、論理アドレスを検証するための部分に着目して説明する。
図10(b)は、通常ボリューム50Nに記憶されるデータに付加される、保証コードの構成を示す。通常ボリューム50Nに関する保証コードのうち論理アドレスの検証に使用される部分は、4ビットの予約領域D110と、12ビットのLUN領域D111と、16ビットのLBA領域D112とを含んでいる。LBAとは、Logical Block Addressの略である。LUN領域D111には、通常ボリューム50Nに対応付けられるLUNが格納される。LBA領域D112には、データD10の論理アドレスが格納される。
図10(c)は、仮想ボリューム50Vに記憶されるデータに付加される、保証コードの構成を示す。仮想ボリューム50Vに関する保証コードのうち論理アドレスの検証に使用される部分は、4ビットの予約領域D110と、8ビットのRAIDグループ識別領域D113と、4ビットのチャンク識別領域D114と、16ビットのチャンク内LBAオフセット領域D115とを含んでいる。RAIDグループ識別領域D113には、RAIDグループ90を識別するための情報が格納される。チャンク識別領域D114には、チャンク91を識別するための情報のうち下位の4ビットが格納される。チャンク内LBAオフセット領域D115には、データD10が格納されているチャンク91内において、そのチャンク91の先頭論理アドレスからのオフセット値が格納される。
図11,図12に基づいて、チャンク91を管理するためのキューを説明する。図11は、キューの使用方法を示す説明図である。プール部60が作成されると、プール部60で管理される各RAIDグループ90の有する各チャンク91は、フォーマット待ちチャンクキューQ10に登録されて管理される。フォーマットが開始されると、フォーマット中のチャンク91は、処理完了待ちチャンクキューQ20に移される。そして、フォーマットが完了すると、フォーマット済チャンク91は、未割当てチャンクキューQ30に移される。
図12は、各キューQ10,Q20,Q30を模式的に示す説明図である。フォーマット待ちチャンクキューQ10は、各RAIDグループ90毎に用意される。そして、フォーマット処理を開始する場合、フォーマット待ちチャンクキューQ10内の各RAIDグループ90から所定の順番でチャンク91が取り出されて、処理完了待ちキューQ20に接続される。フォーマットが完了したチャンク91は、上述の通り、未割当てチャンクキューQ30に接続される。処理完了待ちチャンクキューQ20に繋がれた順番で、フォーマットは完了するため、処理完了待ちキューQ20内の各チャンク91の順番と、未割当てチャンクキューQ30内の各チャンク91の順番とは、通常の場合、一致する。
図13,図14に基づいてチャンク91をフォーマットする処理を説明する。図13は、フォーマット処理の全体を示し、図14は、フォーマット処理の一部を示す。
コントローラ30は、フォーマット待ちチャンクキューQ10を確認することにより、フォーマット待ちのチャンク91が有るか否かを判定する(S50)。フォーマット待ちチャンクキューQ10にチャンク91が登録されている場合(S50:YES)、コントローラ30は、プール部60内の各RAIDグループ90毎に、ラウンドロビン方式でチャンクを選択し、以下のステップS51〜S54を実行する。
図12に示す例で選択方法を説明すると、第1RAIDグループ90(#1)から一つのチャンク91(1−1)を選択した後、第2RAIDグループ90(#2)から別の一つのチャンク91(2−1)を選択し、さらに、第3RAIDグループ90(#3)からさらに別の一つのチャンク91(3−1)を選択する。選択されたチャンク91(1−1)、91(2−1),91(3−1)について、後述するS52〜S54をそれぞれ実行する。チャンク91(1−2),91(2−2),91(3−2)のセットについても、S52〜S54を実行する。さらに、チャンク91(1−3),91(2−3),91(3−3)のセットについても、S52〜S54を実行する。以下同様である。
コントローラ30は、フォーマット待ちチャンクキューQ10から、対象RAIDグループ90のチャンク91を一つ選択し、フォーマット待ちチャンクキューQ10からデキューさせる(S52)。コントローラ30は、選択されたチャンク91を処理完了待ちチャンクキューQ20にエンキューし(S53)、選択されたチャンク91についてのフォーマットジョブを実行する(S54)。フォーマットジョブの詳細については、図14と共に後述する。
フォーマットジョブが完了すると、コントローラ30は、フォーマット済のチャンク91を、処理完了待ちチャンクキューQ20からデキューし(S55)、そのフォーマット済のチャンク91を未割当てチャンクキューQ30にエンキューする(S56)。
図14は、図13中にS54で示されるフォーマットジョブの詳細を示すフローチャートである。コントローラ30は、処理対象のチャンク91の識別番号を取得し(S60)、対象チャンク91をフォーマットする範囲を決定する(S61)。そして、コントローラ30は、対象チャンク91についてのエクステントロックを取得する(S62)。これにより、対象チャンク91が別のプログラムによって使用されるのを防止する。
コントローラ30は、対象チャンク91について所定サイズ毎に、後述するS64〜S70を実行する(S63)。つまり、コントローラ30は、対象チャンク91を、所定サイズの単位領域毎にフォーマットするようになっている。
コントローラ30は、データ用のキャッシュセグメントを確保し(S64)、続いて、パリティ用のキャッシュセグメントを確保する(S65)。キャッシュセグメントとは、キャッシュメモリ340の記憶領域を管理する単位である。
コントローラ30は、論理アドレスを算出し(S66)、ゼロデータの生成を要求し(S67)、さらに、パリティの生成を要求する(S68)。ゼロデータは、S64で確保されたキャッシュセグメントを用いて生成される。パリティは、S65で確保されたキャッシュセグメントを用いて生成される。コントローラ30は、データ用に確保されたキャッシュセグメントを開放させ(S69)、さらに、パリティ用に確保されたキャッシュセグメントも開放させる(S70)。
コントローラ30は、対象チャンク91のエクステントロックを開放し(S71)、対象チャンク91についてのフォーマット完了を確認してから(S72:YES)、図13の処理に戻る。
図15は、仮想ボリューム50Vを作成する処理を示すフローチャートである。コントローラ30は、プール部60の状態が正常であるか否かを判定する(S80)。プール部60に障害が発生している場合(S80:NO)、仮想ボリューム50Vを生成することはできないため、コントローラ30は、エラー処理を実行する(S81)。エラー処理では、例えば、プール部60に異常が生じているために仮想ボリューム50Vを生成できない旨を、ユーザに通知する。
プール部60が正常な場合(S80:YES)コントローラ30は、仮想ボリュームインデックス101の状態を”無効”から”処理中”に変更させる(S82)。予め用意されている仮想ボリュームの識別番号には、仮想ボリュームの状態の初期値として”無効”が予め設定されている。仮想ボリューム50Vの生成中では、その状態は”無効”から”処理中”に変化する。仮想ボリューム50Vの生成が完了すると、後述のように、その状態は”処理中”から”有効”に変化する。
コントローラ30は、状態が”処理中”に変更された仮想ボリューム50Vについて、仮想アドレスインデックス102を作成し(S83)、さらに、その仮想アドレスインデックス102に対応付けられる仮想アドレスブロック103を作成する(S84)。さらに、コントローラ30は、仮想アドレスブロック103に対応付けられるページアドレス情報104を作成する(S85)。
コントローラ30は、プール内RAIDグループインデックス110を更新し(S86)、仮想ボリュームインデックス101の状態を”処理中”から”有効”に変更する(S87)。コントローラ30は、仮想ボリューム50Vを正常に作成することができたか否かを確認し(S88)、仮想ボリューム50Vを正常に作成できた場合には(S88:YES)、本処理を終了させる。仮想ボリュームを正常に作成できなかった場合(S88:NO)、エラー処理が行われる(S89)。エラー処理では、例えば、仮想ボリューム50Vを正常に作成できなかった旨をユーザに通知する。
なお、便宜上、仮想ボリューム50Vを正常に作成できたか否かを最後に判定するかのように説明したが、実際には、各テーブル101−104の作成時にそれぞれ正常に作成できたか否かが判定される。そして、正常に作成できなかった場合には、エラー処理が行われる。
図15に示す処理を行うことにより、図6に示すテーブル群が作成され、仮想ボリューム50V内の各仮想的記憶領域500は、初期設定用のページ92にそれぞれ対応付けられる。従って、仮想ボリューム50Vを正常に作成できた時点で、各仮想的記憶領域500と実ページ92との対応付けを正常に行えることが確認される。
図16は、ライトコマンドの処理を示すフローチャートである。コントローラ30は、ホスト20からコマンドを受領すると、そのコマンドが仮想ボリューム50Vを対象とするライトコマンドであるか否かを判定する(S90)。
そのコマンドが、通常ボリューム50Nを対象とするライトコマンドである場合(S90:NO)、コントローラ30は、通常のライト処理を実行する(S91)。通常のライト処理では、例えば、ホスト20から受領したライトデータをキャッシュメモリ340に書き込み、キャッシュメモリ340へのライトデータ書込みが完了した時に、ホスト20に処理完了を通知する。その後、適切なタイミングを見計らって、キャッシュメモリ340に記憶されたライトデータを、記憶装置40に書き込む。
仮想ボリューム50Vを対象とするライトコマンドを受領した場合(S90:YES)、コントローラ30は、ライトコマンドで指定された仮想ボリューム50Vについて、現在使用中のチャンク91が有るか否かを判定する(S92)。使用中のチャンク91が有る場合(S92:YES)、後述のS96に移行する。使用中のチャンク91が無い場合(S92:NO)、コントローラ30は、仮想ボリューム50Vに新たに割り当てるべきチャンク91が初期状態になっているか否かを判定する(S93)。
通常の場合、図13に示すフォーマット処理によって、新規チャンクは初期状態に設定されている。それにもかかわらず、新規チャンク91が初期状態になっていない場合(S93:NO)、エラー処理が行われる(S94)。エラー処理では、例えば、初期状態のチャンク91が存在しない旨を、管理サーバ70を介してユーザに通知する。
新規チャンク91が初期状態になっている場合(S93:YES)、コントローラ30は、チャンク割当て変更処理を行う(S95)。チャンク割当て変更処理の詳細は、図18で述べるが、先に簡単に説明すると、コントローラ30は、未割当てチャンクキューQ30から一つのチャンク91を選択して仮想ボリューム50Vに対応付け、そのチャンク91の状態を”割当済み(使用中)”に変更等する。
コントローラ30は、チャンク91内の各ページ92のうち、使用しようとするページ92が初期状態になっているか否かを判定する(S96)。使用しようとするページ92が初期状態の場合(S96:YES)、ページ割当て変更処理が行われる(S97)。
ページ割当て変更処理の詳細は、図19で後述する。簡単に説明すると、ページ割当て変更処理では、仮想ボリューム50Vに割り当てられるページ92の状態を”割当済み(使用中)”に変更し、仮想アドレスブロック103及びページアドレス情報104を更新させる。S97の後、S98に移る。
使用しようとするページ92が初期状態ではない場合(S96:NO)、つまり、使用しようとするページ92が初期設定用のページではない場合、S97はスキップされて、S98に移る。
コントローラ30は、ライトデータを記憶させるためのキャッシュセグメントを確保し(S98)、さらに、ライトデータを転送するためのDMA(Direct Memory Access)転送リストを作成する(S99)。そして、コントローラ30は、保証コードのアドレス部分(LA)を算出し(S100)、ホスト20から受領したライトデータをキャッシュメモリ340にDMA転送させる(S101)。キャッシュメモリ340にライトデータを記憶させた後で、コントローラ30は、ライトコマンドの処理が完了した旨をホスト20に通知する(S102)。
キャッシュメモリ340へのライトデータ書込み完了後に、ホスト20に処理完了を通知する方式を非同期方式と呼ぶ。これに対し、記憶装置40にライトデータが書き込まれるのを待ってから、ホスト20に処理完了を通知する方式を同期方式と呼ぶ。非同期方式または同期方式のいずれを用いても良い。
図17に移る。コントローラ30は、ライトデータに設定されている論理アドレスを、記憶装置40に記憶させるための物理アドレスに変換する(S103)。コントローラ30は、キャッシュセグメントを確保する(S104)。コントローラ30は、パリティを生成するために必要な旧データを記憶装置40から読み出して(S105)、S104で確保したキャッシュセグメントに格納させる。
コントローラ30は、ホスト20から受領したライトデータと記憶装置40から読み出した旧データとに基づいて、新たなパリティを算出する(S106)。コントローラ30は、キャッシュメモリ340に記憶されたライトデータを、記憶装置40(図17中、ディスクと表示)に転送して記憶させる(S107)。
コントローラ30は、キャッシュメモリ340に記憶されているライトデータの状態を”ダーティ”から”クリーン”に変更する(S108)。”ダーティ”状態とは、キャッシュメモリ340だけに記憶されている状態を示す。”クリーン状態”とは、記憶装置40に書き込まれた状態を示す。最後に、コントローラ30は、S98及びS104で確保されたキャッシュセグメントを開放し、本処理を終了する(S109)。
図18は、図16中にS95で示されるチャンク割当て変更処理を示すフローチャートである。コントローラ30は、処理対象チャンク91の状態を所定の状態に変更させる(S110)。
例えば、新規チャンク91を仮想ボリューム50Vに割り当てる場合、新規チャンク91の状態は”未割当て(未使用)”から”割当済み(使用中)”に変更される。また、例えば、仮想ボリューム50Vに割り当てられているチャンク91を開放する場合、そのチャンク91の状態は”割当済み(使用中)”から"フォーマット待ち"に変更される。
コントローラ30は、チャンク91の状態を変更した後で、そのチャンク91に対応する仮想アドレスインデックス102を更新させる(S111)。さらに、コントローラ30は、チャンクインデックス120を更新させ(S112)、続いて、プール内RAIDグループインデックス110を更新させる(S113)。
図19は、図16中にS96で示されるページ割当て変更処理を示すフローチャートである。コントローラ30は、処理対象ページ92の状態を所定の状態に変更させる(S120)。例えば、新規ページ92を仮想ボリューム50V内の仮想的記憶領域500に割り当てる場合、その新規ページ92の状態は”未割当て(未使用)”から”割当済み(使用中)”に変更される。また、例えば、仮想ボリューム50Vに割当済みのページ92を開放する場合、その割当済みページ92の状態は”割当済み(使用中)”から”フォーマット待ち”に変更される。仮想ボリューム50Vに新たなページ92を割り当てる方法の詳細については、図20で後述する。
ページ状態を変更した後、コントローラ30は、処理対象ページ92に対応する仮想アドレスブロック103を更新させ(S121)、さらに、処理対象ページ92に対応するページアドレス情報104を更新させる(S122)。そして、コントローラ30は、管理情報(図5に示すテーブル群)を、管理情報退避領域(図9のS23参照)に退避させる(S123)。
図20は、図19中のS120で示される処理の一部を示すフローチャートである。上述の通り、ホスト20からのライトコマンドに応じて、仮想ボリューム50Vにチャンク単位で実記憶領域が割り当てられ、その割り当てられたチャンク91内の実ページ92が順番に使用されていく。割り当てられたチャンク91を使い切ると、新たなチャンク91が仮想ボリューム50Vに割り当てられる。以下、図20を参照しながら、ページ92の使用方法を説明する。
コントローラ30は、各ページ92の状態を管理するためのページ状態管理テーブル130を備える。そのテーブル130は、例えば、チャンク識別番号の欄C131と、ページ識別番号の欄C132と、ページの状態を示す欄C133とを備える。
ページ状態欄C133には、例えば、”使用中(あるいは割当済み)”、”未使用(あるいは未割当て)”、”開放(あるいはフォーマット待ち)”等のような予め用意されている状態のうちのいずれか一つの状態が設定される。なお、説明の便宜上、ページ状態管理テーブル130は、ページアドレス情報104と別体の情報であるかのように示すが、実際には、ページアドレス情報104だけで各ページの状態を管理できる。
コントローラ30は、テーブル130を参照し、現在使用中のチャンク91内に未使用ページ92が有る場合、その未使用ページ92を使用する(S1200)。現在使用中のチャンク91内に未使用ページ92が無い場合、コントローラ30は、テーブル130を参照し、現在使用中のチャンク91内に開放ページ92が有る場合、その開放されたページ92を使用する(S1201)。
現在使用中のチャンク91内に未使用ページ92も開放ページ92もいずれも存在しない場合、コントローラ30は、テーブル130を参照し、使用済チャンク91内の開放ページを使用する(S1202)。つまり、コントローラ30は、対象の仮想ボリューム50Vについて既に使用されたチャンク91から、開放されたページ92を検出して再使用する。
なお、使用済チャンク91内に開放ページ92が無い場合、コントローラ30は、図16で述べたように、未使用のチャンク91を仮想ボリューム50Vに対応付け、そのチャンク91の先頭ページ92を仮想ボリューム50Vに割り当てる。
図21は、リードコマンドの処理を示すフローチャートである。コントローラ30は、ホスト20から受領したコマンドが、仮想ボリューム50Vを対象とするリードコマンドであるか否かを判別する(S130)。
ホスト20から受領したコマンドが通常ボリューム50Nへのリードコマンドである場合(S130:NO)、コントローラ30は、通常のリード処理を実行する(S131)。例えば、コントローラ30は、ホスト20から要求されたデータがキャッシュメモリ340に記憶されているか否かを判定する。要求されたデータがキャッシュメモリ340上に存在する場合、コントローラ30は、キャッシュメモリ340からデータを読み出してホスト20に送信する。ホスト20の要求するデータがキャッシュメモリ340上に存在しない場合、コントローラ30は、記憶装置40からデータを読み出してキャッシュメモリ340に記憶させ、そのデータをホスト20に送信する。
ホスト20から発行されたコマンドが、仮想ボリューム50Vからデータを読み出すためのリードコマンドである場合(S130:YES)、コントローラ30は、リード対象の仮想ボリューム50Vについてエクステントロックを取得する(S132)。
リードコマンドは、データの読出し先の論理アドレスを指定する。コントローラ30は、指定された論理アドレスに対応する仮想的記憶領域500を検出し、図5に示すテーブル群を参照して、その仮想的記憶領域500に割り当てられているページ92の状態を取得する。コントローラ30は、リード対象のページ92の状態が”初期状態”であるか否かを判定する(S133)。
リード対象のページ92が初期状態の場合(S133:YES)、コントローラ30は、ホスト20に送信すべきヌルデータがキャッシュメモリ340に記憶されているか否かを判定する(S140)。図9のS30で述べたように、プール部60を作成するときに、キャッシュメモリ340の所定のキャッシュセグメントにヌルデータが予め記憶される。従って、通常の場合、S140では”YES”と判定されて、後述のS141に移る。キャッシュメモリ340にヌルデータが記憶されていない場合(S140:NO)、後述のS135に移り、所定チャンクの所定ページ(例えば、初期設定用ページ)から、ヌルデータが読み出されて、ホスト20に送信される(S135〜S145)。
S133に戻る。リード対象のページ92が初期状態では無い場合(S133:NO)、つまり、リード対象ページにライトデータが書き込まれている場合、コントローラ30は、リード対象データに関するパリティを算出する(S134)。そして、コントローラ30は、キャッシュセグメントを確保し(S135)、第2通信回路320に向けてリード要求を発行する(S136)。コントローラ30は、論理アドレスを物理アドレスに変換し(S137)、保証コードのアドレス部分(LA)を算出する(S138)。コントローラ30は、第2通信回路320を介して、記憶装置40からキャッシュメモリ340にリード対象データを転送させる(S139)。
図22に移る。コントローラ30は、キャッシュメモリ340から第1通信回路310にDMA転送させるための、DMA転送リストを設定する(S141)。コントローラ30は、キャッシュメモリ340上に記憶されたデータを、第1通信回路310を介してホスト20に送信させる(S142)。
データの送信が完了すると、コントローラ30は、S135で確保したキャッシュセグメントを開放し(S143)、エクステントロックも開放する(S144)。最後に、コントローラ30は、リードコマンドの処理が完了した旨をホスト20に通知し(S145)、本処理を終了する。
図23は、仮想ボリューム50Vに割り当てられているページ92を開放するための処理を示すフローチャートである。コントローラ30は、割当済みのページ92を開放させるためのコマンドをホスト20から受領する(S150)。
コントローラ30は、図5に示すテーブル群を参照することにより、開放コマンドで指定される論理アドレスに対応するページ92を検索する(S151)。コントローラ30は、検出された開放対象のページ92の関連づけを初期化する(S152)。つまり、仮想ボリューム50V内の特定の仮想的記憶領域500に対応付けられていたページ92を、その仮想的記憶領域500から開放させ、初期状態に戻す。
コントローラ30は、処理が完了した旨をコマンド発行元であるホスト20に通知する(S153)。続いて、コントローラ30は、開放されたページをページフォーマット待ちキューにエンキューし(S154)、開放されたページの状態についてページ状態管理テーブル130を更新させる(S155)。
このように構成される本実施例では、複数のページ92を備えるチャンク91の単位で、仮想ボリューム50Vに実記憶領域を割り当て、かつ、一つのチャンク91内に複数の仮想ボリューム50Vに関するページ92を混在させない。つまり、一つのチャンク91は、一つの仮想ボリューム50Vのみに使用される。
従って、本実施例では、図24に示すように、物理的記憶領域であるRAIDグループ90を効率的に使用することができる。図24は、本発明の効果を模式的に示す説明図である。図24(a)は、本発明を適用しない場合を示し、図24(b)は、本発明を適用した場合を示す。
通常ボリューム50Nの場合を先に説明する。通常ボリューム50Nの場合は、RAIDグループ90内の連続した記憶領域を使用することができる。従って、一つのストライプ列に、複数の通常ボリューム50Nに関するデータが混在することは無い。
仮想ボリューム50Vの場合、必要に応じて実記憶領域が割り当てられ、データは離散的に管理される。もしも、仮想ボリュームにページ単位で実記憶領域を割り当てる場合は、同一のストライプ列に複数の仮想ボリュームに関するデータが混在しないように制御する必要がある。何故なら、一つのストライプ列に複数のボリュームが混在すると、パリティ生成等の処理が複雑化し、データ入出力時のオーバーヘッドが増大して、記憶制御装置の性能が低下するためである。
そこで、図24(a)に示すように、各ページの先頭をストライプ列の先頭に一致させるようにして、データを記憶する方法が考えられる。この方法によれば、横一列のストライプ内に、異なるボリュームのデータが混在するという事態は生じない。
しかし、本実施例の記憶制御装置10は、RAIDグループ90を構成する記憶装置40の台数を自由に設定することができるため、ページサイズとストライプサイズとは必ずしも一致しない。ページサイズとストライプサイズとが不一致の場合において、ページの先頭をストライプ列の先頭に一致させるようにしてデータを配置すると、図24(a)に空白領域として示すように無駄な領域が発生する。従って、図24(a)に示す方法では、RAIDグループ90の有する実記憶領域を有効に利用することができず、その利用効率が低いという問題がある。
そこで、本発明では、図24(b)に示すように、実記憶領域をページ単位で仮想ボリュームに割り当てるのではなく、複数ページを有するチャンク91単位で実記憶領域を仮想ボリュームに割り当てる。そして、上述のように、仮想ボリューム50Vに関するライトコマンドを受領するたびに、チャンク91内のページ92を連続的に使用する。チャンク91内の各ページ92は、同一の仮想ボリューム50Vに対応付けられる。異なる仮想ボリュームに関するページ92が同一のチャンク91内に混在することはない。このように、本実施例によれば、RAIDグループ90の有する実記憶領域を効率的に使用することができる。
本実施例では、上述の通り、仮想ボリューム50Vの識別番号と通常ボリューム50Nの識別番号とを特に区別することなく、各ボリューム50V,50Nを連続番号で管理している。また、本実施例では、仮想ボリューム50Vのために使用されるRAIDグループ90と、通常ボリューム50Nが設けられるRAIDグループ90とを特に区別せずに、連続番号で管理している。従って、本実施例の記憶制御装置10は、仮想ボリューム50Vと通常ボリューム50Nとを比較的簡易な制御構造で共通に管理し、両方のボリューム50V,50Nを混在させることができる。
本実施例では、複数のRAIDグループ90からチャンク91を順番に選択して、仮想ボリューム50Vに割り当てる。従って、プール部60内の各RAIDグループ90の負荷を均等にすることができる。
本実施例では、図6,図15で述べたように、仮想ボリューム50Vを作成するときに各テーブル100−104間を関連づけ、仮想ボリューム50V内の全ての仮想的記憶領域500を、初期設定用のページ92に割り当てる。
従って、本実施例では、仮想ボリューム50Vを正常に作成できた時点で、各仮想的記憶領域500と実ページ92との対応付けが正常に行われることを確認できる。つまり、本実施例では、ライトコマンドを受領する前に、仮想ボリューム50Vへのチャンク91及び初期設定用ページ92の仮の割り当てが完了している。これにより、仮想ボリューム50Vが正常に動作するか否かを、ライトコマンド受領前に事前に確認することができ、信頼性及び使い勝手が向上する。
さらに、本実施例では、ライトコマンドを受領した場合に、ライトコマンドで指定される論理アドレスに対応する仮想的記憶領域500の対応付け先を、仮割当てされた初期設定用ページ92から、所定チャンク91内の所定ページ92に切り替えるだけで済む。これにより、比較的速やかにライトコマンドを処理することができ、記憶制御装置10の応答性能を高めることができる。
本実施例では、同一の仮想ボリューム50Vについて既に使用されたチャンク91の中から、開放されたページ92を検出し、別のライト処理のために再使用する。従って、より一層効率良く、RAIDグループ90の有する実記憶領域を利用できる。
本実施例では、仮想ボリューム50Vのアドレス空間を、仮想アドレスインデックス102及び仮想アドレスブロック103の2段階で管理する。これにより、ホスト20からのコマンドで指定される論理アドレスの検索範囲を絞り込んで、その論理アドレスに対応するページ92を速やかに検出することができ、仮想ボリューム50Vに関する応答性能を高めることができる。
図25〜図27に基づいて第2実施例を説明する。本実施例を含む以下の各実施例は、第1実施例の変形例に該当する。従って、第1実施例との相違を中心に説明する。本実施例は、記憶制御装置10内の複数の仮想ボリューム50VP,50VS間でコピーを行う場合を説明する。
図25は、本実施例によるシステムの全体構成を模式的に示す説明図である。本実施例の記憶制御装置10は、複数の仮想ボリューム50VP,50VSを備える。一方の仮想ボリューム50VPは、正ボリュームであり、他方の仮想ボリューム50VSは、副ボリュームである。以下の説明では、仮想正ボリューム50VP(またはコピー元ボリューム)、仮想副ボリューム50VS(またはコピー先ボリューム)と呼ぶ場合がある。
仮想正ボリューム50VPと仮想副ボリューム50VSとはコピーペアを形成し、両ボリューム50VP,50VSの記憶内容が一致するように制御される。そのためには、後述のように、まず最初に初期コピーを実行し、次に更新コピーを実行する。
初期コピーとは、仮想正ボリューム50VPの記憶内容を、仮想副ボリューム50VSに転送して記憶させるコピーである。初期コピーが完了すると、仮想正ボリューム50VPと仮想副ボリューム50VSの記憶内容が一致する。初期コピーの詳細は、図26で述べる。初期コピーは、形成コピーと呼ばれることもある。
初期コピーの完了後に、仮想正ボリューム50VPの記憶内容が更新されると、更新データが仮想副ボリューム50VSに転送されて、仮想副ボリューム50VSの記憶内容も更新される。この処理を更新コピーと呼ぶ。更新コピーの詳細は、図27で述べる。
図26は、仮想ボリューム50VP,50VS間で初期コピーを行う処理を示すフローチャートである。コントローラ30は、ホスト20または管理サーバ70から、初期コピーを実行させるためのコマンドを受領すると、コピー元ボリューム50VP及びコピー先ボリューム50VSを検索する(S200)。
初期コピーコマンドには、コピー元ボリューム50VP及びコピー先ボリューム50VSが指定されている。コントローラ30は、仮想ボリューム50V及び通常ボリューム50Nを一元的に管理するためのボリューム管理テーブル140を備えている。
ボリューム管理テーブル140は、例えば、各仮想ボリューム50V及び各通常ボリューム50Nを識別するためのボリューム番号と、そのボリュームの状態と、そのボリュームの種別と、そのボリュームを構成する記憶装置40の番号リスト等を管理する。ボリューム管理テーブル140を参照することにより、初期コピーコマンドで指定されたボリュームが仮想ボリューム50Vなのか通常ボリューム50Nなのかを判別できる。
コントローラ30は、仮想ボリューム間での初期コピーが要求されたか否かを判定する(S201)。仮想ボリューム間での初期コピーを要求するコマンドでは無い場合(S201:NO)、コントローラ30は、通常の初期コピーを行う(S202)。
仮想ボリューム間で初期コピーを行う場合(S201:YES)、コントローラ30は、仮想副ボリューム50VSに、チャンク91及びページ92を割り当てる(S203)。コントローラ30は、仮想正ボリューム50VPの実サイズと仮想副ボリューム50VSの実サイズとが一致するまで(S204)、仮想副ボリューム50VSにチャンク91及びページ92を割り当てる。実サイズとは、仮想ボリュームに実際に割り当てられているチャンクの合計サイズである。換言すれば、仮想ボリュームに割り当てられている実記憶領域のサイズである。
仮想副ボリューム50VSの実サイズが仮想正ボリューム50VPの実サイズと一致すると(S204:YES)、コントローラ30は、仮想正ボリューム50VP及び仮想副ボリューム50VSについてのエクステントロックをそれぞれ取得し(S205)、さらに、キャッシュセグメントを確保する(S206)。
コントローラ30は、仮想正ボリューム50VPに記憶されているデータを、記憶装置40からキャッシュメモリ340に転送して記憶させる(S207)。つまり、仮想正ボリューム50VPに割り当てられているページ92からキャッシュメモリ340に、仮想正ボリューム50VPのデータを転送させて記憶させる。
コントローラ30は、キャッシュ間でデータをコピーさせる(S208)。例えば、ある一つのキャッシュメモリ340内の一方のキャッシュセグメントが仮想正ボリューム50VPに対応付けられており、同一のキャッシュメモリ340内の他方の記憶制御装置が仮想副ボリューム50VSに対応付けられている場合、一方のキャッシュセグメントから他方のキャッシュセグメントにデータが転送される。あるいは、一方のキャッシュメモリ340内のキャッシュセグメントが仮想正ボリューム50VPに対応付けられており、他方のキャッシュメモリ340内のキャッシュセグメントが仮想副ボリューム50VSに対応付けられている場合、一方のキャッシュメモリ340内のキャッシュセグメントから他方のキャッシュメモリ340内のキャッシュセグメントにデータが転送される。
コントローラ30は、差分管理テーブル150内の差分ビットをオフに設定し(S209)、仮想正ボリューム50VPと仮想副ボリューム50VSとのコピーペアの状態を”コピー中”から”ペア”に変更する(S210)。なお、”ペア”状態とは、仮想正ボリューム50VPから仮想副ボリューム50VSへの初期コピーが完了したことを示す状態である。
差分管理テーブル150は、仮想正ボリューム50VPの記憶内容と仮想副ボリューム50VSの記憶内容との差分を管理するためのテーブルである。差分管理テーブル150は、所定の管理単位で差分を管理することができる。差分の生じている領域はオン状態に設定され、差分の生じていない領域はオフ状態に設定される。
図27は、更新コピーを示すフローチャートである。例えば、仮想正ボリューム50VP内で更新されたデータの合計サイズが所定値に達した場合等に、仮想正ボリューム50VPから仮想副ボリューム50VSへの更新コピーが開始される。
更新コピーの契機が生じると、コントローラ30は、仮想ボリューム間の更新コピーであるか否かを判定する(S220)。仮想ボリューム間の更新コピーではない場合(S220:NO)、通常の更新コピー処理が行われる(S221)。
仮想ボリューム間の更新コピーの場合(S220:YES)、コントローラ30は、プール部30の状態が正常であるか否かを判定する(S222)。プール部60の状態が正常では無い場合(S222:NO)、エラー処理が行われる(S227)。エラー処理では、ユーザにエラーメッセージを通知し、コピーペアの状態を”ペアサスペンド”に変更する。
プール部60の状態が正常な場合(S222:YES)、コントローラ30は、仮想副ボリューム50VSに新たに割り当てるべきページ数を算出する(S223)。コントローラ30は、プール部60内に、S223で算出された分以上の未使用ページ92が有るか否かを判定する(S224)。
必要量以上の未使用ページがプール部60内に存在する場合(S224:YES)、コントローラ30は、更新コピーに必要な数の未使用ページ92を仮想副ボリューム50VSに割り当てる(S225)。コントローラ30は、仮想正ボリューム50VPから仮想副ボリューム50VSに、両ボリューム50VP,50VS間の差分データを転送させ、その差分データを仮想副ボリューム50VSに記憶させる(S226)。
このように構成される本実施例も第1実施例と同様の効果を奏する。さらに、本実施例では、仮想ボリューム同士でコピーペアを形成する場合に、コピーに必要な数だけ、仮想副ボリューム50VSに未使用ページ92を割り当てることができる。従って、プール部60内の実記憶領域を効率的に使用して、コピーペアを形成することができる。
図28に基づいて第3実施例を説明する。本実施例では、処理待ちチャンクキューQ20及び未割当てチャンクキューQ30をRAIDグループ毎に用意し、各RAIDグループ90から所定の順番でチャンク91を取り出して使用する。
第1実施例では、図12に示すように、未割当てチャンクキューQ30を一つだけ用意しており、各RAIDグループ90内のフォーマット済チャンクが所定の順番で、未割当てチャンクキューQ30にエンキューされる。
上述の通り、仮想ボリューム50Vへのライトアクセスに応じて、未割当てチャンクキューQ30から未使用チャンク91が選択されて、仮想ボリューム50Vに割り当てられていく。従って、一つのホスト20が一つの仮想ボリューム50Vのみを使用するような場合には、その仮想ボリューム50Vに各RAIDグループ90内のチャンク91が順番に割り当てられ、各RAIDグループ90の負荷は均等になる。
これに対し、複数のホスト20がそれぞれ異なる仮想ボリューム50Vを使用するような場合には、ライトアクセスの頻度、ライトアクセスのタイミング、及び、ライトデータサイズの大小等の理由によって、各仮想ボリューム50Vに各RAIDグループ90内のチャンク91が均等に割り当てられない可能性が生じる。各仮想ボリューム50Vを構成するチャンク91が特定のRAIDグループ90に偏ると、各RAIDグループ90間で負荷を均等に分散させることができない場合がある。
そこで、本実施例では、各RAIDグループ90毎に、処理待ちチャンクキューQ20及び未割当てチャンクキューQ30を用意する。従って、図18に示すチャンク割り当て変更処理では、仮想ボリューム50Vに未使用チャンク91を割り当てる場合、各RAIDグループ90から順番に未使用チャンク91を選択して割り当てる(S110)。
このように構成される本実施例も第1実施例と同様の効果を奏する。さらに、本実施例では、各RAIDグループ毎にチャンクを管理するためのキューQ10−Q30を用意するため、各RAIDグループ90から各仮想ボリューム50Vに割り当てられるチャンク91の数を均等にして、負荷を分散させることができる。
さらに、本実施例では、各RAIDグループ毎にキューQ10−Q30を用意するため、RAIDレベルの異なるチャンク91を均等に用いて仮想ボリューム50Vを構成することも可能となる。
なお、本発明は、上述した実施形態に限定されない。当業者であれば、例えば、上記各実施例を適宜組み合わせる等のように、本発明の範囲内で、種々の追加や変更等を行うことができる。

Claims (16)

  1. 複数の仮想ボリュームと、
    RAIDグループを構成する複数の記憶装置に基づいて形成される複数の第1実記憶領域を含むプールと
    前記複数の第1実記憶領域のそれぞれを複数の第2実記憶領域に分割して管理し、計算機から前記複数の仮想ボリュームのうちの第1仮想ボリュームへの第1ライト要求に応じて、前記複数の第1実記憶領域の一つを排他的に一つの前記第1仮想ボリュームへ割り当て、前記第1仮想ボリュームに割り当てられた前記第1実記憶領域に含まれる前記複数の第2実記憶領域のうち所定の第2実記憶領域、前記第1ライト要求にともなう第1データを書き込み、前記計算機から前記第1仮想ボリュームへの、前記第1ライト要求が指定するアドレスとは異なる任意のアドレスを指定する第2ライト要求に応じて、前記第2ライト要求にともなう第2データを、前記第1仮想ボリュームに割り当てられた前記第1実記憶領域に含まれる前記複数の第2実記憶領域のうち前記所定の第2実記憶領域とは異なる第2実記憶領域に書き込む制御部と、
    を備える記憶制御装置。
  2. 前記制御部は、
    前記第1ライト要求が指定する前記第1仮想ボリュームのアドレスに前記所定の第2実記憶領域を対応付け、前記第1ライト要求に伴う前記第1データを前記所定の第2実記憶領域に書き込み、
    前記第1実記憶領域が前記第1仮想ボリュームに割当てられた状態で、前記所定の第2実記憶領域を開放する、
    請求項1に記載の記憶制御装置。
  3. 前記制御部は、前記仮想ボリュームに対応付けられた前記第2実記憶領域を開放させるための開放指示を受領した場合に、前記開放指示により指定される前記第2実記憶領域を開放するようになっており、さらに、
    前記制御部は、前記第1実記憶領域に含まれる前記複数の第2実記憶領域のうち、前記開放指示により開放された前記第2実記憶領域を、前記所定の第2実記憶領域として前記仮想ボリュームに対応付ける、
    請求項2載の記憶制御装置。
  4. 前記制御部は、
    前記計算機から前記複数の仮想ボリュームのうちの第2仮想ボリュームへの第3ライト要求に応じて、前記第1実記憶領域とは異なる第1実記憶領域を排他的に前記第2仮想ボリュームへ割り当て、前記第2仮想ボリュームに割当てられた第1実記憶領域に含まれる前記複数の第2実記憶領域のうち所定の第2実記憶領域に、前記第3ライト要求に伴う第3データを書き込む、
    請求項2に記載の記憶制御装置。
  5. 前記RAIDグループは複数設けられており、
    前記制御部は、前記各RAIDグループ間で負荷を分散させるように、前記各RAIDグループに含まれる前記各第1実記憶領域を所定の順番で前記仮想ボリュームに対応付ける、
    請求項4に記載の記憶制御装置。
  6. 前記制御部は、使用済の第1実記憶領域内に空いている第2実記憶領域が無い場合、未使用の前記各第1実記憶領域の中からいずれか一つの前記第1実記憶領域を選択し、その第1実記憶領域内の第2実記憶領域を、前記所定の第2実記憶領域として前記仮想ボリュームに対応付ける、
    請求項1に記載の記憶制御装置。
  7. 前記制御部は、現在使用中の前記第1実記憶領域内に前記空いている第2実記憶領域としての開放された第2実記憶領域が存在しない場合には、前記現在使用中の前記第1実記憶領域よりも前に使用済の第1実記憶領域に含まれる前記各第2実記憶領域のうち、開放指示により開放された前記第2実記憶領域を選択して、前記所定の第2実記憶領域として前記仮想ボリュームに対応付ける、
    請求項6に記載の記憶制御装置。
  8. 前記RAIDグループは複数設けられており、
    前記各RAIDグループに含まれる前記各第1実記憶領域は、フォーマットされる場合に、前記各RAIDグループから所定の順番に選択されて未割当てキューに接続されており、
    前記制御部は、前記第1仮想ボリュームを生成する場合に、前記第1仮想ボリューム内の各仮想的記憶領域を、別の所定の第2実記憶領域に対応付けることにより、前記第1仮想ボリュームを正常に生成できたか否かを確認し、さらに、前記制御部は、前記第1仮想ボリュームに対応付けられた前記第2実記憶領域を開放させるための開放指示を受領した場合には、前記開放指示により指定される前記第2実記憶領域を開放するようになっており、さらに、
    前記制御部は、
    (1)現在使用中の前記第1実記憶領域が有る場合には、前記現在使用中の前記第1実記憶領域に含まれる前記各第2実記憶領域のうち、前回選択された前記第2実記憶領域に連続する未使用の第2実記憶領域を選択して、前記第2ライト要求に対応する前記仮想的記憶領域に対応付け、
    (2)前記現在使用中の前記第1実記憶領域内に前記未使用の前記第2実記憶領域が無い場合には、前記現在使用中の前記第1実記憶領域に含まれる前記各第2実記憶領域のうち、前記開放指示により開放された前記第2実記憶領域を選択して、前記第2ライト要求に対応する前記仮想的記憶領域に対応付け、
    (3)前記現在使用中の前記第1実記憶領域内に前記開放された前記第2実記憶領域が存在しない場合には、前記現在使用中の前記第1実記憶領域よりも前に使用された使用済の第1実記憶領域に含まれる前記各第2実記憶領域のうち、前記開放指示により開放された前記第2実記憶領域を選択して、前記第2ライト要求に対応する前記仮想的記憶領域に対応付け、
    (4)前記使用済の前記第1実記憶領域内に前記開放された前記第2実記憶領域が無い場合には、前記未割当てキューに接続されている前記各第1実記憶領域のうち先頭の前記第1実記憶領域を選択し、その第1実記憶領域内の最初の第2実記憶領域を選択して、前記第2ライト要求に対応する前記仮想的記憶領域に対応付ける、
    請求項1に記載の記憶制御装置。
  9. 前記制御部は、
    (1)前記各RAIDグループに含まれる前記各第1実記憶領域をフォーマットする場合に、前記各RAIDグループに含まれる前記各第1実記憶領域を、前記所定の順番で、一つの未割当てキューに接続し、
    (2)フォーマット済の前記第1実記憶領域を使用する場合には、前記未割当てキューに接続されている前記各第1実記憶領域のうち先頭の前記第1実記憶領域を選択する、
    請求項5に記載の記憶制御装置。
  10. 前記各RAIDグループ毎に未割当てキューが予め用意されており、
    前記制御部は、
    (1)前記各RAIDグループに含まれる前記各第1実記憶領域をフォーマットする場合に、前記各RAIDグループの前記各第1実記憶領域を、 前記各RAIDグループに対応する前記未割当てキューにそれぞれ接続し、
    (2)フォーマット済の前記第1実記憶領域を使用する場合には、前記各未割当てキューに接続されている前記各第1実記憶領域を、前記所定の順番で取り出して使用する、
    請求項5に記載の記憶制御装置。
  11. 前記制御部は、前記仮想ボリュームを生成する場合に、前記仮想ボリューム内の各仮想的記憶領域を、ゼロデータが格納された特定の第2実記憶領域に対応付ける、
    請求項1に記載の記憶制御装置。
  12. 旧請求項7ベース
    前記制御部は、前記ライト要求を受領した場合に、前記ライト要求に対応する前記仮想的記憶領域の対応付け先を、前記特定の第2実記憶領域から前記所定の第2実記憶領域に切り替える、
    請求項11に記載の記憶制御装置。
  13. 前記仮想ボリュームは複数存在し、
    前記RAIDグループとは別のRAIDグループであって、前記RAIDグループと連番で管理される別のRAIDグループと、
    前記別のRAIDグループに基づいて生成される通常の論理ボリュームであって、前記各仮想ボリュームと連番で管理される通常の論理ボリュームと、を備え、
    前記制御部は、前記通常の論理ボリュームに関するライト要求を受領した場合には、前記別のRAIDグループの記憶領域に前記通常の論理ボリュームに関するライト要求にともなうライトデータを書き込ませる、
    請求項1に記載の記憶制御装置。
  14. 前記仮想ボリュームに記憶される第1データおよび第2データには、所定サイズ毎に保証コードが設定されており、前記保証コードは、前記RAIDグループを識別するためのデータと、前記第1実記憶領域を識別するためのデータと、前記第1実記憶領域内における前記第2実記憶領域を識別するためのデータとを含んでいる、
    請求項1に記載の記憶制御装置。
  15. 仮想ボリュームを制御するための方法であって、
    複数の仮想ボリュームと、RAIDグループを構成する複数の記憶装置に基づいて形成される複数の第1実記憶領域を含むプールと、制御部とを備え、
    前記制御部は
    前記複数の第1実記憶領域のそれぞれを複数の第2実記憶領域に分割して管理し、
    計算機から前記複数の仮想ボリュームのうちの第1仮想ボリュームへの第1ライト要求に応じて、前記複数の第1実記憶領域の一つを排他的に一つの前記第1仮想ボリュームへ割り当て、前記第1仮想ボリュームに割り当てられた前記第1実記憶領域に含まれる前記複数の第2実記憶領域のうち所定の第2実記憶領域に、前記第1ライト要求にともなう第1データを書き込み、
    前記計算機から前記第1仮想ボリュームへの、前記第1ライト要求が指定するアドレスとは異なる任意のアドレスを指定する第2ライト要求に応じて、前記第2ライト要求にともなう第2データを、前記第1仮想ボリュームに割り当てられた前記第1実記憶領域に含まれる前記複数の第2実記憶領域のうち前記所定の第2実記憶領域とは異なる第2実記憶領域に書き込む、
    仮想ボリュームの制御方法。
  16. 複数の仮想ボリュームと、
    RAIDグループを構成する複数の記憶装置に基づいて形成される複数の第1実記憶領域を含むプールと、
    前記複数の第1実記憶領域のそれぞれを複数の第2実記憶領域に分割して管理し、
    計算機から前記複数の仮想ボリュームのうちの第1仮想ボリュームへの第1ライト要求を受信した場合、前記複数の第1実記憶領域の一つを排他的に一つの前記第1仮想ボリュームへ割り当て、前記第1仮想ボリュームに割り当てられた第1実記憶領域に含まれる前記複数の第2実記憶領域のうち所定の第2実記憶領域に、前記第1ライト要求にともなう第1データを書き込み、
    前記計算機から前記第1仮想ボリュームへの第2ライト要求を受信した場合、前記第2ライト要求が指定するアドレスが前記第1ライト要求が指定するアドレスとは異なるいずれのアドレスであっても、前記第2ライト要求にともなう第2データを、前記第1仮想ボリュームに割り当てられた第1実記憶領域に含まれる前記複数の第2実記憶領域のうち前記所定の第2実記憶領域とは異なる第2実記憶領域に書き込む制御部と、
    を備える記憶制御装置。
JP2011504610A 2009-03-18 2009-03-18 記憶制御装置及び仮想ボリュームの制御方法 Expired - Fee Related JP5538362B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/001199 WO2010106574A1 (ja) 2009-03-18 2009-03-18 記憶制御装置及び仮想ボリュームの制御方法

Publications (2)

Publication Number Publication Date
JPWO2010106574A1 JPWO2010106574A1 (ja) 2012-09-13
JP5538362B2 true JP5538362B2 (ja) 2014-07-02

Family

ID=42739253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011504610A Expired - Fee Related JP5538362B2 (ja) 2009-03-18 2009-03-18 記憶制御装置及び仮想ボリュームの制御方法

Country Status (5)

Country Link
US (3) US8521987B2 (ja)
EP (1) EP2410419A4 (ja)
JP (1) JP5538362B2 (ja)
CN (2) CN102334093B (ja)
WO (1) WO2010106574A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4863605B2 (ja) * 2004-04-09 2012-01-25 株式会社日立製作所 記憶制御システム及び方法
JP4843693B2 (ja) * 2009-03-30 2011-12-21 株式会社東芝 記憶装置
EP2450785A1 (en) * 2009-10-09 2012-05-09 Hitachi Ltd. Data storage controller and virtual volume control method
US9229808B2 (en) * 2010-10-01 2016-01-05 Pure Storage, Inc. Reconstruct reads in a raid array with dynamic geometries
CN101976223B (zh) * 2010-10-09 2012-12-12 成都市华为赛门铁克科技有限公司 自动精简配置方法和装置
US8539150B2 (en) * 2010-12-27 2013-09-17 Hitachi, Ltd. Storage system and management method of control information using a cache memory with multiple cache partitions
WO2012137249A1 (en) 2011-04-05 2012-10-11 Hitachi, Ltd. Storage apparatus and volume management method
JP5802283B2 (ja) * 2011-07-22 2015-10-28 株式会社日立製作所 ストレージシステム及びその論理ユニット管理方法
JP2013045378A (ja) * 2011-08-26 2013-03-04 Fujitsu Ltd ストレージ制御方法、情報処理装置およびプログラム
US8661320B2 (en) * 2011-10-07 2014-02-25 Aeroflex Colorado Springs Inc. Independent orthogonal error correction and detection
US8954706B2 (en) 2012-03-21 2015-02-10 Hitachi, Ltd. Storage apparatus, computer system, and control method for storage apparatus
CN103377132B (zh) * 2012-04-16 2016-02-10 群联电子股份有限公司 管理存储器空间的方法、存储器控制器与存储器储存装置
US9304714B2 (en) 2012-04-20 2016-04-05 Violin Memory Inc LUN management with distributed RAID controllers
JP5981563B2 (ja) * 2012-04-26 2016-08-31 株式会社日立製作所 情報記憶システム及び情報記憶システムの制御方法
JP5915378B2 (ja) * 2012-05-24 2016-05-11 富士通株式会社 ストレージ装置およびストレージ装置の制御方法
JP6039699B2 (ja) 2012-07-23 2016-12-07 株式会社日立製作所 ストレージシステム及びデータ管理方法
US9652376B2 (en) 2013-01-28 2017-05-16 Radian Memory Systems, Inc. Cooperative flash memory control
US10445229B1 (en) 2013-01-28 2019-10-15 Radian Memory Systems, Inc. Memory controller with at least one address segment defined for which data is striped across flash memory dies, with a common address offset being used to obtain physical addresses for the data in each of the dies
US10642505B1 (en) 2013-01-28 2020-05-05 Radian Memory Systems, Inc. Techniques for data migration based on per-data metrics and memory degradation
US9229854B1 (en) 2013-01-28 2016-01-05 Radian Memory Systems, LLC Multi-array operation support and related devices, systems and software
US11249652B1 (en) 2013-01-28 2022-02-15 Radian Memory Systems, Inc. Maintenance of nonvolatile memory on host selected namespaces by a common memory controller
US9383924B1 (en) * 2013-02-27 2016-07-05 Netapp, Inc. Storage space reclamation on volumes with thin provisioning capability
WO2015006605A2 (en) * 2013-07-11 2015-01-15 Silicon Graphics International Corp. Linearized dynamic storage pool
US9794342B2 (en) * 2013-08-20 2017-10-17 Hitachi, Ltd. Storage system and control method for storage system
US10552085B1 (en) 2014-09-09 2020-02-04 Radian Memory Systems, Inc. Techniques for directed data migration
US9542118B1 (en) 2014-09-09 2017-01-10 Radian Memory Systems, Inc. Expositive flash memory control
WO2016142998A1 (ja) * 2015-03-06 2016-09-15 株式会社日立製作所 計算機システム
WO2016166867A1 (ja) * 2015-04-16 2016-10-20 株式会社日立製作所 計算機システム、及び、リソース制御方法
US10552058B1 (en) 2015-07-17 2020-02-04 Radian Memory Systems, Inc. Techniques for delegating data processing to a cooperative memory controller
CN106843751B (zh) * 2016-12-27 2019-11-29 华为技术有限公司 放置存储卷的方法和设备
JP6696052B2 (ja) * 2017-06-20 2020-05-20 株式会社日立製作所 ストレージ装置及び記憶領域管理方法
US10788998B2 (en) 2017-07-07 2020-09-29 Sap Se Logging changes to data stored in distributed data storage system
CN109725838B (zh) * 2017-10-27 2022-02-25 伊姆西Ip控股有限责任公司 用于管理多个盘的方法、装置以及计算机可读介质
CN108763105B (zh) * 2018-05-28 2020-12-01 深圳忆联信息系统有限公司 提升固态存储设备写性能的方法、装置及计算机设备
JP6824929B2 (ja) * 2018-06-07 2021-02-03 株式会社日立製作所 記憶制御システム及び記憶制御方法
CN111078124B (zh) * 2018-10-19 2024-05-28 深信服科技股份有限公司 一种raid卷组卷方法、系统、装置及可读存储介质
US20200334142A1 (en) * 2019-04-18 2020-10-22 EMC IP Holding Company LLC Quasi-compacting garbage collector for data storage system
CN112765046A (zh) 2019-10-21 2021-05-07 伊姆西Ip控股有限责任公司 用于回收存储空间的方法、设备和计算机程序产品
CN112748848A (zh) * 2019-10-29 2021-05-04 伊姆西Ip控股有限责任公司 用于存储管理的方法、设备和计算机程序产品
US11175984B1 (en) 2019-12-09 2021-11-16 Radian Memory Systems, Inc. Erasure coding techniques for flash memory
JP7191003B2 (ja) * 2019-12-17 2022-12-16 株式会社日立製作所 ストレージシステムおよびストレージ管理方法
CN113126889A (zh) 2020-01-15 2021-07-16 伊姆西Ip控股有限责任公司 管理存储空间的方法、设备和计算机程序产品
JP2021114264A (ja) * 2020-01-21 2021-08-05 富士通株式会社 ストレージ制御装置およびストレージ制御プログラム
CN115129267B (zh) * 2022-09-01 2023-02-03 苏州浪潮智能科技有限公司 一种域地址变更方法、装置、设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193573A (ja) * 2006-01-19 2007-08-02 Hitachi Ltd 記憶装置システム及び記憶制御方法
JP2008059353A (ja) * 2006-08-31 2008-03-13 Hitachi Ltd 仮想化システム及び領域割当て制御方法
JP2008276326A (ja) * 2007-04-25 2008-11-13 Hitachi Ltd 記憶制御装置及び記憶制御装置の仮想メモリ制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8829919D0 (en) * 1988-12-22 1989-02-15 Int Computer Limited File system
US7644136B2 (en) * 2001-11-28 2010-01-05 Interactive Content Engines, Llc. Virtual file system
US6836821B2 (en) * 2002-04-23 2004-12-28 Lsi Logic Corporation System and method for providing graph structuring for layered virtual volumes
US6988165B2 (en) * 2002-05-20 2006-01-17 Pervasive Software, Inc. System and method for intelligent write management of disk pages in cache checkpoint operations
US7085909B2 (en) * 2003-04-29 2006-08-01 International Business Machines Corporation Method, system and computer program product for implementing copy-on-write of a file
US6823442B1 (en) 2003-05-12 2004-11-23 3Pardata, Inc. Method of managing virtual volumes in a utility storage server system
US8301809B2 (en) * 2003-07-02 2012-10-30 Infortrend Technology, Inc. Storage virtualization computer system and external controller thereof
US7558850B2 (en) * 2003-09-15 2009-07-07 International Business Machines Corporation Method for managing input/output (I/O) performance between host systems and storage volumes
JP4104586B2 (ja) * 2004-09-30 2008-06-18 株式会社東芝 ファイル管理機能を備えたファイルシステム及びファイル管理方法
US7627716B2 (en) * 2004-11-15 2009-12-01 International Business Machines Corporation Method, system, and program for an adaptor to read and write to system memory
US7574560B2 (en) 2006-01-03 2009-08-11 Emc Corporation Methods, systems, and computer program products for dynamic mapping of logical units in a redundant array of inexpensive disks (RAID) environment
JP4993928B2 (ja) * 2006-03-23 2012-08-08 株式会社日立製作所 記憶システム及び記憶領域解放方法並びにストレージシステム
JP5037881B2 (ja) * 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法
JP2007304794A (ja) * 2006-05-10 2007-11-22 Hitachi Ltd ストレージシステム及びストレージシステムにおける記憶制御方法
JP4975396B2 (ja) 2006-08-24 2012-07-11 株式会社日立製作所 記憶制御装置及び記憶制御方法
US7949847B2 (en) * 2006-11-29 2011-05-24 Hitachi, Ltd. Storage extent allocation method for thin provisioning storage
US20080201535A1 (en) * 2007-02-21 2008-08-21 Hitachi, Ltd. Method and Apparatus for Provisioning Storage Volumes
JP5087309B2 (ja) * 2007-04-24 2012-12-05 株式会社日立製作所 管理装置及び管理方法
US20080282047A1 (en) * 2007-05-08 2008-11-13 Hitachi, Ltd. Methods and apparatus to backup and restore data for virtualized storage area
US8549222B1 (en) * 2008-02-12 2013-10-01 Netapp, Inc. Cache-based storage system architecture
US8473707B2 (en) * 2008-03-27 2013-06-25 Open Invention Network, Llc Method for achieving sequential I/O performance from a random workload
US7904749B2 (en) 2008-10-24 2011-03-08 Hitachi, Ltd. Fast data recovery from HDD failure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193573A (ja) * 2006-01-19 2007-08-02 Hitachi Ltd 記憶装置システム及び記憶制御方法
JP2008059353A (ja) * 2006-08-31 2008-03-13 Hitachi Ltd 仮想化システム及び領域割当て制御方法
JP2008276326A (ja) * 2007-04-25 2008-11-13 Hitachi Ltd 記憶制御装置及び記憶制御装置の仮想メモリ制御方法

Also Published As

Publication number Publication date
US8812815B2 (en) 2014-08-19
CN102334093A (zh) 2012-01-25
EP2410419A1 (en) 2012-01-25
JPWO2010106574A1 (ja) 2012-09-13
US20110197023A1 (en) 2011-08-11
US8521987B2 (en) 2013-08-27
US20140331008A1 (en) 2014-11-06
CN107247565A (zh) 2017-10-13
US20130326140A1 (en) 2013-12-05
CN107247565B (zh) 2020-06-09
WO2010106574A1 (ja) 2010-09-23
EP2410419A4 (en) 2013-02-27
CN102334093B (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
JP5538362B2 (ja) 記憶制御装置及び仮想ボリュームの制御方法
JP5438827B2 (ja) 記憶制御装置及び仮想ボリュームの制御方法
US8639899B2 (en) Storage apparatus and control method for redundant data management within tiers
JP5107833B2 (ja) ストレージシステム及びストレージシステムの制御方法
US7975115B2 (en) Method and apparatus for separating snapshot preserved and write data
US7581061B2 (en) Data migration using temporary volume to migrate high priority data to high performance storage and lower priority data to lower performance storage
US10664182B2 (en) Storage system
KR20150105323A (ko) 데이터 스토리지 방법 및 시스템
JP2008134712A (ja) ファイル共有システム、ファイル共有装置及びファイル共有用ボリュームの移行方法
JP5080611B2 (ja) ThinProvisioningが適用されたストレージ装置
JP5635621B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法
US20180267713A1 (en) Method and apparatus for defining storage infrastructure
US11740823B2 (en) Storage system and storage control method
US10140035B2 (en) Method for appropriately controlling duplicated volumes in virtual volume subsystems
US20140317367A1 (en) Storage apparatus and data copy control method
JP5236078B2 (ja) 記憶制御装置及び記憶制御装置の制御方法
JP7113698B2 (ja) 情報システム
US20120011339A1 (en) Storage control apparatus and control method for virtual logical volume
JP5856665B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5538362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

LAPS Cancellation because of no payment of annual fees