JP5023018B2 - ストレージシステム及びデータ管理方法 - Google Patents

ストレージシステム及びデータ管理方法 Download PDF

Info

Publication number
JP5023018B2
JP5023018B2 JP2008213154A JP2008213154A JP5023018B2 JP 5023018 B2 JP5023018 B2 JP 5023018B2 JP 2008213154 A JP2008213154 A JP 2008213154A JP 2008213154 A JP2008213154 A JP 2008213154A JP 5023018 B2 JP5023018 B2 JP 5023018B2
Authority
JP
Japan
Prior art keywords
data
volume
file
metadata
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008213154A
Other languages
English (en)
Other versions
JP2010049488A (ja
Inventor
伸光 高岡
敦之 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008213154A priority Critical patent/JP5023018B2/ja
Priority to US12/243,004 priority patent/US20100049754A1/en
Publication of JP2010049488A publication Critical patent/JP2010049488A/ja
Application granted granted Critical
Publication of JP5023018B2 publication Critical patent/JP5023018B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ファイルシステムを格納するボリュームを、所定の基準時点のイメージ(スナップショット)に復元するためのデータを管理するストレージシステム及びデータ管理方法に関する。
従来、ストレージ装置におけるボリュームを所定の時点に復元するためのデータ保護技術として、COW(Copy on Wire)技術が知られている。
COW技術は、ボリュームの或る領域(記憶領域)に書込みが発生した場合に、その領域に既に書き込まれているデータを別のボリューム(差分ボリューム)へ退避する技術である。このCOW技術によると、現在のボリュームのデータと、差分ボリュームに退避されたデータとから、所定の基準時点におけるボリュームの状態(イメージ:スナップショット)を復元することができる。
この技術を利用して、複数の基準時点におけるスナップショット、すなわち、スナップショットの世代を管理することができる。
一方、ファイルを単位としてアクセスすることのできるサービスを提供するファイルサーバが知られている。ファイルサーバは、ファイルを管理するためのファイルシステムをストレージ装置のボリュームに格納し、ファイルシステムを用いてファイルのアクセスのサービスを提供している。このようなファイルシステムが格納されているボリュームに対してCOW技術を使用して、ファイルシステムが格納されているボリュームを復元することができるようになっている場合もある。
ファイルシステムの複数の世代のスナップショットを管理する技術としては、例えば、ファイルシステム内にファイルシステムを示すメタデータを含め、スナップショットがそれに関連するメタデータを含むようにする技術が知られている(特許文献1参照)。
特許文献1の技術においては、スナップショットのメタデータにタイムスタンプ等が格納されており、所望のバージョンのファイルシステムを含んでいるか等を判定することができるようになっている。
特開2004−38929号公報
ファイルサーバを利用しているユーザにおいては、例えば、或るファイルについて、以前の状態のデータが必要となる場合がある。
このような場合、そのファイルがいつ更新されたといったことをユーザは必ずしも把握していない。そこで、ユーザは、ボリュームについて、或る基準時点のスナップショットを作成し、そのスナップショットにより、該当するファイルが必要な状態のデータであるかを判断する必要がある。もし、必要な状態のデータではない場合には、別の基準時点のスナップショットを更に作成し、更に必要なデータであるかを判断しなくてはならない。
例えば、特許文献1の技術によると、スナップショットを取った時点のファイルシステムのバージョン等については把握できるが、ファイルシステム中のファイルの状態については、なんら判断することができず、結果として、各世代のスナップショットを作成して、各ファイルが所望のものかを判断しなくてはならない。
そこで、本発明は、ファイルシステムに管理されているファイルの更新に関する情報を容易に把握することができるようにする技術を提供することを目的とする。
上記目的達成のため、本発明の一観点に係るストレージシステムは、1以上のファイルについて、ファイルの更新時刻情報を含むメタデータ及び実データを含むファイルシステムを記憶するボリュームを格納し、ボリュームのブロックを指定したブロックライト要求を受け付けるストレージ装置と、計算機からファイルを指定したファイルライト要求を受け付け、ファイルライト要求が指定するファイルが格納されているボリュームのブロックを特定し、特定したボリュームのブロックを指定したブロックライト要求をストレージ装置に送信するファイルサーバと、を有するストレージシステムであって、ファイルサーバは、ボリュームの復元の基準となる複数の基準時点において、ボリュームからファイルシステムに含まれている全てのファイルのメタデータを読み込み、読み込んだ全てのメタデータをストレージ装置の所定の差分データ記録ボリュームに順次書き込む書込処理部を有し、ストレージ装置は、最新の基準時点から次の基準時点までに、ブロックライト要求を受け付けた場合に、ブロックライト要求により指定されたブロックに格納されているデータを、差分データ記録ボリュームのメタデータが格納された記憶領域以降の記憶領域に時系列に書き込む差分データ退避処理部を有する。
本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。
まず、本発明の一実施形態に係るストレージシステムの概要を説明する。
図1は、本発明の一実施形態に係るストレージシステムの概要を説明する図である。
ストレージシステム1では、NAS(Network Attached Storage)装置10のファイルシステム処理部15が所定のスナップショットの基準とする時点(基準時点)において、メタデータを優先して順次退避させる処理(世代作成処理:図1(1))の実行を開始する。ストレージ装置200は、NAS装置10が世代作成処理の実行を開始するとそれに応じて、ストレージ装置200側の世代作成処理を実行を開始する。すなわち、ストレージ装置200は、基準時点から次の基準時点までの世代(例えば、今までの世代が第m世代の場合には、第m+1世代)における差分データを格納するための仮想的な差分ボリューム205を新規に作成する。そして、NAS装置10は、データボリューム203に格納されているファイルシステムの全てのファイルのメタデータ60を読み出して、読み出したデータをデータボリューム203のメタデータ60を格納するブロックに書き込む。ストレージ装置200は、この書き込み処理に呼応して、メタデータ60を差分ボリューム205の先頭の連続する記憶領域(メタデータ記憶領域)66に退避する。
その後、NAS装置10が外部の計算機からファイルライト要求を受け付けた場合には、NAS装置10は、ファイルライト要求に対応するブロックライト要求を生成してストレージ装置200に送信する(図1(2))。
ストレージ装置200では、ブロックライト要求を受け付けると、データボリューム203のライト対象のブロックに格納されているデータ等(差分データ)を新たに作成した世代の差分ボリューム205のメタデータ記憶領域66に後続する記憶領域67に格納するとともに、データボリューム203の対応するブロックにライト対象のデータを格納する(コピーオンライト68)。ストレージ装置200は、このような処理を、ブロックライト要求を受け取る毎に実行する。
そして、以降において、NAS装置10がユーザから所望するリストア対象のファイル(対象ファイル:復元対象ファイル)の指示71を受け付けると(図1(3))、NAS装置10では、リストア処理部18がそれぞれ異なる基準時点に対応する各世代の差分ボリューム250の先頭に格納されているメタデータ62、64、66をストレージ装置200から取得し、当該メタデータに基づいて、リストア対象ファイルについての更新時刻を取得し、各世代における対象ファイルの更新時刻をユーザに対して提示する(図1(5))。
これにより、ユーザは対象ファイルの各世代における更新時刻を把握することができ、所望する状態(所望する時点)のファイルを取得するためにリストア(復元)すべき世代を適切に把握することができる。
次に、本発明の一実施形態に係るストレージシステムを詳細に説明する。
図2は、本発明の一実施形態に係るストレージシステムの論理的な構成図である。
ストレージシステム1は、1以上の計算機30と、ファイルサーバの一例としてのNAS装置10と、外部デバイスの一例としてのバックアップ装置31と、ストレージ装置200とを有する。
計算機30と、NAS装置10と、バックアップ装置31とは、例えば、LAN(Local Area Network)により接続されている。なお、これらを接続するネットワークは、LANに限られず、インターネット、専用回線、公衆回線等のいずれのネットワークであってもよい。
また、NAS装置10と、バックアップ装置31と、ストレージ装置200とは、例えば、SAN(Storage Area Network)により接続されている。これらを接続するネットワークは、SANに限られず、所定のデータ通信を行うことのできるネットワークであればよい。
計算機30は、図示しないプロセッサにより、OS(Operating System)及びアプリケーションを実行することにより、所定の処理を実行し、処理に応じてNAS装置10に対してファイルアクセス要求(ファイルライト要求、ファイルリード要求等)を送信する。計算機30から送信されるファイルライト要求には、例えば、ライト対象(書込み対象)のファイルを識別するデータ(ファイル識別データ:例えば、ファイル名、ディレクトリパス名等)及びライト対象のデータが含まれる。
NAS装置10は、計算機30からファイルアクセス要求を受信して、ファイルアクセス要求が指定するファイルが格納されているストレージ装置200のボリュームのブロックを特定し、特定したボリュームのブロックを指定したブロックアクセス要求(ブロックライト要求、ブロックリード要求)をストレージ装置200に送信する。NAS装置10が送信するブロックライト要求には、例えば、ライト対象のデータが管理されている論理ユニット(LU:Logical Unit)の番号(LUN:Logical Unit Number)及び論理ユニットにおけるブロックアドレス(LBA:Logical Block Address)が含まれる。
バックアップ装置31は、テープ等の記録媒体32に対するデータの入出力を行う。例えば、バックアップ装置31は、SAN34を介してストレージ装置200の所定のボリュームのデータを受信して記録媒体32に書き込む。また、バックアップ装置31は、退避されたボリュームのデータを記録媒体32から読み出してストレージ装置200に送信する。
ストレージ装置200は、複数のディスク装置(HDD)280を有している。本実施形態では、ストレージ装置200において、複数(例えば、4つ)のディスク装置280によりRAID(Redundant Arrays of independent Disks)グループ202が構成されている。本実施形態では、RAIDグループのRAIDレベルは、例えば、RAID1、5、6等となっている。ストレージ装置200においては、RAIDグループ202の少なくとも一部の記憶領域を自身の記憶領域とするボリューム(データボリューム203、差分データ記憶ボリューム204等)が生成され、また、差分データ記録ボリューム204の少なくとも一部の領域をその記憶領域とする仮想ボリュームである差分ボリューム205も生成される。ストレージ装置200は、複数のターゲット(ポート)201を有し、各ターゲット201には、1以上のボリューム(データボリューム203、差分データ記憶ボリューム204、差分ボリューム205等)が接続されている。なお、各ターゲット201に接続された各ボリュームは、LUNと対応付けられて管理されており、NAS装置10は、LUNを指定することにより、対象とするボリュームを指定することができ、ストレージ装置20は、指定されたLUNから対象とするボリュームを特定することができる。
本実施形態では、データボリューム203には、NAS装置10がファイルアクセスを管理可能にするためのファイルシステムが形成(格納)される。ファイルシステムは、ファイルシステム情報と、ファイルに関する情報であるメタデータと、ファイルの実データとを有する。ファイルシステム情報には、例えば、ファイルシステムの大きさ、空き容量等が含まれる。また、メタデータには、ファイルの識別データ(ファイル名等)、ファイルの実データが格納されたブロックを特定する情報(例えば、LBA)、ファイルの更新時刻(更新日時)に関する情報等が格納される。例えば、iノード(inode)を用いたファイルシステムの場合には、メタデータとしては、ファイルと対応するiノードの番号(iノード番号)との対応関係を管理するディレクトリエントリと、iノードを管理するiノードテーブルとがある。iノードには、iノード番号、対応するデータが格納されているブロックアドレス(ブロック番号)、ファイルの更新時刻等が格納されている。
データボリューム203においては、例えば、図14に示すように、メタデータを格納するメタデータブロック501、503と、実データを格納するデータブロック502、504とが存在する。
図3は、本発明の一実施形態に係るNAS装置の構成図である。
NAS装置10は、ネットワークインタフェースコントローラ11と、プロセッサ12と、ホストバスアダプタ13と、メモリ14とを有する。ネットワークインタフェースコントローラ11は、LAN33を介して計算機30とのデータのやり取りを仲介する。ホストバスアダプタ13は、SAN34を介してストレージ装置200との間のデータのやり取りを仲介する。
プロセッサ12は、メモリ14に格納されたプログラムやデータを用いて各種処理を実行する。ここで、プロセッサ12がメモリ14の各種プログラムを実行することにより、書込処理部、識別データ受付部、検索部、取得部、提示部、判断部、復元指定処理部、キャッシュ制御部を構成する。
メモリ14は、プログラムやデータを記憶する。本実施形態では、メモリ14は、ファイルシステムに関する処理を実行するためのファイルシステムプログラム15pと、入出力処理等を実行するためのオペレーティングシステムプログラム16pと、ネットワーク上におけるファイル共有に関する処理を実行するためのネットワークファイルシステムプログラム17pと、リストアに関する処理を実行するためのリストア処理プログラム18pとを記憶する。
図4は、本発明の一実施形態に係るストレージ装置のハードウェア構成図であり、図5は、本発明の一実施形態に係るストレージ装置の機能構成図である。
ストレージ装置200は、1以上のホストバスコントローラ210と、1以上のフロントエンドコントローラ220と、共有メモリ230と、キャッシュメモリ240と、1以上のバックエンドコントローラ260と、複数のディスク装置280とを有する。ホストバスコントローラ210は、SAN34に接続されるとともに、フロントエンドコントローラ220に接続される。フロントエンドコントローラ220と、半導体メモリの一例としての共有メモリ230と、半導体メモリの一例としてのキャッシュメモリ240と、バックエンドコントローラ260とは、コントローラ接続ネットワーク250を介して接続されている。バックエンドコントローラ260と、ディスク装置280とは、内部ストレージ接続ネットワーク270を介して接続されている。
ホストバスコントローラ210は、図5に示すようにホストI/O処理部211を有し、SAN34を介してのNAS装置10等とのデータのやり取りを仲介する。
フロントエンドコントローラ220は、ローカルメモリ221と、プロセッサ222と、制御チップ223とを有する。フロントエンドコントローラ220においては、プロセッサ222がローカルメモリ221に格納されたプログラムを実行することにより、データボリュームI/0処理部224と、差分ボリュームI/O処理部225と、差分データ退避処理部226と、RAID処理部227と、復元処理部の一例としてのボリュームリストア処理部228とを構成する。
データボリュームI/0処理部224は、ファイルシステムが格納されているデータボリュームに対するアクセスに関する処理を実行する。差分ボリュームI/O処理部225は、差分データを格納する差分データ記録ボリュームに対するアクセスに関する処理を実行する。差分データ退避処理部226は、差分データを退避する処理を実行する。RAID処理部227は、データボリュームI/O処理部224や差分ボリュームI/O処理部225によりボリュームに書き込む対象のデータをRAIDグループを構成する各ディスク装置280に書き込むデータに変換する処理や、RAIDグループを構成する各ディスク装置280から読み出したデータを、データボリュームI/O処理部224や差分ボリュームI/O処理部225が必要な読み出し対象のデータに変換する処理を実行する。ボリュームリストア処理部228は、ボリュームのリストア処理を実行する。
共有メモリ230は、RAIDグループ構成テーブル231と、ボリューム構成テーブル232と、差分管理構成テーブル233と、差分ボリュームグループ構成テーブル234と、世代管理テーブル235と、COWマップ236とを記憶する。これらテーブル等の詳細な構成は後述する。
キャッシュメモリ240は、キャッシュデータ241、すなわち、ディスク装置280に書込むためデータや、ディスク装置280から読み出したデータを一時的に記憶する。
バックエンドコントローラ260は、ローカルメモリ261と、プロセッサ262と、制御チップ263とを有する。バックエンドコントローラ260においては、プロセッサ262がローカルメモリ261に格納されたプログラムを実行することにより、ディスク装置I/O処理部264を構成する。ディスク装置I/O処理部264は、フロントエンドコントローラ220からの指示に従って、ディスク装置280へのデータの書込み、ディスク装置280からのデータの読み込みを実行する。
図6は、本発明の一実施形態に係るRAIDグループ構成テーブルの一例を示す図である。
RAIDグループ構成テーブル231は、RAIDグループIDフィールド2311と、ディスク装置IDフィールド2312と、サイズフィールド2313と、属性情報フィールド2314とを有するレコードを格納する。
RAIDグループIDフィールド2311には、RAIDグループ202を識別するID(RAIDグループID)が格納される。ディスク装置IDフィールド2312には、対応するRAIDグループ202を構成するディスク装置280のID(ディスク装置ID)が格納される。サイズフィールド2313には、対応するRAIDグループ202の記憶領域のサイズ(記憶容量)が格納される。属性情報フィールド2314には、対応するRAIDグループ202のRAIDレベルが格納される。
例えば、図6に示すRAIDグループ構成テーブル231の一番上のレコードは、RAIDグループ220のIDが”RG0001”であり、当該RAIDグループ202は、IDが”D101”、”D102”、”D103”、及び”D104”の4つのディスク装置280により構成され、RAIDグループ202の記憶領域のサイズが3,072GB(ギガバイト)であり、RAIDグループ202のRAIDレベルがレベル5であることを示している。
図7は、本発明の一実施形態に係るボリューム構成テーブルの一例を示す図である。
ボリューム構成テーブル232は、ボリュームIDフィールド2321と、RAIDグループIDフィールド2322と、開始ブロックフィールド2323と、サイズフィールド2324と、属性情報フィールド2325とを有するレコードを格納する。
ボリュームIDフィールド2321には、ボリューム(203、204等)のIDが格納される。RAIDグループIDフィールド2322には、対応するボリュームを構成する(記憶領域を提供する)RAIDグループ202のIDが格納される。開始ブロックフィールド2323には、対応するRAIDグループにおいて当該ボリュームの記憶領域が開始されるブロック(開始ブロック)の番号(アドレス)が格納される。サイズフィールド2324には、対応するボリュームの記憶領域のサイズ(記憶容量)が格納される。属性情報フィールド2325には、対応するボリュームの種類、例えば、通常のデータを格納するボリュームであるか、差分データを格納するボリュームであるか等の属性情報が格納される。
例えば、図7に示すボリューム構成テーブル232の一番上のレコードは、IDが”V0001”のボリュームは、IDが”RG0001”のRAIDグループ202のブロック”0”から記憶領域が開始され、記憶領域のサイズが200GBであり、通常のデータの格納に利用されることを示している。
図8は、本発明の一実施形態に係る差分管理構成テーブルの一例を示す図である。
差分管理構成テーブル233は、ボリュームIDフィールド2331と、差分ボリュームグループIDフィールド2332とを有するレコードを格納する。
ボリュームIDフィールド2331には、ファイルシステムのデータを格納するためのボリューム(例えば、203)のIDが格納される。差分ボリュームグループIDフィールド2332には、対応するボリュームの差分データを格納するためのボリューム(差分データ記録ボリューム)のグループのID(差分ボリュームグループID)が格納される。
例えば、図8に示す差分管理構成テーブル233の一番上のレコードは、IDが”V0001”のボリュームについての差分データは、”DG0001”の差分ボリュームグループに格納されることを示している。
図9は、本発明の一実施形態に係る差分ボリュームグループ構成テーブルの一例を示す図である。
差分ボリュームグループ構成テーブル234は、差分ボリュームグループIDフィールド2341と、ボリュームIDフィールド2342と、サイズフィールド2343と、属性情報フィールド2344と、次退避ブロックフィールド2345とを有するレコードを格納する。
差分ボリュームグループIDフィールド2341には、差分ボリュームグループのIDが格納される。ボリュームIDフィールド2342には、対応する差分ボリュームグループに属するボリュームのIDが格納される。サイズフィールド2343には、差分ボリュームグループの記憶領域のサイズが格納される。属性情報フィールド2344には、差分ボリュームグループの動作状態(例えば、動作中(active))が格納される。次退避ブロックフィールド2345には、次の差分データを格納する差分ボリュームグループにおけるブロック番号が格納される。
例えば、図9に示す差分ボリュームグループ構成テーブル234の一番上のレコードは、IDが”DG0001”の差分ボリュームグループは、”V0002”のIDのボリュームにより構成され、記憶領域のサイズは、1024GBであり、差分ボリュームグループは、動作中であり、次の退避先となるブロックは、10番目のブロックであることを示している。
図10は、本発明の一実施形態に係る世代管理テーブルの一例と示す図である。
世代管理テーブル235は、ボリュームIDフィールド2351と、世代IDフィールド2352と、世代作成時刻フィールド2353と、先頭ブロックフィールド2354と、仮想ボリュームIDフィールド2355とを有するレコードを格納する。
ボリュームIDフィールド2351には、ファイルシステムのデータが格納されるボリュームのIDが格納される。世代IDフィールド2352には、世代を示すID(世代番号)が格納される。世代作成時刻フィールド2353には、世代を作成した時刻(基準時点)が格納される。先頭ブロックフィールド2354には、対応する世代のデータが格納されている差分ボリュームグループにおける先頭のブロックの番号が格納される。仮想ボリュームIDフィールド2355には、対応する世代の差分データを格納した仮想ボリュームのIDが格納される。
例えば、図10に示す世代管理テーブル235の一番上のレコードは、”V0001”のIDのボリュームについての世代IDが”1”の世代は、”2008/6/23 04:00”に作成され、差分ボリュームグループでの先頭ブロックは、”0”であり、当該世代の差分データを格納する仮想ボリュームのIDが”V0001−01”であることを示している。
図11は、本発明の一実施形態に係るCOWマップの一例を示す図である。
COWマップ236は、ファイルシステムのデータが格納されるボリュームに対応して設けられており、対応するボリュームにおける各ブロックに対して所定の基準時点以降にデータの更新が発生したか否かを管理するマップである。具体的には、COWマップ236は、ボリュームにおける各ブロックに対応するビットを有し、対応するブロックに更新がない場合には、”0”が格納され、対応するブロックに更新が発生した場合には、”1”が格納される。
例えば、図11に示すCOWマップ236は、3番目のブロックは、対応するビット409が”0”であるので、更新されたことを示し、26番目のブロックは、対応するビット410が”0”であるので、更新されていないことを示している。
次に、本発明に係るストレージシステム1の動作を説明する。
図12は、本発明の一実施形態に係るNAS装置の世代作成処理のフローチャートである。
この世代作成処理は、予め設定されているスナップショットの基準となる時点になった場合や、NAS装置10がユーザから指示を受けた場合に開始される。
世代作成処理が開始されると(ステップ6200)、ファイルシステムプログラム15pを実行するプロセッサ12が、ストレージ装置200に対して世代作成指示を送信する(ステップ6210)。
次いで、プロセッサ12は、処理対象とするファイルシステムを格納するデータボリューム203のブロックの範囲(処理対象ブロック範囲)の初期値を決定する(ステップS6220)。例えば、プロセッサ12は、ファイルシステムの管理用データからメタデータを記憶しているブロックを示す情報を取得し、最先のブロックの範囲を初期値として決定する。
プロセッサ12は、データボリューム203の処理対象ブロック範囲からメタデータを読み込み(ステップ6230)、読み込んだメタデータをデータボリューム203の差分データを格納するための差分データ記憶ボリューム204に対してストレージ装置200により書込ませる(ステップ6240)。具体的には、ストレージ装置200の差分ボリュームI/O処理部225が対応するメタデータを差分データ記憶ボリューム204に対して書き込むこととなる。
次いで、プロセッサ12は、次のメタデータが格納されている処理対象ブロック範囲を決定し(ステップ6250)、ファイルシステムのファイルの全メタデータを処理したか否かを判定し(ステップ6260)、処理していない場合には、ステップ6230からのステップを実行する一方、全てのメタデータを処理した場合には、世代作成処理を終了する(ステップ6270)。
図13は、本発明の一実施形態に係るストレージ装置の世代作成処理のフローチャートである。
ストレージ装置200における世代作成処理は、例えば、ストレージ装置200が立ち上げられた後に、繰り返し実行が開始される。
世代作成処理が開始され(ステップ6100)、NAS装置10から世代作成指示を受領すると(ステップ6110)、差分データ退避処理部226が世代管理テーブル235に新たな世代に関する新たなレコードを追加し、レコードの各フィールドにデータを書き込む(ステップ6120)。例えば、差分データ退避処理部226は、ボリュームIDフィールド2351には、世代作成するファイルシステムが格納されているボリュームIDを格納し、世代IDフィールド2352には、同一のボリュームについての既に登録されている世代IDの次のIDを格納し、世代作成時刻フィールド2353には、世代作成指示を受け取った時刻(日時)を格納し、先頭ブロックフィールド2354には、前の世代のデータが格納されているブロックの次のブロックの番号を格納し、仮想ボリュームIDフィールド2355には、作成する新しい世代に関する差分データを格納するための仮想ボリュームのIDを格納する。
次いで、差分データ退避処理部226は、COWマップ236の各ビットを”0”に設定する(ステップ6130)。次いで、差分データ退避処理部226は、作成する新しい世代の差分データを格納する仮想ボリュームを可視化し、すなわち、仮想ボリュームをNAS装置10等から参照するために必要な各種情報をターゲット2等に設定し(ステップ6140)、処理を終了する(ステップ6150)。なお、これ以降において、NAS装置10による処理(ステップ6240)が実行されることとなり、差分ボリュームI/O処理部225がメタデータを差分データ記憶ボリューム204に対して書き込むとともに、書き込んだ差分データ記憶ボリューム204のブロックを、対応する世代の仮想ボリューム205における空いている最先のブロックと対応付けるマッピング情報を生成して共有メモリ230に格納する。これにより、仮想ボリューム205においては、メタデータが仮想ボリューム205の先頭の固まった領域(メタデータ格納領域)に格納され、それ以降の領域に差分データが格納されることとなる。
図14は、本発明の一実施形態に係るメタデータの集約を説明する図である。
図14は、世代1に対応する差分データが作成された後に、新たな次の世代、すなわち世代2の差分データを格納するようにするための世代作成処理(図12、図13)が実行された場合の差分データ記録ボリューム204の状態を示している。
図14に示すように、世代2を作成した基準時点におけるデータボリューム203の全てのメタデータブロック503、504の、メタデータが、差分データ記録ボリューム204の世代1の差分データの記憶領域507の直後の領域(メタデータ差分領域)508、509に格納されることとなる。なお、世代2を作成した基準時点以降におけるデータボリューム203に関する差分データは、領域509の直後の領域510に時系列に格納されることとなる。
図15は、本発明の一実施形態に係るファイルライト処理のフローチャートである。
ファイルライト処理は、例えば、NAS装置10が立ち上げられた後に、繰り返し実行が開始される。
NAS装置30において、ファイルライト処理の実行が開始され(ステップ5000)、ネットワークインタフェースコントローラ11を介して計算機30からファイルライト要求を受信すると、ファイルシステムプログラム15pを実行するプロセッサ12は、ファイルライト要求からファイル名を取得し(ステップ5010)、ファイル名からファイル格納先(LU及びLBA)を特定する。なお、ファイルシステムが格納されているデータボリューム203に対応するLUについては、NAS装置30自体が管理しているので把握できる。また、LBAについては、ファイル名を用いて、ファイルシステムのメタデータから特定することができる。
次いで、プロセッサ12は、特定したLU及びLBAと、ライト対象のデータを含むブロックライト要求をホストバスアダプタ13を介してストレージ装置200の所定のホストバスコントローラ210に送信し(ステップ5030)、処理を終了する(ステップ5040)。
図16は、本発明の一実施形態に係るホストライト処理のフローチャートである。
ホストライト処理は、NAS装置10等からブロックライト要求を受信した際に開始される。ホストライト処理が開始されると(ステップ6000)、データボリュームI/O処理部224が、ブロックライト要求に含まれているLUN及びLBAに基づいて、ライト対象のボリュームIDと、LBAとを特定する(ステップ6010)。なお、LUNとボリュームIDとの対応関係を管理する図示しないマッピングテーブルをストレージ装置200において記憶しており、データボリュームI/O処理部224は、マッピンテーブルにより、ブロックライト要求に含まれているLUNからライト対象のボリュームのボリュームIDを特定することができる。また、LBAは、ブロックライト要求から取得できる。
次いで、データボリュームI/O処理部224は、ライト対象のボリュームのボリュームIDが差分管理構成テーブル233に登録されているか否かにより、COW対象のボリュームであるかを判定し(ステップ6020)、COW対象のボリュームではない場合(ステップ6020:NO)には、ステップ6070に進む。
一方、ライト対象のボリュームがCOW対象のボリュームである場合(ステップ6020:YES)には、差分データ退避処理部226がCOWマップ236を参照して、ライト対象のブロックのデータを含む差分データが既に差分データ記録ボリューム204に退避済みか判定し(ステップ6030)、退避済みの場合には、退避させた差分データにより基準時点の状態に戻すことができるので、退避させることなく、ステップ6070に進む。
一方、退避済みではない場合(ステップ6030:NO)には、差分データ退避処理部226が書込み対象のブロックのデータに基づいてキャッシュメモリ240に差分データを作成し(ステップ6040)、次いで、差分ボリュームグループ構成テーブル234の次退避ブロックフィールド2345から差分データの退避先となるブロックを取得し、当該次退避フィールド2345を次のブロックに更新する(ステップ6050)。
次いで、差分ボリュームI/O処理部225は、キャッシュメモリ240の差分データを差分データ記録ボリューム204の特定したブロックに書き込む(ステップ6060)。また、本実施形態では、差分ボリュームI/O処理部225が、差分データを書き込んだ差分データ記憶ボリューム204のブロックを、対応する世代の仮想ボリュームの空いている最先のブロックと対応付けるマッピング情報を生成して共有メモリ230に格納する。これにより、仮想ボリュームにおいては、対応する世代の差分データを仮想ボリュームのブロックの順番に従って時系列に並ぶようにすることができる。
その後、データボリュームI/O処理部224は、ライトデータをキャッシュメモリ240に格納し(ステップ6070)、キャッシュメモリ240のライトデータをライト対象のデータボリューム203のブロックに対応するディスク装置280に書き込み(ステップ6080)、ホストライト処理を終了する。
図17は、本発明の一実施形態に係るホストライト処理を説明する図である。
ストレージ装置200において、NAS装置10からアドレス(ブロック)1000にデータYを格納するブロックライト要求を受信すると、ブロックライト要求(書き込み要求)の対象とするデータボリューム203(”V0001”)のアドレス1000に現在格納されているデータXを含む差分データを当該データボリューム203に対応する差分ボリュームグループの差分データ記録ボリューム204(”V0002”)に退避格納させる。ここで、本実施形態では、差分データは、データが格納されていたデータボリュームのID(”V0001”)と、ブロックライト要求を受信した日時(”2008/6/23 12:00”)と、データボリューム203での格納ブロックのアドレス(”1000”)と、格納されていたデータ(”X”)とが含まれる。この差分データによると、ブロックライト要求後のデータボリューム203のデータに対して、差分データ中のデータを書き戻すことによりことにより、ブロックライト要求前のデータボリューム203の状態に復元することができる。
図18は、本発明の一実施形態に係るNAS装置のリストア処理のフローチャートである。
NAS装置10においてリストア処理が開始されると(ステップ6300)、リストア処理プログラム18pを実行するプロセッサ12が、ユーザから図示しない入力装置等によりリストアする対象のファイル(対象ファイル)の識別データ(例えば、ファイル名)を受領する(ステップS6305)。
プロセッサ12は、対応するファイルを管理するファイルシステムにおける最初の世代を処理対象の世代として選択する(ステップS6310)。
プロセッサ12は、処理対象の世代の差分ボリュームのメタデータ記録領域に対して対象ファイルが存在するか否かを検索する(ステップ6315)。本実施形態では、対象ファイルが存在するか否かを差分ボリュームの一部の領域であるメタデータ記録領域のみを読み込むだけで済むので、検索処理を短時間で実行することができる。そして、プロセッサ12は、検索の結果、対象ファイルが見つかったか否かを判定する(ステップ6320)。この結果、対象ファイルが見つかった場合(ステップ6320:YES)には、プロセッサ12は、対象ファイルのメタデータをリストに追加し(ステップ6325)、次の世代(の差分ボリューム)を処理対象として選択する(ステップ6330)。一方、対象ファイルが見つからなかった場合(ステップ6320:NO)には、次の世代を処理対象として選択する(ステップ6330)。
次いで、プロセッサ12は、ファイルシステムにおける全ての世代を処理したか否かを判定し(ステップ6335)、全ての世代を処理していない場合には、ステップ6315からのステップを再び実行する。
一方、全ての世代を処理した場合(ステップ6335:YES)には、プロセッサ12は、リストをユーザに提示する(ステップ6340)。例えば、プロセッサ12は、NAS装置10に接続された表示装置等に、世代IDと、その世代に存在する対象ファイルの更新時刻(更新日時)とを対応付けたリストを表示する。この表示されたリストにより、ユーザは、対象ファイルの更新時刻を把握することができる。
次いで、プロセッサ12は、リストアする更新時刻のファイルを含む世代のリストからの選択をユーザから受領し(ステップ6345)、選択された世代のリストアをストレージ装置200に開始させる指示を送信し(ステップ6350)、NAS装置10側の処理を終了する(ステップ6355)。
図19は、本発明の一実施形態に係るストレージ装置のリストア処理のフローチャートである。
ストレージ装置200では、ボリュームリストア処理を開始すると(ステップ6400)、ボリュームリストア処理部228が、NAS装置10からリストアする世代を含むリストア開始指示を受領し(ステップ6405)、対応するファイルシステムにおける現在の世代から開始指示に含まれる世代までの仮想ボリューム(差分ボリューム)205についての処理順リストを作成する(ステップ6410)。
次いで、ボリュームリストア処理部228が、処理順リストの先頭の仮想ボリューム205を処理対象として選択し(ステップ6415)、仮想ボリューム毎のリストア処理を実行する(ステップ6420)。
仮想ボリューム毎のリストア処理においては、処理が開始されると(ステップ6440)、ボリュームリストア処理部228が仮想ボリュームの最初のブロックを選択し(ステップ6445)、選択したブロックに記録されている差分データに基づいてデータボリューム203にデータを復元する(ステップ6450)。ここで、差分データには、データボリュームのIDと、データボリュームでの格納ブロックとが、データボリュームに書き込まれていたデータとともに含まれているので、差分データのIDが示すボリュームの格納ブロックに、データを格納することにより、データを復元することができる。
次いで、ボリュームリストア処理部228は、仮想ボリュームの次のブロックを選択し(ステップ6455)、仮想ボリュームの全てのブロックについて処理したかを判定し(ステップ6460)、全てのブロックについて復元していない場合(ステップ6460:NO)には、ステップ6450からのステップを再び実行する一方、全てのブロックについて復元した場合(ステップ6360:YES)には、仮想ボリューム毎のリストア処理を終了する(ステップ6465)。
仮想ボリューム毎のリストア処理が終了した場合には、ボリュームリストア処理部228は、処理順リストの次の仮想ボリュームを選択し(ステップ6425)、次の仮想ボリュームがあるか否かを判定し(ステップ6430)、次の仮想ボリュームがある場合(ステップ6430:YES)には、その仮想ボリュームを処理対象としてステップ6420からのステップを実行する一方、次の仮想ボリュームがない場合(ステップ6430:NO)には、リストア処理を終了する(ステップ6435)。
以上の処理により、データボリューム203には、ユーザが所望する状態の対象ファイルを含んだファイルシステムが復元されることとなる。従って、ユーザは必要な状態の対象ファイルを読み出して利用することができる。
次に、本発明の変形例に係るストレージシステムについて説明する。上記実施形態では、対象ファイルと同じファイル名のファイルをユーザに提示するようにしていたが、本変形例に係るストレージシステムでは、対象ファイルの情報として、ファイル名を変更したことや、ファイルの移動等が行われたこと等の情報をも提供するようにしている。
本変形例に係るストレージシステムは、上記した実施形態に係るストレージシステムとは、NAS装置10のプロセッサ12によるユーザに提示するリストの作成に関わる処理が異なる以外は、ほぼ同様な構成となっている。なお、本変形例においては、ファイルシステムは、inodeを用いたファイルシステムを例に説明する。
本変形例に係るストレージシステムのNAS装置10は、ステップ6300からステップ6340の処理に代えてファイル名追跡処理(図20乃至図22)を実行する。
図20は、本発明の変形例に係るファイル名追跡処理のフローチャートであり、図21は、本発明の変形例に係るデータボリュームにおけるファイル名追跡処理のフローチャートであり、図22は、本発明の変形例に係る仮想ボリュームにおけるファイル名追跡処理のフローチャートである。
ファイル名追跡処理が開始されると(ステップ6500)、NAS装置10のプロセッサ12は、ユーザ表示用のリストLを空のリストとして初期化し(ステップ6510)、図21に示すデータボリューム203のファイル名追跡処理を実行する(ステップ6520)。
データボリュームのファイル名追跡処理において、処理を開始すると(ステップ6600)、リストア処理プログラム18pを実行するプロセッサ12がユーザから図示しない入力装置等によりリストアする対象のファイル(対象ファイル)の識別データ(例えば、ファイル名)を受領する(ステップS6610)。次いで、プロセッサ12は、ファイルシステムを格納するデータボリューム203のメタデータからファイル名のinodeを特定し(ステップ6620)、inodeがあるか否かを判定する(ステップ6630)。
この結果、inodeがある場合には、リストLにデータボリューム203のボリュームIDと、対象ファイルのメタデータ(更新時刻等)とを含むエントリを追加する(ステップ6650)一方、inodeがない場合には、リストLにデータボリューム203のボリュームID(識別情報)と対象ファイルが存在しないことを示す情報を含むエントリを追加する(ステップ6670)。ステップ6650又はステップ6670でリストLにエントリを追加した後に、リストLをファイル名追跡処理に返却し(ステップ6660)、データボリュームのファイル名追跡処理を終了する(ステップ6680)。
データボリューム203のファイル名追跡処理が終了すると、プロセッサ12は、図22に示す仮想ボリューム205のファイル名追跡処理を実施する(ステップ6530)。
仮想ボリュームのファイル名追跡処理が開始されると(ステップ6700)、プロセッサ12は、対象ファイルのファイル名を受領して、検索対象ファイル名とする(ステップ6710)。次いで、データボリューム203のファイル名追跡処理で特定しているinodeが存在していれば、そのinodeを前回のinodeとして把握し(ステップ6720)、最新の世代を処理対象の世代と選択する(ステップ6730)。
プロセッサ12は、処理対象の世代の仮想ボリューム205におけるメタデータ格納領域から検索対象ファイル名に対応付けられたinodeを特定し(ステップ6740)、対応付けられたinodeがあるか否かを判定する(ステップ6750)。
この結果、inodeがない場合(ステップ6750:NO)には、同一のファイル名のファイルがその世代(の基準時点)に存在しないことを意味しているので、前回inodeを処理対象の世代の仮想ボリューム205のメタデータ格納領域から検索し(ステップ6770)、inodeがあるか否かを判定する(ステップ6780)。
この結果、前回inodeと同じinodeがない場合には、ファイルシステムに対象ファイルが存在しないと考えられるので、リストLに、対象世代の識別情報(例えば、世代ID)と、対象ファイルが不在であることを示す情報とを含むエントリを追加し、ステップ6840に進む。一方、ステップ6780において、前回inodeと同じinodeがある場合には、対象ファイルのファイル名が変更された可能性があるので、検索対象ファイル名を特定したファイル名として選択し(ステップ6790)、リストLに処理対象の世代の識別情報と、特定したファイルのファイル名(この場合は検索対象ファイル名)と、ファイル名が変更された可能性があることを示す情報と、特定したファイルの属性情報(例えば、更新日時等)とを含むエントリを追加し(ステップ6810)、ステップ6840に進む。
一方、ステップ6750において、inodeがあると判定した場合(ステップ6750:YES)には、プロセッサ12は、特定したinodeと、前回のinodeとが同一であるか否かを判定する(ステップ6760)。
この結果、特定したinodeと、前回のinodeとが同一ではない場合には、ファイルに対して複製や移動等が行われたと考えられるので、プロセッサ12は、リストLに、処理対象の世代の識別情報と、特定したファイルのファイル名と、ファイルが複製や移動等が行われた可能性があることを示す情報と、特定したファイルの属性情報(例えば、更新日時等)とを含むエントリを追加し(ステップ6820)、ステップ6840に進む。一方、特定したinodeと前回inodeとが同一である場合には、対象ファイルであることを意味しているので、プロセッサ12は、リストLに、処理対象の世代の識別情報と、ファイル名と、ファイルの属性情報(例えば、更新日時等)とを含むエントリを追加し(ステップ6830)、ステップ6840に進む。
ステップ6840においては、特定したファイルが存在する場合(ステップ6810、6820、6830を行った場合)には、特定したファイルのファイル名を新たな検索対象ファイル名とし、特定したinodeがある場合(ステップ6810、6820、6830を行った場合)には、特定したinodeを前回のinodeとする(ステップ6850)。
次いで、プロセッサ12は、処理対象の世代の前の世代を次の処理対象の世代として選択し(ステップ6860)、全ての世代を処理対象として処理したか否かを判定し(ステップ6870)、全ての世代を処理対象として処理していない場合には、ステップ6740からのステップを再び実行させ(ステップ6870:YES)、すべての世代を処理対象として処理した場合(ステップ6870:YES)には、仮想ボリュームのファイル名追跡処理を終了する(ステップ6880)。
図20の説明に戻り、仮想ボリュームのファイル名追跡処理(ステップ6530)が終了すると、
プロセッサ12は、リストLをユーザに提示する(ステップ6540)。例えば、プロセッサ12は、NAS装置10に接続された表示装置等に、リストLに追加したエントリの情報を表示する。この表示により、ユーザは、例えば、対象ファイルの更新時刻を適切に把握することができるとともに、或る世代において対象ファイルが不在であることや、ファイル名が変更された可能性があることや、ファイルが複製や移動された可能性があること等を把握することができる。このため、ファイル名が移動や、ファイル名が変更された場合においても、必要なデータが含まれているファイルを把握することができる。なお、このリストLに対してユーザが必要なファイルを含む世代の選択を行うと、上記した実施形態と同様な処理により、選択された世代のデータボリュームを復元するリストアが実行されることとなる。
以上、本発明を実施形態に基づいて説明したが、本発明は上述した実施の形態に限られず、他の様々な態様に適用可能である。
例えば、上記実施形態では、データボリューム203の或るブロックに対する書込み要求があった場合に、同一の世代において既に、差分データ記録ボリューム204に対して対応するブロックのデータ(すなわち、この世代の基準時点におけるデータ)の差分データが格納されている場合には、書込み要求があった時点の対応するブロックのデータの差分データを差分データ記憶ボリューム204に記憶しないようにして、差分データ記録ボリューム204に必要なデータ量を抑えるようにしていたが、本発明はこれに関わらず、ブロックに対する書込み要求があった場合には、常に、対応するブロックのデータの差分データを差分データ記憶ボリューム204に格納するようにしてもよい。
また、上記実施形態では、各世代の仮想ボリュームの先頭に或るメタデータ領域のすべてのメタデータを読み出して、対象のファイルのメタデータを検索するようにしていたが、本発明はこれに限られず、例えば、ファイルシステムがiノードを用いたものであれば、検索対象ファイルのiノード番号から、iノードの格納されているアドレスを把握し、当該アドレスに対して読み出しをするようにしてもよく、このようにすれば、検索処理を迅速に行うことができる。
また、上記実施形態では、リストアする世代を選択し、データボリューム203を世代の基準時点における状態に復元するようにしていたが、本発明はこれに限られず、対象とするファイルのみ(ファイルの存在するブロックのみ)を世代の基準時点における状態に復元するようにしてもよい。
また、上記実施形態では、1つの差分ボリュームグループが1つのデータボリューム203の差分データを格納していた例を示していたが、本発明はこれに限られず、複数のデータボリューム203の差分データを同一の差分ボリュームグループに格納するようにしてもよい。この場合においては、或るデータボリューム203の或る基準時点におけるメタデータ群を差分ボリュームグループに書き込む際に、他のデータボリューム203の差分データの書き込みが発生して、メタデータ群が差分ボリュームグループの連続したブロックに書き込まれないこともあるが、この場合であっても、メタデータ群の格納される領域が比較的狭い範囲に集約されており、また、同一の世代における差分データよりは前の記憶領域に格納されるので、その世代の全てのファイルのメタデータの読み込みを迅速に行うことができる。また、この場合においては、差分ボリュームグループでは、異なるデータボリューム203のメタデータや差分データが時系列に格納されることとなるが、各データボリューム203におけるメタデータ群や差分データを仮想ボリューム205として管理する、すなわち、各データボリューム203のメタデータや差分データが、仮想ボリュームのブロックに時系列に並ぶように管理するようにしてもよい。このようにすると、所望するデータボリューム203の世代の仮想ボリューム205を指定することにより、所望する世代におけるメタデータや差分データを容易に時系列に取得することができる。
また、上記実施形態においては、ストレージ装置200の差分データ記録ボリューム204(の差分ボリューム)から復元対象ファイルのメタデータを検索するようにしていたが、本発明はこれに限られず、少なくともいずれか1つの世代の差分ボリューム205をバックアップ装置31により記録媒体32に格納させるようにし、NAS装置10がバックアップ装置31の記録媒体32の差分ボリュームからメタデータを読み出して検索するようにしてもよい。また、差分ボリュームを記録媒体32に退避させた場合にあっても、ストレージ装置200の差分データ記録ボリューム204に、各世代の全てのファイルのメタデータが維持されるようにしておき、NAS装置10がストレージ装置200の差分データ記録ボリュームに維持されているメタデータを読み出して、復元対象のファイルを検索するようにしてもよい。なお、この場合には、復元対象ファイルを復元する場合には、ストレージ装置200がバックアップ装置31の記録媒体32から必要な差分データを取得して復元することとなる。
また、NAS装置10がストレージ装置200の半導体メモリ(例えば、共有メモリ、キャッシュメモリ)に各世代の全てのファイルのメタデータが維持されるようにしておき、NAS装置10がストレージ装置200に維持されているメタデータを読み出して、復元対象のファイルのメタデータを検索するようにしてもよい。
また、上記実施形態において、データボリューム203のある世代を復元する際、データボリューム203とは異なる復元用ボリュームを用意し、この復元用ボリュームにデータボリューム203の当該世代におけるデータが形成されるにしてもよい。一つの方法として、例えば、図19に示したボリュームリストア処理のステップ6450において、差分データの書き込み先ボリュームをデータボリューム203ではなく復元用ボリュームとするとともに、差分データを書き込んだブロックを記録しておく。そして、ステップ6430において、全ての仮想ボリュームのリストア処理が終了した後、差分データが書き込まれなかったブロックについて、データボリューム203からデータを読み出し復元用ボリュームに書き込む。あるいは別の一つの方法として、例えば、復元用ボリュームにデータボリューム203のデータを複製しておき、復元用ボリュームをデータボリューム203と見做して図19に示したボリュームリストア処理を実行する。これらの方法によって、データボリューム203の所望の世代を復元用ボリュームに形成することができる。
本発明の一実施形態に係るストレージシステムの概要を説明する図である。 本発明の一実施形態に係るストレージシステムの論理的な構成図である。 本発明の一実施形態に係るNAS装置の構成図である。 本発明の一実施形態に係るストレージ装置のハードウェア構成図である。 本発明の一実施形態に係るストレージ装置の機能構成図である。 本発明の一実施形態に係るRAIDグループ構成テーブルの一例を示す図である。 本発明の一実施形態に係るボリューム構成テーブルの一例を示す図である。 本発明の一実施形態に係る差分管理構成テーブルの一例を示す図である。 本発明の一実施形態に係る差分ボリュームグループ構成テーブルの一例を示す図である。 本発明の一実施形態に係る世代管理テーブルの一例と示す図である。 本発明の一実施形態に係るCOWマップの一例を示す図である。 本発明の一実施形態に係るNAS装置の世代作成処理のフローチャートである。 本発明の一実施形態に係るストレージ装置の世代作成処理のフローチャートである。 本発明の一実施形態に係るメタデータの集約を説明する図である。 本発明の一実施形態に係るファイルライト処理のフローチャートである。 本発明の一実施形態に係るホストライト処理のフローチャートである。 本発明の一実施形態に係るホストライト処理を説明する図である。 本発明の一実施形態に係るNAS装置のリストア処理のフローチャートである。 本発明の一実施形態に係るストレージ装置のリストア処理のフローチャートである。 本発明の変形例に係るファイル名追跡処理のフローチャートである。 本発明の変形例に係るデータボリュームにおけるファイル名追跡処理のフローチャートである。 本発明の変形例に係る仮想ボリュームにおけるファイル名追跡処理のフローチャートである。
符号の説明
1 ストレージシステム、10 NAS装置、11 ネットワークインタフェースコントローラ、12 プロセッサ、13 ホストバスアダプタ、14 メモリ、30 計算機、31 バックアップ装置、33 LAN、34 SAN、200 ストレージ装置、10 ストレージ装置、100 基本筐体、200 コントローラ、201 ターゲット、202 RAIDグループ、203 データボリューム、204 差分データ記録ボリューム、205 差分ボリューム、210 ホストバスコントローラ、220 フロントエンドコントローラ、230 共有メモリ、240 キャッシュメモリ、250 コントローラ接続ネットワーク、260 バックエンドコントローラ、270 内部ストレージ接続ネットワーク、280 ディスク装置。

Claims (15)

  1. 1以上のファイルについて、前記ファイルの更新時刻情報を含むメタデータ及び実データを含むファイルシステムを記憶するボリュームを格納し、前記ボリュームのブロックを指定したブロックライト要求を受け付けるストレージ装置と、
    計算機からファイルを指定したファイルライト要求を受け付け、前記ファイルライト要求が指定するファイルが格納されているボリュームのブロックを特定し、特定した前記ボリュームの前記ブロックを指定したブロックライト要求を前記ストレージ装置に送信するファイルサーバと、を有するストレージシステムであって、
    前記ファイルサーバは、
    前記ボリュームの復元の基準となる複数の基準時点において、前記ボリュームから前記ファイルシステムに含まれている全てのファイルの前記メタデータを読み込み、読み込んだ全ての前記メタデータを前記ストレージ装置の所定の差分データ記録ボリュームに順次書き込む書込処理部を有し、
    前記ストレージ装置は、
    最新の基準時点から次の基準時点までに、前記ブロックライト要求を受け付けた場合に、前記ブロックライト要求により指定されたブロックに格納されているデータを、前記差分データ記録ボリュームの前記メタデータを書き込んだ記憶領域以降の記憶領域に時系列に書き込む差分データ退避処理部を有する
    ストレージシステム。
  2. 前記ファイルサーバは、
    復元対象ファイルの識別データを受け付ける識別データ受付部と、
    前記差分データ記憶ボリュームの前記メタデータが格納された記憶領域を読み取ることにより、前記識別データが含まれているメタデータを検索する検索部と、
    検索部により前記識別データが含まれているメタデータが検索できた場合に、前記メタデータから前記復元対象ファイルの前記更新時刻情報を取得する取得部と、
    前記取得した更新時刻情報を含む前記復元対象ファイルに関するリストを提示する提示部と
    を有する請求項1に記載のストレージシステム。
  3. 前記メタデータには、各ファイルに対応する実データが格納されている前記ボリュームのブロック番号を含む複数のinodeと、前記識別データと前記inodeとの対応関係が含まれており、
    前記ファイルサーバは、
    一の基準時点における前記識別データに対応する第1のinodeを取得し、次の基準時点における前記識別データに対応する第2のinodeがなく、前記第1のinodeが存在する場合には、そのinodeの識別データが変更されている可能性があると判断する判断部を更に有し、
    前記提示部は、前記識別データが変更されている可能性があることを示す情報及び更新時刻情報を提示する
    請求項2に記載のストレージシステム。
  4. 前記ファイルサーバは、
    前記リストの中からどの更新時刻の前記復元対象ファイルを復元するかの指定を受け付け、前記ストレージ装置に前記指定を通知する復元指定処理部を更に有し、
    前記ストレージ装置は、
    前記差分データ記憶ボリュームから前記指定に対応する更新時刻の前記復元対象ファイルの復元に必要なデータを読み出して、前記復元対象ファイルを復元する復元処理部
    を更に有する
    請求項2又は請求項3に記載のストレージシステム。
  5. 前記ストレージ装置は、
    データを記憶可能な半導体メモリを更に有し、
    前記ファイルサーバは、
    前記差分データ記憶ボリュームに格納された複数の前記基準時点における全てのファイルのメタデータを前記半導体メモリに格納させるキャッシュ制御部をさらに備え、
    前記検索部は、前記半導体メモリの前記メタデータから前記識別データが含まれているメタデータを検索する
    請求項2乃至請求項4のいずれか一項に記載のストレージシステム。
  6. データを格納可能な外部デバイスを更に有し、
    前記ストレージ装置は、
    前記差分データ記憶ボリュームのデータを前記外部デバイスに退避する退避部を更に備え、
    前記復元処理部は、前記指定に対応する状態の前記復元対象ファイルの復元に必要なデータを、前記外部デバイスから読み出して、前記復元対象ファイルを復元する
    請求項4に記載のストレージシステム。
  7. 前記ストレージ装置は、
    前記差分データ記憶ボリュームのデータを前記外部デバイスに退避させた後において、前記差分データ記憶ボリュームに前記メタデータを維持しておくメタデータ維持部を更に有し、
    前記検索部は、前記差分データ記憶ボリュームの前記メタデータから前記識別データが含まれているメタデータを検索する
    請求項6に記載のストレージシステム。
  8. 前記ストレージ装置の前記差分データ退避処理部は、
    一の前記基準時点における全てのファイルのメタデータが連続する記憶領域に格納されるとともに、前記一の基準時点から次の基準時点までに、前記差分データ退避処理部により書き込まれるデータが前記メタデータの記憶領域に後続する記憶領域に格納されるような仮想ボリュームを、前記差分データ記憶ボリュームの記憶領域を利用して生成する
    請求項1乃至請求項7のいずれか一項に記載のストレージシステム。
  9. 1以上のファイルについて、前記ファイルの更新時刻情報を含むメタデータ及び実データを含むファイルシステムを記憶する論理ボリュームを格納し、前記論理ボリュームのブロックを指定したブロックライト要求を受け付けるストレージ装置と、計算機からファイルを指定したファイルライト要求を受け付け、前記ファイルライト要求が指定するファイルが格納されている前記論理ボリュームのブロックを特定し、特定した前記論理ボリュームの前記ブロックを指定したブロックライト要求を前記ストレージ装置に送信するファイルサーバと、を有するストレージシステムにおけるデータ管理方法であって、
    前記論理ボリュームの復元の基準となる複数の基準時点において、前記論理ボリュームから前記ファイルシステムに含まれている全てのファイルの前記メタデータを読み込み、読み込んだ全ての前記メタデータを前記ストレージ装置の所定の差分データ記録ボリュームに順次書き込む書込処理ステップと、
    各基準時点から次の基準時点までに、前記ストレージ装置が前記ブロックライト要求を受け付けた場合に、前記ブロックライト要求により指定されたブロックに格納されているデータを、前記差分データ記録ボリュームの前記メタデータを書き込んだ記憶領域以降の記憶領域に時系列に書き込む差分データ退避処理ステップと、
    を有するデータ管理方法。
  10. 前記ファイルサーバは、
    復元対象ファイルの識別データを受け付ける識別データ受付ステップと、
    前記差分データ記憶ボリュームの前記メタデータが格納された記憶領域を読み取ることにより、前記識別データが含まれているメタデータを検索する検索ステップと、
    前記識別データが含まれているメタデータが検索できた場合に、前記メタデータから前記復元対象ファイルの前記更新時刻情報を取得する取得ステップと、
    前記取得した更新時刻情報を含む前記復元対象ファイルに関するリストを提示する提示ステップと
    を有する請求項9に記載のデータ管理方法。
  11. 前記メタデータには、各ファイルに対応する実データが格納されている前記ボリュームのブロック番号を含む複数のinodeと、前記識別データと前記inodeとの対応関係が含まれており、
    一の基準時点における前記識別データに対応する第1のinodeを取得し、次の基準時点における前記識別データに対応する第2のinodeがなく、前記第1のinodeが存在する場合には、そのinodeの識別データが変更されている可能性があると判断する判断ステップを更に有し、
    前記提示ステップは、前記識別データが変更されている可能性のあることを示す情報及び更新時刻情報を提示する
    請求項10に記載のデータ管理方法。
  12. 前記リストの中からどの更新時刻の前記復元対象ファイルを復元するかの指定を受け付け、ストレージ装置に前記指定を通知する復元指定処理ステップと、
    前記差分データ記憶ボリュームから前記指定に対応する更新時刻の前記復元候補ファイルの復元に必要なデータを読み出して、前記復元対象ファイルを復元する復元処理ステップと
    を有する請求項10又は請求項11に記載のデータ管理方法。
  13. 前記ストレージ装置は、データを記憶可能な半導体メモリを有し、
    前記差分データ記憶ボリュームに格納された複数の前記基準時点における全てのファイルのメタデータを前記半導体メモリに格納するキャッシュ実行ステップを更に備え、
    前記検索ステップは、前記半導体メモリの前記メタデータから前記識別データが含まれているメタデータを検索する
    請求項10乃至請求項12のいずれか一項に記載のデータ管理方法。
  14. 前記ストレージシステムは、データを格納可能な外部デバイスを更に有し、
    前記差分データ記憶ボリュームのデータを前記外部デバイスに退避する退避ステップを更に備え、
    前記復元処理ステップは、前記指定に対応する状態の前記復元対象ファイルの復元に必要なデータを、前記外部デバイスから読み出して、前記復元対象ファイルを復元する
    請求項13に記載のデータ管理方法。
  15. 差分データ退避処理ステップは、
    一の前記基準時点における全てのファイルのメタデータが連続する記憶領域に格納されるとともに、前記一の基準時点から次の基準時点までに、前記ブロックライト要求により指定されたブロックの前記データが前記メタデータの記憶領域に後続する記憶領域に格納されるような仮想ボリュームを、前記差分データ記憶ボリュームの記憶領域を利用して生成する
    請求項9乃至請求項14のいずれか一項に記載のデータ管理方法。
JP2008213154A 2008-08-21 2008-08-21 ストレージシステム及びデータ管理方法 Expired - Fee Related JP5023018B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008213154A JP5023018B2 (ja) 2008-08-21 2008-08-21 ストレージシステム及びデータ管理方法
US12/243,004 US20100049754A1 (en) 2008-08-21 2008-10-01 Storage system and data management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008213154A JP5023018B2 (ja) 2008-08-21 2008-08-21 ストレージシステム及びデータ管理方法

Publications (2)

Publication Number Publication Date
JP2010049488A JP2010049488A (ja) 2010-03-04
JP5023018B2 true JP5023018B2 (ja) 2012-09-12

Family

ID=41697313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008213154A Expired - Fee Related JP5023018B2 (ja) 2008-08-21 2008-08-21 ストレージシステム及びデータ管理方法

Country Status (2)

Country Link
US (1) US20100049754A1 (ja)
JP (1) JP5023018B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8312242B2 (en) * 2008-10-30 2012-11-13 Hewlett-Packard Development Company, L.P. Tracking memory space in a storage system
US8560524B2 (en) * 2008-10-30 2013-10-15 Hewlett-Packard Development Company, L.P. Allocating priorities to prevent deadlocks in a storage system
US9176963B2 (en) * 2008-10-30 2015-11-03 Hewlett-Packard Development Company, L.P. Managing counters in a distributed file system
US8874627B2 (en) * 2008-10-30 2014-10-28 Hewlett-Packard Development Company, L.P. Enumerating metadata in file system directories
US9076239B2 (en) * 2009-04-30 2015-07-07 Stmicroelectronics S.R.L. Method and systems for thumbnail generation, and corresponding computer program product
EP2845103A4 (en) * 2012-04-30 2016-04-20 Hewlett Packard Development Co BLOCK LEVEL STORAGE
JP5944502B2 (ja) * 2012-06-11 2016-07-05 株式会社日立製作所 計算機システム及び制御方法
WO2014054078A1 (en) 2012-10-05 2014-04-10 Hitachi, Ltd. Restoring method and computer system
US10713183B2 (en) * 2012-11-28 2020-07-14 Red Hat Israel, Ltd. Virtual machine backup using snapshots and current configuration
US9342256B2 (en) * 2013-03-14 2016-05-17 SanDisk Technologies, Inc. Epoch based storage management for a storage device
WO2015004769A1 (ja) * 2013-07-11 2015-01-15 株式会社 東芝 仮想ディスクイメージを処理するシステム、クライアント端末、及び方法
US20160006829A1 (en) * 2013-10-02 2016-01-07 Hitachi, Ltd. Data management system and data management method
JP5991699B2 (ja) 2014-08-08 2016-09-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理システム、バックアップ方法、およびプログラム
JP6520448B2 (ja) 2015-06-18 2019-05-29 富士通株式会社 情報処理システム、情報処理装置及び情報処理装置制御方法
US9961141B1 (en) 2015-06-29 2018-05-01 Amazon Technologies, Inc. Techniques and systems for tray-based storage and organization in automated data storage systems
US10379959B1 (en) 2015-06-29 2019-08-13 Amazon Technologies, Inc. Techniques and systems for physical manipulation of data storage devices
US10649850B1 (en) 2015-06-29 2020-05-12 Amazon Technologies, Inc. Heterogenous media storage and organization in automated data storage systems
US9923966B1 (en) * 2015-06-29 2018-03-20 Amazon Technologies, Inc. Flexible media storage and organization in automated data storage systems
US10838911B1 (en) 2015-12-14 2020-11-17 Amazon Technologies, Inc. Optimization of data request processing for data storage systems
US11301422B2 (en) * 2016-02-23 2022-04-12 Samsung Electronics Co., Ltd. System and methods for providing fast cacheable access to a key-value device through a filesystem interface
US10331374B2 (en) * 2017-06-30 2019-06-25 Oracle International Corporation High-performance writable snapshots in data storage systems
JP2019204278A (ja) 2018-05-23 2019-11-28 富士通株式会社 情報処理システム、情報処理装置およびプログラム
JP7127439B2 (ja) * 2018-09-06 2022-08-30 オムロン株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
US10921986B2 (en) 2019-05-14 2021-02-16 Oracle International Corporation Efficient space management for high performance writable snapshots
US11892983B2 (en) 2021-04-29 2024-02-06 EMC IP Holding Company LLC Methods and systems for seamless tiering in a distributed storage system
US11677633B2 (en) 2021-10-27 2023-06-13 EMC IP Holding Company LLC Methods and systems for distributing topology information to client nodes
US11762682B2 (en) 2021-10-27 2023-09-19 EMC IP Holding Company LLC Methods and systems for storing data in a distributed system using offload components with advanced data services
US12007942B2 (en) * 2021-10-27 2024-06-11 EMC IP Holding Company LLC Methods and systems for seamlessly provisioning client application nodes in a distributed system
US11922071B2 (en) 2021-10-27 2024-03-05 EMC IP Holding Company LLC Methods and systems for storing data in a distributed system using offload components and a GPU module

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7475098B2 (en) * 2002-03-19 2009-01-06 Network Appliance, Inc. System and method for managing a plurality of snapshots
US7383264B2 (en) * 2003-03-27 2008-06-03 Hitachi, Ltd. Data control method for duplicating data between computer systems
US7155465B2 (en) * 2003-04-18 2006-12-26 Lee Howard F Method and apparatus for automatically archiving a file system
JP2005050024A (ja) * 2003-07-31 2005-02-24 Toshiba Corp 計算機システムおよびプログラム
US7814056B2 (en) * 2004-05-21 2010-10-12 Computer Associates Think, Inc. Method and apparatus for data backup using data blocks
US7966495B2 (en) * 2005-03-21 2011-06-21 Revinetix, Inc. Conserving file system with backup and validation
US7974952B1 (en) * 2005-04-18 2011-07-05 Emc Corporation Tracking file system changes for backup
JP4809040B2 (ja) * 2005-11-08 2011-11-02 株式会社日立製作所 ストレージ装置及びスナップショットのリストア方法
US20070185936A1 (en) * 2006-02-07 2007-08-09 Derk David G Managing deletions in backup sets
US7873601B1 (en) * 2006-06-29 2011-01-18 Emc Corporation Backup of incremental metadata in block based backup systems
JP2008033527A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd ストレージ装置、ディスク装置及びデータ復元方法
US7761424B2 (en) * 2006-08-10 2010-07-20 International Business Machines Corporation Recording notations per file of changed blocks coherent with a draining agent

Also Published As

Publication number Publication date
US20100049754A1 (en) 2010-02-25
JP2010049488A (ja) 2010-03-04

Similar Documents

Publication Publication Date Title
JP5023018B2 (ja) ストレージシステム及びデータ管理方法
US9747036B2 (en) Tiered storage device providing for migration of prioritized application specific data responsive to frequently referenced data
US9965216B1 (en) Targetless snapshots
JP4776342B2 (ja) ストレージシステムでオブジェクトレベルのスナップショットを生成するシステムと方法
US8478729B2 (en) System and method for controlling the storage of redundant electronic files to increase storage reliability and space efficiency
JP4741371B2 (ja) システム、サーバ装置及びスナップショットの形式変換方法
US8200631B2 (en) Snapshot reset method and apparatus
US8510526B2 (en) Storage apparatus and snapshot control method of the same
US9396198B2 (en) Computer system, file management method and metadata server
JP4143611B2 (ja) バックアップ生成装置、リカバリ処理装置、バックアップ生成方法、リカバリ処理方法、及びプログラム
US20070168398A1 (en) Permanent Storage Appliance
US9569311B2 (en) Computer system for backing up data
US8108637B2 (en) Information processing system, controlling method in information processing system, and managing apparatus to manage remote copy in consideration of saving power
JP4713951B2 (ja) 仮想テープライブラリシステムおよび仮想テープ書き込み方法
JP2008242744A (ja) Cdpに従うリカバリを実行するストレージ装置の管理装置及び方法
JP2006031446A (ja) データ記憶装置、データ記憶方法およびデータ記憶プログラム
JP4667225B2 (ja) 制御装置およびコピー制御方法
JP2005215940A (ja) ストレージシステム、サーバ装置及び先行コピーデータ生成方法
US8117405B2 (en) Storage control method for managing access environment enabling host to access data
US7587466B2 (en) Method and computer system for information notification
JP2010152781A (ja) バックアップサーバ装置、バックアップ/リストアプログラム、およびバックアップ/リストア方法
JP2000227868A (ja) バックアップ取得方法および計算機システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees