JP4681249B2 - ディスクアレイ装置 - Google Patents

ディスクアレイ装置 Download PDF

Info

Publication number
JP4681249B2
JP4681249B2 JP2004116115A JP2004116115A JP4681249B2 JP 4681249 B2 JP4681249 B2 JP 4681249B2 JP 2004116115 A JP2004116115 A JP 2004116115A JP 2004116115 A JP2004116115 A JP 2004116115A JP 4681249 B2 JP4681249 B2 JP 4681249B2
Authority
JP
Japan
Prior art keywords
data
logical volume
disk
virtual
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004116115A
Other languages
English (en)
Other versions
JP2005301628A (ja
JP2005301628A5 (ja
Inventor
裕季子 本間
幸司 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004116115A priority Critical patent/JP4681249B2/ja
Priority to US10/853,289 priority patent/US7174438B2/en
Priority to EP04257251A priority patent/EP1585021B1/en
Priority to DE602004011181T priority patent/DE602004011181T2/de
Publication of JP2005301628A publication Critical patent/JP2005301628A/ja
Priority to US11/642,927 priority patent/US7698518B2/en
Publication of JP2005301628A5 publication Critical patent/JP2005301628A5/ja
Application granted granted Critical
Publication of JP4681249B2 publication Critical patent/JP4681249B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0652Erasing, e.g. deleting, data cleaning, moving of data to a wastebasket
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ディスクアレイ装置に関し、特にスナップショットにおける差分LUの管理技術に関する。
コンピュータシステムにおいては、ストレージ装置に記憶されるデータをバックアップする場合など、元のデータを記憶した記憶ボリュームの複製を生成する場合がある、この場合、元のデータを記憶した記憶ボリュームと複製データを記憶した記憶ボリュームとは内容が一致し整合性が保たれる必要がある。そのためには複製の生成が完了するまでの間、元のデータを記憶した記憶ボリュームの更新を停止させる必要がある。しかし高可用性が求められるコンピュータシステムなどでは、元のデータを記憶した記憶ボリュームに対するアクセスを停止することができない場合がある。
そこで、元のデータを記憶した記憶ボリュームと複製データを記憶した記憶ボリュームとの間である時点での整合性を保ち、ある時点の後に元のデータが更新されたとしてもある時点の元のデータを参照できるようにするスナップショットと呼ばれる技術が開発されている。
スナップショットの技術によれば、整合性を保つべき時点の後に元のデータが更新される場合には、整合性を保つべき時点のデータを別の記憶ボリュームに記憶するようにする。つまり元のデータは、更新されなければそのままであり、更新される場合には整合性を保つべき時点のデータが別の記憶ボリュームに記憶される(例えば、特許文献1参照。)。
また、スナップショットを複数世代において利用可能にする方法が提案されている。
これによれば、データ保持部1は、通常の読み書きを行う。データ保持部2は、ある時点でのデータ保持部1のスナップショットイメージを保存する。データ保持部3は、データ保持部2にスナップショットイメージを保存した時点以降のデータ保持部1へのデータ書替えに伴う更新データと、その世代を示す情報と、その更新領域を示す情報とを含む履歴情報を保存する。データ読出し元選択部4は、読出されるべきスナップショットイメージの世代及び領域の指定に応じて、データ保持部3に保存される各履歴情報を参照し、読出されるべきスナップショットイメージの保存場所を知得し、その保存場所に応じてデータの読出し元をデータ保持部2及びデータ保持部3のいずれかに切替える(例えば、特許文献2参照。)。
特開2001−306407号公報 特開2002−278819号公報
しかし、スナップショット機能は、正LUの容量よりも差分LUの容量を減らせることが利点であるが、ホストからのデータの書き込みが多くなると差分データが多くなる。そして、プール領域(差分LU)の使用量が100%になるとスナップショットを維持できなくなる。このため、プール領域の使用量が閾値を超えたときに、管理者に警告を発する。この警告を受け取った管理者は、データを別ディスクへ退避して、プール領域の使用量を減らす、又はV-VOLを削除する等によって、運用で処理されていた。そのため、管理者の負担が大きく、プール領域の使用量が100%になることの回避に失敗するリスクを抱えていた。
本発明は、プール領域の使用量が100%になることを回避して、全スナップショットイメージの破壊を防止することを目的とする。
本発明は、上位装置に接続され、前記上位装置からデータを受ける上位インタフェースと、データが格納される複数のディスク装置と、前記上位装置との間でやり取りされるデータの前記ディスク装置への読み書きを制御する複数のディスクインタフェースと、前記複数のディスクドライブの記憶領域を用いて生成される第1の論理ボリュームへのデータの読み書きを制御し、前記第1の論理ボリュームに格納された過去のデータを世代毎の差分データとして第2の論理ボリュームに書き込むように制御し、前記第2の論理ボリュームに格納されている前記世代毎の差分データの関係を管理するスナップショット管理テーブルを前記メモリの領域に設けることによって前記差分データを管理する制御プロセッサと、を有するディスクアレイ装置であって、前記制御プロセッサは、前記第2の論理ボリュームに格納されたデータ量を管理し、前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第1の割合を超えた場合、前記第2の論理ボリュームの容量を増加し、前記第2の論理ボリュームに格納されたデータ量が、前記第1の割合より大きい第2の割合を超えた場合、前記第1の論理ボリュームに対するデータの書き込みを制限し、前記第2の論理ボリュームに格納されたデータ量が、前記第2の割合より大きい第3の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、特定の世代の差分データを削除し、前記第2の論理ボリュームに格納されたデータ量が、前記第3の割合より大きい第4の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、前記特定の第1の論理ボリュームに対応するものを削除すること特徴とする。
本発明によると、プール領域の使用量が100%になることを回避することができ、全スナップショットイメージの破壊を防止することができる。
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の実施の形態のディスクアレイ装置の構成を示すブロック図である。
本発明の実施の形態のディスクアレイ装置1は、ディスクアレイコントローラ10及びディスク20を含んで構成される。また、ディスクアレイ装置1は、SAN2を介して複数のホスト3に接続され、LAN4を介して管理用端末装置5に接続されている。
ディスクアレイコントローラ10は制御プログラム103の動作によって、ディスク20に対するデータの入出力を制御する。また、ディスク20によってRAID(Redundant Array of Independent Disks)が構成されており、記憶されるデータに冗長性を持たせている。このため、ディスクの一部に障害が生じても、記憶されたデータが消失しないようになっている。
ディスクアレイコントローラ10には、CPU101、メモリ102、データ転送コントローラ104、フロントエンドインターフェース105、バックエンドインターフェース106、キャッシュメモリ107、及びLANインターフェース108が設けられている。
メモリ102には制御プログラム103(図2参照)が記憶されており、CPU101が制御プログラム103を呼び出して実行することによって各種処理が行われる。
データ転送コントローラ104は、CPU101、フロントエンドインターフェース105、バックエンドインターフェース106、及びキャッシュメモリ107の間でデータを転送する。
フロントエンドインターフェース105は、SAN2に対するインターフェースであって、例えば、ファイバチャネルプロトコルによって、ホスト3との間でデータや制御信号を送受信する。
バックエンドインターフェース106は、ディスク20に対するインターフェースであって、例えば、ファイバチャネルプロトコルによって、ディスク20との間でデータや制御信号を送受信する。
キャッシュメモリ107には、フロントエンドインターフェース105とバックエンドインターフェース106との間で送受信されるデータが一時的に記憶されるキャッシュが設けられている。
すなわち、データ転送コントローラ104は、SAN4を介してディスクに読み書きされるデータをインターフェース105、106間で転送する。さらに、これらのディスクに読み書きされるデータをキャッシュメモリ107に転送する。
LANインターフェース108は、LAN4に対するインターフェースであって、例えば、TCP/IPプロトコルによって、管理用端末装置5との間でデータや制御信号を送受信することができる。
SAN2は、例えばファイバチャネルプロトコルのような、データの転送に適するプロトコルで通信可能なネットワークである。
ホスト3は、CPU、メモリ、記憶装置、インターフェース、入力装置及び表示装置が備わるコンピュータ装置であり、ディスクアレイ装置1から提供されるデータを利用して、データベースサービスやウェブサービス等を利用可能にする。
LAN4は、ディスクアレイ装置1の管理用に用いられるもので、例えば、TCP/IPプロトコルによって、コンピュータ間でデータや制御情報を通信可能であり、例えばイーサネット(登録商標、以下同じ)が用いられる。
管理用端末装置5は、CPU、メモリ、記憶装置、インターフェース、入力装置及び表示装置が備わるコンピュータ装置である。管理用端末装置5では管理プログラムが動作しており、該管理プログラムによってディスクアレイ装置1の動作状態を把握し、ディスクアレイ装置1の動作を制御する。なお、管理用端末装置5ではwebブラウザ等のクライアントプログラムが動作しており、ディスクアレイ装置1からCGI(Common Gateway Interface)等によって供給される管理プログラムによってディスクアレイ装置1の動作を制御してもよい。
図2は、本発明の実施の形態の制御プログラム103の説明図である。
ホスト3の通常I/O処理プログラム301から送られたデータ入出力要求は、ディスクアレイ装置1の制御プログラム103のR/Wコマンド解析プログラム111によって解析され、スナップジョブプログラム121に送られる。
スナップジョブプログラム121は、正LUに対するデータ書き込み要求を受信すると、正LU内の更新前のデータを差分LUに複写し、この複写後に正LUの内容を更新する。更に、スナップジョブプログラム121は、データが更新された正LU内のブロックに対応する仮想LU内のブロックを、スナップショット生成要求の受信時点で正LUのデータ(すなわち更新前のデータ)が格納されている差分LU上のブロックと対応付けるようスナップショット管理テーブル(差分情報管理ブロック204)を更新する。
また、スナップリストアジョブプログラム122は、仮想LUに対するアクセス要求を受信すると、スナップショット管理テーブルを参照して、仮想LUのブロックと対応付けられている正LUのブロック又は差分LUのブロックにアクセスする。このようにして、ディスクアレイ装置1はスナップショットイメージを提供することが可能になる。そして、ホスト3が、通常I/O処理プログラム301によって、仮想LUにアクセスすることによって、スナップショット生成要求発行時点での正LU内の情報を利用することができる。
また、通常I/O処理プログラム301から送られた制御コマンドは、その他コマンド解析プログラム112によって解析され、構成情報制御プログラム140に送られる。
構成情報制御プログラム140のペア情報管理プログラム144は、スナップショット生成要求を受信すると、まずスナップショット管理テーブルに新しい仮想LUの識別情報を登録し、ペア情報管理テーブルにスナップショットのペアを新規に登録し、差分ビットマップ202、正LUアドレステーブル203、差分情報管理ブロック204を確保、初期化する。この仮想LUのブロックは、最初はスナップショット管理テーブルによって、正LUのブロックと一対一で対応付けられている。
プールLU管理プログラム142は、後述するように、プール領域に登録されたLUの追加及び削除を管理する。
プール管理プログラム150は、スナップショット差分管理テーブル(差分情報管理ブロック204)の領域の確保、解放及び空きキューへの遷移等の管理を行う。
WEBプログラム160は、スナップショットで作成される各ペアの状態(ペア情報管理テーブル内の情報等からペアの障害有無)をWEBブラウザに提供する。
ディスクアレイ装置1の制御プログラム103のRAIDマネージャプログラム131は、ホスト3のRAIDマネージャプログラム302と通信可能に接続されている。このRAIDマネージャプログラム121、302によって、スナップショットの生成やペア状態の変更などを行うことができる。
また、DAMPインターフェースプログラム122は、仮想LUの削除処理等のディスクアレイの各種設定を行うユーザインターフェースを提供する。DAMPインターフェースプログラム122は、管理用端末装置5のDAMPプログラム501と通信可能に接続されている。このDAMPインターフェースプログラム122によって、管理用端末装置5のDAMPプログラム501との通信が行われて、ディスクアレイ装置1のRAIDの構成の管理、プールへの自動追加、削除の設定が行われる。
図3は、本発明の実施の形態のスナップショットの管理方法の説明図である。
正LU201は、通常の運用に供され、ホスト3からのデータ入出力の対象となる論理ユニット(P−VOL:Primary Volume)である。
差分ビットマップ202は、キャッシュメモリ107の管理領域に設けられており、正LU201のブロック(例えば、64kバイト/ブロック)に対応するビットを有する。この差分ビットマップ202は、後述する正LUアドレステーブル203及び差分情報管理ブロック204と共にスナップショット管理テーブルを構成する。
正LU201のブロックアドレスに対応する差分データが差分LU206に記録されている場合に、差分ビットマップ202中の正LU201に対応するビットが「1」となっている。従って、正LU201に対する書き込みが行われるときに、差分ビットマップ202を参照することによって、更新前データを差分LUにコピーする必要があるかを判定することができる(すなわち、ビットが「1」であれば、スナップショット生成時のデータが既に差分LU206に書き込まれているので、正LU201のデータを差分LU206にコピーする必要がない)。
正LUアドレステーブル203は、キャッシュメモリ107の管理領域に設けられており、差分ビットマップ202のビットと対応して差分情報管理ブロック204のアドレスが記録されている。
差分情報管理ブロック204は、差分LUと同じ容量を有し、キャッシュメモリ107の管理領域に設けられている。差分情報管理ブロック204は、差分LU206のブロック(例えば、64kバイト/ブロック)毎に区切られて、その各々に管理テーブルが設けられている。この管理テーブルには、差分LU206のブロックに対応する位置に記録された差分データがどの世代のスナップショットのデータであるかが記録されている。また、正LU201の当該ブロックに対応する他の差分データがあれば、その差分情報管理ブロック204上のアドレスへのリンク情報が記録されている。すなわち、差分情報管理ブロック204に記録されたアドレスをたどることによって、複数世代の差分データを参照することができる。
なお、差分情報管理ブロック204の使用されていない領域は、空きキューとしてリンクが設定されている。そして、この空きキューの量はキャッシュメモリ107に設けられた空きキューカウンタ205によって管理されている。
差分LU206は、プール領域に登録されたLUによって構成される。この差分LU206は、スナップショット作成時点における正LU201のデータが複写されている。そして、差分LU206のデータがどの世代の差分データかは差分情報管理ブロック204の世代管理ビットマップによって知ることができる。
よって、正LUにデータを書き込むときは、まず、差分ビットマップ202を参照して、更新前データを差分LUにコピーする必要があるかを判定する。そして、差分ビットマップ202の対応ビットが「1」であれば、更新前データを差分LUにコピーする必要がないと判定し、正LUにデータを書き込む。一方、差分ビットマップ202の対応ビットが「0」であれば、更新前データを差分LUにコピーした後に、正LUにデータを書き込む。
そして、正LUのブロックに対応する差分情報管理ブロック204のブロックに、新たに設定された差分データに対するリンクアドレスを設定する。そして、必要に応じて正LUアドレステーブルに、差分情報管理ブロック204のブロックのアドレスを設定する。そして、差分ビットマップ202の対応ビットを「1」にし、差分LU206の当該更新前データを書き込んだアドレスに対応する差分情報管理ブロック204の世代管理ビットマップを設定する。さらに、差分情報管理ブロック204の空きキューを使用したので、空きキューカウンタ205を更新する。
また、仮想LU(V−VOL:Virtual Volume)にアクセスするときには、正LUアドレステーブル203を参照して、アクセス対象となる仮想LUのブロックアドレス(正LUのブロックアドレスに等しい)によって差分情報管理ブロック204のアドレスを特定して、差分情報管理ブロック204の当該アドレスの世代管理ビットマップによって、アクセス対象の世代の差分データがあるかを特定する。そして、所望の世代の差分データがあれば、当該差分情報管理ブロック204のアドレスに対応する差分LU206のアドレスから差分データを読み出して、仮想LUのイメージを提供する。一方、所望の世代の差分データでなければ、他の差分データに対するリンクアドレスを参照して、所望の世代の差分データを探す。そして、いずれの差分データも所望の世代のものでなければ、現在、正LUに記録されているデータを仮想LUのデータとして提供する。
図4は、本発明の実施の形態の空き容量チェック処理のフローチャートであり、正LUへのデータの書き込み処理等によって、正LUから差分LUに差分データをコピーするときに、プールLU管理プログラム132によって実行される。
まず、空きキューカウンタ205を参照して、プール(差分LU)の空き容量(既に使用されている容量でもよい)を確認する(S101)。
次に、ステップS101で取得したプール領域の使用量と予め定めたLU追加閾値(70%)とを比較し、プール領域の使用量がLU追加閾値を超えているか否かを判定する(S102)。そして、プール領域の使用量がLU追加閾値(70%)を超えていれば、LU追加処理(図5)を実行する(S103)。
このLU追加閾値は、プール領域の使用量が100%に到達しないように余裕を持たせて70%程度とすることが望ましいが、ストレージ装置の稼働状態(例えば、データ入出力要求の量)によってLU追加閾値を変更することができる。
また、LUのプール領域への追加処理の実行中は通常時の値より高い閾値を設定することによって(例えば、通常時の70%に対して75%)、プール領域の使用量がLU追加閾値を超えたことによってLU追加処理が実行されているにもかかわらず、新たにLU追加処理の実行を防止することもできる。
次に、プール領域の使用量がI/O制限閾値(90%)を超えているか否かを判定する(S104)。その結果、プール領域の使用量がI/O制限閾値(90%)を超えていれば、ホスト3からのデータの書き込みを制限する(S105)。このI/O制限では、手動による仮想LUの削除処理を優先して、データ書き込み要求と差分データの削除処理とが1対1程度となるようにして、プール領域の使用量がこれ以上高くならないようにする。
次に、プール領域の使用量が仮想LU解除閾値(95%)を超えているか否かを判定する(S106)。そして、プール領域の使用量が仮想LU解除閾値(95%)を超えていれば、仮想LU削除処理(図7)を実行する(S107)。この仮想LU削除処理によって運用の性能劣化を避けつつ、少量の空き容量を作ることができる。
この仮想LU解除閾値は、プール領域の使用量が100%に到達する前に仮想LU削除処理を完了する必要があるので、若干の余裕を持たせて95%程度とすることが望ましいが、ストレージ装置の稼働状態(例えば、データ入出力要求の量)によって仮想LU解除閾値を変更することができる。
また、1回目の判定では仮想LU解除閾値を95%とし、仮想LU削除処理中の2回目以後の判定では仮想LU解除閾値を高く設定する(例えば、96%とする)ことによって、プール領域の使用量が仮想LU解除閾値を超えたことによって仮想LU削除処理が実行されているにもかかわらず、新たに仮想LU削除処理が実行されないようにすることもできる。
なお、プール領域の全容量が200GB以上の場合には、プール領域の使用量の割合ではなく、プール領域の残容量が10GB以下となったときに仮想LU削除処理を実行してもよい。
次に、プール領域の使用量が正LU解除閾値(99%)を超えているか否かを判定する(S108)。この正LU解除閾値によって、プール領域の使用量が100%に到達する可能性が極めて高く、緊急かつ確実に空き容量を確保する必要があることを判定する。そして、プール領域の使用量が正LU解除閾値(99%)を超えていれば、仮想LU削除処理(図11)を実行する(S107)。
なお、プール領域の全容量が200GB以上の場合には、プール領域の使用量の割合ではなく、プール領域の残容量が2GB以下となったときに仮想LU削除処理を実行してもよい。
このように、複数段階で緊急度に応じた仮想LUの削除を実行するので、プール領域の使用量を確実に100%にさせないよういにすることができる。
次に、プール領域の使用量が全仮想LU解除閾値(100%)に到達したか否かを判定する(S110)。そして、プール領域の使用量が100%に達していれば、ペア状態管理テーブルに記録されている当該プール領域を使用している仮想LUの状態を全てエラー状態(PSUE)にして、当該プール領域を使用している全ての仮想LUを削除する。
このように、本発明の実施の形態の空き容量チェック処理では、管理者が介入することなく、指定条件に従って自動的に仮想LUを削除することができ、プール領域の使用量が100%となることを防止できる。また、プール領域の使用量に応じて段階的に仮想LUを削除するので、運用上の性能劣化を最小限に抑えることができる。
図5は、本発明の実施の形態のLU追加処理のフローチャートであり、空き容量チェック処理(図4のステップS103)から呼び出されて(すなわち、プール領域の使用量がLU追加閾値(70%)を超えたときに)、プールLU管理プログラム132によって実行される。
まず、プール自動追加対象管理テーブル143(図6)を参照して、プール自動追加対象にLUが登録されているか否かを判定する(S121)。そして、プール自動追加対象にLUが登録されていなければ、追加すべきLUが存在しないので、LUを追加することなくこの処理を終了する。一方、プール自動追加対象にLUが登録されていれば、ステップS122に進む。
ステップS122では、プール管理テーブル141(図6)を参照して、プール領域に登録されているLUが最大数に達しているか否かを判定する。このプール領域の登録数の最大値はプール管理テーブル141の容量によって定められる。そして、プール管理テーブル141に登録されているLUの数が既に最大数であれば、プール管理テーブル141に新たにLUを追加することができないので、LUを追加することなくこの処理を終了する。一方、プール管理テーブル141に登録されているLUの数が最大数に満たなければ、ステップS123に進む。
ステップS123では、キャッシュメモリ107の管理領域に空きがあるか否かを判定する。これは、プール領域にLUを追加することに伴い差分情報管理ブロック204の容量を増加することが必要なためである。そして、キャッシュメモリ107の管理領域に空きがなければ、差分情報管理ブロック204の領域を増やすことができないので、LUを追加することなくこの処理を終了する。一方、キャッシュメモリ107の管理領域に空きがあれば、ステップS124に進む。
S121〜S123の処理によってLUを追加する条件が確認されたら、移動するLUをプール自動追加対象管理テーブル143から削除し、プール管理テーブル141に追加して、差分LUとして使用可能にする(S124)。
この移動するLUとして、複数のLUをプール管理テーブル141に事前に指定しておくことができる。このようにすることで、必要な分だけLUを追加することが可能となる。例えば、100GBのLUを10個登録しておくと、プール領域の容量が300GB不足した場合に100GBのLUを3個だけプール領域に追加して、あとの7個のLUは、別の用途に使用可能となる。
その後、従来から存在した差分情報管理ブロック204の最後の空きキューに、新たに増加した差分情報管理ブロック204の領域の空きキューのアドレスを設定し、新たに増加した空きキューを従来からの空きキューにつなげる(S125)。
図6は、本発明の実施の形態のLU追加処理の説明図である。
正LU(LU0)に対して、スナップショット生成時のデータのイメージを提供する仮想LU(LU2)が設けられている。このLU2は、正LUのデータと、プール領域にある差分データとによって構成される仮想的な論理ユニットである。すなわち、LU2に対するアクセスがあると、そのデータが正LUにあるのか、プール領域にある差分データなのかを判断して、差分LUに対するアクセスを実現している。
プール領域に追加されるLUは、プール自動追加対象管理テーブル143に登録されているもの(LU6、LU7)を、プール自動追加対象管理テーブル143から削除し、プール管理テーブル141に追加する。これによって、追加されたLUが差分LUとして使用可能となる。
このように本発明の実施の形態のLU追加処理では、プール領域の容量を増加するためのLUを事前に複数用意しておき、プール領域の使用量がある閾値を越えた場合に、自動的にLUをプール領域に追加し、プール領域の容量を増加して、プール領域の使用量が100%になるのを防ぐ。また、プール領域の使用量が少なくて、LUを追加する必要がない場合は、LUを他の用途に使用することができる。よって、不要なディスクをプール領域に事前に登録することなく、ディスクの容量を有効に活用することができる。
図7は、本発明の実施の形態の仮想LU削除処理(仮想LU単位)のフローチャートであり、空き容量チェック処理(図4のステップS107)から呼び出されて(すなわち、プール領域の使用量が仮想LU解除閾値(95%)を超えたときに)、プールLU管理プログラム132によって実行される。
まず、管理者が設定した情報に基づいて、削除する仮想LUを決定する(S131)。この削除するLUの設定には様々な方法がある。一つは、最も古い世代の仮想LUのデータを削除する方法である。また、管理者が指定した世代の仮想LUのデータを削除することもできる。なお、管理者が削除するLUを設定する画面は後述する(図9、図10)。
また、最も古い仮想LUを選択するためには、全ての正LUのペア情報管理テーブル(図8)を参照して、仮想LUのペア状態とスナップショット作成日時を検索して、ペア状態がスプリット状態(PSUS)となっている仮想LUの中で、最も古い仮想LUを選択する。PAIR状態では仮想LUの実体がないため、実体があるスプリット状態の仮想LUを削除対象としている。
そして、仮想LU単位の削除処理を登録し、この処理をバックグラウンドで実行する(S132)。この削除処理は、決定された仮想LUのデータを削除するものである。差分データは、複数世代に共通して用いられているものと、その削除対象の世代のみに用いられているものがあり、まず、差分データがこのいずれかであるかを判定する必要がある。差分情報管理ブロック204の世代管理微とマップを確認した結果、差分情報管理ブロック204が該当世代のみに使用されていれば、差分情報管理ブロック204のデータを更新して空きキューに変更する。一方、差分情報管理ブロック204を複数世代で共有されていれば、差分情報管理ブロック204の共有情報(世代管理ビットマップ)を更新する。
そして、ペア情報管理テーブル(図8)に記録されている当該削除対象となる仮想LUのペア状態をエラー状態(PSUE)に変更してペアを解除し、この仮想LUを使用不可にする(S133)。
以上説明した仮想LU削除処理はプール領域の使用量が仮想LU解除閾値(95%)を超えたときに実行されるものであるが、削除対象の仮想LUを削除しても、プール領域の使用量がI/O制限閾値(90%)以下にならない場合には、当該仮想LUの削除を行わないようにしてもよい。
このように仮想LU削除処理(仮想LU単位)は、削除対象の仮想LU(例えば、最も古い仮想LU等)のペア状態を解除し、スナップショットの維持に大きな影響を与えることなく、空き容量を作ることができる。また、管理者が設定した情報に基づいて削除する仮想LUを決定するので、古いデータであっても残すべき仮想LUを残して、LUの空き容量を増やすことができる。また、仮想LU削除処理をバックグランドで実行するので、運用の性能劣化を避けつつ、データの空き容量を作ることができる。
図8は、本発明の実施の形態のペア情報管理テーブルの説明図である。
ペア情報管理テーブルは、正LU毎に設けられており、正LUと各世代の仮想LUのペア状態と、その仮想LUの作成日時を記録して、正LUと仮想LUとの関係を管理している。例えば、0番の正LUの13番の仮想LUは2003年11月24日22時30分30秒に作成され、現在もペア状態(PAIR)が維持されている。すなわち、13番の仮想LUは最新の仮想LUであり、現在の差分データの書き込みが行われている。
また、0番の正LUの0番の仮想LUは2003年10月8日8時30分30秒にスナップショット作成要求が受け付けられることによって作成され、現在仮想LUが作成されたスプリット状態(PSUS)にある。このスプリット状態の仮想LUは削除対象となる。また、0番の正LUの9番の仮想LUは2003年9月20日10時10分10秒に作成されたが、既に削除された仮想LUであり、削除対象に登録されたエラー状態(PSUE)となっている。
ペア情報管理テーブルによって、削除対象のLUがチェック、削除登録がされ、削除する仮想LUが決定される。なお、削除対象LUの決定後、実際に差分データの削除はプール管理プログラム150が行う。
図9は、本発明の実施の形態の仮想LU削除処理の設定画面の説明図である。
図9(a)は仮想LU削除情報設定のメイン画面であり、「削除可能」タブが選択された状態を示す。この画面では、削除優先順位について、仮想LUの作成日が「古い日付順から削除する。」のか、「指定した仮想LUを削除する。」のかを選択する。「指定した仮想LUを削除する。」が選択されると、「設定情報確認」ボタンがアクティブになる。そして「設定情報確認」ボタンを操作することによって、選択された正LUに関する削除優先順位設定サブ画面(図9(b))に移行する。削除優先順位設定サブ画面では、削除チェック欄をチェックすることによって、仮想LU毎に削除の許可を設定することができる。また、削除チェック欄にチェックを入れることによって優先順位を選択することができる。なお、優先順位は「高」「中」「低」のランクではなく、個別に順序を設定することもできる。
図10は、本発明の実施の形態の仮想LU削除処理の設定画面の説明図である。
図10(a)は仮想LU削除情報設定のメイン画面であり、「削除禁止」タブが選択された状態を示す。この画面では、正LUを選択し、「設定情報確認」ボタンを操作することによって、選択された正LUに関する削除禁止設定サブ画面(図10(b))に移行する。削除禁止設定サブ画面では、削除チェック欄をチェックすることによって、仮想LU毎に削除の禁止を設定することができる。
図11は、本発明の実施の形態の仮想LU削除処理(正LU単位)のフローチャートであり、空き容量チェック処理(図4のステップS109)から呼び出されて(すなわち、プール領域の使用量が正LU解除閾値(99%)を超えたときに)、プールLU管理プログラム132によって実行される。
まず、ペア情報管理テーブルを参照して仮想LUの削除中であるか否かを判定する。すなわち、ペア情報管理テーブルのペア状態欄が「PSUS」であれば仮想LUの削除中であると判定する(S141)。その結果、仮想LUの削除中であれば、仮想LUの削除を優先して速やかにプール領域の空き容量を確保するために、ステップS136に移行し、現在行われている削除処理を継続する。一方、仮想LUの削除中でなければ、新たに仮想LUの削除を実行する。
そこで、まず、仮想LUの削除に対応する正LUを決定する(S142)。この正LUは、管理者が予め定めたものを選択する他に、ホスト3からデータ書き込み要求を受けている正LUを選択することができる。現在データ書き込み要求を送っているホストは、プール領域の空き容量が減少する原因となっている可能性が高いので、データ書き込み要求に係る正LUを選択することによって、当該ホストからのアクセスを止めることができる。
そして、全てのホスト3からデータ書き込みを停止する(S143)。このデータ書き込みの停止によって、他の処理に優先して仮想LUの削除処理を行うことができ、速やかに空き容量を確保することができる。
そして、選択された正LUに関係する仮想LUの削除を実行する(S144)。この削除処理は、選択された正LUの正LUアドレステーブル203を参照して、差分情報管理ブロック204に登録された内容を削除し、当該アドレスの差分情報管理ブロック204のデータを空きキューにすることによって、仮想LUを削除し、プール領域の空き容量を確保する。この削除処理は、前述した仮想LU単位の削除処理(図7のS132)と比較して、差分情報管理ブロック204のデータ(世代管理ビットマップ)を参照して仮想LUの世代を特定する必要がないので、迅速に仮想LUを削除することができる。
そして、プール領域の空き容量が確保されたなら、ホスト3からの書き込み処理を再開する(S145)。
このように仮想LU削除処理(正LU単位)は、閾値を超えたときに削除対象のせいLU(例えば、データ入出力要求があった正LU)に関係する全ての仮想LUのペア状態をPSUEにして、ペア状態を解除する。このペア解除処理は、バックグランドにて行うが、1回のJOBで大量(100MB程度)を削除できる。すなわち、選択された正LUに関係する全ての仮想LUを削除するために全ホストからのデータ書き込みを一時的に停止して、正LU単位で全体(又は、100MBなどの所定の容量ごと)にデータを削除して、一定のプール領域の空き容量を確保したうえで、ホストからのデータ書き込み要求を再開させる。よって、即座にかつ確実にプール領域の空き容量を増やすことができる。また、特定の正LUに関して仮想LUを削除するので、当該正LUに関係する特定のホストからのアクセスを止めることができる。
特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげられる。
上位装置に接続され、前記上位装置からデータを受ける上位インタフェースと、
前記上位インタフェースに接続され、前記上位装置との間でやり取りされるデータ、及び前記上位装置との間でやり取りされるデータに関する制御情報を保存するメモリと、
前記メモリに接続され、前記上位装置との間でやり取りされるデータを、前記メモリに読み書きするように制御する複数のディスクインタフェースと、
前記複数のディスクインタフェースに接続され、前記複数のディスクインタフェースの制御のもとに、前記上位装置から送られたデータが格納される複数のディスクドライブと、
前記複数のディスクドライブの記憶領域を用いて生成される第1の論理ボリュームへのデータの読み書きを制御し、前記第1の論理ボリュームに格納された過去のデータを世代毎の差分データとして第2の論理ボリュームに書き込むように制御し、前記第2の論理ボリュームに格納されている前記世代毎の差分データの関係を管理するスナップショット管理テーブルを前記メモリの領域に設けることによって前記差分データを管理する制御プロセッサと、を有するディスクアレイ装置における制御方法であって、
前記制御プロセッサは、
前記第2の論理ボリュームに格納されたデータ量を管理し、
前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第1の割合を超えた場合、前記第2の論理ボリュームの容量を増加し、
前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第2の割合を超えた場合、前記第1の論理ボリュームに対するデータの書き込みを制限し、
前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第3の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、特定の世代の差分データを削除し、
前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第4の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、前記第1の論理ボリュームに対応するものを削除し、
前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第5の割合を超えた場合、前記第2の論理ボリュームに書き込まれた全ての差分データを削除するディスクアレイ装置の制御方法。
さらに、前記制御プロセッサは、最も古い世代の差分データを削除対象として決定するディスクアレイ装置の制御方法。
さらに、前記制御プロセッサは、1回目の判定では前記第1の所定値を超えたか否かの判定をし、差分データ削除処理中の2回目以後の判定では前記第1の所定値より大きい第2の所定値を用いて、前記第2の論理ボリュームに格納されたデータ量が前記第2の所定値を超えたか否かの判定をするディスクアレイ装置の制御方法。
さらに、前記制御プロセッサは、前記削除する差分データに対応する前記第1の論理ボリュームを決定する前に、前記差分データの削除処理中か否かを判定し、前記差分データの削除処理中であれば、現在実行中の削除処理を優先して実行するディスクアレイ装置の制御方法。
本発明の実施の形態のディスクアレイ装置のブロック図である。 本発明の実施の形態の制御プログラムの説明図である。 本発明の実施の形態の差分LUの管理方法の説明図である。 本発明の実施の形態の空き容量チェック処理のフローチャートである。 本発明の実施の形態のLU追加処理のフローチャートである。 本発明の実施の形態のLU追加処理の説明図である。 本発明の実施の形態の仮想LU削除処理のフローチャートである。 本発明の実施の形態のペア情報管理テーブルの説明図である。 本発明の実施の形態の仮想LU削除処理の設定画面の説明図である。 本発明の実施の形態の仮想LU削除処理の設定画面の説明図である。 本発明の実施の形態の仮想LU削除処理のフローチャートである。
符号の説明
1 ディスクアレイ装置
2 SAN
3 ホスト
4 LAN
5 管理用端末装置
10 ディスクアレイコントローラ
20 ディスク
101 CPU
102 メモリ
103 制御プログラム
104 データ転送コントローラ
105 フロントエンドインターフェース
106 バックエンドインターフェース
107 データバッファ
108 LANインターフェース

Claims (6)

  1. 上位装置に接続され、前記上位装置からデータを受ける上位インタフェースと、
    データが格納される複数のディスク装置と、
    前記上位装置との間でやり取りされるデータの前記ディスク装置への読み書きを制御する複数のディスクインタフェースと、
    前記複数のディスクドライブの記憶領域を用いて生成される第1の論理ボリュームへのデータの読み書きを制御し、前記第1の論理ボリュームに格納された過去のデータを世代毎の差分データとして第2の論理ボリュームに書き込むように制御し、前記第2の論理ボリュームに格納されている前記世代毎の差分データの関係を管理するスナップショット管理テーブルを前記メモリの領域に設けることによって前記差分データを管理する制御プロセッサと、を有するディスクアレイ装置であって、
    前記制御プロセッサは、
    前記第2の論理ボリュームに格納されたデータ量を管理し、
    前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第1の割合を超えた場合、前記第2の論理ボリュームの容量を増加し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第1の割合より大きい第2の割合を超えた場合、前記第1の論理ボリュームに対するデータの書き込みを制限し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第2の割合より大きい第3の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、特定の世代の差分データを削除し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第3の割合より大きい第4の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、前記特定の第1の論理ボリュームに対応するものを削除すること特徴とするディスクアレイ装置。
  2. 請求項1に記載のディスクアレイ装置であって、
    前記制御プロセッサは、前記第2の論理ボリュームに格納されたデータ量が、前記第2の論理ボリュームの容量に達した場合、前記第2の論理ボリュームに書き込まれた全ての差分データを削除することを特徴とするディスクアレイ装置。
  3. 請求項1に記載のディスクアレイ装置であって、
    前記上位インタフェースに接続され、前記上位装置との間でやり取りされるデータ、及び前記上位装置との間でやり取りされるデータに関する制御情報を保存するメモリを有し、
    前記ディスクインタフェースは、前記上位装置との間でやり取りされ、前記メモリに格納されるデータを、前記ディスク装置に書き込むように制御することを特徴とするディスクアレイ装置。
  4. ディスクアレイ装置においてボリュームを管理する方法であって、
    前記ディスクアレイ装置は、
    上位装置に接続され、前記上位装置からデータを受ける上位インタフェースと、
    データが格納される複数のディスク装置と、
    前記上位装置との間でやり取りされるデータの前記ディスク装置への読み書きを制御する複数のディスクインタフェースと、
    前記複数のディスクドライブの記憶領域を用いて生成される第1の論理ボリュームへのデータの読み書きを制御し、前記第1の論理ボリュームに格納された過去のデータを世代毎の差分データとして第2の論理ボリュームに書き込むように制御し、前記第2の論理ボリュームに格納されている前記世代毎の差分データの関係を管理するスナップショット管理テーブルを前記メモリの領域に設けることによって前記差分データを管理する制御プロセッサと、を有し、
    前記方法は、
    前記第2の論理ボリュームに格納されたデータ量を管理し、
    前記第2の論理ボリュームに格納されたデータ量が前記第2の論理ボリュームの容量の第1の割合を超えた場合、前記第2の論理ボリュームの容量を増加し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第1の割合より大きい第2の割合を超えた場合、前記第1の論理ボリュームに対するデータの書き込みを制限し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第2の割合より大きい第3の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、特定の世代の差分データを削除し、
    前記第2の論理ボリュームに格納されたデータ量が、前記第3の割合より大きい第4の割合を超えた場合、前記第2の論理ボリュームに書き込まれた差分データのうち、前記特定の第1の論理ボリュームに対応するものを削除すること特徴とするボリューム管理方法。
  5. 請求項4に記載のボリューム管理方法であって、
    前記第2の論理ボリュームに格納されたデータ量が、前記第2の論理ボリュームの容量
    に達した場合、前記第2の論理ボリュームに書き込まれた全ての差分データを削除するこ
    とを特徴とするボリューム管理方法。
  6. 請求項4に記載のボリューム管理方法であって、
    前記ディスクアレイ装置は、前記上位インタフェースに接続され、前記上位装置との間
    でやり取りされるデータ、及び前記上位装置との間でやり取りされるデータに関する制御
    情報を保存するメモリを有し、
    前記方法は、前記上位装置との間でやり取りされ、前記メモリに格納されるデータを、
    前記ディスク装置に書き込むように制御することを特徴とするボリューム管理方法。
JP2004116115A 2004-04-09 2004-04-09 ディスクアレイ装置 Expired - Fee Related JP4681249B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004116115A JP4681249B2 (ja) 2004-04-09 2004-04-09 ディスクアレイ装置
US10/853,289 US7174438B2 (en) 2004-04-09 2004-05-26 Disk array apparatus
EP04257251A EP1585021B1 (en) 2004-04-09 2004-11-23 Disk array apparatus
DE602004011181T DE602004011181T2 (de) 2004-04-09 2004-11-23 Speicherplattenanordnungsgerät
US11/642,927 US7698518B2 (en) 2004-04-09 2006-12-21 Disk array with capacity management

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004116115A JP4681249B2 (ja) 2004-04-09 2004-04-09 ディスクアレイ装置

Publications (3)

Publication Number Publication Date
JP2005301628A JP2005301628A (ja) 2005-10-27
JP2005301628A5 JP2005301628A5 (ja) 2007-04-19
JP4681249B2 true JP4681249B2 (ja) 2011-05-11

Family

ID=34909557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004116115A Expired - Fee Related JP4681249B2 (ja) 2004-04-09 2004-04-09 ディスクアレイ装置

Country Status (4)

Country Link
US (2) US7174438B2 (ja)
EP (1) EP1585021B1 (ja)
JP (1) JP4681249B2 (ja)
DE (1) DE602004011181T2 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389503B2 (en) * 2004-04-16 2008-06-17 International Business Machines Corporation Apparatus and method to update code in an information storage and retrieval system while that system remains in normal operation
US8601035B2 (en) 2007-06-22 2013-12-03 Compellent Technologies Data storage space recovery system and method
JP4550717B2 (ja) * 2005-10-28 2010-09-22 富士通株式会社 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
JP4920979B2 (ja) 2006-01-25 2012-04-18 株式会社日立製作所 ストレージ装置及びその制御方法
JP5037881B2 (ja) * 2006-04-18 2012-10-03 株式会社日立製作所 ストレージシステム及びその制御方法
JP5134915B2 (ja) * 2007-11-02 2013-01-30 株式会社日立製作所 記憶領域の構成最適化方法、計算機システム及び管理計算機
US8959307B1 (en) 2007-11-16 2015-02-17 Bitmicro Networks, Inc. Reduced latency memory read transactions in storage devices
JP4607981B2 (ja) * 2008-03-27 2011-01-05 富士通株式会社 コピー制御装置、コピー制御方法およびコピー制御プログラム
JP2010092177A (ja) * 2008-10-06 2010-04-22 Hitachi Ltd 情報処理装置、及びストレージシステムの運用方法
US8291261B2 (en) * 2008-11-05 2012-10-16 Vulcan Technologies Llc Lightweight application-level runtime state save-and-restore utility
JP5317807B2 (ja) * 2009-04-13 2013-10-16 株式会社日立製作所 ファイル制御システムおよびそれに用いるファイル制御計算機
US8665601B1 (en) 2009-09-04 2014-03-04 Bitmicro Networks, Inc. Solid state drive with improved enclosure assembly
US9135190B1 (en) 2009-09-04 2015-09-15 Bitmicro Networks, Inc. Multi-profile memory controller for computing devices
US8447908B2 (en) 2009-09-07 2013-05-21 Bitmicro Networks, Inc. Multilevel memory bus system for solid-state mass storage
US8560804B2 (en) * 2009-09-14 2013-10-15 Bitmicro Networks, Inc. Reducing erase cycles in an electronic storage device that uses at least one erase-limited memory device
US8566541B2 (en) * 2010-09-14 2013-10-22 Hitachi, Ltd. Storage system storing electronic modules applied to electronic objects common to several computers, and storage control method for the same
US9372755B1 (en) 2011-10-05 2016-06-21 Bitmicro Networks, Inc. Adaptive power cycle sequences for data recovery
US9043669B1 (en) 2012-05-18 2015-05-26 Bitmicro Networks, Inc. Distributed ECC engine for storage media
US20140281306A1 (en) * 2013-03-14 2014-09-18 Hitachi, Ltd. Method and apparatus of non-disruptive storage migration
US9423457B2 (en) 2013-03-14 2016-08-23 Bitmicro Networks, Inc. Self-test solution for delay locked loops
US9858084B2 (en) 2013-03-15 2018-01-02 Bitmicro Networks, Inc. Copying of power-on reset sequencer descriptor from nonvolatile memory to random access memory
US9842024B1 (en) 2013-03-15 2017-12-12 Bitmicro Networks, Inc. Flash electronic disk with RAID controller
US10489318B1 (en) 2013-03-15 2019-11-26 Bitmicro Networks, Inc. Scatter-gather approach for parallel data transfer in a mass storage system
US9971524B1 (en) 2013-03-15 2018-05-15 Bitmicro Networks, Inc. Scatter-gather approach for parallel data transfer in a mass storage system
US9400617B2 (en) 2013-03-15 2016-07-26 Bitmicro Networks, Inc. Hardware-assisted DMA transfer with dependency table configured to permit-in parallel-data drain from cache without processor intervention when filled or drained
US9875205B1 (en) 2013-03-15 2018-01-23 Bitmicro Networks, Inc. Network of memory systems
US9430386B2 (en) 2013-03-15 2016-08-30 Bitmicro Networks, Inc. Multi-leveled cache management in a hybrid storage system
US9934045B1 (en) 2013-03-15 2018-04-03 Bitmicro Networks, Inc. Embedded system boot from a storage device
US9672178B1 (en) 2013-03-15 2017-06-06 Bitmicro Networks, Inc. Bit-mapped DMA transfer with dependency table configured to monitor status so that a processor is not rendered as a bottleneck in a system
US9720603B1 (en) 2013-03-15 2017-08-01 Bitmicro Networks, Inc. IOC to IOC distributed caching architecture
US9734067B1 (en) 2013-03-15 2017-08-15 Bitmicro Networks, Inc. Write buffering
US9501436B1 (en) 2013-03-15 2016-11-22 Bitmicro Networks, Inc. Multi-level message passing descriptor
US9798688B1 (en) 2013-03-15 2017-10-24 Bitmicro Networks, Inc. Bus arbitration with routing and failover mechanism
US9916213B1 (en) 2013-03-15 2018-03-13 Bitmicro Networks, Inc. Bus arbitration with routing and failover mechanism
US9952991B1 (en) 2014-04-17 2018-04-24 Bitmicro Networks, Inc. Systematic method on queuing of descriptors for multiple flash intelligent DMA engine operation
US10078604B1 (en) 2014-04-17 2018-09-18 Bitmicro Networks, Inc. Interrupt coalescing
US10042792B1 (en) 2014-04-17 2018-08-07 Bitmicro Networks, Inc. Method for transferring and receiving frames across PCI express bus for SSD device
US10055150B1 (en) 2014-04-17 2018-08-21 Bitmicro Networks, Inc. Writing volatile scattered memory metadata to flash device
US10025736B1 (en) 2014-04-17 2018-07-17 Bitmicro Networks, Inc. Exchange message protocol message transmission between two devices
US9811461B1 (en) 2014-04-17 2017-11-07 Bitmicro Networks, Inc. Data storage system
US9916110B2 (en) * 2016-02-23 2018-03-13 Red Hat, Inc. Size adjustable volumes for containers
US10552050B1 (en) 2017-04-07 2020-02-04 Bitmicro Llc Multi-dimensional computer storage system
CN110673797A (zh) * 2019-09-20 2020-01-10 浪潮电子信息产业股份有限公司 一种分布式块存储服务中的逻辑卷拷贝方法
CN115220647A (zh) * 2021-04-21 2022-10-21 伊姆西Ip控股有限责任公司 存储管理的方法、电子设备和计算机程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278819A (ja) * 2001-03-21 2002-09-27 Toshiba Corp スナップショットイメージの世代管理方法、記憶媒体、及び世代管理装置
US20040030951A1 (en) * 2002-08-06 2004-02-12 Philippe Armangau Instantaneous restoration of a production copy from a snapshot copy in a data storage system
US20040068636A1 (en) * 2002-10-03 2004-04-08 Michael Jacobson Virtual storage systems, virtual storage methods and methods of over committing a virtual raid storage system
JP2005050024A (ja) * 2003-07-31 2005-02-24 Toshiba Corp 計算機システムおよびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5403639A (en) 1992-09-02 1995-04-04 Storage Technology Corporation File server having snapshot application data groups
US6324654B1 (en) * 1998-03-30 2001-11-27 Legato Systems, Inc. Computer network remote data mirroring system
US6374266B1 (en) 1998-07-28 2002-04-16 Ralph Shnelvar Method and apparatus for storing information in a data processing system
US6260125B1 (en) * 1998-12-09 2001-07-10 Ncr Corporation Asynchronous write queues, reconstruction and check-pointing in disk-mirroring applications
US6473775B1 (en) * 2000-02-16 2002-10-29 Microsoft Corporation System and method for growing differential file on a base volume of a snapshot
JP3868708B2 (ja) 2000-04-19 2007-01-17 株式会社日立製作所 スナップショット管理方法及び計算機システム
US6584551B1 (en) * 2000-11-27 2003-06-24 Lsi Logic Corporation System and method for automatic dynamic expansion of a snapshot repository
US7475098B2 (en) 2002-03-19 2009-01-06 Network Appliance, Inc. System and method for managing a plurality of snapshots
US7266654B2 (en) 2003-03-18 2007-09-04 Hitachi, Ltd. Storage system, server apparatus, and method for creating a plurality of snapshots
US7111136B2 (en) 2003-06-26 2006-09-19 Hitachi, Ltd. Method and apparatus for backup and recovery system using storage based journaling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278819A (ja) * 2001-03-21 2002-09-27 Toshiba Corp スナップショットイメージの世代管理方法、記憶媒体、及び世代管理装置
US20040030951A1 (en) * 2002-08-06 2004-02-12 Philippe Armangau Instantaneous restoration of a production copy from a snapshot copy in a data storage system
US20040068636A1 (en) * 2002-10-03 2004-04-08 Michael Jacobson Virtual storage systems, virtual storage methods and methods of over committing a virtual raid storage system
JP2004127301A (ja) * 2002-10-03 2004-04-22 Hewlett-Packard Development Co Lp 仮想記憶システム、仮想記憶方法、および仮想raid記憶システムを過大割り当てする方法
JP2005050024A (ja) * 2003-07-31 2005-02-24 Toshiba Corp 計算機システムおよびプログラム

Also Published As

Publication number Publication date
EP1585021A1 (en) 2005-10-12
US20070118703A1 (en) 2007-05-24
US7698518B2 (en) 2010-04-13
EP1585021B1 (en) 2008-01-09
US7174438B2 (en) 2007-02-06
JP2005301628A (ja) 2005-10-27
DE602004011181D1 (de) 2008-02-21
US20050228944A1 (en) 2005-10-13
DE602004011181T2 (de) 2009-01-08

Similar Documents

Publication Publication Date Title
JP4681249B2 (ja) ディスクアレイ装置
JP4681247B2 (ja) ディスクアレイ装置及びディスクアレイ装置の制御方法
US6694413B1 (en) Computer system and snapshot data management method thereof
US7783850B2 (en) Method and apparatus for master volume access during volume copy
US7028216B2 (en) Disk array system and a method of avoiding failure of the disk array system
JP4439960B2 (ja) ストレージ装置
US7680984B2 (en) Storage system and control method for managing use of physical storage areas
US8661215B2 (en) System and method of acquiring and copying snapshots
US7593973B2 (en) Method and apparatus for transferring snapshot data
US8170996B2 (en) Storage subsystem
JP4452533B2 (ja) システムおよび記憶装置システム
JP4398463B2 (ja) インクリメンタル仮想コピーのための方法、システム、及びプログラム
US20070294495A1 (en) Storage control apparatus, storage control program, and storage control method
JP2004264973A (ja) ストレージシステムの制御方法、ストレージシステム、情報処理装置、管理コンピュータ、及びプログラム
JP2010079526A (ja) ジャーナルの階層を管理する計算機システム及び方法
JP2005322237A (ja) データ・ストレージ・システム間でのポイント・イン・タイム・コピー
JP2008269374A (ja) ストレージシステムおよびその制御方法
JP2006011811A (ja) 記憶制御システム及び記憶制御方法
JP2008152695A (ja) 電子的な保護対象に要求される保護能力で該保護対象を保護する記憶制御装置
JP4394467B2 (ja) ストレージシステム、サーバ装置及び先行コピーデータ生成方法
JP2015501959A (ja) ストレージシステムおよび記憶制御方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees