JP2004213064A - Raid装置及びその論理デバイス拡張方法 - Google Patents
Raid装置及びその論理デバイス拡張方法 Download PDFInfo
- Publication number
- JP2004213064A JP2004213064A JP2002378284A JP2002378284A JP2004213064A JP 2004213064 A JP2004213064 A JP 2004213064A JP 2002378284 A JP2002378284 A JP 2002378284A JP 2002378284 A JP2002378284 A JP 2002378284A JP 2004213064 A JP2004213064 A JP 2004213064A
- Authority
- JP
- Japan
- Prior art keywords
- raid
- raid configuration
- new
- old
- rlu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 68
- 238000013507 mapping Methods 0.000 claims abstract description 58
- 230000008859 change Effects 0.000 claims abstract description 14
- 230000015654 memory Effects 0.000 claims description 83
- 238000006243 chemical reaction Methods 0.000 claims description 58
- 230000008569 process Effects 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 40
- 238000012423 maintenance Methods 0.000 description 36
- 239000003795 chemical substances by application Substances 0.000 description 14
- 239000000470 constituent Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- XIHCLMPHWOVWAZ-UHFFFAOYSA-N 6-[[3,5-bis(trifluoromethyl)phenyl]methyl-[2,3,5,6-tetrahydroxy-4-[3,4,5-trihydroxy-6-(hydroxymethyl)oxan-2-yl]oxyhexyl]amino]-3-[3,4,5-trihydroxy-6-(hydroxymethyl)oxan-2-yl]oxyhexane-1,2,4,5-tetrol Chemical compound O1C(CO)C(O)C(O)C(O)C1OC(C(O)CO)C(O)C(O)CN(CC=1C=C(C=C(C=1)C(F)(F)F)C(F)(F)F)CC(O)C(O)C(C(O)CO)OC1OC(CO)C(O)C(O)C1O XIHCLMPHWOVWAZ-UHFFFAOYSA-N 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/08—Error detection or correction by redundancy in data representation, e.g. by using checking codes
- G06F11/10—Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
- G06F11/1076—Parity data used in redundant arrays of independent storages, e.g. in RAID systems
- G06F11/1096—Parity calculation or recalculation after configuration or reconfiguration of the system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0632—Configuration or reconfiguration of storage systems by initialisation or re-initialisation of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Techniques For Improving Reliability Of Storages (AREA)
Abstract
【解決手段】少なくとも、RAIDレベルと論理デバイス数を定義した新旧のRAID構成定義情報(80、81)を使用し、制御部(10)が、それぞれによりRLUマッピングして、ステージング、ライトバックして、RAID構成を変更する。このため、多様なRAIDレベルの変換、容量増加を実現できる。
【選択図】図15
Description
【発明の属する技術分野】
本発明は、磁気デイスク等の物理デイスクを使用してデータを冗長管理するRAID装置及びその論理デバイス拡張方法に関し、特に、RAIDグループの容量を増加し、又はRAIDグループに冗長性を付加するRAID装置及びその論理デバイス拡張方法に関する。
【0002】
【従来の技術】
磁気デイスク、光磁気デイスク、光デイスク等の記憶媒体を利用したストレージ装置では、データ処理装置の要求で、記憶媒体を実アクセスする。データ処理装置が、大容量のデータを使用する場合には、複数のストレージ装置と制御装置とを備えたストレージシステムを利用する。
【0003】
このようなストレージシステムでは、保存データの信頼性や、装置の信頼性を向上するため、冗長構成を採用している。冗長構成のため、通常、デイスク装置は、RAID(Redundant Array of Inexpensive (or Independent) Disks)というデイスクの多重化構成を採用する。RAID機能には、RAID0,RAID1,RAID0+1,RAID2,RAID3,RAID4,RAID5が知られている。
【0004】
このようなRAID構成は、RAIDレベルは、システムで固定であった。しかし、冗長度を大きくすると、信頼性は向上するが、性能は低下し、又冗長度を小さくすると、信頼性は低下するが、性能は向上する、という相反した特性がある。ユーザーのシステム構成により、冗長度を設定するが、システム導入後、ユーザーが、冗長度を変更したいとの要求がある。冗長度の変更は、システムを停止すれば、容易に冗長度を変更できる。
【0005】
しかし、オンラインシステムを構築した場合に、システムを停止することなく、活性状態で、冗長度を変更することが望ましい。従来、パリテイブロックの削減、増加により、冗長度を活性状態で変更する方法が提案されている(例えば、特許文献1)。
【0006】
この提案では、RAID5の構成において、物理デイスク群からデータをキャッシュメモリに読み出し、2パリテイ又は1パリテイから1パリテイ又は0パリテイへの冗長度削減、又は0パリテイ又は1パリテイから1パリテイ又は2パリテイへの冗長度増加を行い、キャッシュメモリから物理デイスク群へ書込むものである。
【0007】
この冗長度変換処理中、ホストからI/O要求を受けると、冗長度変換処理を中断し、I/O要求が、冗長度変更済みの領域に対するものか、冗長度変更前の領域に対するものかを判定し、I/O要求を実行するものである。この冗長度削減では、実デイスクの削減を行い、冗長度の増加では、実デイスクの増加を行う必要があった。
【0008】
【特許文献1】
特開平7−306758号公報(図2、図7、図8)
【0009】
【発明が解決しようとする課題】
しかしながら、従来技術は、活性状態での冗長度変更は可能であるものの、パリテイブロックの数を単純に、削減、増加する技術であるため、種々のRAIDレベルの変更に対応ができないという問題があり、冗長度の変更範囲が限られていた。
【0010】
更に、活性状態で、RAIDレベルを変更せずに、RAIDグループの容量を増加するという要求を、実現できないという問題があった。
【0011】
従って、本発明の目的は、活性状態でのRAIDレベルの変更範囲を拡大するためのRAID装置及び論理デバイス拡張方法を提供するにある。
【0012】
又、本発明の他の目的は、物理デイスク数の変更なしに、活性状態でRAIDレベルを変更するためのRAID装置及び論理デバイス拡張方法を提供するにある。
【0013】
更に、本発明の他の目的は、活性状態で、RAIDレベルを変更せずに、RAIDグループの容量を増大するためのRAID装置及び論理デバイス拡張方法を提供するにある。
【0014】
【課題を解決するための手段】
この目的の達成のため、本発明は、RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置であり、上位装置からのI/O要求に応じて、前記RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置をアクセスする制御部と、少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報と、少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報とを格納するテーブルと、旧RAID構成から新RAID構成に変更するため、データを一時格納するためのキャッシュメモリとを有し、前記制御部は、前記テーブルの前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記テーブルの前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする。
【0015】
又、本発明の論理デバイス拡張方法は、RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置の論理デバイス拡張方法において、少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップと、少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップとを有する。
【0016】
本発明では、少なくとも、RAIDレベルと論理デバイス数を定義した新旧のRAID構成定義情報を使用し、それぞれによりRLUマッピングして、RAID構成を変更するため、多様なRAIDレベルの変換、容量増加を実現できる。
【0017】
又、本発明では、好ましくは、前記制御部は、前記旧RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするRAIDレベル変換処理を行う。
【0018】
又、本発明では、好ましくは、前記制御部は、前記旧RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする容量増加処理を行う。
【0019】
又、本発明では、好ましくは、前記制御部は、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行し、且つその進捗状況を管理するとともに、前記変換中に、前記上位装置からのI/O要求に対し、変換済み領域かを判定し、変換済み領域に対しては、前記新RAID構成定義で、前記I/O要求を実行し、変換済みでない領域に対しては、前記旧RAID構成定義で、前記I/O要求を実行する。
【0020】
又、本発明では、好ましくは、前記制御部は、新RAID構成定義によるRLBAを上位のLBAに変換した後、前記上位のLBAから前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記RLBAから前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする。
【0021】
又、本発明では、好ましくは、前記制御部は、前記旧RAID構成から前記新RAID構成への変換後、前記旧RAID構成定義を前記テーブルから削除する。
【0022】
又、本発明では、好ましくは、前記制御部は、指示された新RAID構成定義のパラメータと前記旧RAID構成定義とに従い、前記新RAID構成定義を、前記テーブルに作成する。
【0023】
又、本発明では、好ましくは、前記制御部は、変換領域に対応する前記キャッシュメモリの領域を獲得した後、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行する。
【0024】
又、本発明では、好ましくは、前記制御部は、前記変換領域に対応する前記キャッシュメモリの領域が獲得できない時は、前記変換処理を複数回に分けて実行する。
【0025】
又、本発明では、好ましくは、前記制御部は、前記RAID構成のストライプに対応したストライプデプス、ストライプサイズに応じて、前記RLUマッピングする。
【0026】
【発明の実施の形態】
以下、本発明の実施の形態を、ストレージシステム、RAID構成、LDE,LDE全体処理、LDE詳細処理、容量増加処理/RAIDレベル変換処理、他の実施の形態の順で説明する。
【0027】
[ストレージシステム]
図1は、本発明の一実施の形態のストレージシステムの構成図であり、磁気デイスクを使用したRAID(Redundant Arrays of Inexpensive Disk)システムを示す。
【0028】
図1に示すように、ストレージシステムは、一対の磁気デイスクコントローラ(以下、コントローラという)1、2と、この一対のコントローラ1、2にラインl1,l2で接続された多数の磁気デイスク装置50−1〜50−m、52−1〜52−nとからなる。
【0029】
コントローラ1、2は、直接又はネットワーク機器を介し、ホストやサーバーに接続され、ホストやサーバーの大量のデータを、RAIDデイスクドライブ(磁気デイスク装置)へ高速かつ、ランダムに読み書きが出来るシステムである。一対のコントローラ1、2は、同一の構成を有し、CA(Channel Adapter)11、12、21、22と、CM(Centralized Module)10、15〜19、20、25〜29と、DA(Device Adapter)13、14、23、24のファンクションモジュールによって構成されている。
【0030】
CA(Channel Adapter)11、12、21、22は、ホストを結ぶホスト・インタフェースの制御をつかさどる回路であり、例えば、ファイバーチャネル回路(FC)とDMA(Direct Memory Access)回路等で構成される。DA(Device Adapter)13、14、23、24は、デイスクデバイス50−1〜50−m、52−1〜52−mを制御するため、デイスクデバイスとコマンド、データのやり取りを行う回路であり、例えば、ファイバーチャネル回路(FC)とDMA回路等で構成される。
【0031】
CM(Centralized Module)は、CPU10,20と、ブリッジ回路17、27と、メモリー(RAM)15、25と、フラッシュメモリ19,29と、IOブリッジ回路18,28とを有する。メモリー15,25は、バッテリーでバックアップされ、その一部が、キャッシュメモリ16,26として使用される。
【0032】
CPU10,20は、ブリッジ回路17を介し、メモリー15,25、フラッシュメモリ19,29、IOブリッジ回路18,28に接続される。このメモリー15,25は、CPU10,20のワーク領域に使用され、フラッシュメモリ19,29は、CPU10,20が実行するプログラムを格納する。
【0033】
このプログラムとして、OS,BIOS(Basic Input/Output System),ファイルアクセスプログラム(リード/ライトプログラム)、RAID管理プログラム等の制御プログラム(モジュール)を格納する。CPU10,20は、このプログラムを実行し、後述するように、リード/ライト処理、RAID管理処理等を実行する。
【0034】
PCI(Personal Computer Interface)バス31は、CA11,12,21,22と、DA13,14,23,24とを接続するとともに、IOブリッジ回路18を介し、CPU10,20、メモリー15,25を接続する。更に、PCIバス31には、PCI−ノードリンクブリッジ回路30,40が接続される。コントローラ1のPCI−ノードリンクブリッジ回路30は、コントローラ2のPCI−ノードリンクブリッジ回路40と接続され、コントローラ1,2間のコマンド、データの交信を行う。
【0035】
図1では、例えば、コントローラ1は、デイスク装置50−1〜50−mを担当し、コントローラ2は、デイスク装置52−1〜52−nを担当する。又、デイスク装置50−1〜50−mと、52−1〜52−nとが、RAID5の構成を有する。
【0036】
キャッシュメモリ16,26は、各々、担当するデイスク装置のデータの一部を格納し、ホストからのライトデータを格納する。CPU10,20は、CA11,12,21,22を介しホストからのリード要求を受けて、キャッシュメモリ16,26を参照し、物理デイスクへのアクセスが必要かを判定し、必要であれば、デイスクアクセス要求をDA13,14,23,24に要求する。又、CPU10,20は、ホストからのライト要求を受けて、ライトデータをキャッシュメモリ16,26に書込み、且つ内部でスケジュールされるライトバック等をDA13,14,23,24に要求する。
【0037】
[RAID構成]
図2は、CPU10が実行するタスクと制御モジュールの構成図である。図2に示すように、CM−CAドライバ32は、CA11,12をドライブするドライバである。Basic Task33は、CPU10が実行する基本タスクであり、資源管理を行うリソーススレッド(リソース制御モジュール)35、コピー処理を行うコピースレッド(コピー制御モジュール)36、キャッシュメモリ16の制御を行うキャッシュスレッド(キャッシュメモリ制御モジュール)37、RAID構成制御を行うRAIDスレッド(RAID制御モジュール)39、メインテナンスエージェント(メインテナンス制御モジュール)34、OVSMスレッド(OVSM制御モジュール)38とを有する。
【0038】
OVSMスレッド38は、後述するように、クイックフォーマット(QF)や論理デバイス拡張(LDE)のスケジューリング、RAIDスレッド39への論理フォーマット(LF)依頼、LDE進捗管理を行う。メインテナンスエージェント34は、OVSMスレッド38への各種の通知を行う。
【0039】
CM−DAドライバ42は、CM13,14をドライブするドライバである。CM−CMドライバ43は、前述のPCI−ノードブリッジ回路30をドライブして、CM間の通信を行う。
【0040】
保守PC(パーソナルコンピュータ)3は、図1では、図示していないが、ブリッジ回路17のLANポートに接続され、ストレージシステムの保守を行うものであり、本発明では、LDEの要求、LDE進捗報告の表示等を行う。HTTPドライバ44は、保守PC3とのHTTP(Hyper Text Transfer Protocol)のドライバである。
【0041】
CGI(Computer Graphic Interface)タスク45は、保守PC3からのLDE要求の受け付けと、保守PC3へのLDE進捗報告を行う。メインテナンスドライバ46は、メインテナンスのためのメインテナンスPCスレッド47とシステム制御スレッド48のドライバである。
【0042】
メインテナンスPCスレッド(制御モジュール)47は、保守PC3からの要求に応じ、システム制御スレッド48を起動する。システム制御スレッド(制御モジュール)48は、QF/LDE開始時のRLU(Raid Logical Unit)テーブル(図3、図14で後述する)の変更、OVSMスレッド38へのQF/LDE開始指示、QF/LDE終了時のRLUテーブル(図3、図14にて後述する)の変更を行う。
【0043】
本発明では、後述するように、保守PC3のLDE要求により、OVSMスレッド38が、キャッシュスレッド37、RAIDスレッド39を制御し、LDE処理を実行する。
【0044】
図3は、RAID論理空間の説明図、図4は、RAID5の説明図、図5は、RAID5のアドレス計算フロー図、図6は、RAID0+1の説明図、図7は、RAID0+1のアドレス計算フロー図である。
【0045】
図3に示すように、ホストから見たRAID論理空間は、ホストの論理空間であるOLU(ホスト論理ユニット)と、RAIDグループの論理空間であるRLU(RAID論理ユニット)と、RAIDグループを構成するデバイスの論理空間であるDLU(デバイス論理ユニット)と、物理デイスクの論理空間であるPLU(物理論理ユニット)との層構造で示される。
【0046】
RAID構成では、RAID論理空間は、OLUテーブル70の開始RLBA(RAID論理ブロックアドレス)で、OLUと関連づけられ、RAID空間は、RLUテーブル72で定義される。RLUテーブル72は、RAIDレベル、構成デイスク数、RAIDストライプデプス、RAIDストライプサイズ、対応DLU番号を格納する。
【0047】
DLU空間は、DLUテーブル74で定義される。DLUテーブル74は、構成デイスク数、RAIDストライプデプス、RAIDストライプサイズ、対応PLU番号を格納する。DLU空間及びDLUテーブル74は、ミラーリングで使用される。PLU空間は、PLUテーブル76で定義される。PLUテーブル76は、開始PLBA(物理論理ブロックアドレス)を格納する。
【0048】
具体的に説明する。図4に示すように、RAID5(3+1)の場合には、RLU=DLUであり、RLUテーブル72は、RAIDレベル=RAID5,構成デイスク数=4、対応DLU番号=PLU番号(0〜3)となる。又、RAID空間は、構成デイスクで、ストライピングされており、RAID空間を、構成デイスク番号とストライプ番号とでマッピングする。この升目をストリップ(Strip)といい、Strip番号が付与される。このStripのサイズは、Strip Depth(又はStripe Depth)で定義され、1ストライプのサイズは、Stripe Sizeで定義される。
【0049】
従って、図5で説明するように、R(RAIDグループ)LBAは、構成デイスク数、Strip Depth、Stripe Sizeで、PLULBA,メンバーデイスクの順番に変換できる。
【0050】
(S10)ホストLBA(論理ブロックアドレス)を、ホストLBAにOLUテーブル70の開始RLBAを加算して、RLBAを求める。
【0051】
(S12)ストリップ内のブロックカウントを、RLULBA/Strip Size(Stripe Depth)の余りで計算する。
【0052】
(S14)Strip番号を、RLULBA/Strip Depthから計算する。
【0053】
(S16)Stripe番号を、RLULBA/Stripe Sizeから計算する。
【0054】
(S18)メンバーデイスクの順番を、Strip番号/メンバーデイスクの数の余りから計算する。
【0055】
(S20)物理デイスク(PLU)のLBAを、(Stripe番号×Strip Size)+ストリップ内のブロックカウントから計算する。
【0056】
これにより、メンバーデイスクの順番(PLU番号)と、PLULBAとから、PLUテーブル76を用いて、実ブロックアドレスを計算する。
【0057】
同様に、図6に示すように、RAID0+1(4+4)の場合には、RLU≠DLUであり、RLUテーブル72は、RAIDレベル=RAID0+1,構成デイスク数=4(DLU)、対応DLU番号=0〜3となる。又、RAID空間は、DLU構成デイスクで、ストライピングされており、RAID空間を、DLU構成デイスク番号とストライプ番号とでマッピングする。この升目をストリップ(Strip)といい、Strip番号が付与される。このStripのサイズは、Strip Depth(又はStripe Depth)で定義され、1ストライプのサイズは、StripeSizeで定義される。
【0058】
従って、図7で説明するように、R(RAIDグループ)LBAは、構成デイスク数、Strip Depth、Stripe Sizeで、PLULBA,メンバーデイスクの順番に変換できる。
【0059】
(S22)ホストLBA(論理ブロックアドレス)を、ホストLBAにOLUテーブル70の開始RLBAを加算して、RLBAを求める。
【0060】
(S24)ストリップ内のブロックカウントを、RLULBA/StripeDepth)の余りで計算する。
【0061】
(S26)Stripe番号を、RLULBA/Stripe Sizeから計算する。
【0062】
(S28)メンバーデイスクの順番を、(RLULBA/Stripe Sizeの余り)/Strip Sizeから計算する。
【0063】
(S30)物理デイスク(PLU)のLBA(=DLUのデイスク)を、(Stripe番号×Strip Size)+ストリップ内のブロックカウントから計算する。
【0064】
これにより、メンバーデイスクの順番(DLU番号)と、PLULBAとから、PLUテーブル76を用いて、実ブロックアドレスを計算する。
【0065】
[LDE]
次に、LDEを説明する。Logical Device Expansion(LDE)は、(1)デイスク装置を増設したり、RAIDレベルを変換することで、RAIDグループの容量を増加させる、(2)RAIDレベルを変換することで、RAIDグループに冗長性を付加する,機能である。RAID容量を拡張する方法として、RAIDグループへの新規デイスク装置増設と、RAIDレベル変換とがある。
【0066】
図8及び図9は、RAIDグループへの新規デイスク装置増設(容量増加)の説明図である。容量増加は、RAIDグループにユーザデータを保持したまま、新規デイスク装置(New Disk)を追加して、RAIDグループの容量を増やす機能である。
【0067】
例えば、図8に示すように、RAID5(4+1)に、新規デイスクを1台追加して、RAID5(5+1)にする。追加デイスクの容量が、36GBなら、RAIDグループ144GBを,180GBに容量を増やす。
【0068】
また、図9に示すように、全ユーザデータを、容量の大きな新規デイスク装置で構成されたRAIDグループに遷移することでも,RAID容量の拡張を実現できる。例えば、18GBのデイスク装置で構成されたRAID5(4+1)容量72GBのユーザデータを、新規デイスク装置(36GB)5台を用いて構成されたRAID5(4+1)容量144GBへ遷移し、RAID容量を増やす。
【0069】
次に、RAIDレベル変換を、図10乃至図12は、RAIDレベル変換の説明図である。RAIDレベル変換は、ユーザデータをRAIDグループに保持したまま、RAIDレベルの変更を行う機能である。
【0070】
例えば、図10に示すように、複数台(4台)の新規デイスク装置を追加し、RAID5(4+1)からRAID0+1(4+4)への変更を行う。
【0071】
また、RAIDグループを構成している既存デイスク装置を用いず、新規デイスク装置だけを用いてのRAIDレベルの変更も出来る。例えば、図11に示すように、18GBデイスク装置4台構成のRAID5(3+1)を、73GBデイスク装置2台構成のRAID1へ変更する。
【0072】
本実施の形態では、可能なRAIDレベル変換は、図12に示すように、RAID0からRAID0+1,RAID1、RAID5、RAID0+1とRAID1、RAID5と相互間、RAID1とRAID5との相互間である。RAID0への変換は、冗長性を失うことになるため実施しない。
【0073】
このLDE実行中、LDEを担当するCMを切り替えることができる。又、LDEを、パワーオフ/オンを跨いで継続され、停電/復電を跨いで継続される。更に、CM活性増設・活性交換は実行できる。
【0074】
但し、RAID1へのRAIDレベル変換は、既存デイスクを使用せずに新規デイスクのみで作成し、その新規デイスクは、既存デイスクよりも容量が大きくないことが必要である。又、RAIDレベル変換について、RAID0への変換と容量が減少する変換は行わない。
【0075】
[LDE全体処理]
次に、図13及び図14により、図2の構成のLDE時のCGIタスク45からの流れを説明する。先ず、CGIタスク45より保守タスク47へLDE設定通知を行う。このときのパラメタは、図9で説明するように、LDE内容(追加、レベル変換等)、RLUN,RAIDレベル、新規構成デイスクである。保守タスク47は、装置状態がLDE実行可能かどうかをチェックする。更に、保守タスク47は、システム制御モジュール48に対して、設定パラメタがLDE実行可能な条件(図12参照)を満たしているかどうかのチェックを要求する。
【0076】
CGIタスク45は、保守タスク47からLDE実行可能な応答を受けて、保守タスク47へLDE設定を通知する。これに応じて、保守タスク47は、システム制御48にLDE設定通知を行う。システム制御48は,キャッシュ制御37に対して、WTTH(Write Through)で動作するよう通知する。キャッシュ制御37は、以降、WTTHで動作する。
【0077】
次に、保守タスク47は、構成変更を行うためシステム制御48に対して、Suspendを通知する。システム制御48は、それを受けて保守エージェント34へSuspend要求を出す。保守エージェント34は、BackEnd(Cacheモジュール37、RAIDモジュール39)に対してSuspend要求を出す。これにより、対象RLUを含めてすべてのI/Oを一時的に抑制する。
【0078】
更に、システム制御48は、Suspend処理が完了すると、OVSM38に対して構成変更を要求する。OVSM38は、LDEを開始するための構成を作成する。図14に示すように、現在のRAID構成定義、即ち、RLU72,DLU74,PLU76を、旧構成のテンポラリRAID定義80にコピーし、前述のCGI45から通知されたLDE内容(追加、レベル変換等)、RLUN,RAIDレベル、新規構成デイスクから新構成のRAID定義82、即ち、RLU72,DLU74,PLU76を作成する。OVSM38は、変更内容を各モジュールに対して配信する。
【0079】
この処理を終了後、システム制御48は、保守エージェント34に対して、LDE実行要求を出す。それを受けて保守エージェント34は,OVSM38に対して、LDE実行要求を出す。OVSM38は、LDE初期処理を実行し、保守エージェント34へ応答を返す。その後、OVSM38は、図14のLDE進捗状況を作成し、LDE処理を実行する。保守エージェント34は、応答をシステム制御48へ返す。
【0080】
この後、システム制御48は、保守エージェント34に対して、Resumeを通知する。保守エージェント34は、BackEndへResume要求を出す。これによって、I/Oを再開する。システム制御48は、キャッシュ制御37に対して、WB(Write Back)modeへ戻るように通知する。システム制御37は、CGIタスク45に対して、LDEが開始されたことを通知する。
【0081】
次に、CGIタスク45は、保守タスク47経由で、OVSM38に対して、LDE進捗情報獲得要求を出し、進捗情報を獲得する。OVSM38は、LDE処理が完了すると、CVMmodeのLDEFlagをOFFにする等の構成変更を行い、旧構成情報を削除する。OVSM38は、BackEndに対して、構成を配信する。OVSM38は、LDE処理の後処理を行う。
【0082】
[LDE詳細処理]
次に、LDE処理を、図15乃至図23で説明する。図15は、LDE制御モジュールの構成図、図16は、図15のLDE処理の説明図、図17は、図15のLDE起動時の処理フロー図、図18は、図15のキャッシュメモリ獲得処理フロー図、図19は、図15のシーケンシャルLED処理の説明図、図20は、図15の進捗状況管理によるI/O競合時の処理フロー図である。
【0083】
図15に示すように、OVSM38は、Expansion Blockを決定し、キャッシュメモリ16の領域を獲得する処理90を実行し、RAIDスレッド39に、LDEのリード/ライトを依頼する。又、RAIDスレッド39のLDEの進捗状況を管理する処理92を行う。
【0084】
RAIDスレッド39は、キャッシュスレッド37と共同して、Expansion実施前のRAIDグループ構成(図14の旧構成テーブル80)で、デイスク装置50へのリード処理を行い、キャッシュメモリ16の獲得領域にステージング処理94を行う。
【0085】
次に、RAIDスレッド39は、Expansion実施後のRAIDグループ構成(図14の新構成テーブル82)で、キャッシュメモリ16からデイスク装置50へのライト(ライトバック)処理96を行う。
【0086】
この時、LDEでは、リード/ライト処理時のアドレスが異なる。この処理を、増設の場合には、新デイスク装置を含めた領域まで実施したところで、Expansionが完了する。このLDEの実施にあたり、図14で説明したように、Expansion前(旧構成)のRAIDグループ構成情報は、テンポラリRAIDグループ定義情報80として引継ぎ、Expansion処理の終了時に削除する。
【0087】
図16は、RAIDにおけるExpansion処理(容量拡張処理)の説明図であり、4台のデイスク装置に新規デイスク装置1台を追加する例を示す。新構成のメンバーデイスク装置数(ここでは、5台)分のストライプ(図の枠内)を、旧構成のデイスク装置(4台)からリードする。次に、旧構成分のメンバーデイスク装置数分のストライプを、新構成のデイスク装置5台にライトする。図16では、RAID0+1において、(4+4)構成から、(5+5)構成に変更する例を示し、旧構成(4+4)から5つのストライプをリードし、新構成(5+5)に4つのストライプをライトする。
【0088】
次に、図17により、保守エージェントよりLDE開始要求を受けてからのOVSMの制御シーケンスフローを説明する。保守エージェント34は、OVSM38に対し、LDEの起動を指示する。このときのパラメタは、LDE内容(追加、レベル変換等),RLUN,RAIDレベル,新規構成デイスクである。
【0089】
OVSM38は、受け取ったパラメタから、構成チエックを行う。即ち、RLUN82とT−RLUN80の比較、LDEタイプ等である。そして、OVSM38は、シーケンシャルExpansion用のACB(Access ControlBlock)を獲得する。尚、ACBの数だけ平行動作が可能となる。且つExpansionを行うにあたり、デイスク装置上のデータを移動するために、キャッシュメモリ16を獲得する(図18にて詳細に説明する)。
【0090】
更に、OVSM38は、他系CM(図1のコントローラ2)へ制御テーブル及びキャッシュ域獲得を要求する。他系CMは,制御テーブル及びキャッシュ域の獲得を行う。これにより、制御テーブル及びキャッシュ域の二重化が可能となる。OVSM38は、他CMからキャッシュ域獲得の応答を受け取ると、保守エージェント34へLDE起動応答を通知する。
【0091】
そして、OVSM38は、シーケンシャルなExpansion開始をRAIDスレッド39に通知する。即ち、OVSM38は、一回のExpansion処理領域とI/Oの排他を行う(図20で詳述する)。そして、RAIDスレッド39に、Expansion実施中領域について、テンポラリRLUN(Expansion前構成)80でのリード要求を行う。
【0092】
OVSM38は、他系CMとLDEステータス情報の二重化を行う。そして、OVSM38は、RAIDスレッド39に、Expansion実施中領域について、RLUN(Expansion後構成)82でライト要求を行う。OVSM38は、Expansion実施中領域の進捗情報を更新して、二重化されている管理テーブルの進捗情報更新処理を行うために、他系CMへ通信を実施する。OVSM38は、一回のExpansion処理領域とI/Oとの排他を解除する。
【0093】
次に、図15、図17で説明したキャッシュメモリ獲得処理90を、図18及び図19で説明する。図15で説明したように、Expansion処理中は、デイスク上のデータを移動させるので、一時的にキャッシュメモリ16にデータを置く。そのため、Sequential Expansion実施前にキャッシュメモリ16を獲得しておく。キャッシュメモリ16は、一度に獲得できる大きさが決まっているので、必要容量を獲得するためには、ACBを必要数獲得してから実施する。
【0094】
図18に示すように、1回の処理サイズを決定し、その処理サイズが、一度に獲得できるキャッシュメモリの限界サイズかを判定する。獲得可能なサイズなら、キャッシュスレッド37に1回だけ、獲得要求を発する。一方、獲得可能でないなら、複数回獲得できるかを判定し、複数回獲得できれば、必要回数要求し、複数回獲得できなければ、1回だけ要求し、複数回使いまわす。即ち、Expansion実施領域のLDEを、一度に実施せずに複数回に分けて実施する。または、必要ACB等を獲得してから、平行処理を行うことにする。
【0095】
例えば、図18のようなExpansion処理において、一回のExpansion領域を複数回のリード/ライトを実施していき、次の領域へ進む。具体的に説明する。
【0096】
(1)リード処理をExpansion後のストライプ分(3ストライプ)行う。
【0097】
(2)(1)で読み込んだ領域について、ライト処理を行う。
【0098】
(3)リード処理をExpansion後のストライプ分(1ストライプ)行う。
【0099】
(4)(3)で読み込んだ領域について、ライト処理を行う。
【0100】
図18では、RAID0+1の(4+4)からRAID0+1の(5+5)への構成変更の例を示し、Expansionブロック数=旧構成MemberDisk数×新構成MemberDisk数=4×5=20ブロック(ストリップ)であり、ロックするストライプ数=キャッシュメモリサイズ÷(新構成MemberDisk数×60KB)=1MB÷(5×60KB)=3ストライプとなる。又、Expansion実行数=Expansionブロック数÷(ロックするストライプ数×新構成MemberDisk数)=20÷(3×5)=2回であり、最後のExpansion実行ブロック数=Expansionブロック数%・(ロックするストライプ数 × 新構成MemberDisk数)=20%・(3×5)=5ブロックとなる。但し、キャッシュ域は、1MB,Stripは、60KBとする。
【0101】
又、RAID構成の(14+1)から(15+1)へのExpansionの場合には、Expansionブロック数=14×15=210ブロック、ロックするストライプ数=1MB÷(15×60KB)=1ストライプ、Expansion実行数=210÷(1×15)=14回、最後のExpansion実行ブロック数=210%・(1×15)=15ブロックとなる。
【0102】
次に、図20により、OVSM38のI/O競合処理を説明する。
【0103】
(S40)OVSM38は、RLUを、RLBAにより、Expansion実施済みか、実施中か、未実施かを判定する進捗管理機能92(図15参照)により、ホストI/O要求のRLBAが、Expansion実施領域か未実施領域かの判断を行う。実施済み領域の場合、RAIDスレッド39へ新構成情報でI/O要求を行い、ホストI/O要求を実行する。
【0104】
(S42)未実施の場合には、Expansion実施中領域かの判断を行う。実施中の場合には、Expansion処理が終了するまで、ホストI/O要求を待たせ、終了後に,RAIDスレッド39へI/O要求を行う。一方、実施中領域でない場合には、Expansion未実施領域のため、RLU構成情報をテンポラリRLU構成情報(旧構成)80に切り替えてから、RAIDスレッド39へI/O要求を行う。
【0105】
次に、図15で説明したリード処理、ライト処理を、図21乃至図23で説明する。図21は、リード処理のリードアドレス生成処理フロー図である。
【0106】
(S50)先ず、新RAID構成定義82で、新RLBA(RLUBLA)を生成する。
【0107】
(S52)図3で説明したOLUテーブル70を使用して、OLBAに逆変換する。
【0108】
(S54)OLBAを旧構成のOLUテーブル70で、旧RLBAに変換する。
【0109】
(S56)旧RLBAを、旧RAID構成定義のRLUテーブル72、DLUテーブル74を使用して、旧DLBAに変換する。
【0110】
(S58)旧RAID構成定義のPLUテーブル76を使用して、旧DLBAをPLBAに変換し、リードブロックアドレスを得る。
【0111】
このリードブロックアドレスで、デイスク装置をリードし、データをキャッシュメモリ16にリード(ステージング)する。
【0112】
図22は、ライト処理のライトアドレス生成処理フロー図である。
【0113】
(S60)先ず、新RAID構成定義82で、新RLBA(RLUBLA)を生成する。
【0114】
(S62)図3で説明した新RAID構成定義のRLUテーブル72、DLUテーブル74を使用して、新DLBAに変換する。
【0115】
(S64)新RAID構成定義のPLUテーブル76を使用して、新DLBAをPLBAに変換し、ライトブロックアドレスを得る。
【0116】
このライトブロックアドレスで、キャッシュメモリ16のデータを、デイスク装置にライトバックする。
【0117】
図23は、この関係を示す説明図であり、新RAID構成定義での新RLBAを上位のホストLBAに直し、このホストLBAから旧RAID定義80で、旧RAID定義でのリードPLBAに変換し、リードする。又、新PLBAを、新RAID構成定義82で、新RAID定義でのライトPLBAに変換し、リードしたデータをライトする。
【0118】
このようにすると、図4乃至図7で説明した既存のPLBA,Strip Size、Strip Depth、Stripe Size,メンバーデイスク数を用いたRAIDマッピング処理を利用して、LDE処理を実行できる。又、増設処理とRAIDレベル変換処理を同じ処理で実現できる。
【0119】
[容量増加処理/RAIDレベル変換処理]
図24は、容量増加時の旧RAID定義と新RAID定義の説明図、図25は、その動作説明図である。図24に示すように、旧(テンポラリ)RAID定義80では、RAIDレベル5で、3+1(PLUNs10−13)で、メンバーでイスク数4、ブロック数400を定義する。一方、新RAID定義82では、RAIDレベル5で、4+1(PLUNs10−14)で、メンバーデイスク数5、ブロック数500を定義する。
【0120】
前述の図4及び図5の説明のように、メンバーデイスク数の増加で、マッピングが変更され、図25に示すように、RAID5(3+1)が、RAID5(4+1)に増設される。
【0121】
図26は、RAIDレベル変換時の旧RAID定義と新RAID定義の説明図、図27は、その動作説明図、図28は、RLUテーブルとDLUテーブルの遷移の説明図である。
【0122】
図26に示すように、旧(テンポラリ)RAID定義80では、RAIDレベル0+1で、メンバーデイスク数4(PLUNs0−3)で、ブロック数400を定義する。一方、新RAID定義82では、RAIDレベル5で、3+1(PLUNs0−3)で、メンバーデイスク数4、ブロック数400を定義する。
【0123】
前述の図6及び図7の説明のように、RAID0+1のストライプをリードし、図4及び図5の説明のように、RAID5の定義で、マッピングが変更され、図27に示すように、RAID0+1(4+4)が、RAID5(3+1)にレベル変換される。これにより、図28に示すように、RLUテーブル72、DLUテーブル74が、RAID0+1からRAID5の定義に変更される。
【0124】
[他の実施の形態]
図29は、本発明の他のアドレス変換の説明図である。この実施の形態では、予め、変換の対象となるRAID構成定義間のRLBAの差分をテーブルに求めておき、旧RAID定義のRLBAで、旧RAID定義のリードPLBAを計算する。
【0125】
この旧RAID定義のRLBAを、RLBA間の差分を足し、新RLBAを求め、新RAID定義82で、ライトPLBAを計算する。このようにすると、RLBA間の差分計算の手間はかかるが、高速にマッピング変換が可能となる。
【0126】
前述の実施の形態では、2CM(コントローラ)−4DE(デバイスエンクロージャ)の構成で説明したが、4台のコントローラを有する4CM-16DEの構成でも、各CMは、保守PC3のLDE起動により、同様に、LDE処理できる。
【0127】
又、前述の実施の形態では、図12のようなRAIDレベルで説明したが、これ以外のRAIDレベル(RAID2,RAID3,RAID4)のストレージシステムに適用できる。又、物理デイスクは、磁気デイスク、光デイスク、光磁気デイスク、各種のストレージデバイスを適用できる。
【0128】
以上、本発明を実施の形態により説明したが、本発明の趣旨の範囲内において、本発明は、種々の変形が可能であり、本発明の範囲からこれらを排除するものではない。
【0129】
(付記1)RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置において、上位装置からのI/O要求に応じて、前記RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置をアクセスする制御部と、少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報と、少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報とを格納するテーブルと、旧RAID構成から新RAID構成に変更するため、データを一時格納するためのキャッシュメモリとを有し、前記制御部は、前記テーブルの前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記テーブルの前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトすることを特徴とするRAID装置。
【0130】
(付記2)前記制御部は、前記旧RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするRAIDレベル変換処理を行うことを特徴とする付記1のRAID装置。
【0131】
(付記3)前記制御部は、前記旧RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする容量増加処理を行うことを特徴とする付記1のRAID装置。
【0132】
(付記4)前記制御部は、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行し、且つその進捗状況を管理するとともに、前記変換中に、前記上位装置からのI/O要求に対し、変換済み領域かを判定し、変換済み領域に対しては、前記新RAID構成定義で、前記I/O要求を実行し、変換済みでない領域に対しては、前記旧RAID構成定義で、前記I/O要求を実行することを特徴とする付記1のRAID装置。
【0133】
(付記5)前記制御部は、新RAID構成定義によるRLBAを上位のLBAに変換した後、前記上位のLBAから前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記RLBAから前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトすることを特徴とする付記1のRAID装置。
【0134】
(付記6)前記制御部は、前記旧RAID構成から前記新RAID構成への変換後、前記旧RAID構成定義を前記テーブルから削除することを特徴とする付記1のRAID装置。
【0135】
(付記7)前記制御部は、指示された新RAID構成定義のパラメータと前記旧RAID構成定義とに従い、前記新RAID構成定義を、前記テーブルに作成することを特徴とする付記1のRAID装置。
【0136】
(付記8)前記制御部は、変換領域に対応する前記キャッシュメモリの領域を獲得した後、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行することを特徴とする付記1のRAID装置。
【0137】
(付記9)前記制御部は、前記変換領域に対応する前記キャッシュメモリの領域が獲得できない時は、前記変換処理を複数回に分けて実行することを特徴とする付記8のRAID装置。
【0138】
(付記10)前記制御部は、前記RAID構成のストライプに対応したストリップデプス、ストライプサイズに応じて、前記RLUマッピングすることを特徴とする付記1のRAID装置。
【0139】
(付記11)RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置の論理デバイス拡張方法において、少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップと、少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトすることを特徴とする論理デバイス拡張方法。
【0140】
(付記12)前記読出しステップは、前記旧RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、前記ライトステップは、前記新RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップからなることを特徴とする付記11の論理デバイス拡張方法。
【0141】
(付記13)前記読出しステップは、前記旧RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、前記ライトステップは、前記新RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする容量増加ステップからなることを特徴とする付記11の論理デバイス拡張方法。
【0142】
(付記14)前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行するその進捗状況を管理するステップと、前記変換中に、前記上位装置からのI/O要求に対し、変換済み領域かを判定するステップと、変換済み領域に対しては、前記新RAID構成定義で、前記I/O要求を実行するステップと、変換済みでない領域に対しては、前記旧RAID構成定義で、前記I/O要求を実行するステップとからなることを特徴とする付記11の論理デバイス拡張方法。
【0143】
(付記15)前記読出しステップは、新RAID構成定義によるRLBAを上位のLBAに変換した後、前記上位のLBAから前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、前記ライトステップは、前記RLBAから前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップからなることを特徴とする付記11の論理デバイス拡張方法。
【0144】
(付記16)前記旧RAID構成から前記新RAID構成への変換後、前記旧RAID構成定義を削除するステップを更に有することを特徴とする付記11の論理デバイス拡張方法。
【0145】
(付記17)指示された新RAID構成定義のパラメータと前記旧RAID構成定義とに従い、前記新RAID構成定義を、テーブルに作成するステップを更に有することを特徴とする付記11の論理デバイス拡張方法。
【0146】
(付記18)変換領域に対応する前記キャッシュメモリの領域を獲得した後、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行するステップを更に有することを特徴とする付記11の論理デバイス拡張方法。
【0147】
(付記19)前記変換領域に対応する前記キャッシュメモリの領域が獲得できない時は、前記変換処理を複数回に分けて実行するステップを更に有することを特徴とする付記18の論理デバイス拡張方法。
【0148】
(付記20)前記RAID構成のストライプに対応したストリップデプス、ストライプサイズに応じて、前記RLUマッピングするステップを更に有することを特徴とする付記11の論理デバイス拡張方法。
【0149】
【発明の効果】
このように、本発明では、少なくとも、RAIDレベルと論理デバイス数を定義した新旧のRAID構成定義情報を使用し、それぞれによりRLUマッピングして、RAID構成を変更するため、多様なRAIDレベルの変換、容量増加を活性状態で実現できる。
【図面の簡単な説明】
【図1】本発明の一実施の形態のストレージシステムの構成図である。
【図2】図1の制御モジュールの構成図である。
【図3】図2のRAID論理空間と論理テーブルの説明図である。
【図4】図2のRAID5の論理マッピング図である。
【図5】図4のRAID5のPLBA計算処理フロー図である。
【図6】図2のRAID0+1の論理マッピング図である。
【図7】図6のRAID0+1のPLBA計算処理フロー図である。
【図8】図1のRAIDグループ容量増加の一実施の形態の説明図である。
【図9】図1のRAIDグループ容量増加の他の実施の形態の説明図である。
【図10】図1のRAIDレベル変換の一実施の形態の説明図である。
【図11】図1のRAIDレベル変換の他の実施の形態の説明図である。
【図12】図1のRAIDレベル変換の関係図である。
【図13】図2のLDE全体処理フロー図である。
【図14】図13のRAID構成定義の説明図である。
【図15】図2のLDE制御モジュールの構成図である。
【図16】図15のLDEマッピング処理の説明図である。
【図17】図15のLDE詳細処理フロー図である。
【図18】図17のキャッシュメモリ獲得処理フロー図である。
【図19】図17のシーケンシャルLDEの説明図である。
【図20】図15のI/O競合処理フロー図である。
【図21】図15のリードアドレス計算処理フロー図である。
【図22】図15のライトアドレス計算処理フロー図である。
【図23】図21及び図22のアドレス変換処理の説明図である。
【図24】図8の容量増加の新旧RAID定義の説明図である。
【図25】図24の新旧RAID定義による容量増加の説明図である。
【図26】図10のRAIDレベル変換の新旧RAID定義の説明図である。
【図27】図26の新旧RAID定義によるRAIDレベル変換の説明図である。
【図28】図27のRAIDレベル変換によるRLUテーブル、DLUテーブルの遷移の説明図である。
【図29】本発明の他の実施の形態のリード/ライトアドレス変換の説明図である。
【符号の説明】
1、2 ストレージコントローラ
3 保守PC
11、12、21、23 チャネルアダプター
13、14、23、24 デバイスアダプター
10、20 CPU
15,25 メモリ
16、26 キャッシュメモリ
30、40 PCI−ノードブリッジ回路
31、41 PCIバス
50、50−1〜50−m、52−1〜52−n 物理デイスク装置(ストレージ装置)
34 保守エージェント
35 リソーススレッド
37 キャッシュスレッド
38 OVSMスレッド
39 RAIDスレッド
48 システム制御スレッド
70 OLUテーブル
72 RLUテーブル
74 DLUテーブル
76 PLUテーブル
80 テンポラリRAID定義
82 RAID定義
90 キャッシュメモリ獲得処理
92 進捗状況管理処理
94 リード処理
96 ライト処理
Claims (10)
- RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置において、
上位装置からのI/O要求に応じて、前記RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置をアクセスする制御部と、
少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報と、少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報とを格納するテーブルと、
旧RAID構成から新RAID構成に変更するため、データを一時格納するためのキャッシュメモリとを有し、
前記制御部は、前記テーブルの前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記テーブルの前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする
ことを特徴とするRAID装置。 - 前記制御部は、前記旧RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするRAIDレベル変換処理を行う
ことを特徴とする請求項1のRAID装置。 - 前記制御部は、前記旧RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記新RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする容量増加処理を行う
ことを特徴とする請求項1のRAID装置。 - 前記制御部は、前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行し、且つその進捗状況を管理するとともに、前記変換中に、前記上位装置からのI/O要求に対し、変換済み領域かを判定し、変換済み領域に対しては、前記新RAID構成定義で、前記I/O要求を実行し、変換済みでない領域に対しては、前記旧RAID構成定義で、前記I/O要求を実行する
ことを特徴とする請求項1のRAID装置。 - 前記制御部は、新RAID構成定義によるRLBAを上位のLBAに変換した後、前記上位のLBAから前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出し、前記RLBAから前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする
ことを特徴とする請求項1のRAID装置。 - RAID構成定義に従い、データを分解し、複数の物理デイスク装置に、並列にリード/ライトするRAID装置の論理デバイス拡張方法において、
少なくとも旧RAIDレベルと旧論理デバイス数を定義した旧RAID構成定義情報によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップと、
少なくとも新RAIDレベルと新論理デバイス数を定義した新RAID構成定義情報によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップとからなる
ことを特徴とする論理デバイス拡張方法。 - 前記読出しステップは、前記旧RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、
前記ライトステップは、前記新RAID構成定義のRAIDレベルによるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップからなる
ことを特徴とする請求項6の論理デバイス拡張方法。 - 前記読出しステップは、前記旧RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、
前記ライトステップは、前記新RAID構成定義の前記論理デバイス数によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトする容量増加ステップからなる
ことを特徴とする請求項6の論理デバイス拡張方法。 - 前記旧RAID構成から前記新RAID構成への変換をシーケンシャルに実行するその進捗状況を管理するステップと、
前記変換中に、前記上位装置からのI/O要求に対し、変換済み領域かを判定するステップと、
変換済み領域に対しては、前記新RAID構成定義で、前記I/O要求を実行するステップと、
変換済みでない領域に対しては、前記旧RAID構成定義で、前記I/O要求を実行するステップとを更に有する
ことを特徴とする請求項6の論理デバイス拡張方法。 - 前記読出しステップは、新RAID構成定義によるRLBAを上位のLBAに変換した後、前記上位のLBAから前記旧RAID構成定義によるRLUマッピングに従い、前記複数の物理デイスク装置からデータを前記キャッシュメモリに読出すステップからなり、
前記ライトステップは、前記RLBAから前記新RAID構成定義によるRLUマッピングに従い、前記キャッシュメモリに読み出したデータを、前記複数の物理デイスク装置にライトするステップからなる
ことを特徴とする請求項6の論理デバイス拡張方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002378284A JP2004213064A (ja) | 2002-12-26 | 2002-12-26 | Raid装置及びその論理デバイス拡張方法 |
US10/739,353 US7127557B2 (en) | 2002-12-26 | 2003-12-19 | RAID apparatus and logical device expansion method thereof |
EP03258143A EP1434125A3 (en) | 2002-12-26 | 2003-12-24 | Raid apparatus and logical device expansion method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002378284A JP2004213064A (ja) | 2002-12-26 | 2002-12-26 | Raid装置及びその論理デバイス拡張方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004213064A true JP2004213064A (ja) | 2004-07-29 |
Family
ID=32463604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002378284A Pending JP2004213064A (ja) | 2002-12-26 | 2002-12-26 | Raid装置及びその論理デバイス拡張方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7127557B2 (ja) |
EP (1) | EP1434125A3 (ja) |
JP (1) | JP2004213064A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252165A (ja) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | ディスクアレイ装置、及びコンピュータシステム |
JP2007323251A (ja) * | 2006-05-31 | 2007-12-13 | Fujitsu Ltd | Raid装置における容量拡張方法およびraid装置 |
JP2007323252A (ja) * | 2006-05-31 | 2007-12-13 | Fujitsu Ltd | Raid装置におけるraidレベル変換方法およびraid装置 |
JP2008033921A (ja) * | 2006-06-29 | 2008-02-14 | Seagate Technology Llc | 加速ストライピングによる分散記憶システム |
JP2008521074A (ja) * | 2004-11-05 | 2008-06-19 | データ ロボティクス インコーポレイテッド | 種々のサイズの格納デバイスを許容する動的にアップグレード可能な故障許容格納システムおよび方法 |
JP2009163719A (ja) * | 2007-12-31 | 2009-07-23 | Armorlink Sh Corp | Raidレベルマイグレーション方法とシステム |
JP2009265724A (ja) * | 2008-04-22 | 2009-11-12 | Nec Corp | Raid制御装置、評価用raid環境構築方法及びプログラム |
US7725664B2 (en) | 2005-02-09 | 2010-05-25 | Fujitsu Limited | Configuration definition setup method for disk array apparatus, and disk array apparatus |
US7873782B2 (en) | 2004-11-05 | 2011-01-18 | Data Robotics, Inc. | Filesystem-aware block storage system, apparatus, and method |
JP2011253213A (ja) * | 2010-05-31 | 2011-12-15 | Fujitsu Ltd | ストレージ装置、ストレージ装置制御プログラムおよびストレージ装置制御方法 |
US8266475B2 (en) | 2009-03-09 | 2012-09-11 | Fujitsu Limited | Storage management device, storage management method, and storage system |
JP2012226770A (ja) * | 2006-05-24 | 2012-11-15 | Compellent Technologies | Raid管理、再割振り、およびリストライピングのためのシステムおよび方法 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4236590B2 (ja) * | 2002-03-13 | 2009-03-11 | 富士通株式会社 | Raid装置の制御装置 |
JP4215606B2 (ja) * | 2003-09-24 | 2009-01-28 | 日本電気株式会社 | ディスクアレイ装置および記憶容量拡張方法ならびにプログラム |
JP4313650B2 (ja) | 2003-11-07 | 2009-08-12 | 株式会社日立製作所 | ファイルサーバ、冗長度回復方法、プログラム及び記録媒体 |
US7290087B2 (en) * | 2003-11-26 | 2007-10-30 | International Business Machines Corporation | Adaptive grouping in object raid |
US7334156B2 (en) * | 2004-02-13 | 2008-02-19 | Tandberg Data Corp. | Method and apparatus for RAID conversion |
US7406563B1 (en) * | 2004-03-09 | 2008-07-29 | Adaptec, Inc. | Method and apparatus for accessing a striped configuration of disks |
US7237062B2 (en) * | 2004-04-02 | 2007-06-26 | Seagate Technology Llc | Storage media data structure system and method |
US7363532B2 (en) * | 2004-08-20 | 2008-04-22 | Dell Products L.P. | System and method for recovering from a drive failure in a storage array |
US7913038B2 (en) * | 2005-06-03 | 2011-03-22 | Seagate Technology Llc | Distributed storage system with accelerated striping |
US8055938B1 (en) * | 2005-06-10 | 2011-11-08 | American Megatrends, Inc. | Performance in virtual tape libraries |
US7774542B2 (en) * | 2005-07-06 | 2010-08-10 | Ji Zhang | System and method for adaptive operation of storage capacities of RAID systems |
JP2007179297A (ja) * | 2005-12-28 | 2007-07-12 | Fujitsu Ltd | Raid5のパリティチェック強化方法、装置及びプログラム |
US7617361B2 (en) * | 2006-03-29 | 2009-11-10 | International Business Machines Corporation | Configureable redundant array of independent disks |
US20080091916A1 (en) * | 2006-10-17 | 2008-04-17 | Agere Systems, Inc. | Methods for data capacity expansion and data storage systems |
JP2009282708A (ja) * | 2008-05-21 | 2009-12-03 | Fujitsu Ltd | ディスクアレイ装置の制御方法及び制御装置 |
US8090907B2 (en) * | 2008-07-09 | 2012-01-03 | International Business Machines Corporation | Method for migration of synchronous remote copy service to a virtualization appliance |
US8656131B2 (en) * | 2008-10-31 | 2014-02-18 | Dot Hill Systems Corporation | Method and apparatus for expanding a virtual storage device |
JP5590028B2 (ja) * | 2009-03-27 | 2014-09-17 | 富士通株式会社 | 情報処理装置、メモリ制御方法、及びメモリ制御装置 |
US8145840B2 (en) * | 2009-06-05 | 2012-03-27 | Lsi Corporation | Method and system for storing excess data in a redundant array of independent disk level 6 |
KR20110106594A (ko) * | 2010-03-23 | 2011-09-29 | 주식회사 히타치엘지 데이터 스토리지 코리아 | 광디스크 드라이브 아카이브 시스템에서의 패리티 드라이브 설정 장치 및 방법 |
JP5552924B2 (ja) * | 2010-06-30 | 2014-07-16 | 富士通株式会社 | ストレージ制御プログラム、ストレージシステムおよびストレージ制御方法 |
US8775868B2 (en) | 2010-09-28 | 2014-07-08 | Pure Storage, Inc. | Adaptive RAID for an SSD environment |
US9032146B2 (en) * | 2010-11-30 | 2015-05-12 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Dynamic use of raid levels responsive to workload requirements |
JP5821392B2 (ja) * | 2011-08-12 | 2015-11-24 | 富士通株式会社 | ストレージ装置、およびストレージ管理方法 |
TWI480737B (zh) * | 2011-12-30 | 2015-04-11 | Pegatron Corp | 裝置擴充系統及其裝置擴充之方法 |
US8914578B2 (en) | 2012-09-27 | 2014-12-16 | Hewlett-Packard Development Company, L.P. | Capacity-expansion of a logical volume |
WO2016060675A1 (en) * | 2014-10-17 | 2016-04-21 | Hitachi, Ltd. | Method and apparatus for managing data recovery of distributed storage system |
JP6477025B2 (ja) * | 2015-03-03 | 2019-03-06 | 富士通株式会社 | ストレージ制御装置、制御方法、および制御プログラム |
CN106371950B (zh) * | 2015-07-20 | 2020-11-03 | 中兴通讯股份有限公司 | 一种实现raid级别转换的方法及装置 |
CN108228098A (zh) * | 2017-12-27 | 2018-06-29 | 创新科存储技术(深圳)有限公司 | 将raid0磁盘组转换成raid5磁盘组的方法 |
CN110058789B (zh) * | 2018-01-18 | 2022-06-03 | 伊姆西Ip控股有限责任公司 | 用于管理存储系统的方法、存储系统以及计算机程序产品 |
US11023384B2 (en) * | 2019-07-23 | 2021-06-01 | Nasuni Corporation | Cloud-native global file system with reshapable caching |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5574851A (en) | 1993-04-19 | 1996-11-12 | At&T Global Information Solutions Company | Method for performing on-line reconfiguration of a disk array concurrent with execution of disk I/O operations |
JPH07306758A (ja) | 1994-05-16 | 1995-11-21 | Hitachi Ltd | ディスクアレイ装置及びその制御方法 |
JPH08190461A (ja) | 1995-01-10 | 1996-07-23 | Hitachi Ltd | ディスクアレイシステム |
JPH10260788A (ja) | 1997-03-19 | 1998-09-29 | Toshiba Corp | ディスクアレイシステム |
US6128717A (en) * | 1998-01-20 | 2000-10-03 | Quantum Corporation | Method and apparatus for storage application programming interface for digital mass storage and retrieval based upon data object type or size and characteristics of the data storage device |
US6347359B1 (en) * | 1998-02-27 | 2002-02-12 | Aiwa Raid Technology, Inc. | Method for reconfiguration of RAID data storage systems |
US6751757B2 (en) * | 2000-12-07 | 2004-06-15 | 3Ware | Disk drive data protection using clusters containing error detection sectors |
JP2003044230A (ja) * | 2001-05-23 | 2003-02-14 | Hitachi Ltd | 記憶装置システム |
-
2002
- 2002-12-26 JP JP2002378284A patent/JP2004213064A/ja active Pending
-
2003
- 2003-12-19 US US10/739,353 patent/US7127557B2/en not_active Expired - Lifetime
- 2003-12-24 EP EP03258143A patent/EP1434125A3/en not_active Ceased
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7814273B2 (en) | 2004-11-05 | 2010-10-12 | Data Robotics, Inc. | Dynamically expandable and contractible fault-tolerant storage system permitting variously sized storage devices and method |
US7873782B2 (en) | 2004-11-05 | 2011-01-18 | Data Robotics, Inc. | Filesystem-aware block storage system, apparatus, and method |
US9043639B2 (en) | 2004-11-05 | 2015-05-26 | Drobo, Inc. | Dynamically expandable and contractible fault-tolerant storage system with virtual hot spare |
US7818531B2 (en) | 2004-11-05 | 2010-10-19 | Data Robotics, Inc. | Storage system condition indicator and method |
JP2008521074A (ja) * | 2004-11-05 | 2008-06-19 | データ ロボティクス インコーポレイテッド | 種々のサイズの格納デバイスを許容する動的にアップグレード可能な故障許容格納システムおよび方法 |
US7725664B2 (en) | 2005-02-09 | 2010-05-25 | Fujitsu Limited | Configuration definition setup method for disk array apparatus, and disk array apparatus |
JP2006252165A (ja) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | ディスクアレイ装置、及びコンピュータシステム |
JP2012226770A (ja) * | 2006-05-24 | 2012-11-15 | Compellent Technologies | Raid管理、再割振り、およびリストライピングのためのシステムおよび方法 |
US9244625B2 (en) | 2006-05-24 | 2016-01-26 | Compellent Technologies | System and method for raid management, reallocation, and restriping |
US10296237B2 (en) | 2006-05-24 | 2019-05-21 | Dell International L.L.C. | System and method for raid management, reallocation, and restripping |
JP2007323252A (ja) * | 2006-05-31 | 2007-12-13 | Fujitsu Ltd | Raid装置におけるraidレベル変換方法およびraid装置 |
JP2007323251A (ja) * | 2006-05-31 | 2007-12-13 | Fujitsu Ltd | Raid装置における容量拡張方法およびraid装置 |
JP2008033921A (ja) * | 2006-06-29 | 2008-02-14 | Seagate Technology Llc | 加速ストライピングによる分散記憶システム |
JP2009163719A (ja) * | 2007-12-31 | 2009-07-23 | Armorlink Sh Corp | Raidレベルマイグレーション方法とシステム |
JP2009265724A (ja) * | 2008-04-22 | 2009-11-12 | Nec Corp | Raid制御装置、評価用raid環境構築方法及びプログラム |
US8266475B2 (en) | 2009-03-09 | 2012-09-11 | Fujitsu Limited | Storage management device, storage management method, and storage system |
JP2011253213A (ja) * | 2010-05-31 | 2011-12-15 | Fujitsu Ltd | ストレージ装置、ストレージ装置制御プログラムおよびストレージ装置制御方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1434125A3 (en) | 2007-10-03 |
US20040133743A1 (en) | 2004-07-08 |
US7127557B2 (en) | 2006-10-24 |
EP1434125A2 (en) | 2004-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004213064A (ja) | Raid装置及びその論理デバイス拡張方法 | |
US5809224A (en) | On-line disk array reconfiguration | |
US7975168B2 (en) | Storage system executing parallel correction write | |
JP5031341B2 (ja) | 記憶システム及びデータ管理方法 | |
US6182198B1 (en) | Method and apparatus for providing a disc drive snapshot backup while allowing normal drive read, write, and buffering operations | |
US8402234B2 (en) | Storage system and storage migration method | |
US8639898B2 (en) | Storage apparatus and data copy method | |
JP2000099282A (ja) | ファイル管理システム | |
JP3713788B2 (ja) | 記憶装置および記憶装置システム | |
EP1311951A1 (en) | Three interconnected raid disk controller data processing system architecture | |
JP2003256150A (ja) | 記憶制御装置および記憶制御装置の制御方法 | |
JP2007513435A (ja) | データ組織化を管理するための方法、システム、及びプログラム | |
US20120011326A1 (en) | Storage system and method for changing configuration of cache memory for storage system | |
JP2002259062A (ja) | 記憶装置システム及び記憶装置システムにおけるデータの複写方法 | |
CN111857540B (zh) | 数据存取方法、装置和计算机程序产品 | |
JP2004171437A (ja) | ストレージ制御装置及びその制御方法 | |
US7650476B2 (en) | System, method and computer program product for generating a consistent point in time copy of data | |
JP2006318017A (ja) | Raid構成変換方法、装置及びプログラム並びにこれを用いたディスクアレイ装置 | |
JPH09282104A (ja) | 記憶装置のデータ記憶性能向上方法とその装置 | |
US20180307427A1 (en) | Storage control apparatus and storage control method | |
JPH1063576A (ja) | 階層ディスク装置およびその制御方法 | |
JP2003131818A (ja) | クラスタ構成ストレージにおけるクラスタ間raid構成 | |
WO2016194162A1 (ja) | 計算機システム | |
JP4398596B2 (ja) | ディスクアレイ装置 | |
WO2018055686A1 (ja) | 情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090210 |