JP2002259172A - 情報処理システム - Google Patents
情報処理システムInfo
- Publication number
- JP2002259172A JP2002259172A JP2001053472A JP2001053472A JP2002259172A JP 2002259172 A JP2002259172 A JP 2002259172A JP 2001053472 A JP2001053472 A JP 2001053472A JP 2001053472 A JP2001053472 A JP 2001053472A JP 2002259172 A JP2002259172 A JP 2002259172A
- Authority
- JP
- Japan
- Prior art keywords
- data
- information
- disk device
- disk
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
- G06F3/0617—Improving the reliability of storage systems in relation to availability
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
置する処理において、領域間のデータ転送をホストで行
うため、ホストおよびチャネルに負荷がかかる。 【解決手段】ホストはデータ転送元/先の領域情報をパ
ラメタとしてストレージへデータ転送を依頼する。スト
レージは内部で転送元のディスク装置から転送先のディ
スク装置へデータ転送を行う。対象データの転送が全て
完了したら、ホストはそのデータの格納場所を転送先領
域に変更して登録する。
Description
タ(ホスト)及び該ホストと接続される記憶装置を有す
る計算機システムに係り、特に、計算機システムが有す
る記憶装置に格納されたデータの移動を支援する機能に
関する。
は、ネットワークやディスク装置などのリソースがボト
ルネックとならないようにシステム設計が行われる。特
に、プロセッサなどに比べて低速な外部記憶装置は、性
能上のボトルネックとなりやすく、システム設計にあた
って様々な対策が施される。その一つとして、記憶装置
上のデータ格納形式の最適化が挙げられる。例えば、高
頻度でアクセスされるデータをより高速なディスク装置
に格納したり、データを複数のディスク装置に分散配置
することでデータアクセスの性能を改善できる。また、
いわゆるRAID(Redundant Array of Independent Di
sk)装置を使用する場合には、RAID装置のデータア
クセスのシーケンシャル性を考慮して、RAIDレベル
(冗長構成)を決定すれば、アクセス特性に適合したデー
タの格納が可能となる。
は、システムにおいて使用されるデータの格納形式を考
慮して、各データに割り当てられるディスク装置の容量
を決定することが必要となる。具体的には、データベー
ス(DB)におけるDB表の領域サイズや、ファイルシス
テム(FS)におけるFSサイズの決定がこれに相当す
る。通常、計算機システムの運用に伴って取り扱われる
データは増加していく。このため、システム設計時に
は、関連業務における過去の実績などを元にデータ量の
増加率を予測し、次に保守可能な時期までに予測される
データ量の増加に耐えられるだけの空き領域を確保する
ようにディスク装置の容量を決定して、それぞれのデー
タ領域が定義される。
データアクセス性能の向上およびデータ量の増加を考慮
して、記憶装置とデータの格納形式を組み合わせること
が重要となる。この組み合わせの決定を支援する手段と
して、Logical Volume Manager(LVM)がある。
部分領域をまとめ、論理的に一つのボリューム(これを
論理ボリュームと言い、以下「LV」と称する。)とし
てホストに提供するものである。LVMは、LVを管理
し、LVの作成、削除、サイズ変更(拡大/縮小)なども
行う。LVMは、LVを多重化するミラーリング機能
や、LVを小領域(ストライプ)に分割して、複数の物理
ボリューム(PV)に分散して配置するストライピング機
能も有する。
FSといったデータを格納する領域をPVではなくLV
上に配置することになる。このようにすることで、デー
タの格納形式の選択又は管理が容易となる。例えば、L
V上にFSを配置することで、通常1台のディスク装
置、またはその1つのパーティションに1つしか割り当
てられないFSを、複数のディスク装置に分散して配置
することが可能となる。また、ファイルの容量の増加に
合わせてLVを拡張することで、最小限の手間でFSを
拡張(再構成)することが可能となる。
運用を続けていくと、データの格納形式を見直す必要が
生じることがある。見直しの契機としては、データのア
クセス傾向やアクセス特性の変化、当初見積もりとは異
なるデータ量の変動などといった、システム設計時に想
定されていた業務モデルの見直しによるもの、ディスク
装置の追加や高速なリソースへの置き換えなどといっ
た、前提とする物理リソース構成の変更によるもの、拡
張を繰り返すことによる断片化(fragmentation)したL
VやDB表の連続化などといったデータ管理方式上必然
的に生じるものなどが考えられる。このような場合、デ
ータの格納形式を見直し、データを再配置することで、
システムの性能を改善することができる。
配置を行うには、従来の技術においては、ホストの介在
によるデータ転送が必要となる。
PVにまとめる場合のデータ再配置処理の手順を以下に
示す。 (1)処理対象となるLVの容量分の領域をPV上に確保
する。 (2)LVからホストがデータをリードし、それを新しい
LVの領域にライトする。 (3)(2)を繰り返して全データをコピーし終えたら、LV
とPVマッピング情報を変更する。
全体という大量のデータ転送が生じるため、データ転送
元/先のPVに大量の入出力(I/O)が発生する。同時
に、ホストおよびチャネルにも多大な負荷がかかり、他
のLV内のデータを対象とした実行中の処理にも性能上
悪影響を及ぼしてしまう。
は、再配置の対象となるデータへのアクセスについて、
少なくともデータの更新を抑止する必要がある。例え
ば、LVの再構成の場合、通常、LVをオフライン(Uni
xではアンマウント)とし、再構成完了後にオンライン(U
nixではマウント)にすることで、データ再配置中のデー
タのアクセスを抑止する。データアクセスの対象となる
LVがオフラインとなるため、そのLVを利用する業務
は、データ再配置処理の間、停止することになる。
行う場合には、そのデータにアクセスする業務を所定の
期間中断することができる時間帯に行わなければならな
い。従って、計算機システムの保守作業に時間的制約が
生じてしまう。
ータを再配置する際に、移動元データ領域から移動先デ
ータ領域へのデータ転送によるホストおよびチャネルの
負荷を軽減することにある。
により、データへのアクセスが不可となる期間を可能な
限り削減し、そのデータを利用する業務が中断される時
間を削減することにある。
に、本発明では、ホストコンピュータと、前記ホストコ
ンピュータに接続され、複数のディスク装置を有する記
憶装置とを有する情報処理システムで、以下の構成とす
る。ホストコンピュータは、複数のディスク装置の物理
的な記憶領域と論理的な記憶領域との対応関係の情報が
登録されたテーブルを有する。ホストコンピュータは、
第一のディスク装置に記録されたデータを第二のディス
ク装置に移動する場合に、第二のディスク装置の物理的
な記憶領域を示す情報をテーブルから取得する。ホスト
コンピュータは、取得した情報を、記憶装置に転送す
る。データの移動が終了した後、ホストコンピュータ
は、テーブルに登録された情報を更新する。また、記憶
装置は、ホストコンピュータから転送された前記情報を
用いて、移動元のデータを移動先のディスク装置に複写
する。
合のデータの転送を記憶装置側で行うことで、データ転
送によるホストおよびチャネル負荷を軽減することがで
きる。
純に領域間コピーで実現するのではなく、転送元と転送
先のデータ領域で一時的に内容の同期をとるペアを形成
し、データ転送中およびデータ転送完了後に転送元デー
タ領域に対して行われたデータ更新を全て転送先へ反映
する構成とすることも出来る。
装置でディスク装置の仮想的な記憶領域の管理を行う構
成も考えられる。
機システムの第1実施形態における構成を示す構成図で
ある。
スト100及び記憶装置110を有する。ホスト100
と記憶装置110は、SCSIバス等の通信線で接続さ
れている。両者間の交信は通信線を介して行われる。
02及びチャネル103を有し、それぞれが内部バスで
接続される。
ケーションプログラム(AP)を実行する。APが動作
する際のメモリ割り当てや、記憶装置110への入出力
制御は、CPU101で動作するオペレーティングシス
テム(OS)およびOSに関連するソフトウェアで行わ
れる。LVM142も、OSに関連するソフトウェアで
ある。LVM142は、記憶装置110により提供され
るPVの記憶領域をまとめてLVとして仮想的にAPに
提供する。本実施形態では、CPU101で、LVM1
42が実行される。LVM142は、後述するLV−P
V対応情報141などの制御情報を用いてLVの制御を
行う。
グラム、OS、LVM等のOS関連ソフトウェアの実行
オブジェクトコードや各ソフトウェアが使用するデータ
や制御情報等が格納される。
1のテーブル図である。LV−PV対応情報141は、
LVが対応するPV(又はPVが対応するLV)を示す情
報である。LV−PV対応情報141のテーブルには、
LV管理情報300とPV管理情報400が、1つのL
V(PV)ごとに設けられる。
1、LE数302、LEサイズ303及びLE−PE対
応情報310のエントリを有する。PVリスト301に
は、LVに対して割り当てられているPVを示す情報が
登録される。LVとPVは、それぞれLE(Logical Ext
ent)およびPE(Physical Extent)という同じサイズの
小領域に分割されている。LEに対してPEを割り当て
ることで、LVの物理配置の自由度が向上する。LE数
302には、LVに含まれるLE数が登録される。LE
サイズ303には、LEのサイズを示す情報が登録され
る。LE−PE対応情報310のエントリは、LE番号
311に割り当てられるLEに対応するPV名312お
よびPE番号313のエントリを有する。LE−PE対
応情報310には、LEが割り当てられているPEを示
す情報が登録される。
逆に、各PVに割り当てられるLVの情報を示すもので
ある。
1、PE数402、PEサイズ403及びPE−LE対
応情報410のエントリを有する。LVリスト401に
は、PVに対して割り当てられているLVを示す情報が
登録される。PE数402には、PVに含まれるPE数
が登録される。PEサイズ403には、PEのサイズを
示す情報が登録される。PE−LE対応情報410は、
PE番号411に割り当てられるPEに対応するLV名
412およびLE番号413のエントリを有する。PE
−LE対応情報410には、PEが割り当てられている
LEを示す情報が登録される。
も、PVへアクセスするために必要な情報が保持され
る。例えば、PVへアクセスするための経路情報とし
て、接続チャネル103の番号および記憶装置110の
ポート114の番号や、記憶装置110内でのデバイス
番号(以下、PV番号と呼ぶ)が格納される。
置110への入出力の制御を行うコントローラである。
チャネル103は、通信線上の要求コマンドの送信、完
了報告の通知、対象データの送受信、通信フェーズ管理
等、通信プロトコルの制御を行う。通信線がSCSIバ
スの場合、SCSIアダプタカードが、チャネル103
に相当する。
を行うポート114、ディスク装置150、記憶制御プ
ロセッサ111、制御メモリ112及びディスクキャッ
シュ113を有する。記憶装置110の可用性を向上さ
せるため、記憶装置110の各部位は多重化されてい
る。したがって、ある部位に障害が発生した場合にも、
残った正常な構成部位による縮退状態での運用が可能で
ある。
複数台接続されたRAIDシステムの場合、記憶制御プ
ロセッサ111による論理物理対応管理によるエミュレ
ーションを使用することによって、複数台のディスク装
置150を、論理的に1台又は複数のディスク装置とし
てホスト100に認識させることができる。ただし、本
実施形態では、説明を簡略化するため、ホスト100が
アクセスするPV、すなわち記憶装置110での論理デ
ィスク装置は、ディスク装置150と一対一に対応して
いるものと仮定する。
0からPVへのアクセスを受け付け、ディスク装置15
0とディスクキャッシュ113間のデータ転送、ディス
クキャッシュ113とホスト100間のデータ転送、記
憶装置110内でのディスク装置150の論理物理対応
の管理、ディスクキャッシュ113の領域管理などを行
う。
00からのライトデータや、ディスク装置150からの
リードデータが、転送先に送信されるまでの間、一時的
に保持される。ディスクキャッシュ113に格納された
データは、LRU(Least Recently Used)などの方式で
管理される。ディスクキャッシュ113を用いて、ライ
トデータをホストのI/O要求とは非同期にディスク装
置150へ書き込む処理も行われる。これらのキャッシ
ュの制御方法は従来公知の技術であるので、説明は省略
する。
0への入出力を制御するために記憶制御プロセッサ11
1が用いる各種制御情報のテーブルが格納される。制御
情報のテーブルには、ディスクキャッシュ113の領域
割り当て管理に用いるキャッシュ管理情報144、論理
ディスク装置とディスク装置150との対応等の管理に
用いられる記憶装置管理情報143、ホスト100から
指示された領域間のデータ転送処理の対象範囲や処理進
捗状況等の管理に用いられるデータ転送領域情報145
がある。
ブル図である。転送元範囲情報501及び転送先範囲情
報502には、ホスト100から指示されたデータ転送
の対象となるデータ領域の範囲を示す情報が登録され
る。本実施形態では、転送元/先のデータ領域が不連続
であるケースを想定し、転送元範囲情報501及び転送
先範囲情報502には、連続する部分領域毎に、その部
分領域を含むPV番号、PV内相対アドレスで示される
先頭位置およびサイズを連ねたリストが登録される。
尚、転送元/先のデータ領域の総容量は等しくなければ
ならない。
で転送されたデータの量を示す情報が登録される。進捗
ポインタ503に登録された情報を用いて、データ転送
処理の進捗が管理される。同期状態504と差分ビット
マップ505は、本実施形態では使用されないので、説
明を省略する。
ロセッサ111の動作を説明する。
り当て状態等の情報から、特定のLVについて再構成が
必要であることを判断すると、LVの再構成の指示を行
う。本実施形態では、図2に示すように、lv0が、2台
のPV、pv0とpv1上にlv0_0とlv0_1として格納されてい
るとき、lv0をpv2内領域に新規に確保されたlv0_0'とlv
0_1'に移動する指示を出した場合について説明する。
データ再配置処理131及び記憶装置110の記憶制御
プロセッサ111で動作するコマンド処理132が協働
することで実現される。
処理131のフロー図である。データ再配置処理131
は、ユーザ等がLVの再配置を指示した場合に実行され
る。データ再配置処理131では、その処理が実行され
る前に、再配置対象であるLV名と再配置先のPV名が
取得される。
するアクセスを抑止するために、対象となるLVをオフ
ラインにする。LVのオフラインは、例えば、OSがU
NIX(登録商標)である場合、デバイス(LV)をアン
マウントすることで実現できる(ステップ601)。
1のLV管理情報300を参照して、対象となるLVの
データが格納されているPVおよびPEを求める。CP
U101は、LE数302とLEサイズ303から、対
象となるLVサイズを算出する。対象となるLVの全体
もしくは一部が既に転送先PVに格納されている場合に
は、CPU101は、転送先PVに格納されている部分
については、転送を行わない。ただし、以下の説明で
は、転送対象からはずされる部分は存在しないと仮定す
る(ステップ602)。
象領域サイズ分のPEを、転送先PV上に確保する。具
体的に、CPU101は、PV管理情報400のPE−
LE対応情報410を参照して、LEに未割り当てのP
Eを求め、転送先として必要となる容量分のPEを確保
する。PEの確保は、転送先PVおよびPEが記憶され
るだけでもよい。しかし、他の処理によりPEを別の目
的で確保されてしまう可能性がある場合は、転送に使用
するPEをあらかじめ確保しておく。具体的には、PV
のPE割り当ての変更を一定期間禁止することを示す構
成変更処理排他フラグをPV毎に設ける、構成変更処理
排他フラグをPV毎ではなくPE毎に設ける、又はデー
タ転送が完了する前に、PE−LE対応情報410の対
象PE項目を、転送元LVに割り当て済みであるように
変更する等の方法が考えられる(ステップ603)。
は、転送元のPV領域をいくつかの部分領域に分割し、
各部分領域毎のデータ転送処理要求を記憶装置110に
発行する。記憶装置110へのデータ転送処理の要求
は、既存のプロトコルで準備されている標準の入出力コ
マンドではなく、データ転送処理の要求用に新たに追加
した専用のコマンドを用いて行われる。PV領域の分割
は、適当なサイズで転送元領域を先頭から順に区切って
行われる。分割に適当なサイズは、記憶装置110へ要
求されたデータの転送処理に要する時間と、要求元ホス
ト100でのその要求に対する応答時間として許容可能
な時間とから決定される。転送処理要求のコマンドがP
V毎に発行されるので、転送元LVが複数のPV上に分
散して配置されている場合には、部分領域が2つのPV
にまたがらないように分割する必要がある。転送処理要
求のコマンドには、転送元PVの先頭アドレスとサイ
ズ、および転送先のPV番号、PV内先頭アドレス、デ
ータサイズが含まれる。チャネル103を介してデータ
転送要求コマンドを記憶装置110へ送出したら、CP
U101は、記憶装置110からの完了報告を待つ(ス
テップ604)。
要求コマンドの完了報告を受信したCPU101は、転
送元LVについて全対象領域のデータ転送が完了したか
をチェックする。データ転送が完了していない部分領域
があれば、CPU101は、ステップ604の処理に戻
る(ステップ605)。
CPU101は、転送の対象となったLVが転送先PV
へ対応づけられるよう、LV−PV対応情報141を変
更する。具体的には、CPU101は、LV管理情報3
00のPVリスト301に登録された情報を転送先PV
を示す情報に変更し、LE−PE対応情報310のPV
名312とPE番号313に登録された情報を、転送先
PVのPEを示す情報となるよう変更する。CPU10
1は、転送先PVのPV管理情報400のLVリスト4
01に、転送対象となったLVを追加し、PE−LE対
応情報410のLV名412とLE413番号を、転送
先LVのLEに対応するよう変更する。CPU101
は、転送元PVのPV管理情報400のLVリスト40
1から転送対象となったLVを削除し、PE−LE対応
情報410の転送元PE項目をLV未割り当てに変更す
る(ステップ606)。
のオフラインを解除し、処理を終了する(ステップ60
7)。
マンド処理132のフロー図である。コマンド処理13
2は、ホスト100のコマンドを記憶装置110が受領
した時に実行される。
スク装置150に発行された処理要求コマンドの種別を
チェックする(ステップ701)。
合、記憶装置110は、コピー処理133を起動し、そ
の完了を待つ(ステップ702)。
装置110は、そのリード要求に対して、対象となるデ
ータがディスクキャッシュ113上に有るか否かをチェ
ックする。必要ならば、記憶装置110は、キャッシュ
領域を確保して、ディスク装置150から対象となるデ
ータを、確保したキャッシュ領域へ読み出し、ホスト1
00へ転送する(ステップ703〜ステップ707)。
装置110は、ディスクキャッシュ113のキャッシュ
領域を確保し、ホスト100から受け取ったデータを一
旦そのキャッシュ領域に書き込む。その後、ディスク装
置150へライトする(ステップ709〜ステップ71
2)。
ト100へ報告し、処理を終了する(ステップ70
8)。
133のフロー図である。コピー処理133は、記憶装
置110がデータ転送要求のコマンドを受けとったとき
に実行される。
0は、そのデータ転送要求について転送元/先データ領
域の指定情報の妥当性をチェックする。具体的には、転
送元/先データ領域のサイズが同じであるか、既に別の
データ転送要求の転送元/先データ領域として設定され
ていないか等をチェックする。指定情報が妥当でない場
合、記憶装置110は、エラーをホスト100へ報告す
る(ステップ801)。
0は、データ転送処理要求に対応するデータ転送領域情
報145を格納する領域を制御メモリ112上に割り当
て、初期化する。具体的には、転送元範囲情報501と
転送先範囲情報502を、受け取ったデータ転送処理要
求に含まれる情報を元に設定し、進捗ポインタ503を
初期値である0に設定する(ステップ802)。
対象となる転送元ディスク装置150のデータ領域の先
頭から、順次データをディスクキャッシュ113にリー
ドし、リードしたデータを転送先ディスク装置150へ
ライトする。このときの一回のデータ転送のデータ量
は、ディスク装置150におけるヘッド位置づけオーバ
ヘッドを考慮すると、ある程度大きいサイズのデータ領
域であることが望ましい。しかし、1回のデータ量が大
きすぎると、ディスク装置150と同じバスに接続され
る他のディスク装置150に格納されたデータにアクセ
スする他の処理に悪影響を及ぼす可能性がある。したが
って、一回のデータ転送のデータ量は、コピー処理13
3に期待される処理速度と、他の処理への影響とを考慮
して決定する必要がある(ステップ803〜804)。
えたら、記憶装置110は、転送したデータ容量に応じ
て、進捗ポインタ503の内容を更新する。
参照して、全対象データについてコピー処理が完了した
かをチェックする。コピー処理が完了していない部分が
あれば、ステップ804の処理へ戻る(ステップ80
5)。
0は、コピー処理の完了を、コマンド処理132へ報告
し、処理を終了する(ステップ806)。
処理の指示だけを行えば良く、実際のデータ転送は記憶
装置が行うので、ホストやネットワーク等にかかる負荷
が軽減されることとなる。
た計算機システムの構成図である。本実施形態では、デ
ータ転送領域情報145に含まれる同期状態504及び
差分ビットマップが使用される点及びコマンドボリュー
ム900を有する点が、第1実施形態と異なる。以下、
第2実施形態に特有な部分のみを説明する。
送先/元データ領域の同期ペア状態を示す情報が登録さ
れる。同期ペア状態の取りうる値としては、「ペア未形
成」、「ペア形成中」、「ペア形成済」がある。「ペア
形成中」の状態とは、転送が指示されたデータ領域間
で、転送元から転送先へデータの転送処理が実行中であ
る状態を示す。「ペア形成済」の状態とは、データ領域
間でのコピー処理が完了し、同期ペアが形成されている
ことを示す。ただし、「ペア形成中」の状態において転
送元データ領域のデータの更新があった場合、「ペア形
成済」状態でも、同期ペアのデータ領域間に差分がある
可能性がある。「ペア未形成」の状態とは、データ領域
間のデータ転送が指示されていないか、データ転送が完
了した後、ホスト100の指示により同期ペアが解除さ
れた状態であることを示す。ただし、この状態は、デー
タ転送処理がそもそも存在しないか、完了してしまって
いる状態なので、制御メモリ112上には、データ転送
領域情報145は確保されない。したがって、実際に同
期状態504に設定されるのは、「ペア形成中」と「ペ
ア形成済」の2つである。
よびペア形成済の状態において、コピー元データ領域内
のデータ更新の有無を示す。情報量を削減するため、デ
ィスク装置150の全てのデータ領域を、例えば64KBの
特定サイズの小領域に分割し、その小領域単位と差分ビ
ットマップ505の1ビットを一対一に対応させる。差
分ビットマップ505には、小領域に対するデータの更
新の有無が記録される。
も、同様にディスク装置150を小領域に分割し、小領
域毎にキャッシュを割り当てることで、キャッシュ管理
を簡単化することが多い。この場合、差分ビットマップ
505の1ビットをキャッシュ割り当て単位である小領
域1つもしくは複数に対応づけることで、ビットマップ
の設定を容易にできる。
ロトコルには含まれない特殊な処理要求(データ転送処
理要求等)が、データとして書き込まれる。第1実施形
態では、記憶装置110に対するデータ転送処理要求の
コマンドとして専用コマンドを追加した。本実施形態で
は、通常のライト要求コマンドを用い、データ転送要求
がデータとしてコマンドボリューム900に書き込まれ
ることで、記憶装置100へデータ転送要求が発行され
る。
リューム900に対するライト要求を受け付けると、ラ
イトデータを処理要求として解析し、対応する処理を起
動する。要求される処理をライト要求の延長で実行して
も応答時間が問題にならない程度短いならば、記憶制御
プロセッサ111は、要求処理を実行し、ライト要求と
合わせて完了報告を行う。要求される処理の実行時間が
ある程度長い場合には、記憶制御プロセッサ111は、
一旦ライト処理について完了報告を行う。ホスト100
は、周期的にその要求処理が完了したかをチェックす
る。
憶制御プロセッサ111の動作を説明する。
131及び記憶装置110の記憶制御プロセッサ111
で動作するコマンド処理132が、協働してLVの再構
成を行うのは、第1実施形態と同様である。
31のフロー図である。
テップ602、603と同様の処理のため、説明は省略
する。
応する全PV領域のデータ転送処理の要求を、記憶装置
110へ一括して発行する。コマンドボリューム900
へのライトデータに含まれる転送要求には、LV対象領
域に対応する全PV領域の範囲情報(各部分領域の位置
情報(各PV番号、先頭アドレス、サイズ)のリスト)及
び転送先PV領域の範囲情報等のパラメタが含まれる。
記憶装置110へライト要求コマンドを発行したら、C
PU101は、記憶装置110からの完了報告を待つ
(ステップ1003)。
は、規定の時間が経過するのを待つ(ステップ100
4)。
ア状態を参照する要求を記憶装置110へ発行し、その
完了を待つ。同期ペア状態を参照するには、具体的に
は、CPU101は、同期ペア状態の準備要求を含むデ
ータをコマンドボリューム900へ書き込むためのライ
ト要求を発行する。CPU101は、記憶装置110か
ら完了報告を受けた後、コマンドボリューム900への
リード要求を発行する(ステップ1005)。
「ペア形成済み」であるか否かを判定する。同期ペア状
態が「ペア形成済み」である場合、CPU101は、ス
テップ1007の処理を行う。同期ペア状態が「ペア形
成済み」ではない場合、CPU101は、ステップ10
04の処理に戻り、同期ペア状態が変更されるのを待つ
(ステップ1006)。
101は、LVをオフラインにする(ステップ100
7)。
と転送先領域で形成済みの同期ペアの解除要求を、コマ
ンドボリューム900を用いて発行する(ステップ10
08)。コマンドボリューム900へ同期ペア解除要求
を転送するライト要求コマンドの完了報告が記憶装置1
10より報告されたら、CPU101は、ステップ10
04と同じ方法で、データ領域の同期ペア状態を参照す
る(ステップ1009)。
でなければ(ステップ1010)、CPU101は、規
定時間が経過するのを待ち(ステップ1011)、ステ
ップ1009の処理に戻って同期状態504の内容を再
取得する。同期状態504が「ペア未形成」となってい
れば、CPU101は、ステップ1012以降の処理を
行う。CPU101は、LVのLV−PV対応情報14
1を更新し、LVをオンラインにしてLV再配置処理を
完了する。
である。
取ったコマンドの対象が、コマンドボリューム900で
あるか否かを判定する(ステップ1101)。
0であれば、記憶装置110は、コピー処理を起動し、
その完了を待つ(ステップ1102)。
0でなければ、記憶装置110は、コマンドの種別を判
定する。コマンドがリードかライトかでそれぞれステッ
プ1104、1110へ遷移する(ステップ110
3)。コマンドの種別がリードである場合には、記憶装
置110は、図7のステップ703から707と同様の
リード処理を行う(ステップ1104〜1108)。
憶装置110は、図7のステップ709から712と同
様のライト処理を行う(ステップ1110〜111
3)。
態に特有な部分で、データ転送処理中にホスト100の
別の処理が転送中のLVのデータに対してアクセスする
場合の処理部分である。
データに、データ転送領域として登録されているデータ
領域が含まれていないかを判定する(ステップ111
4)。登録されているデータ領域が含まれている場合、
記憶装置110は、データ転送領域のうち、更新された
部分を特定し、更新部分に対応した差分ビットマップを
設定する(ステップ1115)。
ト100へ報告する(ステップ1109)。
ある。
00へ送信されたコマンドの種別を切り分ける(ステッ
プ1201)。
110は、コマンドボリューム900へのライトデータ
の内容を解析し、処理要求内容や、転送元/先データ領
域範囲指定の妥当性を判定する(ステップ1202)。
妥当性に問題のある場合は、記憶装置110は、エラー
を上位処理へ報告して処理を中断する(ステップ120
3)。問題ない場合は正常終了を報告し、記憶装置11
0は、ライトデータとして送られてきた処理要求の種別
を判定する(ステップ1204)。
10は、図8のステップ802から805と同様のデー
タ転送処理を行う(ステップ1205〜1208)。た
だし、ステップ1205におけるデータ転送領域情報1
45の初期化処理では、同期状態504を「ペア形成
中」にし、差分ビットマップ505を全て0クリアする
処理を行う。データ転送処理が完了したら、記憶装置1
10は、同期状態504を「ペア形成済み」に変更し、
処理を終了する(ステップ1209)。
0は、解除対象のデータ転送領域ペアのデータ転送領域
情報145を参照し、差分ビットマップ505にOnが設
定されている部分がないかをチェックする(ステップ1
210)。差分ビットマップ505にOであるビットが
存在する、すなわちデータ転送領域に転送元/先で同期
していない部分がある場合、未反映データを転送先デー
タ領域へ転送する(ステップ1212)。記憶装置11
0は、ステップ1210へ戻り、差分ビットマップ50
5のチェックをやり直す。
たら、記憶装置110は、データ領域のデータ転送領域
情報145をクリアし、データ転送領域情報145を格
納する制御メモリ112の領域の割り当てを解除し、処
理を終了する(ステップ1213)。
記憶装置110は、要求されたデータ転送領域の同期ペ
ア状態を準備する(ステップ1214)。データ転送領
域がまだ存在し、制御メモリ112上にメモリ領域が割
り当てられていれば、同期ペア状態として、同期状態5
04の値を用いる。データ転送領域が存在せず、メモリ
領域が割り当てられていなければ、同期ペア状態とし
て、「ペア未形成」を用いる。ステップ1214で準備
された同期ペア状態は、コマンドボリューム900に対
して発行されたリード要求のリードデータとして転送さ
れる(ステップ1215、1216)。
をオフラインにする時間を短くした上でLVの再配置を
ホスト等に負担を掛けないで行うことが出来る。
第1及び第2の実施形態と同一である。ただし、本実施
形態では、記憶装置110が、ホスト100で使用され
ていないディスク装置150の記憶領域を管理する。そ
して、記憶装置110が、転送先のPVとして使用され
るデータ領域の条件、例えば、領域長、領域が格納され
る論理ユニット番号、接続に用いる接続ポート114の
番号およびディスクタイプなどの指示をユーザ又は保守
員から受ける。記憶装置110は、ユーザの指示に合致
するデータ領域をホスト100が使用していないデータ
領域から選びだし、ユーザ又は保守員に提示する。この
点で、第1、第2実施形態と異なる。以下、記憶装置1
10における情報の提示の方法について説明する。
ていないディスク装置150の番号のリストを、未使用
領域管理情報として保持・管理する。
らの領域確保の指示を受け取ると、以下の処理を行う。
0は、保持している未使用領域管理情報を検索して条件
を満たす未使用ディスク装置150を選定する(ステッ
プ1−1)。
150番号をユーザまたは保守員へ報告する(ステップ
1−2)。
未使用のディスク装置150の番号を得ると、以下の手
順にしたがって、データ転送の指示を行う。ユーザ又は
保守員は、未使用のディスク装置150のOS管理情報
を設定する。たとえば、UNIX OSでは、未使用の
ディスク装置150に対して、デバイスファイル名を定
義する(ステップ2−1)。
されたディスク装置150について、LVMが使用する
ことができるように、PVとして定義する(ステップ2
−2)。
を転送先として指定して、記憶装置110に対して本発
明によるデータ転送を指示する(ステップ2−3)。
員は、LV−PV対応情報141の更新を指示する(ス
テップ2−4)。
ばRAID装置などのように、複数のディスク装置15
0の記憶領域の一部又は全体の集合から構成する論理デ
ィスク装置をホスト100へ提示するような記憶装置1
10である場合を考える。この場合、未使用領域管理情
報は、各未使用領域が属するディスク装置150番号お
よび先頭領域と領域長のリストで構成される。
を確保する。
に合ったディスク装置150の未使用領域を検索する
(ステップ3−1)。
装置110は、確保できない旨をユーザに通知し、処理
を終了する(ステップ3−2)。
つ見つけたら、記憶装置110は、ディスク装置150
に属する未使用領域の容量を確認し、指示分の領域があ
れば、指示分の領域を確保する。具体的には、記憶装置
110は、未使用領域管理情報から確保領域の登録を解
除する。ディスク装置150の未使用領域容量が指示さ
れた分に満たない場合、未使用領域全体を確保し、別の
ディスク装置150を検索し、条件に合った未使用領域
を確保する(ステップ3−3)。
を、指示分の容量のデータ領域を確保するまで繰り返す
(ステップ3−4)。
理物理変換テーブルへ、確保された領域を登録すること
で、確保された領域で構成される論理ディスク装置を定
義する(ステップ3−5)。
装置の情報を使用者等に報告する(ステップ3−6)。
は、第1の実施形態と同じく専用のコマンドを用いても
よいし、第2の実施形態と同じくコマンドボリュームへ
の命令書き込みでも構わない。保守用に記憶装置110
へ接続するサービスプロセッサを設け、サービスプロセ
ッサからコマンドを発行する構成も考えられる。
一連の処理をスクリプト化することも可能である。その
場合、ユーザまたは保守員は、転送先データ領域の選定
条件をより詳細に指定することで、転送先データ領域を
選定し、データ転送を自動的に実行することが可能とな
る。転送先データ領域の条件としては、記憶装置110
の記憶領域での連続性、格納されるディスク装置150
の物理容量、ヘッド位置付け時間やデータ転送速度など
のアクセス性能が考えられる。RAID装置の場合に
は、RAIDレベルなどの物理構成条件なども転送先デ
ータ領域の条件として考えられる。特定のLVと物理構
成、すなわちディスク装置150やディスク装置150
が接続される内部パスおよび記憶制御プロセッサ111
を共有しないという条件も考えられる。
指定せずに、転送元LVと転送先領域の選定条件のみを
ユーザが指定することで、データ転送を指示する方式も
考えられる。この場合、記憶装置110は、転送先領域
を選定条件に従って選定し、新規に生成した論理ディス
ク装置へデータの転送を行う。記憶装置110は、デー
タの転送が完了したら、転送の完了及び転送先として選
定した領域情報をホスト100へ報告する。報告を受け
たホスト100は、報告された転送先論理ディスク装置
に対して、ステップ2−1、2−2及び2−4の処理に
よりLVの移動を完了する。このときステップ2−2
で、論理ディスク装置内のデータは有効なままPVが定
義される必要がある。
ず、その要旨の範囲内で数々の変形が可能である。
供される論理ディスク装置は、実際のディスク装置15
0と一対一対応であるとしているが、PVは、記憶装置
110内でRAID5レベルなどのRAIDで構成され
ていてもよい。その場合、ホスト100は、記憶装置1
10が提供する論理ディスク装置へI/Oを発行する。
記憶制御プロセッサ111は、論理ディスク装置へのI
/Oを、論理物理変換によりディスク装置150へのI
/Oに変換する。
て、LVMの管理するLVの再配置を採用しているが、
LVが未割り当てなPEを連続化(ガベージコレクショ
ン)する処理や、DBMSの管理するDB表の再配置の
処理など、他のデータ再配置にも本発明を適用すること
が可能である。
のデータ転送処理要求方法について、第1の実施形態の
専用コマンドを使用する方法と、第2の実施形態のコマ
ンドボリューム900を利用する方法は、両実施形態で
入れ替えても実現可能である。
を想定しているが、複数台としても構わない。その場合
には、複数台のPVのそれぞれについて、転送元データ
をどのように分散させるかを指定する必要がある。複数
のPVへの分散の方法としては、各PVに均等に分配す
る場合、PVの指定順に空き容量の許す限り詰め込んで
いく場合が考えられる。また、均等に分配する場合に
は、さらに、各PV内でデータを連続させる場合、特定
サイズでデータが分割され、RAIDにおけるストライ
ピングの如く分割されたデータを各PVに順に格納する
場合などが考えられる。
て連続領域をPEに割り当ててから、データ再配置処理
131にパラメタとして引き渡す、あるいは、データ再
配置処理内で前述した空きPEのガベージコレクション
を行っても良い。
クセスは発生しないことを前提としている。つまり、記
憶装置110での転送先データ領域に対するアクセス抑
止の考慮はなく、転送先データ領域へのアクセスがある
と、そのままアクセス対象となる領域に対してデータ参
照/更新が行われる。しかし、ホスト100でのアクセ
ス抑止の保証がないケースにそなえて、記憶装置110
で、データ転送領域の転送先データ領域として登録され
ているデータ領域に対するI/Oを拒否する構成も考えら
れる。逆に、データ転送処理の完了を待たずに、ホスト
100が、LV−PV対応情報145を再配置後の状態
に更新し、転送対象のLVへのアクセスを、転送先PV
で受け付ける方法をとってもよい。この場合、記憶装置
110でデータ転送領域のペアを造り、同期化のための
データコピーを行うのは第2の実施形態と同じである。
ただし、転送先領域へのリード要求に対しては転送元領
域のデータに参照し、転送先領域へのライト要求に対し
ては、転送元領域にもデータの反映を行う必要がある。
間、LVをオフラインとするだけでLVの再配置処理を
おこなうことができ、システムの可用性を向上すること
ができる。
装置に格納したデータを別の領域に移動する際に、デー
タ転送処理を記憶装置内で行うことで、ホストおよびチ
ャネルの負荷を削減することが可能となる。
データ再配置におけるデータ転送中に当該データに対す
るアクセスを受けつけることが可能となる。この結果、
データ再配置における対象データをアクセスする業務の
停止時間を短縮することが可能となる。
ステムのブロック図である。
図である。
ある。
処理のフロー図である。
のフロー図である。
フロー図である。
ムの構成図である。
置処理のフロー図である。
理のフロー図である。
のフロー図である。
03…チャネル、110…記憶装置、111…記憶制御
プロセッサ、112…制御メモリ、113…ディスクキ
ャッシュ、141…LV−PV対応情報、143…記憶
制御管理情報、144…キャッシュ管理情報、145…
データ転送領域情報、150…ディスク装置、900…
コマンドボリューム
Claims (11)
- 【請求項1】ホストコンピュータと、前記ホストコンピ
ュータに接続され、複数のディスク装置を有する記憶装
置とを有する情報処理システムであって、前記ホストコ
ンピュータは、前記複数のディスク装置の物理的な記憶
領域と論理的な記憶領域との対応関係の情報が登録され
る情報記憶手段と、前記複数のディスク装置のうち第一
のディスク装置に記録されたデータを第二のディスク装
置に移動する場合に、移動先の論理的な記憶領域及び前
記情報記憶手段から、前記第二のディスク装置の物理的
な記憶領域を示す情報を取得する取得手段と、前記取得
手段によって取得された前記第二のディスク装置の物理
的な記憶領域を示す情報及び移動対象となるデータが格
納されている前記第一のディスク装置の物理的な記憶領
域を示す情報を、前記記憶装置に転送する転送手段とを
有し、前記記憶装置は、前記転送手段によって転送され
た前記情報のうち、前記第一のディスク装置の物理的な
記憶領域を示す情報を使用して、移動元のデータを読み
出す手段と、前記記憶手段に記憶された前記情報のう
ち、前記第二のディスク装置の物理的な記憶領域を示す
情報を使用して、移動先のディスク装置に複写する複写
手段と、を有することを特徴とする情報処理システム。 - 【請求項2】前記記憶装置は、前記複写が終了したこと
を前記ホストコンピュータに通知する通知手段を有し、
前記ホストコンピュータは、前記通知を受け取った後、
前記情報記憶手段に登録されたディスク装置の物理的な
記憶領域と論理的な記憶領域との対応関係を更新する手
段を有することを特徴とする請求項1記載の情報処理シ
ステム。 - 【請求項3】前記転送手段は、前記複数のディスク装置
のうちの所定のディスク装置に前記情報を書き込む命令
を発行する発行手段を含み、前記記憶装置は、前記発行
手段によって発行された命令によって書き込まれた前記
情報を当該記憶装置が読み出した場合に、前記読み出し
手段及び前記複写手段を実行することを特徴とする請求
項1又は2記載の情報処理システム。 - 【請求項4】前記記憶装置は、前記複写手段によって複
写されたデータに対してアクセスがある場合には、当該
アクセスがあったことを記録するアクセス記録手段と、
前記アクセス記録手段に記録された内容に基づいて、移
動元のデータと移動先のデータとのデータの内容を一致
させる手段とを有することを特徴とする請求項1、2又
は3記載の情報処理システム。 - 【請求項5】複数のディスク装置を有する記憶装置と接
続される接続部と、前記複数のディスク装置の物理的な
記憶領域と論理的な記憶領域との対応関係の情報が登録
されるメモリと、中央演算部とを有し、前記中央演算部
は、前記メモリから、データの移動先となる前記論理的
な記憶領域に対応する第一のディスク装置の物理的な記
憶領域を示す情報を取得する取得手段と、前記取得手段
によって取得された前記第一のディスク装置の物理的な
記憶領域を示す情報及び前記データが格納されている第
二のディスク装置の物理的な記憶領域を示す情報を、前
記接続部を介して前記記憶装置に転送する転送手段と、
前記データの移動が終了した後、前記メモリに登録され
た前記複数のディスク装置の物理的な記憶領域と論理的
な記憶領域との対応関係を更新する手段とを有すること
を特徴とする情報処理装置。 - 【請求項6】前記取得手段は、前記メモリから論理的な
記憶領域が割り当てられていない前記複数のディスク装
置の物理的な記憶領域を検索する手段と、前記検索する
手段によって検索された前記物理的な記憶領域を前記第
一のディスク装置の物理的な記憶領域として取得する手
段とを含むことを特徴とする請求項5記載の情報処理装
置。 - 【請求項7】前記転送手段は、前記記憶装置が有する複
数のディスク装置のうち、所定のディスク装置に、前記
情報をデータとして書き込む命令を発行するものである
ことを特徴とする請求項6記載の情報処理装置。 - 【請求項8】ホストコンピュータに接続される接続部
と、複数の記憶領域と、前記複数の記憶領域のうち、前
記ホストコンピュータに使用されていない記憶領域の情
報が登録されるメモリと、前記複数の記憶領域へのデー
タの入出力を制御する制御部を有し、前記制御部は、前
記接続部から入力される情報に基づいて、前記メモリに
登録された記憶領域のうちのいずれかを選択する手段
と、前記選択された記憶領域に、他の前記記憶領域から
データを複写する複写手段とを有することを特徴とする
記憶装置。 - 【請求項9】前記接続部から入力される情報とは、所定
の条件を満たすことを要求する情報であり、前記メモリ
には、複数の記憶領域の性質が登録され、前記制御部
は、前記要求を満たす記憶領域を、前記メモリに登録さ
れた前記記憶装置の性質に基づいて検索する検索手段
と、前記検索された記憶領域についての情報を前記接続
部から出力する出力手段を有することを特徴とする請求
項8記載の記憶装置。 - 【請求項10】ホストコンピュータ及び前記ホストコン
ピュータに接続され、複数のディスク装置を有する記憶
装置を有する情報処理システムにおいて、前記複数のデ
ィスク装置内でデータを再配置する方法であって、前記
ホストコンピュータにおいて、再配置の対象となるデー
タが格納されている第一のディスク装置を特定し、再配
置先となる第二のディスク装置の情報を取得し、特定し
た前記第一のディスク装置の情報及び取得した前記第二
のディスク装置の情報を前記記憶装置に送信し、前記記
憶装置において、送信された前記第一のディスク装置の
情報に基づいて前記第一のディスク装置からデータを読
み出し、送信された前記第二のディスク装置の情報に基
づいて前記第二のディスク装置に前記第一のディスク装
置から読み出したデータを格納し、前記読み出されたデ
ータの格納が終了したら、前記ホストコンピュータに格
納の完了を通知し、前記通知の後、前記ホストコンピュ
ータにおいて、前記複数のディスク装置と論理的な記憶
領域との対応関係を記録したテーブルを変更することを
特徴とするデータの再配置の方法。 - 【請求項11】ホストコンピュータ及び前記ホストコン
ピュータに接続され、複数のディスク装置を有する記憶
装置を有する情報処理システムにおいて、前記複数のデ
ィスク装置内でデータを再配置するコンピュータプログ
ラムであって、前記ホストコンピュータにおいて、再配
置の対象となるデータが格納されている第一のディスク
装置を特定し、再配置先となる第二のディスク装置の情
報を取得し、特定した前記第一のディスク装置の情報及
び取得した前記第二のディスク装置の情報を前記記憶装
置に送信するプログラムと、前記記憶装置において、送
信された前記第一のディスク装置の情報に基づいて前記
第一のディスク装置からデータを読み出し、送信された
前記第二のディスク装置の情報に基づいて前記第二のデ
ィスク装置に前記第一のディスク装置から読み出したデ
ータを格納し、前記読み出されたデータの格納が終了し
たら、前記ホストコンピュータに格納の完了を通知する
プログラムとから構成され、前記ホストコンピュータ側
のプログラムは、前記通知の後、前記複数のディスク装
置と論理的な記憶領域との対応関係を記録したテーブル
を変更することを特徴とするデータの再配置を行うコン
ピュータプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001053472A JP4105398B2 (ja) | 2001-02-28 | 2001-02-28 | 情報処理システム |
| US09/825,607 US6915403B2 (en) | 2001-02-28 | 2001-04-03 | Apparatus and method for logical volume reallocation |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001053472A JP4105398B2 (ja) | 2001-02-28 | 2001-02-28 | 情報処理システム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002259172A true JP2002259172A (ja) | 2002-09-13 |
| JP4105398B2 JP4105398B2 (ja) | 2008-06-25 |
Family
ID=18913934
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001053472A Expired - Fee Related JP4105398B2 (ja) | 2001-02-28 | 2001-02-28 | 情報処理システム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US6915403B2 (ja) |
| JP (1) | JP4105398B2 (ja) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004104845A1 (ja) * | 2003-05-21 | 2004-12-02 | Fujitsu Limited | ストレージシステム |
| JP2005202495A (ja) * | 2004-01-13 | 2005-07-28 | Hitachi Ltd | データ移行方法 |
| JP2007018455A (ja) * | 2005-07-11 | 2007-01-25 | Hitachi Ltd | データマイグレーション方法又はデータマイグレーションシステム |
| JP2007115264A (ja) * | 2003-09-17 | 2007-05-10 | Hitachi Ltd | 記憶システム |
| JP2007122716A (ja) * | 2005-10-26 | 2007-05-17 | Internatl Business Mach Corp <Ibm> | データ移動システム、データ保持装置、信号担持媒体、及び保持されるデータを移動させるサービスを提供する方法(データ移動のための装置、システム、及び方法) |
| JP2007516523A (ja) * | 2003-11-26 | 2007-06-21 | ヴェリタス・オペレーティング・コーポレーション | ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法 |
| WO2007135731A1 (ja) * | 2006-05-23 | 2007-11-29 | Fujitsu Limited | ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法 |
| JP2007537522A (ja) * | 2004-05-14 | 2007-12-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想テープ内の仮想ボリューム・データの動的ローディング |
| JP2008129723A (ja) * | 2006-11-17 | 2008-06-05 | Nec Corp | データレプリケーションシステム、データレプリケーション方法、データレプリケーションプログラム |
| JP2008242736A (ja) * | 2007-03-27 | 2008-10-09 | Nec Corp | ディスクアレイ装置及びデータバックアップシステム |
| US8516204B2 (en) | 2003-12-25 | 2013-08-20 | Hitachi, Ltd. | Memory control device and method for controlling the same |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3714184B2 (ja) * | 2001-03-29 | 2005-11-09 | 富士通株式会社 | 記憶装置のデータ領域間複写処理方法、及び記憶システム |
| JP4080227B2 (ja) * | 2002-03-28 | 2008-04-23 | 株式会社日立製作所 | データ検証方法およびディスクアレイ装置 |
| AU2003231951A1 (en) * | 2002-05-31 | 2003-12-19 | Fujitsu It Holdings, Inc. | Method and system for intelligent storage management |
| JP2005115506A (ja) * | 2003-10-06 | 2005-04-28 | Hitachi Ltd | ストレージシステム |
| JP4452064B2 (ja) * | 2003-11-18 | 2010-04-21 | 株式会社日立製作所 | 情報処理システム、情報処理装置、情報処理装置の制御方法及びプログラム |
| JP4412981B2 (ja) | 2003-11-26 | 2010-02-10 | 株式会社日立製作所 | ストレージシステム及同システムにおけるデータキャッシング方法 |
| JP4568502B2 (ja) * | 2004-01-09 | 2010-10-27 | 株式会社日立製作所 | 情報処理システムおよび管理装置 |
| JP2006011803A (ja) * | 2004-06-25 | 2006-01-12 | Hitachi Ltd | 情報処理システムおよびその制御方法 |
| US20060031639A1 (en) * | 2004-08-06 | 2006-02-09 | International Business Machines Corporation | Write unmodified data to controller read cache |
| US8307026B2 (en) * | 2004-08-19 | 2012-11-06 | International Business Machines Corporation | On-demand peer-to-peer storage virtualization infrastructure |
| US7523273B2 (en) * | 2005-05-05 | 2009-04-21 | International Business Machines Corporation | Autonomic storage provisioning to enhance storage virtualization infrastructure availability |
| US7904681B1 (en) * | 2006-06-30 | 2011-03-08 | Emc Corporation | Methods and systems for migrating data with minimal disruption |
| US8566520B1 (en) | 2009-10-05 | 2013-10-22 | Marvell International Ltd. | Storage space allocation for logical disk creation |
| WO2013137898A2 (en) * | 2012-03-16 | 2013-09-19 | Empire Technology Development Llc | Data migration |
| JP2016018315A (ja) * | 2014-07-07 | 2016-02-01 | 富士通株式会社 | 監視装置、監視プログラム、及び入力操作支援装置 |
| US20160162416A1 (en) * | 2014-12-08 | 2016-06-09 | Intel Corporation | Apparatus and Method for Reducing Latency Between Host and a Storage Device |
| US10757175B2 (en) * | 2015-02-10 | 2020-08-25 | Vmware, Inc. | Synchronization optimization based upon allocation data |
| US12474854B2 (en) | 2022-02-11 | 2025-11-18 | Samsung Electronics Co., Ltd. | Systems, methods, and apparatus for copy destination atomicity in devices |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6728832B2 (en) * | 1990-02-26 | 2004-04-27 | Hitachi, Ltd. | Distribution of I/O requests across multiple disk units |
| US5845319A (en) * | 1995-08-23 | 1998-12-01 | Fujitsu Limited | Disk array device which separates local and physical disks using striping and operation mode selection |
| JP3641872B2 (ja) * | 1996-04-08 | 2005-04-27 | 株式会社日立製作所 | 記憶装置システム |
| US6145028A (en) * | 1997-12-11 | 2000-11-07 | Ncr Corporation | Enhanced multi-pathing to an array of storage devices |
| US6216202B1 (en) * | 1998-06-30 | 2001-04-10 | Emc Corporation | Method and apparatus for managing virtual storage devices in a storage system |
| US6484234B1 (en) * | 1998-06-30 | 2002-11-19 | Emc Corporation | Method and apparatus for efficiently destaging data from a cache to two or more non-contiguous storage locations |
| US6564219B1 (en) * | 1998-11-19 | 2003-05-13 | Emc Corporation | Method and apparatus for obtaining an identifier for a logical unit of data in a database |
| US6529995B1 (en) * | 1999-06-18 | 2003-03-04 | Storage Technology Corporation | Method and apparatus for maintaining and restoring mapping table entries and data in a raid system |
| US6397292B1 (en) * | 1999-08-19 | 2002-05-28 | Emc Corporation | Asymmetrical striping of mirrored storage device arrays and concurrent access to even tracks in the first array and odd tracks in the second array to improve data access performance |
| US6467014B1 (en) * | 2000-02-29 | 2002-10-15 | Plasmon Lms, Inc. | Automatic mapping and efficient address translation for multi-surface, multi-zone storage devices |
| JP3753598B2 (ja) * | 2000-07-06 | 2006-03-08 | 株式会社日立製作所 | 計算機、計算機システムおよびデータ転送方法 |
-
2001
- 2001-02-28 JP JP2001053472A patent/JP4105398B2/ja not_active Expired - Fee Related
- 2001-04-03 US US09/825,607 patent/US6915403B2/en not_active Expired - Fee Related
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004104845A1 (ja) * | 2003-05-21 | 2004-12-02 | Fujitsu Limited | ストレージシステム |
| US8738869B2 (en) | 2003-05-21 | 2014-05-27 | Fujitsu Limited | Storage system including a plurality of modules having different control information |
| JP2007115264A (ja) * | 2003-09-17 | 2007-05-10 | Hitachi Ltd | 記憶システム |
| JP4750040B2 (ja) * | 2003-11-26 | 2011-08-17 | シマンテック・オペレーティング・コーポレーション | ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法 |
| JP2007516523A (ja) * | 2003-11-26 | 2007-06-21 | ヴェリタス・オペレーティング・コーポレーション | ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法 |
| US8516204B2 (en) | 2003-12-25 | 2013-08-20 | Hitachi, Ltd. | Memory control device and method for controlling the same |
| JP2005202495A (ja) * | 2004-01-13 | 2005-07-28 | Hitachi Ltd | データ移行方法 |
| JP2007537522A (ja) * | 2004-05-14 | 2007-12-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想テープ内の仮想ボリューム・データの動的ローディング |
| JP4843604B2 (ja) * | 2004-05-14 | 2011-12-21 | インターナショナル・ビジネス・マシーンズ・コーポレーション | データ・ストレージ装置からデータ・ストレージ装置特有情報を得るための方法及びシステム |
| JP2007018455A (ja) * | 2005-07-11 | 2007-01-25 | Hitachi Ltd | データマイグレーション方法又はデータマイグレーションシステム |
| JP2007122716A (ja) * | 2005-10-26 | 2007-05-17 | Internatl Business Mach Corp <Ibm> | データ移動システム、データ保持装置、信号担持媒体、及び保持されるデータを移動させるサービスを提供する方法(データ移動のための装置、システム、及び方法) |
| JP4704463B2 (ja) * | 2006-05-23 | 2011-06-15 | 富士通株式会社 | ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法 |
| JPWO2007135731A1 (ja) * | 2006-05-23 | 2009-09-24 | 富士通株式会社 | ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法 |
| WO2007135731A1 (ja) * | 2006-05-23 | 2007-11-29 | Fujitsu Limited | ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法 |
| JP2008129723A (ja) * | 2006-11-17 | 2008-06-05 | Nec Corp | データレプリケーションシステム、データレプリケーション方法、データレプリケーションプログラム |
| JP2008242736A (ja) * | 2007-03-27 | 2008-10-09 | Nec Corp | ディスクアレイ装置及びデータバックアップシステム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20020144076A1 (en) | 2002-10-03 |
| US6915403B2 (en) | 2005-07-05 |
| JP4105398B2 (ja) | 2008-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4105398B2 (ja) | 情報処理システム | |
| JP4124331B2 (ja) | Dbms向け仮想ボリューム作成・管理方法 | |
| CN100430914C (zh) | 拥有虚拟资源的存储系统 | |
| US6895483B2 (en) | Method and apparatus for data relocation between storage subsystems | |
| JP4341897B2 (ja) | 記憶装置システム及びデータ複製方法 | |
| CN112306389B (zh) | 存储系统和节点管理方法 | |
| US6912537B2 (en) | Dynamically changeable virtual mapping scheme | |
| JP4175764B2 (ja) | 計算機システム | |
| US7809912B1 (en) | Methods and systems for managing I/O requests to minimize disruption required for data migration | |
| JP5142629B2 (ja) | 仮想ボリュームのバックアップを行うストレージシステム及び方法 | |
| US20060047926A1 (en) | Managing multiple snapshot copies of data | |
| US8924675B1 (en) | Selective migration of physical data | |
| US20060101204A1 (en) | Storage virtualization | |
| JP5218284B2 (ja) | 仮想ディスク管理プログラム、ストレージ装置管理プログラム、マルチノードストレージシステム、および仮想ディスク管理方法 | |
| JPH11296313A (ja) | 記憶サブシステム | |
| US6510491B1 (en) | System and method for accomplishing data storage migration between raid levels | |
| JP2000132343A (ja) | 記憶装置システム | |
| JP2011076286A (ja) | ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法 | |
| US7685129B1 (en) | Dynamic data set migration | |
| US9582214B2 (en) | Data access method and data access apparatus for managing initialization of storage areas | |
| US11861205B2 (en) | Distributed storage system and volume migration method | |
| CN120255827B (zh) | 数据副本的存储方法、系统、介质、电子设备及程序产品 | |
| US10552342B1 (en) | Application level coordination for automated multi-tiering system in a federated environment | |
| JP4375062B2 (ja) | 記憶装置システム | |
| WO2016013075A1 (ja) | ストレージ、計算機およびその制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040914 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060418 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071127 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080128 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20080128 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080221 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080321 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080327 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 6 |
|
| LAPS | Cancellation because of no payment of annual fees |