JP2002259172A - 情報処理システム - Google Patents

情報処理システム

Info

Publication number
JP2002259172A
JP2002259172A JP2001053472A JP2001053472A JP2002259172A JP 2002259172 A JP2002259172 A JP 2002259172A JP 2001053472 A JP2001053472 A JP 2001053472A JP 2001053472 A JP2001053472 A JP 2001053472A JP 2002259172 A JP2002259172 A JP 2002259172A
Authority
JP
Japan
Prior art keywords
data
information
disk device
disk
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001053472A
Other languages
English (en)
Other versions
JP4105398B2 (ja
Inventor
Yasutomo Yamamoto
康友 山本
Takashi Oeda
高 大枝
Takao Sato
孝夫 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001053472A priority Critical patent/JP4105398B2/ja
Priority to US09/825,607 priority patent/US6915403B2/en
Publication of JP2002259172A publication Critical patent/JP2002259172A/ja
Application granted granted Critical
Publication of JP4105398B2 publication Critical patent/JP4105398B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】ストレージに格納したデータを別の領域に再配
置する処理において、領域間のデータ転送をホストで行
うため、ホストおよびチャネルに負荷がかかる。 【解決手段】ホストはデータ転送元/先の領域情報をパ
ラメタとしてストレージへデータ転送を依頼する。スト
レージは内部で転送元のディスク装置から転送先のディ
スク装置へデータ転送を行う。対象データの転送が全て
完了したら、ホストはそのデータの格納場所を転送先領
域に変更して登録する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ホストコンピュー
タ(ホスト)及び該ホストと接続される記憶装置を有す
る計算機システムに係り、特に、計算機システムが有す
る記憶装置に格納されたデータの移動を支援する機能に
関する。
【0002】
【従来の技術】一般に、計算機システムを構築する際に
は、ネットワークやディスク装置などのリソースがボト
ルネックとならないようにシステム設計が行われる。特
に、プロセッサなどに比べて低速な外部記憶装置は、性
能上のボトルネックとなりやすく、システム設計にあた
って様々な対策が施される。その一つとして、記憶装置
上のデータ格納形式の最適化が挙げられる。例えば、高
頻度でアクセスされるデータをより高速なディスク装置
に格納したり、データを複数のディスク装置に分散配置
することでデータアクセスの性能を改善できる。また、
いわゆるRAID(Redundant Array of Independent Di
sk)装置を使用する場合には、RAID装置のデータア
クセスのシーケンシャル性を考慮して、RAIDレベル
(冗長構成)を決定すれば、アクセス特性に適合したデー
タの格納が可能となる。
【0003】システム設計という視点から見た場合に
は、システムにおいて使用されるデータの格納形式を考
慮して、各データに割り当てられるディスク装置の容量
を決定することが必要となる。具体的には、データベー
ス(DB)におけるDB表の領域サイズや、ファイルシス
テム(FS)におけるFSサイズの決定がこれに相当す
る。通常、計算機システムの運用に伴って取り扱われる
データは増加していく。このため、システム設計時に
は、関連業務における過去の実績などを元にデータ量の
増加率を予測し、次に保守可能な時期までに予測される
データ量の増加に耐えられるだけの空き領域を確保する
ようにディスク装置の容量を決定して、それぞれのデー
タ領域が定義される。
【0004】上述のように、システム設計に際しては、
データアクセス性能の向上およびデータ量の増加を考慮
して、記憶装置とデータの格納形式を組み合わせること
が重要となる。この組み合わせの決定を支援する手段と
して、Logical Volume Manager(LVM)がある。
【0005】LVMとは、実際のディスク装置の任意の
部分領域をまとめ、論理的に一つのボリューム(これを
論理ボリュームと言い、以下「LV」と称する。)とし
てホストに提供するものである。LVMは、LVを管理
し、LVの作成、削除、サイズ変更(拡大/縮小)なども
行う。LVMは、LVを多重化するミラーリング機能
や、LVを小領域(ストライプ)に分割して、複数の物理
ボリューム(PV)に分散して配置するストライピング機
能も有する。
【0006】LVMを用いた場合、ユーザは、DB表や
FSといったデータを格納する領域をPVではなくLV
上に配置することになる。このようにすることで、デー
タの格納形式の選択又は管理が容易となる。例えば、L
V上にFSを配置することで、通常1台のディスク装
置、またはその1つのパーティションに1つしか割り当
てられないFSを、複数のディスク装置に分散して配置
することが可能となる。また、ファイルの容量の増加に
合わせてLVを拡張することで、最小限の手間でFSを
拡張(再構成)することが可能となる。
【0007】
【発明が解決しようとする課題】計算機システムで業務
運用を続けていくと、データの格納形式を見直す必要が
生じることがある。見直しの契機としては、データのア
クセス傾向やアクセス特性の変化、当初見積もりとは異
なるデータ量の変動などといった、システム設計時に想
定されていた業務モデルの見直しによるもの、ディスク
装置の追加や高速なリソースへの置き換えなどといっ
た、前提とする物理リソース構成の変更によるもの、拡
張を繰り返すことによる断片化(fragmentation)したL
VやDB表の連続化などといったデータ管理方式上必然
的に生じるものなどが考えられる。このような場合、デ
ータの格納形式を見直し、データを再配置することで、
システムの性能を改善することができる。
【0008】しかし、記憶装置に格納されたデータの再
配置を行うには、従来の技術においては、ホストの介在
によるデータ転送が必要となる。
【0009】今、複数のPVに分散されたLVを一つの
PVにまとめる場合のデータ再配置処理の手順を以下に
示す。 (1)処理対象となるLVの容量分の領域をPV上に確保
する。 (2)LVからホストがデータをリードし、それを新しい
LVの領域にライトする。 (3)(2)を繰り返して全データをコピーし終えたら、LV
とPVマッピング情報を変更する。
【0010】このように、LVを再構成するには、LV
全体という大量のデータ転送が生じるため、データ転送
元/先のPVに大量の入出力(I/O)が発生する。同時
に、ホストおよびチャネルにも多大な負荷がかかり、他
のLV内のデータを対象とした実行中の処理にも性能上
悪影響を及ぼしてしまう。
【0011】また、このようなデータ再配置処理の間
は、再配置の対象となるデータへのアクセスについて、
少なくともデータの更新を抑止する必要がある。例え
ば、LVの再構成の場合、通常、LVをオフライン(Uni
xではアンマウント)とし、再構成完了後にオンライン(U
nixではマウント)にすることで、データ再配置中のデー
タのアクセスを抑止する。データアクセスの対象となる
LVがオフラインとなるため、そのLVを利用する業務
は、データ再配置処理の間、停止することになる。
【0012】このため、LV再構成等のデータ再配置を
行う場合には、そのデータにアクセスする業務を所定の
期間中断することができる時間帯に行わなければならな
い。従って、計算機システムの保守作業に時間的制約が
生じてしまう。
【0013】本発明の目的は、記憶装置に格納されたデ
ータを再配置する際に、移動元データ領域から移動先デ
ータ領域へのデータ転送によるホストおよびチャネルの
負荷を軽減することにある。
【0014】また、本発明の別の目的は、データ再配置
により、データへのアクセスが不可となる期間を可能な
限り削減し、そのデータを利用する業務が中断される時
間を削減することにある。
【0015】
【課題を解決するための手段】上記目的を達成するため
に、本発明では、ホストコンピュータと、前記ホストコ
ンピュータに接続され、複数のディスク装置を有する記
憶装置とを有する情報処理システムで、以下の構成とす
る。ホストコンピュータは、複数のディスク装置の物理
的な記憶領域と論理的な記憶領域との対応関係の情報が
登録されたテーブルを有する。ホストコンピュータは、
第一のディスク装置に記録されたデータを第二のディス
ク装置に移動する場合に、第二のディスク装置の物理的
な記憶領域を示す情報をテーブルから取得する。ホスト
コンピュータは、取得した情報を、記憶装置に転送す
る。データの移動が終了した後、ホストコンピュータ
は、テーブルに登録された情報を更新する。また、記憶
装置は、ホストコンピュータから転送された前記情報を
用いて、移動元のデータを移動先のディスク装置に複写
する。
【0016】以上の構成により、データを再配置する場
合のデータの転送を記憶装置側で行うことで、データ転
送によるホストおよびチャネル負荷を軽減することがで
きる。
【0017】また、記憶装置でのデータ転送処理を、単
純に領域間コピーで実現するのではなく、転送元と転送
先のデータ領域で一時的に内容の同期をとるペアを形成
し、データ転送中およびデータ転送完了後に転送元デー
タ領域に対して行われたデータ更新を全て転送先へ反映
する構成とすることも出来る。
【0018】また、ホストコンピュータではなく、記憶
装置でディスク装置の仮想的な記憶領域の管理を行う構
成も考えられる。
【0019】
【発明の実施の形態】図1は、本発明が適用された計算
機システムの第1実施形態における構成を示す構成図で
ある。
【0020】本実施形態における計算機システムは、ホ
スト100及び記憶装置110を有する。ホスト100
と記憶装置110は、SCSIバス等の通信線で接続さ
れている。両者間の交信は通信線を介して行われる。
【0021】ホスト100は、CPU101、主記憶1
02及びチャネル103を有し、それぞれが内部バスで
接続される。
【0022】CPU101は、データベース等のアプリ
ケーションプログラム(AP)を実行する。APが動作
する際のメモリ割り当てや、記憶装置110への入出力
制御は、CPU101で動作するオペレーティングシス
テム(OS)およびOSに関連するソフトウェアで行わ
れる。LVM142も、OSに関連するソフトウェアで
ある。LVM142は、記憶装置110により提供され
るPVの記憶領域をまとめてLVとして仮想的にAPに
提供する。本実施形態では、CPU101で、LVM1
42が実行される。LVM142は、後述するLV−P
V対応情報141などの制御情報を用いてLVの制御を
行う。
【0023】主記憶102には、アプリケーションプロ
グラム、OS、LVM等のOS関連ソフトウェアの実行
オブジェクトコードや各ソフトウェアが使用するデータ
や制御情報等が格納される。
【0024】図3及び図4は、LV−PV対応情報14
1のテーブル図である。LV−PV対応情報141は、
LVが対応するPV(又はPVが対応するLV)を示す情
報である。LV−PV対応情報141のテーブルには、
LV管理情報300とPV管理情報400が、1つのL
V(PV)ごとに設けられる。
【0025】LV管理情報300は、PVリスト30
1、LE数302、LEサイズ303及びLE−PE対
応情報310のエントリを有する。PVリスト301に
は、LVに対して割り当てられているPVを示す情報が
登録される。LVとPVは、それぞれLE(Logical Ext
ent)およびPE(Physical Extent)という同じサイズの
小領域に分割されている。LEに対してPEを割り当て
ることで、LVの物理配置の自由度が向上する。LE数
302には、LVに含まれるLE数が登録される。LE
サイズ303には、LEのサイズを示す情報が登録され
る。LE−PE対応情報310のエントリは、LE番号
311に割り当てられるLEに対応するPV名312お
よびPE番号313のエントリを有する。LE−PE対
応情報310には、LEが割り当てられているPEを示
す情報が登録される。
【0026】PV管理情報400は、LV管理情報とは
逆に、各PVに割り当てられるLVの情報を示すもので
ある。
【0027】LV管理情報400は、LVリスト40
1、PE数402、PEサイズ403及びPE−LE対
応情報410のエントリを有する。LVリスト401に
は、PVに対して割り当てられているLVを示す情報が
登録される。PE数402には、PVに含まれるPE数
が登録される。PEサイズ403には、PEのサイズを
示す情報が登録される。PE−LE対応情報410は、
PE番号411に割り当てられるPEに対応するLV名
412およびLE番号413のエントリを有する。PE
−LE対応情報410には、PEが割り当てられている
LEを示す情報が登録される。
【0028】主記憶102には、上記した情報以外に
も、PVへアクセスするために必要な情報が保持され
る。例えば、PVへアクセスするための経路情報とし
て、接続チャネル103の番号および記憶装置110の
ポート114の番号や、記憶装置110内でのデバイス
番号(以下、PV番号と呼ぶ)が格納される。
【0029】チャネル103は、通信線を介して記憶装
置110への入出力の制御を行うコントローラである。
チャネル103は、通信線上の要求コマンドの送信、完
了報告の通知、対象データの送受信、通信フェーズ管理
等、通信プロトコルの制御を行う。通信線がSCSIバ
スの場合、SCSIアダプタカードが、チャネル103
に相当する。
【0030】記憶装置110は、ホストとの接続の制御
を行うポート114、ディスク装置150、記憶制御プ
ロセッサ111、制御メモリ112及びディスクキャッ
シュ113を有する。記憶装置110の可用性を向上さ
せるため、記憶装置110の各部位は多重化されてい
る。したがって、ある部位に障害が発生した場合にも、
残った正常な構成部位による縮退状態での運用が可能で
ある。
【0031】記憶装置110が、ディスク装置150が
複数台接続されたRAIDシステムの場合、記憶制御プ
ロセッサ111による論理物理対応管理によるエミュレ
ーションを使用することによって、複数台のディスク装
置150を、論理的に1台又は複数のディスク装置とし
てホスト100に認識させることができる。ただし、本
実施形態では、説明を簡略化するため、ホスト100が
アクセスするPV、すなわち記憶装置110での論理デ
ィスク装置は、ディスク装置150と一対一に対応して
いるものと仮定する。
【0032】記憶制御プロセッサ111は、ホスト10
0からPVへのアクセスを受け付け、ディスク装置15
0とディスクキャッシュ113間のデータ転送、ディス
クキャッシュ113とホスト100間のデータ転送、記
憶装置110内でのディスク装置150の論理物理対応
の管理、ディスクキャッシュ113の領域管理などを行
う。
【0033】ディスクキャッシュ113には、ホスト1
00からのライトデータや、ディスク装置150からの
リードデータが、転送先に送信されるまでの間、一時的
に保持される。ディスクキャッシュ113に格納された
データは、LRU(Least Recently Used)などの方式で
管理される。ディスクキャッシュ113を用いて、ライ
トデータをホストのI/O要求とは非同期にディスク装
置150へ書き込む処理も行われる。これらのキャッシ
ュの制御方法は従来公知の技術であるので、説明は省略
する。
【0034】制御メモリ112には、ディスク装置15
0への入出力を制御するために記憶制御プロセッサ11
1が用いる各種制御情報のテーブルが格納される。制御
情報のテーブルには、ディスクキャッシュ113の領域
割り当て管理に用いるキャッシュ管理情報144、論理
ディスク装置とディスク装置150との対応等の管理に
用いられる記憶装置管理情報143、ホスト100から
指示された領域間のデータ転送処理の対象範囲や処理進
捗状況等の管理に用いられるデータ転送領域情報145
がある。
【0035】図5は、データ転送領域情報145のテー
ブル図である。転送元範囲情報501及び転送先範囲情
報502には、ホスト100から指示されたデータ転送
の対象となるデータ領域の範囲を示す情報が登録され
る。本実施形態では、転送元/先のデータ領域が不連続
であるケースを想定し、転送元範囲情報501及び転送
先範囲情報502には、連続する部分領域毎に、その部
分領域を含むPV番号、PV内相対アドレスで示される
先頭位置およびサイズを連ねたリストが登録される。
尚、転送元/先のデータ領域の総容量は等しくなければ
ならない。
【0036】進捗ポインタ503には、データ転送処理
で転送されたデータの量を示す情報が登録される。進捗
ポインタ503に登録された情報を用いて、データ転送
処理の進捗が管理される。同期状態504と差分ビット
マップ505は、本実施形態では使用されないので、説
明を省略する。
【0037】本実施形態でのCPU101と記憶制御プ
ロセッサ111の動作を説明する。
【0038】ユーザ又は保守員は、各LVのPVへの割
り当て状態等の情報から、特定のLVについて再構成が
必要であることを判断すると、LVの再構成の指示を行
う。本実施形態では、図2に示すように、lv0が、2台
のPV、pv0とpv1上にlv0_0とlv0_1として格納されてい
るとき、lv0をpv2内領域に新規に確保されたlv0_0'とlv
0_1'に移動する指示を出した場合について説明する。
【0039】LVの再構成は、CPU101で動作する
データ再配置処理131及び記憶装置110の記憶制御
プロセッサ111で動作するコマンド処理132が協働
することで実現される。
【0040】図6は、CPU101が行うデータ再配置
処理131のフロー図である。データ再配置処理131
は、ユーザ等がLVの再配置を指示した場合に実行され
る。データ再配置処理131では、その処理が実行され
る前に、再配置対象であるLV名と再配置先のPV名が
取得される。
【0041】CPU101は、処理対象となるLVに対
するアクセスを抑止するために、対象となるLVをオフ
ラインにする。LVのオフラインは、例えば、OSがU
NIX(登録商標)である場合、デバイス(LV)をアン
マウントすることで実現できる(ステップ601)。
【0042】CPU101は、LV−PV対応情報14
1のLV管理情報300を参照して、対象となるLVの
データが格納されているPVおよびPEを求める。CP
U101は、LE数302とLEサイズ303から、対
象となるLVサイズを算出する。対象となるLVの全体
もしくは一部が既に転送先PVに格納されている場合に
は、CPU101は、転送先PVに格納されている部分
については、転送を行わない。ただし、以下の説明で
は、転送対象からはずされる部分は存在しないと仮定す
る(ステップ602)。
【0043】CPU101は、対象となるLVの転送対
象領域サイズ分のPEを、転送先PV上に確保する。具
体的に、CPU101は、PV管理情報400のPE−
LE対応情報410を参照して、LEに未割り当てのP
Eを求め、転送先として必要となる容量分のPEを確保
する。PEの確保は、転送先PVおよびPEが記憶され
るだけでもよい。しかし、他の処理によりPEを別の目
的で確保されてしまう可能性がある場合は、転送に使用
するPEをあらかじめ確保しておく。具体的には、PV
のPE割り当ての変更を一定期間禁止することを示す構
成変更処理排他フラグをPV毎に設ける、構成変更処理
排他フラグをPV毎ではなくPE毎に設ける、又はデー
タ転送が完了する前に、PE−LE対応情報410の対
象PE項目を、転送元LVに割り当て済みであるように
変更する等の方法が考えられる(ステップ603)。
【0044】転送先のPVを確保したら、CPU101
は、転送元のPV領域をいくつかの部分領域に分割し、
各部分領域毎のデータ転送処理要求を記憶装置110に
発行する。記憶装置110へのデータ転送処理の要求
は、既存のプロトコルで準備されている標準の入出力コ
マンドではなく、データ転送処理の要求用に新たに追加
した専用のコマンドを用いて行われる。PV領域の分割
は、適当なサイズで転送元領域を先頭から順に区切って
行われる。分割に適当なサイズは、記憶装置110へ要
求されたデータの転送処理に要する時間と、要求元ホス
ト100でのその要求に対する応答時間として許容可能
な時間とから決定される。転送処理要求のコマンドがP
V毎に発行されるので、転送元LVが複数のPV上に分
散して配置されている場合には、部分領域が2つのPV
にまたがらないように分割する必要がある。転送処理要
求のコマンドには、転送元PVの先頭アドレスとサイ
ズ、および転送先のPV番号、PV内先頭アドレス、デ
ータサイズが含まれる。チャネル103を介してデータ
転送要求コマンドを記憶装置110へ送出したら、CP
U101は、記憶装置110からの完了報告を待つ(ス
テップ604)。
【0045】ステップ604で送信したデータ転送処理
要求コマンドの完了報告を受信したCPU101は、転
送元LVについて全対象領域のデータ転送が完了したか
をチェックする。データ転送が完了していない部分領域
があれば、CPU101は、ステップ604の処理に戻
る(ステップ605)。
【0046】対象領域の全てのデータが転送されたら、
CPU101は、転送の対象となったLVが転送先PV
へ対応づけられるよう、LV−PV対応情報141を変
更する。具体的には、CPU101は、LV管理情報3
00のPVリスト301に登録された情報を転送先PV
を示す情報に変更し、LE−PE対応情報310のPV
名312とPE番号313に登録された情報を、転送先
PVのPEを示す情報となるよう変更する。CPU10
1は、転送先PVのPV管理情報400のLVリスト4
01に、転送対象となったLVを追加し、PE−LE対
応情報410のLV名412とLE413番号を、転送
先LVのLEに対応するよう変更する。CPU101
は、転送元PVのPV管理情報400のLVリスト40
1から転送対象となったLVを削除し、PE−LE対応
情報410の転送元PE項目をLV未割り当てに変更す
る(ステップ606)。
【0047】その後、CPU101は、転送対象のLV
のオフラインを解除し、処理を終了する(ステップ60
7)。
【0048】図7は、記憶装置110で実行される、コ
マンド処理132のフロー図である。コマンド処理13
2は、ホスト100のコマンドを記憶装置110が受領
した時に実行される。
【0049】記憶装置110は、ホスト100からディ
スク装置150に発行された処理要求コマンドの種別を
チェックする(ステップ701)。
【0050】コマンドがデータ転送処理要求であった場
合、記憶装置110は、コピー処理133を起動し、そ
の完了を待つ(ステップ702)。
【0051】コマンドがリード要求であった場合、記憶
装置110は、そのリード要求に対して、対象となるデ
ータがディスクキャッシュ113上に有るか否かをチェ
ックする。必要ならば、記憶装置110は、キャッシュ
領域を確保して、ディスク装置150から対象となるデ
ータを、確保したキャッシュ領域へ読み出し、ホスト1
00へ転送する(ステップ703〜ステップ707)。
【0052】コマンドがライト要求であった場合、記憶
装置110は、ディスクキャッシュ113のキャッシュ
領域を確保し、ホスト100から受け取ったデータを一
旦そのキャッシュ領域に書き込む。その後、ディスク装
置150へライトする(ステップ709〜ステップ71
2)。
【0053】記憶装置110は、要求処理の完了をホス
ト100へ報告し、処理を終了する(ステップ70
8)。
【0054】図8は、記憶装置110が行うコピー処理
133のフロー図である。コピー処理133は、記憶装
置110がデータ転送要求のコマンドを受けとったとき
に実行される。
【0055】データ転送要求を受け取った記憶装置11
0は、そのデータ転送要求について転送元/先データ領
域の指定情報の妥当性をチェックする。具体的には、転
送元/先データ領域のサイズが同じであるか、既に別の
データ転送要求の転送元/先データ領域として設定され
ていないか等をチェックする。指定情報が妥当でない場
合、記憶装置110は、エラーをホスト100へ報告す
る(ステップ801)。
【0056】エラーが発見されない場合、記憶装置11
0は、データ転送処理要求に対応するデータ転送領域情
報145を格納する領域を制御メモリ112上に割り当
て、初期化する。具体的には、転送元範囲情報501と
転送先範囲情報502を、受け取ったデータ転送処理要
求に含まれる情報を元に設定し、進捗ポインタ503を
初期値である0に設定する(ステップ802)。
【0057】設定が済んだら、記憶装置110は、転送
対象となる転送元ディスク装置150のデータ領域の先
頭から、順次データをディスクキャッシュ113にリー
ドし、リードしたデータを転送先ディスク装置150へ
ライトする。このときの一回のデータ転送のデータ量
は、ディスク装置150におけるヘッド位置づけオーバ
ヘッドを考慮すると、ある程度大きいサイズのデータ領
域であることが望ましい。しかし、1回のデータ量が大
きすぎると、ディスク装置150と同じバスに接続され
る他のディスク装置150に格納されたデータにアクセ
スする他の処理に悪影響を及ぼす可能性がある。したが
って、一回のデータ転送のデータ量は、コピー処理13
3に期待される処理速度と、他の処理への影響とを考慮
して決定する必要がある(ステップ803〜804)。
【0058】ステップ804で転送先への書き込みを終
えたら、記憶装置110は、転送したデータ容量に応じ
て、進捗ポインタ503の内容を更新する。
【0059】記憶装置110は、進捗ポインタ503を
参照して、全対象データについてコピー処理が完了した
かをチェックする。コピー処理が完了していない部分が
あれば、ステップ804の処理へ戻る(ステップ80
5)。
【0060】コピー処理が完了してれば、記憶装置11
0は、コピー処理の完了を、コマンド処理132へ報告
し、処理を終了する(ステップ806)。
【0061】本実施形態により、ホスト100はコピー
処理の指示だけを行えば良く、実際のデータ転送は記憶
装置が行うので、ホストやネットワーク等にかかる負荷
が軽減されることとなる。
【0062】図9は、本発明の第2実施形態が適用され
た計算機システムの構成図である。本実施形態では、デ
ータ転送領域情報145に含まれる同期状態504及び
差分ビットマップが使用される点及びコマンドボリュー
ム900を有する点が、第1実施形態と異なる。以下、
第2実施形態に特有な部分のみを説明する。
【0063】同期状態504には、データ転送処理の転
送先/元データ領域の同期ペア状態を示す情報が登録さ
れる。同期ペア状態の取りうる値としては、「ペア未形
成」、「ペア形成中」、「ペア形成済」がある。「ペア
形成中」の状態とは、転送が指示されたデータ領域間
で、転送元から転送先へデータの転送処理が実行中であ
る状態を示す。「ペア形成済」の状態とは、データ領域
間でのコピー処理が完了し、同期ペアが形成されている
ことを示す。ただし、「ペア形成中」の状態において転
送元データ領域のデータの更新があった場合、「ペア形
成済」状態でも、同期ペアのデータ領域間に差分がある
可能性がある。「ペア未形成」の状態とは、データ領域
間のデータ転送が指示されていないか、データ転送が完
了した後、ホスト100の指示により同期ペアが解除さ
れた状態であることを示す。ただし、この状態は、デー
タ転送処理がそもそも存在しないか、完了してしまって
いる状態なので、制御メモリ112上には、データ転送
領域情報145は確保されない。したがって、実際に同
期状態504に設定されるのは、「ペア形成中」と「ペ
ア形成済」の2つである。
【0064】差分ビットマップ505は、ペア形成中お
よびペア形成済の状態において、コピー元データ領域内
のデータ更新の有無を示す。情報量を削減するため、デ
ィスク装置150の全てのデータ領域を、例えば64KBの
特定サイズの小領域に分割し、その小領域単位と差分ビ
ットマップ505の1ビットを一対一に対応させる。差
分ビットマップ505には、小領域に対するデータの更
新の有無が記録される。
【0065】ディスクキャッシュの割り当てにおいて
も、同様にディスク装置150を小領域に分割し、小領
域毎にキャッシュを割り当てることで、キャッシュ管理
を簡単化することが多い。この場合、差分ビットマップ
505の1ビットをキャッシュ割り当て単位である小領
域1つもしくは複数に対応づけることで、ビットマップ
の設定を容易にできる。
【0066】コマンドボリューム900には、標準のプ
ロトコルには含まれない特殊な処理要求(データ転送処
理要求等)が、データとして書き込まれる。第1実施形
態では、記憶装置110に対するデータ転送処理要求の
コマンドとして専用コマンドを追加した。本実施形態で
は、通常のライト要求コマンドを用い、データ転送要求
がデータとしてコマンドボリューム900に書き込まれ
ることで、記憶装置100へデータ転送要求が発行され
る。
【0067】記憶制御プロセッサ111は、コマンドボ
リューム900に対するライト要求を受け付けると、ラ
イトデータを処理要求として解析し、対応する処理を起
動する。要求される処理をライト要求の延長で実行して
も応答時間が問題にならない程度短いならば、記憶制御
プロセッサ111は、要求処理を実行し、ライト要求と
合わせて完了報告を行う。要求される処理の実行時間が
ある程度長い場合には、記憶制御プロセッサ111は、
一旦ライト処理について完了報告を行う。ホスト100
は、周期的にその要求処理が完了したかをチェックす
る。
【0068】次に、本実施形態でのCPU101及び記
憶制御プロセッサ111の動作を説明する。
【0069】CPU101で動作するデータ再配置処理
131及び記憶装置110の記憶制御プロセッサ111
で動作するコマンド処理132が、協働してLVの再構
成を行うのは、第1実施形態と同様である。
【0070】図10は、本実施例のデータ再配置処理1
31のフロー図である。
【0071】ステップ1001、1002は、図6のス
テップ602、603と同様の処理のため、説明は省略
する。
【0072】CPU101は、LVの転送対象領域に対
応する全PV領域のデータ転送処理の要求を、記憶装置
110へ一括して発行する。コマンドボリューム900
へのライトデータに含まれる転送要求には、LV対象領
域に対応する全PV領域の範囲情報(各部分領域の位置
情報(各PV番号、先頭アドレス、サイズ)のリスト)及
び転送先PV領域の範囲情報等のパラメタが含まれる。
記憶装置110へライト要求コマンドを発行したら、C
PU101は、記憶装置110からの完了報告を待つ
(ステップ1003)。
【0073】完了報告を受け取ったら、CPU101
は、規定の時間が経過するのを待つ(ステップ100
4)。
【0074】CPU101は、データ転送領域の同期ペ
ア状態を参照する要求を記憶装置110へ発行し、その
完了を待つ。同期ペア状態を参照するには、具体的に
は、CPU101は、同期ペア状態の準備要求を含むデ
ータをコマンドボリューム900へ書き込むためのライ
ト要求を発行する。CPU101は、記憶装置110か
ら完了報告を受けた後、コマンドボリューム900への
リード要求を発行する(ステップ1005)。
【0075】CPU101は、得られた同期ペア状態が
「ペア形成済み」であるか否かを判定する。同期ペア状
態が「ペア形成済み」である場合、CPU101は、ス
テップ1007の処理を行う。同期ペア状態が「ペア形
成済み」ではない場合、CPU101は、ステップ10
04の処理に戻り、同期ペア状態が変更されるのを待つ
(ステップ1006)。
【0076】その後、ステップ601と同様に、CPU
101は、LVをオフラインにする(ステップ100
7)。
【0077】CPU101は、データ転送の転送元領域
と転送先領域で形成済みの同期ペアの解除要求を、コマ
ンドボリューム900を用いて発行する(ステップ10
08)。コマンドボリューム900へ同期ペア解除要求
を転送するライト要求コマンドの完了報告が記憶装置1
10より報告されたら、CPU101は、ステップ10
04と同じ方法で、データ領域の同期ペア状態を参照す
る(ステップ1009)。
【0078】取得された同期ペア状態が「ペア未形成」
でなければ(ステップ1010)、CPU101は、規
定時間が経過するのを待ち(ステップ1011)、ステ
ップ1009の処理に戻って同期状態504の内容を再
取得する。同期状態504が「ペア未形成」となってい
れば、CPU101は、ステップ1012以降の処理を
行う。CPU101は、LVのLV−PV対応情報14
1を更新し、LVをオンラインにしてLV再配置処理を
完了する。
【0079】図11は、コマンド処理132のフロー図
である。
【0080】記憶装置110は、ホスト100から受け
取ったコマンドの対象が、コマンドボリューム900で
あるか否かを判定する(ステップ1101)。
【0081】コマンドの対象がコマンドボリューム90
0であれば、記憶装置110は、コピー処理を起動し、
その完了を待つ(ステップ1102)。
【0082】コマンドの対象がコマンドボリューム90
0でなければ、記憶装置110は、コマンドの種別を判
定する。コマンドがリードかライトかでそれぞれステッ
プ1104、1110へ遷移する(ステップ110
3)。コマンドの種別がリードである場合には、記憶装
置110は、図7のステップ703から707と同様の
リード処理を行う(ステップ1104〜1108)。
【0083】コマンド種別がライトである場合には、記
憶装置110は、図7のステップ709から712と同
様のライト処理を行う(ステップ1110〜111
3)。
【0084】ステップ1114、1115は、本実施形
態に特有な部分で、データ転送処理中にホスト100の
別の処理が転送中のLVのデータに対してアクセスする
場合の処理部分である。
【0085】記憶装置110は、ライトの対象となった
データに、データ転送領域として登録されているデータ
領域が含まれていないかを判定する(ステップ111
4)。登録されているデータ領域が含まれている場合、
記憶装置110は、データ転送領域のうち、更新された
部分を特定し、更新部分に対応した差分ビットマップを
設定する(ステップ1115)。
【0086】記憶装置110は、要求処理の完了をホス
ト100へ報告する(ステップ1109)。
【0087】図12は、コピー処理133のフロー図で
ある。
【0088】記憶装置110は、コマンドボリューム9
00へ送信されたコマンドの種別を切り分ける(ステッ
プ1201)。
【0089】コマンドの種別がライトの場合、記憶装置
110は、コマンドボリューム900へのライトデータ
の内容を解析し、処理要求内容や、転送元/先データ領
域範囲指定の妥当性を判定する(ステップ1202)。
妥当性に問題のある場合は、記憶装置110は、エラー
を上位処理へ報告して処理を中断する(ステップ120
3)。問題ない場合は正常終了を報告し、記憶装置11
0は、ライトデータとして送られてきた処理要求の種別
を判定する(ステップ1204)。
【0090】処理要求がデータ転送の場合、記憶装置1
10は、図8のステップ802から805と同様のデー
タ転送処理を行う(ステップ1205〜1208)。た
だし、ステップ1205におけるデータ転送領域情報1
45の初期化処理では、同期状態504を「ペア形成
中」にし、差分ビットマップ505を全て0クリアする
処理を行う。データ転送処理が完了したら、記憶装置1
10は、同期状態504を「ペア形成済み」に変更し、
処理を終了する(ステップ1209)。
【0091】処理要求がペア解除の場合、記憶装置11
0は、解除対象のデータ転送領域ペアのデータ転送領域
情報145を参照し、差分ビットマップ505にOnが設
定されている部分がないかをチェックする(ステップ1
210)。差分ビットマップ505にOであるビットが
存在する、すなわちデータ転送領域に転送元/先で同期
していない部分がある場合、未反映データを転送先デー
タ領域へ転送する(ステップ1212)。記憶装置11
0は、ステップ1210へ戻り、差分ビットマップ50
5のチェックをやり直す。
【0092】転送元/先のデータ転送領域で同期が取れ
たら、記憶装置110は、データ領域のデータ転送領域
情報145をクリアし、データ転送領域情報145を格
納する制御メモリ112の領域の割り当てを解除し、処
理を終了する(ステップ1213)。
【0093】処理要求がペア状態準備である場合には、
記憶装置110は、要求されたデータ転送領域の同期ペ
ア状態を準備する(ステップ1214)。データ転送領
域がまだ存在し、制御メモリ112上にメモリ領域が割
り当てられていれば、同期ペア状態として、同期状態5
04の値を用いる。データ転送領域が存在せず、メモリ
領域が割り当てられていなければ、同期ペア状態とし
て、「ペア未形成」を用いる。ステップ1214で準備
された同期ペア状態は、コマンドボリューム900に対
して発行されたリード要求のリードデータとして転送さ
れる(ステップ1215、1216)。
【0094】本実施例に拠れば、第一実施例よりもLV
をオフラインにする時間を短くした上でLVの再配置を
ホスト等に負担を掛けないで行うことが出来る。
【0095】第3実施形態について説明する。
【0096】第3実施形態のシステム構成は、基本的に
第1及び第2の実施形態と同一である。ただし、本実施
形態では、記憶装置110が、ホスト100で使用され
ていないディスク装置150の記憶領域を管理する。そ
して、記憶装置110が、転送先のPVとして使用され
るデータ領域の条件、例えば、領域長、領域が格納され
る論理ユニット番号、接続に用いる接続ポート114の
番号およびディスクタイプなどの指示をユーザ又は保守
員から受ける。記憶装置110は、ユーザの指示に合致
するデータ領域をホスト100が使用していないデータ
領域から選びだし、ユーザ又は保守員に提示する。この
点で、第1、第2実施形態と異なる。以下、記憶装置1
10における情報の提示の方法について説明する。
【0097】記憶装置110は、ホスト100が使用し
ていないディスク装置150の番号のリストを、未使用
領域管理情報として保持・管理する。
【0098】記憶装置110は、ユーザまたは保守員か
らの領域確保の指示を受け取ると、以下の処理を行う。
【0099】領域確保の指示にしたがい、記憶装置11
0は、保持している未使用領域管理情報を検索して条件
を満たす未使用ディスク装置150を選定する(ステッ
プ1−1)。
【0100】記憶装置110は、選定したディスク装置
150番号をユーザまたは保守員へ報告する(ステップ
1−2)。
【0101】ユーザ又は保守員は、記憶装置110から
未使用のディスク装置150の番号を得ると、以下の手
順にしたがって、データ転送の指示を行う。ユーザ又は
保守員は、未使用のディスク装置150のOS管理情報
を設定する。たとえば、UNIX OSでは、未使用の
ディスク装置150に対して、デバイスファイル名を定
義する(ステップ2−1)。
【0102】ユーザ又は保守員は、OS管理情報が設定
されたディスク装置150について、LVMが使用する
ことができるように、PVとして定義する(ステップ2
−2)。
【0103】ユーザ又は保守員は、新しく定義したPV
を転送先として指定して、記憶装置110に対して本発
明によるデータ転送を指示する(ステップ2−3)。
【0104】データ転送が完了したら、ユーザ又は保守
員は、LV−PV対応情報141の更新を指示する(ス
テップ2−4)。
【0105】本実施形態が適用されたシステムが、例え
ばRAID装置などのように、複数のディスク装置15
0の記憶領域の一部又は全体の集合から構成する論理デ
ィスク装置をホスト100へ提示するような記憶装置1
10である場合を考える。この場合、未使用領域管理情
報は、各未使用領域が属するディスク装置150番号お
よび先頭領域と領域長のリストで構成される。
【0106】記憶装置110は、次の手順で未使用領域
を確保する。
【0107】記憶装置110は、領域確保の指示の条件
に合ったディスク装置150の未使用領域を検索する
(ステップ3−1)。
【0108】指示分の容量を確保できない場合は、記憶
装置110は、確保できない旨をユーザに通知し、処理
を終了する(ステップ3−2)。
【0109】指示条件を満たすディスク装置150を一
つ見つけたら、記憶装置110は、ディスク装置150
に属する未使用領域の容量を確認し、指示分の領域があ
れば、指示分の領域を確保する。具体的には、記憶装置
110は、未使用領域管理情報から確保領域の登録を解
除する。ディスク装置150の未使用領域容量が指示さ
れた分に満たない場合、未使用領域全体を確保し、別の
ディスク装置150を検索し、条件に合った未使用領域
を確保する(ステップ3−3)。
【0110】記憶装置110は、ステップ3−3の処理
を、指示分の容量のデータ領域を確保するまで繰り返す
(ステップ3−4)。
【0111】記憶装置110は、該記憶装置が有する論
理物理変換テーブルへ、確保された領域を登録すること
で、確保された領域で構成される論理ディスク装置を定
義する(ステップ3−5)。
【0112】記憶装置110は、定義した論理ディスク
装置の情報を使用者等に報告する(ステップ3−6)。
【0113】記憶装置110への未使用領域確保の指示
は、第1の実施形態と同じく専用のコマンドを用いても
よいし、第2の実施形態と同じくコマンドボリュームへ
の命令書き込みでも構わない。保守用に記憶装置110
へ接続するサービスプロセッサを設け、サービスプロセ
ッサからコマンドを発行する構成も考えられる。
【0114】ステップ1−1からステップ3−4までの
一連の処理をスクリプト化することも可能である。その
場合、ユーザまたは保守員は、転送先データ領域の選定
条件をより詳細に指定することで、転送先データ領域を
選定し、データ転送を自動的に実行することが可能とな
る。転送先データ領域の条件としては、記憶装置110
の記憶領域での連続性、格納されるディスク装置150
の物理容量、ヘッド位置付け時間やデータ転送速度など
のアクセス性能が考えられる。RAID装置の場合に
は、RAIDレベルなどの物理構成条件なども転送先デ
ータ領域の条件として考えられる。特定のLVと物理構
成、すなわちディスク装置150やディスク装置150
が接続される内部パスおよび記憶制御プロセッサ111
を共有しないという条件も考えられる。
【0115】第3実施形態の変形として、転送先領域を
指定せずに、転送元LVと転送先領域の選定条件のみを
ユーザが指定することで、データ転送を指示する方式も
考えられる。この場合、記憶装置110は、転送先領域
を選定条件に従って選定し、新規に生成した論理ディス
ク装置へデータの転送を行う。記憶装置110は、デー
タの転送が完了したら、転送の完了及び転送先として選
定した領域情報をホスト100へ報告する。報告を受け
たホスト100は、報告された転送先論理ディスク装置
に対して、ステップ2−1、2−2及び2−4の処理に
よりLVの移動を完了する。このときステップ2−2
で、論理ディスク装置内のデータは有効なままPVが定
義される必要がある。
【0116】なお、本発明は上記の実施形態に限定され
ず、その要旨の範囲内で数々の変形が可能である。
【0117】各実施形態では、PV、ホスト100に提
供される論理ディスク装置は、実際のディスク装置15
0と一対一対応であるとしているが、PVは、記憶装置
110内でRAID5レベルなどのRAIDで構成され
ていてもよい。その場合、ホスト100は、記憶装置1
10が提供する論理ディスク装置へI/Oを発行する。
記憶制御プロセッサ111は、論理ディスク装置へのI
/Oを、論理物理変換によりディスク装置150へのI
/Oに変換する。
【0118】各実施形態では、データの再配置の例とし
て、LVMの管理するLVの再配置を採用しているが、
LVが未割り当てなPEを連続化(ガベージコレクショ
ン)する処理や、DBMSの管理するDB表の再配置の
処理など、他のデータ再配置にも本発明を適用すること
が可能である。
【0119】また、ホスト100と記憶装置110間で
のデータ転送処理要求方法について、第1の実施形態の
専用コマンドを使用する方法と、第2の実施形態のコマ
ンドボリューム900を利用する方法は、両実施形態で
入れ替えても実現可能である。
【0120】各実施形態では、転送先PVが1台の場合
を想定しているが、複数台としても構わない。その場合
には、複数台のPVのそれぞれについて、転送元データ
をどのように分散させるかを指定する必要がある。複数
のPVへの分散の方法としては、各PVに均等に分配す
る場合、PVの指定順に空き容量の許す限り詰め込んで
いく場合が考えられる。また、均等に分配する場合に
は、さらに、各PV内でデータを連続させる場合、特定
サイズでデータが分割され、RAIDにおけるストライ
ピングの如く分割されたデータを各PVに順に格納する
場合などが考えられる。
【0121】ユーザ又は保守員があらかじめ転送先とし
て連続領域をPEに割り当ててから、データ再配置処理
131にパラメタとして引き渡す、あるいは、データ再
配置処理内で前述した空きPEのガベージコレクション
を行っても良い。
【0122】各実施形態では、転送先データ領域へのア
クセスは発生しないことを前提としている。つまり、記
憶装置110での転送先データ領域に対するアクセス抑
止の考慮はなく、転送先データ領域へのアクセスがある
と、そのままアクセス対象となる領域に対してデータ参
照/更新が行われる。しかし、ホスト100でのアクセ
ス抑止の保証がないケースにそなえて、記憶装置110
で、データ転送領域の転送先データ領域として登録され
ているデータ領域に対するI/Oを拒否する構成も考えら
れる。逆に、データ転送処理の完了を待たずに、ホスト
100が、LV−PV対応情報145を再配置後の状態
に更新し、転送対象のLVへのアクセスを、転送先PV
で受け付ける方法をとってもよい。この場合、記憶装置
110でデータ転送領域のペアを造り、同期化のための
データコピーを行うのは第2の実施形態と同じである。
ただし、転送先領域へのリード要求に対しては転送元領
域のデータに参照し、転送先領域へのライト要求に対し
ては、転送元領域にもデータの反映を行う必要がある。
【0123】本実施形態によれば、通常よりも短い時
間、LVをオフラインとするだけでLVの再配置処理を
おこなうことができ、システムの可用性を向上すること
ができる。
【0124】
【発明の効果】本発明の計算機システムによれば、記憶
装置に格納したデータを別の領域に移動する際に、デー
タ転送処理を記憶装置内で行うことで、ホストおよびチ
ャネルの負荷を削減することが可能となる。
【0125】また、本発明の計算機システムによれば、
データ再配置におけるデータ転送中に当該データに対す
るアクセスを受けつけることが可能となる。この結果、
データ再配置における対象データをアクセスする業務の
停止時間を短縮することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態が対象とする計算機シ
ステムのブロック図である。
【図2】本発明が想定しているデータ再配置処理の概要
図である。
【図3】本発明におけるLV管理情報の構成図である。
【図4】本発明におけるPV管理情報の構成図である。
【図5】本発明におけるデータ転送領域情報の構成図で
ある。
【図6】本発明の第1の実施形態におけるデータ再配置
処理のフロー図である。
【図7】本発明の第1の実施形態におけるコマンド処理
のフロー図である。
【図8】本発明の第1の実施形態におけるコピー処理の
フロー図である。
【図9】本発明の第2の実施形態における計算機システ
ムの構成図である。
【図10】本発明の第2の実施形態におけるデータ再配
置処理のフロー図である。
【図11】本発明の第2の実施形態におけるコマンド処
理のフロー図である。
【図12】本発明の第2の実施形態におけるコピー処理
のフロー図である。
【符号の説明】
100…ホスト、101…CPU、102…主記憶、1
03…チャネル、110…記憶装置、111…記憶制御
プロセッサ、112…制御メモリ、113…ディスクキ
ャッシュ、141…LV−PV対応情報、143…記憶
制御管理情報、144…キャッシュ管理情報、145…
データ転送領域情報、150…ディスク装置、900…
コマンドボリューム
───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 孝夫 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージシステム事業部内 Fターム(参考) 5B065 BA01 CA12 CC04 CC08 CH18 EA34 5B082 CA11 FA00

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】ホストコンピュータと、前記ホストコンピ
    ュータに接続され、複数のディスク装置を有する記憶装
    置とを有する情報処理システムであって、前記ホストコ
    ンピュータは、前記複数のディスク装置の物理的な記憶
    領域と論理的な記憶領域との対応関係の情報が登録され
    る情報記憶手段と、前記複数のディスク装置のうち第一
    のディスク装置に記録されたデータを第二のディスク装
    置に移動する場合に、移動先の論理的な記憶領域及び前
    記情報記憶手段から、前記第二のディスク装置の物理的
    な記憶領域を示す情報を取得する取得手段と、前記取得
    手段によって取得された前記第二のディスク装置の物理
    的な記憶領域を示す情報及び移動対象となるデータが格
    納されている前記第一のディスク装置の物理的な記憶領
    域を示す情報を、前記記憶装置に転送する転送手段とを
    有し、前記記憶装置は、前記転送手段によって転送され
    た前記情報のうち、前記第一のディスク装置の物理的な
    記憶領域を示す情報を使用して、移動元のデータを読み
    出す手段と、前記記憶手段に記憶された前記情報のう
    ち、前記第二のディスク装置の物理的な記憶領域を示す
    情報を使用して、移動先のディスク装置に複写する複写
    手段と、を有することを特徴とする情報処理システム。
  2. 【請求項2】前記記憶装置は、前記複写が終了したこと
    を前記ホストコンピュータに通知する通知手段を有し、
    前記ホストコンピュータは、前記通知を受け取った後、
    前記情報記憶手段に登録されたディスク装置の物理的な
    記憶領域と論理的な記憶領域との対応関係を更新する手
    段を有することを特徴とする請求項1記載の情報処理シ
    ステム。
  3. 【請求項3】前記転送手段は、前記複数のディスク装置
    のうちの所定のディスク装置に前記情報を書き込む命令
    を発行する発行手段を含み、前記記憶装置は、前記発行
    手段によって発行された命令によって書き込まれた前記
    情報を当該記憶装置が読み出した場合に、前記読み出し
    手段及び前記複写手段を実行することを特徴とする請求
    項1又は2記載の情報処理システム。
  4. 【請求項4】前記記憶装置は、前記複写手段によって複
    写されたデータに対してアクセスがある場合には、当該
    アクセスがあったことを記録するアクセス記録手段と、
    前記アクセス記録手段に記録された内容に基づいて、移
    動元のデータと移動先のデータとのデータの内容を一致
    させる手段とを有することを特徴とする請求項1、2又
    は3記載の情報処理システム。
  5. 【請求項5】複数のディスク装置を有する記憶装置と接
    続される接続部と、前記複数のディスク装置の物理的な
    記憶領域と論理的な記憶領域との対応関係の情報が登録
    されるメモリと、中央演算部とを有し、前記中央演算部
    は、前記メモリから、データの移動先となる前記論理的
    な記憶領域に対応する第一のディスク装置の物理的な記
    憶領域を示す情報を取得する取得手段と、前記取得手段
    によって取得された前記第一のディスク装置の物理的な
    記憶領域を示す情報及び前記データが格納されている第
    二のディスク装置の物理的な記憶領域を示す情報を、前
    記接続部を介して前記記憶装置に転送する転送手段と、
    前記データの移動が終了した後、前記メモリに登録され
    た前記複数のディスク装置の物理的な記憶領域と論理的
    な記憶領域との対応関係を更新する手段とを有すること
    を特徴とする情報処理装置。
  6. 【請求項6】前記取得手段は、前記メモリから論理的な
    記憶領域が割り当てられていない前記複数のディスク装
    置の物理的な記憶領域を検索する手段と、前記検索する
    手段によって検索された前記物理的な記憶領域を前記第
    一のディスク装置の物理的な記憶領域として取得する手
    段とを含むことを特徴とする請求項5記載の情報処理装
    置。
  7. 【請求項7】前記転送手段は、前記記憶装置が有する複
    数のディスク装置のうち、所定のディスク装置に、前記
    情報をデータとして書き込む命令を発行するものである
    ことを特徴とする請求項6記載の情報処理装置。
  8. 【請求項8】ホストコンピュータに接続される接続部
    と、複数の記憶領域と、前記複数の記憶領域のうち、前
    記ホストコンピュータに使用されていない記憶領域の情
    報が登録されるメモリと、前記複数の記憶領域へのデー
    タの入出力を制御する制御部を有し、前記制御部は、前
    記接続部から入力される情報に基づいて、前記メモリに
    登録された記憶領域のうちのいずれかを選択する手段
    と、前記選択された記憶領域に、他の前記記憶領域から
    データを複写する複写手段とを有することを特徴とする
    記憶装置。
  9. 【請求項9】前記接続部から入力される情報とは、所定
    の条件を満たすことを要求する情報であり、前記メモリ
    には、複数の記憶領域の性質が登録され、前記制御部
    は、前記要求を満たす記憶領域を、前記メモリに登録さ
    れた前記記憶装置の性質に基づいて検索する検索手段
    と、前記検索された記憶領域についての情報を前記接続
    部から出力する出力手段を有することを特徴とする請求
    項8記載の記憶装置。
  10. 【請求項10】ホストコンピュータ及び前記ホストコン
    ピュータに接続され、複数のディスク装置を有する記憶
    装置を有する情報処理システムにおいて、前記複数のデ
    ィスク装置内でデータを再配置する方法であって、前記
    ホストコンピュータにおいて、再配置の対象となるデー
    タが格納されている第一のディスク装置を特定し、再配
    置先となる第二のディスク装置の情報を取得し、特定し
    た前記第一のディスク装置の情報及び取得した前記第二
    のディスク装置の情報を前記記憶装置に送信し、前記記
    憶装置において、送信された前記第一のディスク装置の
    情報に基づいて前記第一のディスク装置からデータを読
    み出し、送信された前記第二のディスク装置の情報に基
    づいて前記第二のディスク装置に前記第一のディスク装
    置から読み出したデータを格納し、前記読み出されたデ
    ータの格納が終了したら、前記ホストコンピュータに格
    納の完了を通知し、前記通知の後、前記ホストコンピュ
    ータにおいて、前記複数のディスク装置と論理的な記憶
    領域との対応関係を記録したテーブルを変更することを
    特徴とするデータの再配置の方法。
  11. 【請求項11】ホストコンピュータ及び前記ホストコン
    ピュータに接続され、複数のディスク装置を有する記憶
    装置を有する情報処理システムにおいて、前記複数のデ
    ィスク装置内でデータを再配置するコンピュータプログ
    ラムであって、前記ホストコンピュータにおいて、再配
    置の対象となるデータが格納されている第一のディスク
    装置を特定し、再配置先となる第二のディスク装置の情
    報を取得し、特定した前記第一のディスク装置の情報及
    び取得した前記第二のディスク装置の情報を前記記憶装
    置に送信するプログラムと、前記記憶装置において、送
    信された前記第一のディスク装置の情報に基づいて前記
    第一のディスク装置からデータを読み出し、送信された
    前記第二のディスク装置の情報に基づいて前記第二のデ
    ィスク装置に前記第一のディスク装置から読み出したデ
    ータを格納し、前記読み出されたデータの格納が終了し
    たら、前記ホストコンピュータに格納の完了を通知する
    プログラムとから構成され、前記ホストコンピュータ側
    のプログラムは、前記通知の後、前記複数のディスク装
    置と論理的な記憶領域との対応関係を記録したテーブル
    を変更することを特徴とするデータの再配置を行うコン
    ピュータプログラム。
JP2001053472A 2001-02-28 2001-02-28 情報処理システム Expired - Fee Related JP4105398B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001053472A JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム
US09/825,607 US6915403B2 (en) 2001-02-28 2001-04-03 Apparatus and method for logical volume reallocation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001053472A JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム

Publications (2)

Publication Number Publication Date
JP2002259172A true JP2002259172A (ja) 2002-09-13
JP4105398B2 JP4105398B2 (ja) 2008-06-25

Family

ID=18913934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001053472A Expired - Fee Related JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム

Country Status (2)

Country Link
US (1) US6915403B2 (ja)
JP (1) JP4105398B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104845A1 (ja) * 2003-05-21 2004-12-02 Fujitsu Limited ストレージシステム
JP2005202495A (ja) * 2004-01-13 2005-07-28 Hitachi Ltd データ移行方法
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007115264A (ja) * 2003-09-17 2007-05-10 Hitachi Ltd 記憶システム
JP2007122716A (ja) * 2005-10-26 2007-05-17 Internatl Business Mach Corp <Ibm> データ移動システム、データ保持装置、信号担持媒体、及び保持されるデータを移動させるサービスを提供する方法(データ移動のための装置、システム、及び方法)
JP2007516523A (ja) * 2003-11-26 2007-06-21 ヴェリタス・オペレーティング・コーポレーション ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法
WO2007135731A1 (ja) * 2006-05-23 2007-11-29 Fujitsu Limited ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法
JP2007537522A (ja) * 2004-05-14 2007-12-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想テープ内の仮想ボリューム・データの動的ローディング
JP2008129723A (ja) * 2006-11-17 2008-06-05 Nec Corp データレプリケーションシステム、データレプリケーション方法、データレプリケーションプログラム
JP2008242736A (ja) * 2007-03-27 2008-10-09 Nec Corp ディスクアレイ装置及びデータバックアップシステム
US8516204B2 (en) 2003-12-25 2013-08-20 Hitachi, Ltd. Memory control device and method for controlling the same

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714184B2 (ja) * 2001-03-29 2005-11-09 富士通株式会社 記憶装置のデータ領域間複写処理方法、及び記憶システム
JP4080227B2 (ja) * 2002-03-28 2008-04-23 株式会社日立製作所 データ検証方法およびディスクアレイ装置
AU2003231951A1 (en) * 2002-05-31 2003-12-19 Fujitsu It Holdings, Inc. Method and system for intelligent storage management
JP2005115506A (ja) * 2003-10-06 2005-04-28 Hitachi Ltd ストレージシステム
JP4452064B2 (ja) * 2003-11-18 2010-04-21 株式会社日立製作所 情報処理システム、情報処理装置、情報処理装置の制御方法及びプログラム
JP4412981B2 (ja) 2003-11-26 2010-02-10 株式会社日立製作所 ストレージシステム及同システムにおけるデータキャッシング方法
JP4568502B2 (ja) * 2004-01-09 2010-10-27 株式会社日立製作所 情報処理システムおよび管理装置
JP2006011803A (ja) * 2004-06-25 2006-01-12 Hitachi Ltd 情報処理システムおよびその制御方法
US20060031639A1 (en) * 2004-08-06 2006-02-09 International Business Machines Corporation Write unmodified data to controller read cache
US8307026B2 (en) * 2004-08-19 2012-11-06 International Business Machines Corporation On-demand peer-to-peer storage virtualization infrastructure
US7523273B2 (en) * 2005-05-05 2009-04-21 International Business Machines Corporation Autonomic storage provisioning to enhance storage virtualization infrastructure availability
US7904681B1 (en) * 2006-06-30 2011-03-08 Emc Corporation Methods and systems for migrating data with minimal disruption
US8566520B1 (en) 2009-10-05 2013-10-22 Marvell International Ltd. Storage space allocation for logical disk creation
WO2013137898A2 (en) * 2012-03-16 2013-09-19 Empire Technology Development Llc Data migration
JP2016018315A (ja) * 2014-07-07 2016-02-01 富士通株式会社 監視装置、監視プログラム、及び入力操作支援装置
US20160162416A1 (en) * 2014-12-08 2016-06-09 Intel Corporation Apparatus and Method for Reducing Latency Between Host and a Storage Device
US10757175B2 (en) * 2015-02-10 2020-08-25 Vmware, Inc. Synchronization optimization based upon allocation data
US12474854B2 (en) 2022-02-11 2025-11-18 Samsung Electronics Co., Ltd. Systems, methods, and apparatus for copy destination atomicity in devices

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728832B2 (en) * 1990-02-26 2004-04-27 Hitachi, Ltd. Distribution of I/O requests across multiple disk units
US5845319A (en) * 1995-08-23 1998-12-01 Fujitsu Limited Disk array device which separates local and physical disks using striping and operation mode selection
JP3641872B2 (ja) * 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
US6145028A (en) * 1997-12-11 2000-11-07 Ncr Corporation Enhanced multi-pathing to an array of storage devices
US6216202B1 (en) * 1998-06-30 2001-04-10 Emc Corporation Method and apparatus for managing virtual storage devices in a storage system
US6484234B1 (en) * 1998-06-30 2002-11-19 Emc Corporation Method and apparatus for efficiently destaging data from a cache to two or more non-contiguous storage locations
US6564219B1 (en) * 1998-11-19 2003-05-13 Emc Corporation Method and apparatus for obtaining an identifier for a logical unit of data in a database
US6529995B1 (en) * 1999-06-18 2003-03-04 Storage Technology Corporation Method and apparatus for maintaining and restoring mapping table entries and data in a raid system
US6397292B1 (en) * 1999-08-19 2002-05-28 Emc Corporation Asymmetrical striping of mirrored storage device arrays and concurrent access to even tracks in the first array and odd tracks in the second array to improve data access performance
US6467014B1 (en) * 2000-02-29 2002-10-15 Plasmon Lms, Inc. Automatic mapping and efficient address translation for multi-surface, multi-zone storage devices
JP3753598B2 (ja) * 2000-07-06 2006-03-08 株式会社日立製作所 計算機、計算機システムおよびデータ転送方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104845A1 (ja) * 2003-05-21 2004-12-02 Fujitsu Limited ストレージシステム
US8738869B2 (en) 2003-05-21 2014-05-27 Fujitsu Limited Storage system including a plurality of modules having different control information
JP2007115264A (ja) * 2003-09-17 2007-05-10 Hitachi Ltd 記憶システム
JP4750040B2 (ja) * 2003-11-26 2011-08-17 シマンテック・オペレーティング・コーポレーション ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法
JP2007516523A (ja) * 2003-11-26 2007-06-21 ヴェリタス・オペレーティング・コーポレーション ストレージボリュームに対するクロスプラットフォームアクセスを可能にするオペレーティングシステムメタデータをエミュレートするためのシステム及び方法
US8516204B2 (en) 2003-12-25 2013-08-20 Hitachi, Ltd. Memory control device and method for controlling the same
JP2005202495A (ja) * 2004-01-13 2005-07-28 Hitachi Ltd データ移行方法
JP2007537522A (ja) * 2004-05-14 2007-12-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想テープ内の仮想ボリューム・データの動的ローディング
JP4843604B2 (ja) * 2004-05-14 2011-12-21 インターナショナル・ビジネス・マシーンズ・コーポレーション データ・ストレージ装置からデータ・ストレージ装置特有情報を得るための方法及びシステム
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007122716A (ja) * 2005-10-26 2007-05-17 Internatl Business Mach Corp <Ibm> データ移動システム、データ保持装置、信号担持媒体、及び保持されるデータを移動させるサービスを提供する方法(データ移動のための装置、システム、及び方法)
JP4704463B2 (ja) * 2006-05-23 2011-06-15 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法
JPWO2007135731A1 (ja) * 2006-05-23 2009-09-24 富士通株式会社 ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法
WO2007135731A1 (ja) * 2006-05-23 2007-11-29 Fujitsu Limited ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法
JP2008129723A (ja) * 2006-11-17 2008-06-05 Nec Corp データレプリケーションシステム、データレプリケーション方法、データレプリケーションプログラム
JP2008242736A (ja) * 2007-03-27 2008-10-09 Nec Corp ディスクアレイ装置及びデータバックアップシステム

Also Published As

Publication number Publication date
US20020144076A1 (en) 2002-10-03
US6915403B2 (en) 2005-07-05
JP4105398B2 (ja) 2008-06-25

Similar Documents

Publication Publication Date Title
JP4105398B2 (ja) 情報処理システム
JP4124331B2 (ja) Dbms向け仮想ボリューム作成・管理方法
CN100430914C (zh) 拥有虚拟资源的存储系统
US6895483B2 (en) Method and apparatus for data relocation between storage subsystems
JP4341897B2 (ja) 記憶装置システム及びデータ複製方法
CN112306389B (zh) 存储系统和节点管理方法
US6912537B2 (en) Dynamically changeable virtual mapping scheme
JP4175764B2 (ja) 計算機システム
US7809912B1 (en) Methods and systems for managing I/O requests to minimize disruption required for data migration
JP5142629B2 (ja) 仮想ボリュームのバックアップを行うストレージシステム及び方法
US20060047926A1 (en) Managing multiple snapshot copies of data
US8924675B1 (en) Selective migration of physical data
US20060101204A1 (en) Storage virtualization
JP5218284B2 (ja) 仮想ディスク管理プログラム、ストレージ装置管理プログラム、マルチノードストレージシステム、および仮想ディスク管理方法
JPH11296313A (ja) 記憶サブシステム
US6510491B1 (en) System and method for accomplishing data storage migration between raid levels
JP2000132343A (ja) 記憶装置システム
JP2011076286A (ja) ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
US7685129B1 (en) Dynamic data set migration
US9582214B2 (en) Data access method and data access apparatus for managing initialization of storage areas
US11861205B2 (en) Distributed storage system and volume migration method
CN120255827B (zh) 数据副本的存储方法、系统、介质、电子设备及程序产品
US10552342B1 (en) Application level coordination for automated multi-tiering system in a federated environment
JP4375062B2 (ja) 記憶装置システム
WO2016013075A1 (ja) ストレージ、計算機およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees